KR102501842B1 - Health care system using motion recognition algorithm - Google Patents

Health care system using motion recognition algorithm Download PDF

Info

Publication number
KR102501842B1
KR102501842B1 KR1020220041663A KR20220041663A KR102501842B1 KR 102501842 B1 KR102501842 B1 KR 102501842B1 KR 1020220041663 A KR1020220041663 A KR 1020220041663A KR 20220041663 A KR20220041663 A KR 20220041663A KR 102501842 B1 KR102501842 B1 KR 102501842B1
Authority
KR
South Korea
Prior art keywords
target
information
computing device
region
exercise
Prior art date
Application number
KR1020220041663A
Other languages
Korean (ko)
Inventor
김종철
Original Assignee
주식회사 제이씨메디랩
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 제이씨메디랩 filed Critical 주식회사 제이씨메디랩
Priority to KR1020220041663A priority Critical patent/KR102501842B1/en
Application granted granted Critical
Publication of KR102501842B1 publication Critical patent/KR102501842B1/en

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/30ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to physical therapies or activities, e.g. physiotherapy, acupressure or exercising
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B24/00Electric or electronic controls for exercising apparatus of preceding groups; Controlling or monitoring of exercises, sportive games, training or athletic performances
    • A63B24/0075Means for generating exercise programs or schemes, e.g. computerized virtual trainer, e.g. using expert databases
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B71/00Games or sports accessories not covered in groups A63B1/00 - A63B69/00
    • A63B71/06Indicating or scoring devices for games or players, or for other sports activities
    • A63B71/0619Displays, user interfaces and indicating devices, specially adapted for sport equipment, e.g. display mounted on treadmills
    • A63B71/0622Visual, audio or audio-visual systems for entertaining, instructing or motivating the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • G16H10/60ICT specially adapted for the handling or processing of patient-related medical or healthcare data for patient-specific data, e.g. for electronic patient records
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B2220/00Measuring of physical parameters relating to sporting activity
    • A63B2220/80Special sensors, transducers or devices therefor
    • A63B2220/806Video cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20036Morphological image processing
    • G06T2207/20044Skeletonization; Medial axis transform

Abstract

Disclosed is a healthcare system using a motion recognition algorithm. The present invention comprises: a camera device that generates image data comprising a target; a computing device that receives the image data and runs a customized exercise program; and a display device that displays a screen according to the customized exercise program. The computing device recognizes the target from the image data and extracts skeleton data, and the skeleton data includes feature points for a specific body area of the target. The computing device generates exercise information of the target based on the feature points, and the image data may be generated based on a scenario provided by the customized exercise program. The present invention provides a personalized exercise program, detects the user's exercise information according to the customized exercise program, and takes care of the user's health based on the detected exercise information.

Description

운동 인식 알고리즘을 이용한 헬스 케어 시스템{HEALTH CARE SYSTEM USING MOTION RECOGNITION ALGORITHM}Health care system using motion recognition algorithm {HEALTH CARE SYSTEM USING MOTION RECOGNITION ALGORITHM}

본 발명은 운동 인식 알고리즘을 이용한 헬스 케어 시스템에 관한 것이다. 보다 상세하게는 본 발명은 스켈레톤 데이터를 비전 인식으로 생성하고 특정 신체 영역을 인식하여 그 운동 정보를 인식하는 헬스 케어 시스템에 대한 것이다. The present invention relates to a health care system using an exercise recognition algorithm. More specifically, the present invention relates to a health care system that generates skeleton data through vision recognition and recognizes exercise information by recognizing a specific body region.

최근 건강에 대한 관심이 높아지면서 보다 효율적인 건강관리를 위한 많은 기술이 연구되고 있다. 개개인의 건강을 체크할 수 있는 헬스 디바이스, 예를 들어, 혈압계, 혈당계, 체지방 측정기 등과 IT 기술이 융합된 낙상 감지 센서, 약복용 센서, 심전도 측정 센서 등의 기술이 계속적으로 발전하고 있다.Recently, as interest in health has increased, many technologies for more efficient health management have been studied. Technologies such as health devices capable of checking individual health, such as blood pressure monitors, blood glucose meters, and body fat measuring devices, and IT-integrated fall detection sensors, medication sensors, and electrocardiogram measurement sensors, are continuously developing.

이러한 헬스 디바이스의 개별적인 발전에도 불구하고, 신체의 일부에 문제가 발생하는 경우에는 건강에 치명적일 수 있으므로 다양한 헬스 디바이스들에 대한 정보를 통합적으로 관리하는 기술이 필요하게 되었다.Despite the individual development of these health devices, when a problem occurs in a part of the body, it can be fatal to health, so a technology for integrally managing information on various health devices is required.

또한, 일반적으로 인간이 신체적, 정신적, 사회적으로 건강한 상태를 웰니스라고 하며, 이러한 웰니스는 적절한 운동을 통해 실현 가능하다.Also, in general, a state in which humans are physically, mentally, and socially healthy is referred to as wellness, and such wellness can be realized through appropriate exercise.

따라서, 웰니스를 실현하고자 하는 개인은 자신의 현재 건강 상태를 정확하게 파악할 필요가 있고, 자신의 신체 및 건강 상태를 유지 및 개선하기 위한 적절한 운동을 지속할 필요가 있으며, 질병의 발생을 정확히 진단할 필요성이 있다.Therefore, individuals who want to realize wellness need to accurately grasp their current health status, need to continue appropriate exercise to maintain and improve their body and health status, and need to accurately diagnose the occurrence of diseases. there is

다만, 개인이 자신의 현재 건강 상태를 지속적으로 정확하게 파악하고 파악된 자신의 신체 및 건강 상태를 유지 및 개선하기 위한 적절한 운동을 지속하며, 질병의 발생을 정확히 진단하기란 어려운 일이므로 이러한 웰니스의 실현을 위한 다양한 방안들이 제안되고 있다. However, since it is difficult for individuals to continuously and accurately identify their current health condition, continue appropriate exercise to maintain and improve their body and health condition, and accurately diagnose the occurrence of disease, it is difficult to realize such wellness. Various methods for this have been proposed.

대한민국 공개특허공보 제10-2018-0088073호 (발명의 명칭: 헬스케어 프로그램 관리 방법 및 그 전자 장치)Republic of Korea Patent Publication No. 10-2018-0088073 (Title of Invention: Healthcare Program Management Method and Electronic Device Therefor)

본 발명의 목적은 개인 맞춤형 운동 프로그램을 제공함과 동시에, 맞춤형 운동 프로그램에 따른 사용자의 운동 정보를 감지하고, 감지된 운동 정보를 바탕으로 사용자의 건강을 케어할 수 있는 시스템을 제공하려는데 있다.An object of the present invention is to provide a system capable of providing a personalized exercise program, detecting user's exercise information according to the customized exercise program, and taking care of the user's health based on the detected exercise information.

상술한 문제점을 해결하기 위하여, 본 발명은 타겟을 포함하는 영상 데이터를 생성하는 카메라 장치, 상기 영상 데이터를 수신하고, 맞춤형 운동 프로그램을 구동하는 컴퓨팅 장치 및 상기 맞춤형 운동 프로그램에 따른 화면을 표시하는 디스플레이 장치를 포함하되, 상기 컴퓨팅 장치는 상기 영상 데이터에서 상기 타겟을 인식하여 스켈레톤 데이터를 추출하고, 상기 스켈레톤 데이터는 상기 타겟의 특정 신체 영역에 대한 특징점을 포함하며, 상기 특징점을 기초로 상기 타겟의 운동 정보를 생성하고, 상기 영상 데이터는 상기 맞품형 운동 프로그램에서 제공하는 시나리오에 기반하여 생성되는 것일 수 있다. In order to solve the above problems, the present invention provides a camera device for generating image data including a target, a computing device for receiving the image data and driving a customized exercise program, and a display displaying a screen according to the customized exercise program. An apparatus, wherein the computing device recognizes the target from the image data and extracts skeleton data, the skeleton data includes feature points of a specific body region of the target, and moves the target based on the feature points. Information may be generated, and the image data may be generated based on a scenario provided by the tailored exercise program.

또한, 상기 컴퓨팅 장치는 상기 특징점에 기초한 제1 입체 영역 및 제2 입체 영역을 생성하고, 상기 제1 입체 영역은 상기 타겟의 특정 신체 영역의 움직임에 따라 함께 움직이고, 상기 제2 입체 영역은 상기 타겟의 특정 신체 영역의 움직임의 계산을 위한 기준 영역일 수 있다. In addition, the computing device generates a first three-dimensional area and a second three-dimensional area based on the feature points, the first three-dimensional area moves along with the movement of a specific body region of the target, and the second three-dimensional area is the target It may be a reference area for calculating the movement of a specific body area of .

또한, 상기 컴퓨팅 장치는 미리 입력된 정의에 따라, 상기 제1 입체 영역과 상기 제2 입체 영역이 겹치는 제1 지점을 시작 지점으로 생성하고, 상기 제1 입체 영역이 상기 제1 지점으로 되돌아오는 시간 정보를 획득하며, 상기 시간 정보를 기초로 상기 타겟의 운동 정보를 생성할 수 있다. In addition, the computing device generates a first point where the first stereoscopic area overlaps with the second stereoscopic area as a starting point according to a definition input in advance, and the time at which the first stereoscopic area returns to the first point Information is acquired, and exercise information of the target may be generated based on the time information.

또한, 상기 컴퓨팅 장치는 미리 정해진 시간 동안 상기 제1 입체 영역이 상기 제1 지점으로 되돌아오지 않는 경우, 상기 제2 입체 영역을 이동시키는 것일 수 있다. Also, the computing device may move the second stereoscopic area when the first stereoscopic area does not return to the first point for a predetermined time.

또한, 상기 컴퓨팅 장치는 상기 제1 입체 영역의 궤도 정보에 기초하여 상기 제2 입체 영역을 이동시키고, 미리 입력된 정의에 따라, 상기 제1 입체 영역과 이동된 상기 제2 입체 영역이 겹치는 제2 지점을 시작 지점으로 재생성할 수 있다. In addition, the computing device moves the second stereoscopic area based on trajectory information of the first stereoscopic area, and according to a pre-input definition, a second stereoscopic area overlapping the first stereoscopic area and the moved second stereoscopic area. Points can be recreated as starting points.

또한, 상기 특정 신체 영역은 상기 타겟의 발 영역이고, 상기 타겟의 운동 정보는 상기 타겟의 페달 운동 정보이며, 상기 페달 운동 정보는 상기 타겟의 페달 운동 속도 정보 및 페달 운동 시간 정보를 포함할 수 있다. The specific body region may be a foot region of the target, the target's exercise information may be pedal exercise information of the target, and the pedal exercise information may include pedal exercise speed information and pedal exercise time information of the target. .

또한, 상기 헬스 케어 시스템은 상기 타겟의 운동 정보를 기초로 상기 타겟의 신체 정보 또는 건강 정보를 획득하는 서버를 더 포함하고, 상기 서버는 상기 타겟의 신체 정보 또는 건강 정보에 따른 진단 정보를 상기 컴퓨팅 장치로 전송할 수 있다. In addition, the health care system further includes a server that obtains body information or health information of the target based on exercise information of the target, and the server transmits diagnosis information according to the body information or health information of the target to the computer. can be sent to the device.

본 발명은 영상 속 타겟을 비전 인식하여 스켈레톤 데이터를 추출하고, 추출된 스켈레톤 데이터를 기초로 타겟의 운동 정보를 획득할 수 있다. According to the present invention, a target in an image may be vision-recognized to extract skeleton data, and motion information of the target may be obtained based on the extracted skeleton data.

또한, 본 발명은 획득한 운동 정보를 외부로 전송하고 In addition, the present invention transmits the acquired exercise information to the outside and

본 발명에 따라 얻을 수 있는 효과는 이상에서 언급한 효과로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 명세서가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.Effects obtainable according to the present invention are not limited to the effects mentioned above, and other effects not mentioned can be clearly understood by those skilled in the art from the description below. will be.

도 1은 본 발명에 따른 운동 인식 알고리즘을 이용한 헬스 케어 시스템을 나타낸 것이다.
도 2는 본 발명에 따른 카메라 장치를 개략적으로 나타낸 것이다.
도 3은 본 발명에 다른 컴퓨팅 장치를 개략적으로 나타낸 것이다.
도 4는 본 발명에 따른 스켈레톤 데이터의 예시를 나타낸 것이다.
도 5는 본 발명에 따른 스켈레톤 데이터 인식의 트리거를 설명한 예시이다.
도 6 및 도 7은 본 발명에 따른 입체 영역을 나타낸 예시이다.
도 8은 본 발명에 따른 헬스 케어 시스템을 구현한 예시를 나타낸 것이다.
도 9 내지 도 12는 본 발명에 따른 맞춤형 운동 프로그램에서 제공하는 시나리오들의 예시를 나타낸 것이다.
도 13는 본 발명에 따른 운동 정보를 기초로 진단 데이터를 수신하는 예시를 나타낸 것이다.
도 14는 도 11의 화투 게임을 위한 동작 인식 알고리즘을 나타낸 것이다.
도 15는 본 발명에 따른 이미지 보정 필터의 예시를 나타낸 도면이다.
도 16은 본 발명에 따른 HSV 그래프를 나타낸 것이다.
본 명세서에 관한 이해를 돕기 위해 상세한 설명의 일부로 포함되는, 첨부 도면은 본 명세서에 대한 실시예를 제공하고, 상세한 설명과 함께 본 명세서의 기술적 특징을 설명한다.
1 shows a health care system using an exercise recognition algorithm according to the present invention.
2 schematically shows a camera device according to the present invention.
3 is a schematic representation of a computing device according to the present invention.
4 shows an example of skeleton data according to the present invention.
5 is an example explaining the trigger of skeleton data recognition according to the present invention.
6 and 7 are examples of three-dimensional regions according to the present invention.
8 shows an example of implementing a health care system according to the present invention.
9 to 12 show examples of scenarios provided by a customized exercise program according to the present invention.
13 illustrates an example of receiving diagnostic data based on exercise information according to the present invention.
FIG. 14 illustrates a motion recognition algorithm for the hwatu game of FIG. 11 .
15 is a diagram showing an example of an image correction filter according to the present invention.
16 shows a HSV graph according to the present invention.
The accompanying drawings, which are included as part of the detailed description to aid understanding of the present specification, provide examples of the present specification and describe technical features of the present specification together with the detailed description.

이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. Hereinafter, the embodiments disclosed in this specification will be described in detail with reference to the accompanying drawings, but the same or similar elements are given the same reference numerals regardless of reference numerals, and redundant description thereof will be omitted.

또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. In addition, in describing the embodiments disclosed in this specification, if it is determined that a detailed description of a related known technology may obscure the gist of the embodiment disclosed in this specification, the detailed description thereof will be omitted.

또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. In addition, the accompanying drawings are only for easy understanding of the embodiments disclosed in this specification, the technical idea disclosed in this specification is not limited by the accompanying drawings, and all changes included in the spirit and technical scope of the present invention , it should be understood to include equivalents or substitutes.

제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Terms including ordinal numbers, such as first and second, may be used to describe various components, but the components are not limited by the terms. These terms are only used for the purpose of distinguishing one component from another.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.Singular expressions include plural expressions unless the context clearly dictates otherwise.

본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In this application, terms such as "comprise" or "have" are intended to designate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, but one or more other features It should be understood that the presence or addition of numbers, steps, operations, components, parts, or combinations thereof is not precluded.

이하, 상술한 내용들을 바탕으로 본 명세서의 바람직한 일 실시예에 따른, 운동 인식 알고리즘을 이용한 헬스 케어 시스템에 관하여 상세히 설명하면 다음과 같다.Hereinafter, a health care system using an exercise recognition algorithm according to a preferred embodiment of the present specification will be described in detail based on the above information.

도 1은 본 발명에 따른 운동 인식 알고리즘을 이용한 헬스 케어 시스템을 나타낸 것이고, 도 2는 본 발명에 따른 카메라 장치를 개략적으로 나타낸 것이고, 도 3은 본 발명에 다른 컴퓨팅 장치를 개략적으로 나타낸 것이다. 1 shows a health care system using a motion recognition algorithm according to the present invention, FIG. 2 schematically shows a camera device according to the present invention, and FIG. 3 schematically shows a computing device according to the present invention.

도 1에 따르면, 본 발명에 따른 운동 인식 알고리즘을 이용한 헬스 케어 시스템은 운동 인식 시스템은 카메라 장치(100), 컴퓨팅 장치(200), 디스플레이 장치(300)를 포함할 수 있다. 또한, 본 발명에 따른 운동 인식 알고리즘을 이용한 헬스 케어 시스템은 RFID 모듈(400)과 서버(500)를 더 포함할 수 있다. According to FIG. 1 , in a health care system using a motion recognition algorithm according to the present invention, the motion recognition system may include a camera device 100 , a computing device 200 , and a display device 300 . In addition, the health care system using the motion recognition algorithm according to the present invention may further include an RFID module 400 and a server 500.

도 1 및 도 2에 따르면, 본 발명에 따른 카메라 장치(100)는 타겟을 포함하는 영상 데이터를 생성할 수 있다. 카메라 장치(100)는 광 이미지로부터 영상 데이터를 생성하는 구성으로서, 카메라 모듈 단위로서 구동될 수 있다. According to FIGS. 1 and 2 , the camera device 100 according to the present invention may generate image data including a target. The camera device 100 is a component that generates image data from an optical image, and may be driven in units of camera modules.

도 2에 따르면, 본 발명에 따른 카메라 장치(100)는 측벽에 관통홀을 포함하는 하우징, 관통홀에 설치된 렌즈(1321) 및 렌즈(1321)를 구동하는 구동부(1323)를 포함할 수 있다. 관통홀은 렌즈(1321)의 직경에 대응되는 크기로 형성될 수 있다. 렌즈(1321)는 관통홀에 삽입될 수 있다. According to FIG. 2 , the camera device 100 according to the present invention may include a housing including a through hole on a side wall, a lens 1321 installed in the through hole, and a driving unit 1323 that drives the lens 1321 . The through hole may have a size corresponding to the diameter of the lens 1321 . The lens 1321 may be inserted into the through hole.

구동부(1323)는 렌즈(1321)를 전방 또는 후방으로 움직이도록 제어하는 구성일 수 있다. 렌즈(1321)와 구동부(1323)는 종래 알려진 방식으로 연결되고 렌즈(1321)는 종래 알려진 방식으로 구동부(1323)에 의하여 제어될 수 있다. 다양한 영상 데이터를 수득하기 위해서는 렌즈(1321)가 카메라 장치(100) 또는 하우징의 외부로 노출될 필요가 있다. The driving unit 1323 may be configured to control the lens 1321 to move forward or backward. The lens 1321 and the driving unit 1323 are connected in a conventionally known manner, and the lens 1321 may be controlled by the driving unit 1323 in a conventionally known manner. In order to obtain various image data, the lens 1321 needs to be exposed to the outside of the camera device 100 or the housing.

도 1에 따르면, 본 발명에 따른 컴퓨팅 장치(200)는 영상 데이터를 수신하고, 맞춤형 운동 프로그램을 구동하는 구성으로서, 퍼스널 컴퓨터, 서버 단말, 스마트폰, 핸드폰, 노트북 등 개인 단말로서 연산 기능을 포함하는 모든 구성을 의미할 수 있다. 본 발명에 따른 컴퓨팅 장치(200)는 디스플레이 장치(300)에 대하여 화면 데이터를 전송할 수 있다. 본 발명에 따른 컴퓨팅 장치(200)는 영상 데이터에서 상기 타겟을 인식하여 스켈레톤 데이터를 추출하고, 스켈레톤 데이터는 타겟의 특정 신체 영역에 대한 특징점을 포함하며, 특징점을 기초로 상기 타겟의 운동 정보를 생성할 수 있다. According to FIG. 1, the computing device 200 according to the present invention is a configuration for receiving image data and driving a customized exercise program, and includes a calculation function as a personal terminal such as a personal computer, server terminal, smart phone, mobile phone, laptop, etc. It can mean any configuration that does. The computing device 200 according to the present invention may transmit screen data to the display device 300 . The computing device 200 according to the present invention recognizes the target in image data and extracts skeleton data, the skeleton data includes feature points for a specific body region of the target, and generates exercise information of the target based on the feature points. can do.

이때, 영상 데이터는 맞품형 운동 프로그램에서 제공하는 시나리오에 기반하여 생성되는 데이터일 수 있고, 맞춤형 운동 프로그램에서 제공하는 다양한 시나리오들은 후술한다. In this case, the image data may be data generated based on a scenario provided by a customized exercise program, and various scenarios provided by a customized exercise program will be described later.

도 1에 따르면, 본 발명에 따른 컴퓨팅 장치(200)는 특징점에 기초한 제1 입체 영역 및 제2 입체 영역을 생성하고, 제1 입체 영역은 상기 타겟의 특정 신체 영역의 움직임에 따라 함께 움직이고, 제2 입체 영역은 상기 타겟의 특정 신체 영역의 움직임의 계산을 위한 기준 영역일 수 있다. According to FIG. 1, the computing device 200 according to the present invention generates a first stereoscopic area and a second stereoscopic area based on feature points, the first stereoscopic area moves along with the movement of the specific body area of the target, and 2 The three-dimensional region may be a reference region for calculating motion of a specific body region of the target.

이때, 본 발명에 따른 컴퓨팅 장치(200)는 미리 정해진 시간 동안 상기 제1 입체 영역이 상기 제1 지점으로 되돌아오지 않는 경우, 상기 제2 입체 영역을 이동시킬 수 있다. In this case, the computing device 200 according to the present invention may move the second stereoscopic area when the first stereoscopic area does not return to the first point for a predetermined time.

또한, 본 발명에 따른 컴퓨팅 장치(200)는 제1 입체 영역의 궤도 정보에 기초하여 제2 입체 영역을 이동시키고, 미리 입력된 정의에 따라, 제1 입체 영역과 이동된 제2 입체 영역이 겹치는 제2 지점을 시작 지점으로 재생성할 수 있다. In addition, the computing device 200 according to the present invention moves the second stereoscopic area based on the trajectory information of the first stereoscopic area, and according to a pre-input definition, the first stereoscopic area overlaps the moved second stereoscopic area. The second point can be recreated as the starting point.

이때, 상기 특정 신체 영역은 상기 타겟의 발 영역이고, 타겟의 운동 정보는 타겟의 페달 운동 정보이며, 페달 운동 정보는 타겟의 페달 운동 속도 정보 및 페달 운동 시간 정보를 포함할 수 있다. In this case, the specific body region may be the target's foot region, the target's exercise information may be pedal exercise information of the target, and the pedal exercise information may include pedal exercise speed information and pedal exercise time information of the target.

도 1에 따르면, 본 발명에 따른 디스플레이 장치(300)는 프로세서로부터 화면 데이터를 수신하여 사용자가 감각을 통하여 이를 확인할 수 있도록 표시하는 장치를 의미할 수 있다. 디스플레이 장치(300)는 자발광 디스플레이 패널 또는 비자발광 디스플레이 패널을 포함할 수 있다. 자발광 디스플레이 패널로는 예를 들어 백라이트가 필요하지 않은 OLED 패널 등이 예시될 수 있고, 비자발광 디스플레이 패널로는 예를 들어 백라이트가 필요한 LCD 패널 등이 예시될 수 있으나, 이에 제한되는 것은 아니다.According to FIG. 1 , a display device 300 according to the present invention may refer to a device that receives screen data from a processor and displays it so that a user can check it through senses. The display device 300 may include a self-emissive display panel or a non-emissive display panel. For example, an OLED panel that does not require a backlight may be exemplified as a self-emissive display panel, and an LCD panel that requires a backlight may be exemplified as a non-emissive display panel, but is not limited thereto.

도 1에 따르면, 본 발명에 따른 운동 인식 알고리즘을 이용한 헬스 케어 시스템은 RFID 모듈(400)을 더 포함할 수 있다. RFID 모듈(400)은 사용자의 고유 ID 정보를 포함할 수 있다. RFID 모듈(400)은 사용자의 손목 스트랩 형태로 제공되거나, 사용자 단말에 포함된 NFC 모듈을 활용하여 구동될 수도 있을 것이다. According to FIG. 1 , the health care system using the motion recognition algorithm according to the present invention may further include an RFID module 400 . The RFID module 400 may include user's unique ID information. The RFID module 400 may be provided in the form of a user's wrist strap or driven by utilizing an NFC module included in a user terminal.

도 3에 따르면, 본 발명에 따른 컴퓨팅 장치(200)는 프로세서(210), 메모리(220) 및 통신 모듈(230)을 포함할 수 있다. According to FIG. 3 , a computing device 200 according to the present invention may include a processor 210 , a memory 220 and a communication module 230 .

프로세서(210)는 메모리(220)에 저장된 명령어를 실행하여 다른 구성들을 제어할 수 있다. 프로세서(210)는 메모리(220)에 저장된 명령어를 수행할 수 있다. The processor 210 may execute commands stored in the memory 220 to control other components. The processor 210 may execute instructions stored in the memory 220 .

프로세서(210)는, 연산을 수행하고 다른 장치를 제어할 수 있는 구성이다. 주로, 중앙 연산 장치(CPU), 어플리케이션 프로세서(AP), 그래픽스 처리 장치(GPU) 등을 의미할 수 있다. 또한, CPU, AP 또는 GPU는 그 내부에 하나 또는 그 이상의 코어들을 포함할 수 있으며, CPU, AP 또는 GPU는 작동 전압과 클락 신호를 이용하여 작동할 수 있다. 다만, CPU 또는 AP는 직렬 처리에 최적화된 몇 개의 코어로 구성된 반면, GPU는 병렬 처리용으로 설계된 수 천 개의 보다 소형이고 효율적인 코어로 구성될 수 있다.The processor 210 is a component capable of performing calculations and controlling other devices. Mainly, it may mean a central processing unit (CPU), an application processor (AP), a graphics processing unit (GPU), and the like. Also, the CPU, AP, or GPU may include one or more cores therein, and the CPU, AP, or GPU may operate using an operating voltage and a clock signal. However, while a CPU or AP consists of a few cores optimized for serial processing, a GPU may consist of thousands of smaller and more efficient cores designed for parallel processing.

프로세서(210)는 위에서 살펴본 구성요소들을 통해 입력 또는 출력되는 신호, 데이터, 정보 등을 처리하거나 메모리(220)에 저장된 응용 프로그램을 구동함으로써, 사용자에게 적절한 정보 또는 기능을 제공 또는 처리할 수 있다.The processor 210 may provide or process appropriate information or functions to a user by processing signals, data, information, etc. input or output through the components described above or by running an application program stored in the memory 220.

메모리(220)는 컴퓨팅 장치(200)의 다양한 기능을 지원하는 데이터를 저장한다. 메모리(220)는 컴퓨팅 장치(200)에서 구동되는 다수의 응용 프로그램(application program 또는 애플리케이션(application)), 컴퓨팅 장치(200)의 동작을 위한 데이터들, 명령어들을 저장할 수 있다. 이러한 응용 프로그램 중 적어도 일부는, 무선 통신을 통해 외부 서버로부터 다운로드 될 수 있다. 또한 응용 프로그램은, 메모리(220)에 저장되고, 컴퓨팅 장치(200)에 설치되어, 프로세서(210)에 의하여 상기 컴퓨팅 장치(200)의 동작(또는 기능)을 수행하도록 구동될 수 있다.The memory 220 stores data supporting various functions of the computing device 200 . The memory 220 may store a plurality of application programs (or applications) running in the computing device 200 , data for operating the computing device 200 , and instructions. At least some of these application programs may be downloaded from an external server through wireless communication. Also, the application program may be stored in the memory 220, installed in the computing device 200, and driven by the processor 210 to perform an operation (or function) of the computing device 200.

메모리(220)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), SSD 타입(Solid State Disk type), SDD 타입(Silicon Disk Drive type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(random access memory; RAM), SRAM(static random access memory), 롬(read-only memory; ROM), EEPROM(electrically erasable programmable read-only memory), PROM(programmable read-only memory), 자기 메모리, 자기 디스크 및 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 또한, 메모리(220)는 인터넷(internet)상에서 저장 기능을 수행하는 웹 스토리지(web storage)를 포함할 수도 있다.The memory 220 may be a flash memory type, a hard disk type, a solid state disk type, a silicon disk drive type, or a multimedia card micro type. ), card-type memory (eg SD or XD memory, etc.), RAM (random access memory; RAM), SRAM (static random access memory), ROM (read-only memory; ROM), EEPROM (electrically erasable programmable read -only memory), a programmable read-only memory (PROM), a magnetic memory, a magnetic disk, and an optical disk. Also, the memory 220 may include a web storage performing a storage function on the Internet.

통신 모듈(230)은 안테나를 통해 기지국 또는 통신 기능을 포함하는 카메라와 정보의 송수신을 실행한다. 통신 모듈(230)은 변조부, 복조부, 신호 처리부 등을 포함할 수 있다. 또한, 통신 모듈(230)은 유선 통신 기능을 수행할 수 있다. The communication module 230 transmits and receives information with a base station or a camera having a communication function through an antenna. The communication module 230 may include a modulation unit, a demodulation unit, a signal processing unit, and the like. Also, the communication module 230 may perform a wired communication function.

무선 통신은, 통신사들이 기존에 설치해둔 통신 시설과 그 통신 시설의 주파수를 사용하는 무선 통신망을 사용한 통신을 말할 수 있다. 이때, 통신 모듈(230)은 CDMA(code division multiple access), FDMA(frequency division multiple access), TDMA(time division multiple access), OFDMA(orthogonal frequency division multiple access), SC-FDMA(single carrier frequency division multiple access) 등과 같은 다양한 무선 통신 시스템에 사용될 수 있으며, 뿐만 아니라, 통신 모듈(230)은 3GPP(3rd generation partnership project) LTE(long term evolution) 등에도 사용될 수 있다. 또한, 최근 상용화 중인 5G 통신뿐만 아니라, 추후 상용화가 예정되어 있는 6G 등도 사용될 수 있다. 다만, 본 명세서는 이와 같은 무선 통신 방식에 구애됨이 없이 기설치된 통신망을 활용할 수 있다.Wireless communication may refer to communication using a wireless communication network using a communication facility previously installed by telecommunication companies and a frequency of the communication facility. At this time, the communication module 230 is CDMA (code division multiple access), FDMA (frequency division multiple access), TDMA (time division multiple access), OFDMA (orthogonal frequency division multiple access), SC-FDMA (single carrier frequency division multiple access), and the like, as well as the communication module 230 can also be used for 3rd generation partnership project (3GPP) long term evolution (LTE). In addition, not only 5G communication, which is currently being commercialized, but also 6G, which is scheduled to be commercialized later, can be used. However, the present specification may utilize a pre-installed communication network without being bound by such a wireless communication method.

또한, 근거리 통신(short range communication) 기술로 블루투스(Bluetooth), BLE(Bluetooth Low Energy), 비콘(Beacon), RFID(Radio Frequency Identification), NFC(Near Field Communication), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra Wideband), ZigBee 등이 이용될 수 있다.In addition, as a short range communication technology, Bluetooth, BLE (Bluetooth Low Energy), Beacon, RFID (Radio Frequency Identification), NFC (Near Field Communication), infrared communication (Infrared Data Association; IrDA) ), UWB (Ultra Wideband), ZigBee, etc. may be used.

본 발명에 따른 서버(500)는 타겟의 운동 정보를 기초로 상기 타겟의 신체 정보 또는 건강 정보를 획득하기 위한 구성으로서 통신 모듈을 포함하는 구성일 수 있다. 서버(500)는 의료진용 사용자 단말과 통신하여, 의료진용 사용자 단말로부터 타겟의 신체 정보 또는 건강 정보를 바탕으로 하는 진단 정보를 수신할 수 있다. 또한, 서버(500)는 빅데이터를 통한 학습 모듈을 내부에 포함하여, 미리 입력된 타겟의 기본 정보(나이, 성별, 신체 사이즈 등)를 기초로 타겟의 운동 정보에 대한 자동 진단 데이터를 생성할 수 있다. 일 예로, 타겟의 운동 정보를 바탕으로 서버(500)는 타겟의 신체 나이 등에 대한 정보를 도출해낼 수 있다. The server 500 according to the present invention is a component for acquiring body information or health information of the target based on the target's exercise information, and may include a communication module. The server 500 may communicate with a user terminal for medical staff and receive diagnosis information based on body information or health information of a target from the user terminal for medical staff. In addition, the server 500 includes a learning module using big data therein to generate automatic diagnostic data for the target's exercise information based on previously input basic information (age, gender, body size, etc.) of the target. can For example, based on the target's exercise information, the server 500 may derive information about the target's body age.

도 4는 본 발명에 따른 스켈레톤 데이터의 예시를 나타낸 것이다. 4 shows an example of skeleton data according to the present invention.

도 4에 따르면, 본 발명에 따른 스켈레톤 데이터는 타겟의 관절을 중심으로 형성된 적어도 하나의 특징점을 포함할 수 있다. 스켈레톤 데이터는 타겟의 움직임 정보를 개략적으로 인식하기 위하여, 비전 인식을 통하여 사람을 인식한 데이터일 수 있다. According to FIG. 4 , the skeleton data according to the present invention may include at least one feature point formed around the joint of the target. Skeleton data may be data for recognizing a person through vision recognition in order to roughly recognize motion information of a target.

또한, 컴퓨팅 장치(200)는 스켈레톤 데이터를 생성하기 위하여, 스켈레톤 데이터에 포함된 특징점들의 좌표 정보에서 z축 좌표값을 제거할 수 있다. z축 좌표값이 제거되면, 스켈레톤 데이터 또는 스켈레톤 데이터에 포함된 특징점들은 2차원 공간의 데이터로 다뤄질 수 있다. 이때, z축 좌표값은 3차원 좌표에서 깊이값에 대응되는 좌표값일 수 있다. In addition, the computing device 200 may remove z-axis coordinate values from coordinate information of feature points included in the skeleton data in order to generate the skeleton data. When the z-axis coordinate value is removed, the skeleton data or feature points included in the skeleton data can be treated as data in a two-dimensional space. In this case, the z-axis coordinate value may be a coordinate value corresponding to a depth value in 3D coordinates.

도 5는 본 발명에 따른 스켈레톤 데이터 인식의 트리거를 설명한 예시이다. 5 is an example explaining the trigger of skeleton data recognition according to the present invention.

도 5에 따르면, 본 발명에 따른 컴퓨팅 장치(200)는 타겟이 미리 정해진 영역에 위치하는지를 감지하고, 미리 정해진 영역에 타겟이 위치한 경우 이를 트리거로 하여 타겟에 대한 스켈레톤 데이터를 인식하고 디스플레이 장치(300)에 출력할 수 있다. According to FIG. 5 , the computing device 200 according to the present invention detects whether a target is located in a predetermined area, recognizes the skeleton data of the target as a trigger when the target is located in the predetermined area, and displays the display device 300 ) can be printed.

본 발명에 따른 컴퓨팅 장치(200)는 타겟이 미리 정해진 영역에 위치하는지를 감지하기 위하여, 좌표 변환 알고리즘을 사용할 수 있다. 카메라 장치(100)는 타겟을 정면으로 바라보도록 설치되나, 도 5의 디스플레이 화면에는 위에서 아래로 내려다보도록 표시될 수 있다. 이를 통하여, 본 발명은 타겟이 미리 정해진 영역에 정확히 위치하도록 유도할 수 있다.The computing device 200 according to the present invention may use a coordinate conversion algorithm to detect whether a target is located in a predetermined area. The camera device 100 is installed to face the target in front, but may be displayed looking down from above on the display screen of FIG. 5 . Through this, the present invention can induce the target to be accurately located in a predetermined area.

이처럼, 미리 정해진 영역에 타겟이 위치하도록 유도하는 것은 자전거 운동을 감지하는 경우 타겟의 발에 대응하는 특징점이 획득되어야 하며, 이를 위해서는 카메라 시야각에 타겟의 발이 포함되어야 하기 때문이다. In this way, the reason why the target is positioned in the predetermined area is that a feature point corresponding to the foot of the target must be obtained when a motion of a bicycle is detected, and for this purpose, the angle of view of the camera must include the foot of the target.

도 6 및 도 7은 본 발명에 따른 입체 영역을 나타낸 예시이다. 6 and 7 are examples of three-dimensional regions according to the present invention.

도 6에 따르면, 본 발명에 따른 입체 영역은 제1 입체 영역 및 제2 입체 영역을 포함할 수 있다. 제1 입체 영역은 타겟의 특정 신체 영역에 대응하는 특징점에 기반하여 생성되며, 제2 입체 영역은 제1 입체 영역의 움직임을 판단하는 기준이 될 수 있다. 제1 입체 영역은 타겟의 발에 대응될 수 있으며, 왼발과 오른발에 대응되도록 2개로 이루어질 수 있다. 제2 입체 영역은 2개의 제1 입체 영역에 대응하여 생성되므로 2개일 수 있다. According to FIG. 6 , a stereoscopic area according to the present invention may include a first stereoscopic area and a second stereoscopic area. The first stereoscopic region is generated based on feature points corresponding to a specific body region of the target, and the second stereoscopic region may be a criterion for determining motion of the first stereoscopic region. The first three-dimensional region may correspond to the target's foot, and may be composed of two to correspond to the left foot and the right foot. Since the second stereoscopic regions are generated corresponding to the two first stereoscopic regions, there may be two.

도 7에 따르면, 제1 입체 영역은 페달 운동에 따른 궤적 운동을 수행할 수 있다. 이때, 페달의 궤적에 따라 발이 움직이므로 제1 입체 영역은 페달을 밟는 발의 움직임과 동일하게 움직일 수 있다. According to FIG. 7 , the first three-dimensional region may perform a trajectory movement according to a pedal movement. At this time, since the foot moves according to the trajectory of the pedal, the first three-dimensional region may move in the same way as the foot stepping on the pedal.

제2 입체 영역은 제1 입체 영역의 궤적 운동에 대한 기준이 될 수 있다. 제1 입체 영역이 페달 움직임에 다른 궤적 운동시 원을 그리게되며, 1개의 원을 그리는 동안 제1 입체 영역은 제2 입체 영역과 1차례 접촉하게 된다. 이때, 제1 입체 영역과 제2 입체 영역의 접촉이 발생하는 경우를 기준으로 페달 운동을 측정할 수 있다. 이때, 2개의 제1 입체 영역과 2개의 제2 입체 영역은 서로 대응되는 짝(pair)에 대하여만 접촉을 감지할 수 있다. The second solid region may be a reference for trajectory motion of the first solid region. When the first three-dimensional region moves along a trajectory different from the pedal movement, a circle is drawn, and while one circle is drawn, the first three-dimensional region comes into contact with the second three-dimensional region once. In this case, the pedal movement may be measured based on a case in which contact between the first and second stereoscopic regions occurs. At this time, the two first three-dimensional regions and the two second three-dimensional regions can sense a contact only with respect to a pair corresponding to each other.

또한, 제1 입체 영역을 생성시, 컴퓨팅 장치(200)는 지면 또는 기준면으로부터 타겟의 발의 위치 사이의 높이값(y값)에 따라 제1 입체 영역 생성을 중단할 수 있다. 즉, 컴퓨팅 장치(200)는 타겟의 양쪽 발의 높이값(y값)의 차이가 미리 정해진 크기(ex- 20cm) 이상인 경우에만, 제1 입체 영역을 생성할 수 있다. 반대로, 컴퓨팅 장치(200)는 타겟의 양쪽 발의 높이값(y값)의 차이가 미리 정해진 크기(ex- 20cm)보다 작은 경우, 제1 입체 영역을 생성하지 않고 실패 처리할 수 있다. 이때, y값의 크기를 비교하기 위하여, 미리 z값이 제거된 2차원의 스켈레톤 데이터가 사용될 수 있다. Also, when generating the first three-dimensional region, the computing device 200 may stop generating the first three-dimensional region according to a height value (y value) between the position of the foot of the target and the ground or the reference plane. That is, the computing device 200 may create the first three-dimensional region only when the difference between the height values (y values) of both feet of the target is greater than or equal to a predetermined size (ex-20 cm). Conversely, when the difference between the height values (y values) of both feet of the target is smaller than a predetermined size (ex-20 cm), the computing device 200 may fail without generating the first three-dimensional region. In this case, in order to compare the size of the y value, 2-dimensional skeleton data from which the z value has been previously removed may be used.

도 8은 본 발명에 따른 헬스 케어 시스템을 구현한 예시를 나타낸 것이다. 8 shows an example of implementing a health care system according to the present invention.

도 8에 따르면, 본 발명에 따른 헬스 케어 시스템은 RFID 태그 손목 밴드 형태로 상기 RFID 모듈(400)을 제공할 수 있으며, 디스플레이, 컴퓨팅 장치(200) 및 카메라 장치(100)를 일체형으로 제공할 수 있다. 따라서, 사용자(타겟)은 손목 밴드에 포함된 RFID를 태깅하여 자신의 고유 ID 정보를 컴퓨팅 장치(200)로 전송하고, 컴퓨팅 장치(200)는 고유 ID에 기초하여 미리 저장된 사용자 맞춤형 데이터에 따른 다양한 운동 시나리오를 제공할 수 있다. According to FIG. 8, the healthcare system according to the present invention may provide the RFID module 400 in the form of an RFID tag wristband, and may provide a display, a computing device 200, and a camera device 100 integrally. there is. Accordingly, the user (target) transmits his/her unique ID information to the computing device 200 by tagging the RFID included in the wristband, and the computing device 200 transmits various information according to user-customized data stored in advance based on the unique ID. Exercise scenarios can be provided.

도 9 내지 도 12는 본 발명에 따른 맞춤형 운동 프로그램에서 제공하는 시나리오들의 예시를 나타낸 것이다. 9 to 12 show examples of scenarios provided by a customized exercise program according to the present invention.

도 9는 본 발명에 따른 운동 인식 알고리즘을 이용한 헬스 케어 시스템에서 제공하는 파도타기 프로그램을 나타낸 것이다. 이때, 컴퓨팅 장치(200)는 스켈레톤 데이터로 타겟의 양 발을 인식하고, 양 발에 대응되는 제1 입체 영역을 생성하며, 제1 입체 영역의 위치 변화를 기초로 타겟의 파도타기 상태를 인식할 수 있다. 컴퓨팅 장치(200)는 인식 결과를 기초로 제1 입체 영역이 주어진 프로그램의 미션 동작을 정확히 수행하는지를 감지할 수 있다. 9 illustrates a surfing program provided by a health care system using an exercise recognition algorithm according to the present invention. At this time, the computing device 200 recognizes both feet of the target with the skeleton data, creates first three-dimensional areas corresponding to both feet, and recognizes the surfing state of the target based on the change in position of the first three-dimensional areas. can Based on the recognition result, the computing device 200 may detect whether the first stereoscopic area accurately performs the mission operation of the given program.

도 10은 본 발명에 따른 운동 인식 알고리즘을 이용한 헬스 케어 시스템에서 제공하는 상체 운동 프로그램을 나타낸 것이다. 이때, 컴퓨팅 장치(200)는 스켈레톤 데이터로 타겟의 양 손을 인식하고, 양 손에 대응되는 제1 입체 영역을 생성하며, 제1 입체 영역의 위치 변화를 기초로 타겟의 팔 운동 상태를 인식할 수 있다. 컴퓨팅 장치(200)는 인식 결과를 기초로 제1 입체 영역이 주어진 프로그램의 미션 동작을 정확히 수행하는지를 감지할 수 있다.10 illustrates an upper body exercise program provided by a health care system using an exercise recognition algorithm according to the present invention. At this time, the computing device 200 recognizes both hands of the target using the skeleton data, creates first three-dimensional regions corresponding to the two hands, and recognizes the motion state of the target's arms based on the change in position of the first three-dimensional regions. can Based on the recognition result, the computing device 200 may detect whether the first stereoscopic area accurately performs the mission operation of the given program.

도 11은 본 발명에 따른 운동 인식 알고리즘을 이용한 헬스 케어 시스템에서 제공하는 엔터테인먼트 프로그램인 화투 게임을 나타낸 것이다. 본 발명에 따른 엔터테인먼트 프로그램은 타겟의 큰 동작을 유도할 수 있다. 이때, 컴퓨팅 장치(200)는 스켈레톤 데이터로 타겟의 양 손을 인식하고, 양 손에 대응되는 제1 입체 영역을 생성하며, 제1 입체 영역의 위치 변화를 기초로 타겟의 동작을 인식할 수 있다. 컴퓨팅 장치(200)는 인식 결과를 기초로 제1 입체 영역이 주어진 프로그램의 미션 동작을 정확히 수행하는지를 감지할 수 있다.11 illustrates an entertainment program, the Hwatu game, provided by the health care system using the exercise recognition algorithm according to the present invention. The entertainment program according to the present invention can induce a large motion of the target. At this time, the computing device 200 may recognize both hands of the target using the skeleton data, create first three-dimensional regions corresponding to both hands, and recognize the motion of the target based on the change in position of the first three-dimensional regions. . Based on the recognition result, the computing device 200 may detect whether the first stereoscopic area accurately performs the mission operation of the given program.

도 12는 본 발명에 따른 운동 인식 알고리즘을 이용한 헬스 케어 시스템에서 제공하는 자전거 운동 프로그램을 나타낸 것이다. 본 발명에 따른 자전거 운동 프로그램은 타겟의 페달 운동을 인식할 수 있다. 이때, 컴퓨팅 장치(200)는 스켈레톤 데이터로 타겟의 양 발을 인식하고, 양 손에 대응되는 제1 입체 영역을 생성하며, 제1 입체 영역의 위치 변화를 기초로 타겟의 동작을 인식할 수 있다. 컴퓨팅 장치(200)는 인식 결과를 기초로 제1 입체 영역이 주어진 프로그램의 미션 동작을 정확히 수행하는지를 감지할 수 있다.12 illustrates a bicycle exercise program provided by a health care system using an exercise recognition algorithm according to the present invention. The bicycle exercise program according to the present invention can recognize the pedal exercise of the target. In this case, the computing device 200 may recognize both feet of the target using the skeleton data, create first three-dimensional regions corresponding to both hands, and recognize the motion of the target based on the change in position of the first three-dimensional regions. . Based on the recognition result, the computing device 200 may detect whether the first stereoscopic area accurately performs the mission operation of the given program.

도 13는 본 발명에 따른 운동 정보를 기초로 진단 데이터를 수신하는 예시를 나타낸 것이다. 13 illustrates an example of receiving diagnostic data based on exercise information according to the present invention.

도 13에 따르면, 본 발명에 따른 컴퓨팅 장치(200)는 서버(500)로부터 의료진의 영상 데이터를 수신할 수 있다. 본 발명에 따른 운동 인식 알고리즘을 이용한 헬스 케어 시스템은 타겟이 프로그램에 맞추어 동작하면, 이를 촬영한 영상 데이터를 의료진의 단말로 전송하고, 의료진이 실시간으로 영상 데이터를 통하여 타겟을 진단할 수 있도록 도울 수 있다. According to FIG. 13 , the computing device 200 according to the present invention may receive image data of medical staff from the server 500 . The health care system using the motion recognition algorithm according to the present invention transmits image data captured by the target to a terminal of a medical staff when the target operates according to the program, and can help the medical staff diagnose the target through the image data in real time. there is.

도 14는 도 11의 화투 게임을 위한 동작 인식 알고리즘을 나타낸 것이다. FIG. 14 illustrates a motion recognition algorithm for the hwatu game of FIG. 11 .

도 14에 따르면, 본 발명에 따른 화투 게임을 위한 동작 인식 알고리즘은 복수개의 가상 트리거를 이용한 동작 인식 알고리즘일 수 있다. 본 발명에 따른 컴퓨팅 장치(200)는 카메라 장치에서 생성된 영상 데이터를 기초로 타겟의 스켈레톤 데이터를 추출하고, 추출된 스켈레톤 데이터에서 타겟의 양 손을 인식할 수 있다. According to FIG. 14 , the motion recognition algorithm for the Hwatu game according to the present invention may be a motion recognition algorithm using a plurality of virtual triggers. The computing device 200 according to the present invention may extract skeleton data of a target based on image data generated by a camera device and recognize both hands of the target from the extracted skeleton data.

컴퓨팅 장치(200)는 타겟의 양 손에 각각 대응하는 2개의 입체 영역을 생성할 수 있다. 2개의 입체 영역은 타겟의 양 손이 움직임에 따라 함께 움직일 수 있다. 2개의 입체 영역은 제3 입체 영역 및 제4 입체 영역일 수 있다. The computing device 200 may create two three-dimensional regions respectively corresponding to both hands of the target. The two three-dimensional areas can move along with the movement of both hands of the target. The two stereoscopic regions may be a third stereoscopic region and a fourth stereoscopic region.

컴퓨팅 장치(200)는 제3 입체 영역 또는 제4 입체 영역이 가상 트리거와 충돌하는 경우 특정 동작이 수행된 것으로 정의할 수 있다. 이때, 복수개의 가상 트리거 중 제1 트리거 박스는 스켈레톤 데이터 중 머리에 대응하는 특징점 보다 상부 영역에 위치할 수 있다. 또한, 복수개의 가상 트리거 중 제2 트리거 박스는 스켈레톤 데이터 중 명치에 대응하는 특징점의 좌측 영역에 위치할 수 있다. 또한, 복수개의 가상 트리거 중 제3 트리거 박스는 스켈레톤 데이터 중 명치에 대응하는 특징점의 우측 영역에 위치할 수 있다. The computing device 200 may define that a specific operation is performed when the third or fourth stereoscopic area collides with the virtual trigger. In this case, the first trigger box among the plurality of virtual triggers may be located in an area above the feature point corresponding to the head among the skeleton data. Also, a second trigger box among a plurality of virtual triggers may be located in a region to the left of a feature point corresponding to a bright spot among skeleton data. In addition, a third trigger box among a plurality of virtual triggers may be located in a right region of a feature point corresponding to a pituitary gland among skeleton data.

컴퓨팅 장치(200)는 제3 입체 영역과 제2 트리거 박스가 충돌하는 경우 왼쪽 카드(화투 패)가 선택되는 것으로 정의할 수 있다. 또한, 컴퓨팅 장치(200)는 제4 입체 영역과 제3 트리거 박스가 충돌하는 경우 오른쪽 카드(화투 패)가 선택되는 것으로 정의할 수 있다. 또한, 컴퓨팅 장치(200)는 제3 입체 영역 또는 제4 입체 영역과 제1 트리거 박스가 충돌하는 경우 카드(화투 패)가 제출되는 것으로 정의할 수 있다.The computing device 200 may define that the left card (Hwatu hand) is selected when the third stereoscopic area and the second trigger box collide. In addition, the computing device 200 may define that the right card (Hwatu hand) is selected when the fourth stereoscopic area and the third trigger box collide. In addition, the computing device 200 may define that a card (hwatu hand) is submitted when the third or fourth stereoscopic area collides with the first trigger box.

도 15는 본 발명에 따른 이미지 보정 필터의 예시를 나타낸 도면이고, 도 16은 본 발명에 따른 HSV 그래프를 나타낸 것이다.15 is a diagram showing an example of an image correction filter according to the present invention, and FIG. 16 shows a HSV graph according to the present invention.

본 발명에 따른 스켈레톤 데이터를 획득하기 위한 비전 인식 알고리즘은 CNN 알고리즘을 포함할 수 있다. CNN 알고리즘은 복수의 레이어를 사용하는 학습 알고리즘일 수 있다. 본 발명에 따른 비전 인식용 알고리즘은 빅데이터를 통하여 미리 학습된 학습 모듈에 의하여 수행될 수 있으며, 비전 인식을 위하여 영상 데이터에 일정 종류의 필터를 적용할 수 있다. A vision recognition algorithm for obtaining skeleton data according to the present invention may include a CNN algorithm. A CNN algorithm may be a learning algorithm using a plurality of layers. The algorithm for vision recognition according to the present invention may be performed by a learning module pre-learned through big data, and a certain type of filter may be applied to image data for vision recognition.

도 15에 따르면, 필터의 종류와 기능이 나타나 있다. 즉, CNN 알고리즘은 이미지 분류 정확도를 최대화하는 필터를 자동으로 학습할 수 있으며, 합성곱 계층과 폴링 계층이라고 하는 새로운 층을 풀리 커넥티드 계층 이전에 추가함으로써 원본 이미지에 필터링 기법을 적용한 뒤에 필터링된 이미지에 대해 분류 연산을 수행할 수 있다. CNN 알고리즘은 합성곱 계층 (convolutional layer)과 풀링 계층 (pooling layer)이라고 하는 새로운 층을 fully-connected 계층 이전에 추가함으로써 원본 이미지에 필터링 기법을 적용한 뒤에 필터링된 이미에 대해 분류 연산이 수행되도록 구성될 수 있다. According to FIG. 15, the types and functions of filters are shown. In other words, the CNN algorithm can automatically learn a filter that maximizes image classification accuracy, and by adding a new layer called a convolutional layer and a polling layer before the fully connected layer, the filtered image after applying the filtering technique to the original image. A classification operation can be performed on . The CNN algorithm is configured to apply a filtering technique to the original image by adding a new layer, called a convolutional layer and a pooling layer, before the fully-connected layer, and then perform a classification operation on the filtered image. can

이때, CNN 알고리즘을 사용한 이미지 필터에 대한 연산식은 아래의 수학식 1과 같다. At this time, the operation expression for the image filter using the CNN algorithm is as shown in Equation 1 below.

[수학식 1][Equation 1]

Figure 112022035783521-pat00001
Figure 112022035783521-pat00001

(단, (step,

Figure 112022035783521-pat00002
: 행렬로 표현된 필터링된 이미지의 i번째 행, j번째 열의 픽셀,
Figure 112022035783521-pat00002
: pixels in the i-th row and j-th column of the filtered image expressed as a matrix,

Figure 112022035783521-pat00003
: 필터,
Figure 112022035783521-pat00003
: filter,

Figure 112022035783521-pat00004
: 이미지,
Figure 112022035783521-pat00004
: image,

Figure 112022035783521-pat00005
: 필터의 높이 (행의 수),
Figure 112022035783521-pat00005
: height of the filter (number of rows),

Figure 112022035783521-pat00006
: 필터의 너비 (열의 수)이다. )
Figure 112022035783521-pat00006
: The width of the filter (number of columns). )

바람직하게는, CNN 알고리즘을 사용한 이미지 필터에 대한 연산식은 아래의 수학식 2와 같다. Preferably, the operation expression for the image filter using the CNN algorithm is as shown in Equation 2 below.

[수학식 2][Equation 2]

Figure 112022035783521-pat00007
Figure 112022035783521-pat00007

(단, (step,

Figure 112022035783521-pat00008
: 행렬로 표현된 필터링된 이미지의 i번째 행, j번째 열의 픽셀,
Figure 112022035783521-pat00008
: pixels in the i-th row and j-th column of the filtered image expressed as a matrix,

Figure 112022035783521-pat00009
: 응용 필터
Figure 112022035783521-pat00009
: Application filter

Figure 112022035783521-pat00010
: 이미지,
Figure 112022035783521-pat00010
: image,

Figure 112022035783521-pat00011
: 응용 필터의 높이 (행의 수),
Figure 112022035783521-pat00011
: height of application filter (number of rows),

Figure 112022035783521-pat00012
: 응용 필터의 너비 (열의 수)이다.)
Figure 112022035783521-pat00012
: The width (number of columns) of the application filter.)

바람직하게는,

Figure 112022035783521-pat00013
는 응용 필터로서 타겟(사람)의 스켈레톤 데이터를 정확히 생성하기 위하여 상기 이미지 데이터에 적용되는 필터일 수 있다. 특히, 타겟(사람) 인식의 경우 형태 및 색감의 차이를 기초로 분류될 수 있으므로, 형태 및 색감 등을 효과적으로 인지하기 위한 응용 필터가 필요할 수 있다. 이러한 필요성을 충족하기 위하여 응용 필터
Figure 112022035783521-pat00014
는 아래의 수학식 3에 의하여 연산될 수 있다. Preferably,
Figure 112022035783521-pat00013
is an application filter, and may be a filter applied to the image data in order to accurately generate skeleton data of a target (human). In particular, since target (person) recognition can be classified based on differences in shape and color, an application filter for effectively recognizing shape and color may be required. Application filters to meet these needs
Figure 112022035783521-pat00014
Can be calculated by Equation 3 below.

[수학식 3] [Equation 3]

Figure 112022035783521-pat00015
Figure 112022035783521-pat00015

(단,

Figure 112022035783521-pat00016
: 필터,
Figure 112022035783521-pat00017
: 계수,
Figure 112022035783521-pat00018
: 응용 필터)(step,
Figure 112022035783521-pat00016
: filter,
Figure 112022035783521-pat00017
: Coefficient,
Figure 112022035783521-pat00018
: application filter)

이때, 각

Figure 112022035783521-pat00019
에 따른 필터는 도 15에 따른 엣지 인식 필터(Edge detection), 샤픈 필터(sharpen) 및 박스 블러 필터(Box blur) 중 어느 하나의 행렬일 수 있다. At this time, each
Figure 112022035783521-pat00019
A filter according to may be a matrix of any one of an edge detection filter according to FIG. 15, a sharpen filter, and a box blur filter.

바람직하게,

Figure 112022035783521-pat00020
를 구하는 연산식은 아래의 수학식 4와 같다. 이때,
Figure 112022035783521-pat00021
는 필터의 효율을 높이기 위하여 사용되는 하나의 변수로서 해석될 수 있으며, 그 단위는 무시될 수 있다. Preferably,
Figure 112022035783521-pat00020
The operation expression for obtaining is as shown in Equation 4 below. At this time,
Figure 112022035783521-pat00021
can be interpreted as a variable used to increase the efficiency of the filter, and its unit can be ignored.

[수학식 4][Equation 4]

Figure 112022035783521-pat00022
Figure 112022035783521-pat00022

단, 이미지 촬영에 사용된 카메라 장치의 렌즈의 직경(지름)은 mm 단위이고, 렌즈의 f값은 렌즈의 조리개값(F number)이며, HSV평균값은 이미지에 따른 색좌표를 HSV 그래프를 통하여 크기값으로 변환한 값을 평균한 값을 의미할 수 있다. HSV값에 대한 구체적인 내용은 아래와 같다. However, the diameter (diameter) of the lens of the camera device used to take the image is in mm, the f-value of the lens is the aperture value (F number) of the lens, and the HSV average value is the size value through the HSV graph of the color coordinates according to the image It may mean a value obtained by averaging the values converted to . Details of the HSV value are as follows.

도 16에 따르면, 본 발명에 따른 HSV 그래프는 지각적인 특성이 반영된 색 공간을 의미할 수 있다. H(Hue, 0~360°)는 색조를 의미할 수 있고, S(Saturation, 0~100%)는 채도를 의미할 수 있으며, V(Value, 0~100%)는 명도를 의미할 수 있다. 색조, 채도 및 명도 값을 HSV 값이라고 할 수 있으며, 이는 Adobe illustrator cc 2019 등 그래픽 툴을 이용하여 쉽게 추출될 수 있다.According to FIG. 16, the HSV graph according to the present invention may mean a color space in which perceptual characteristics are reflected. H (Hue, 0 to 360°) may mean hue, S (Saturation, 0 to 100%) may mean saturation, and V (Value, 0 to 100%) may mean lightness. . Hue, saturation, and lightness values can be referred to as HSV values, which can be easily extracted using graphic tools such as Adobe illustrator cc 2019.

본 발명에 따른 HSV 평균값은 도 16의 HSV 3차원 좌표를 통하여 획득될 수 있다. 즉, 본 발명에 따른 HSV 평균값은 그래픽 툴을 통하여 획득된 HSV 값을 기초로 계산될 수 있다. HSV 3차원 좌표상의 원점좌표를 기준점으로 측정된 HSV 좌표의 거리값은 상술한 HSV 평균값을 구성할 수 있다. 즉, 본 발명에 따른 이미지는 타겟(사람)에 대한 이미지를 포함하고, 이미지의 HSV 색상좌표는 HSV 3차원 좌표 중 일정 영역에서 분포될 수 있다. 따라서, 본 발명에 따른 HSV 평균값은 일정 영역의 색상에 대한 HSV 좌표들의 평균을 이용한 평균 좌표를 기초로 계산된 원점좌표와의 거리값을 의미할 수 있다. The average HSV value according to the present invention can be obtained through the 3-dimensional HSV coordinates of FIG. 16 . That is, the average HSV value according to the present invention may be calculated based on the HSV value obtained through a graphic tool. The distance value of the HSV coordinates measured with the origin coordinates on the HSV 3-dimensional coordinates as a reference point may constitute the above-described HSV average value. That is, the image according to the present invention includes an image of a target (human), and the HSV color coordinates of the image may be distributed in a certain area among HSV three-dimensional coordinates. Therefore, the HSV average value according to the present invention may mean a distance value from the origin coordinates calculated based on average coordinates using the average of HSV coordinates for colors of a certain region.

[실험예][Experimental example]

본 발명에 따른 영상 데이터에 대하여, 본 발명의 응용 필터 F'를 적용하는 경우에 있어서 타겟(사람)에 대한 스켈레톤 데이터 정확도를 살펴보면 아래와 같다. 아래 표는 해당 기술분야 전문가 10명에게 의뢰하여, 필터 적용 여부 등에 따라 인식 결과의 정확도를 수치로서 나타낸 것이다. Regarding the image data according to the present invention, when the application filter F' of the present invention is applied, the accuracy of skeleton data for the target (human) is as follows. The table below shows the accuracy of the recognition result as a numerical value, depending on whether a filter is applied or not, commissioned by 10 experts in the relevant technical field.

필터 적용 없음no filter applied 필터

Figure 112022035783521-pat00023
적용filter
Figure 112022035783521-pat00023
apply 필터
Figure 112022035783521-pat00024
적용
filter
Figure 112022035783521-pat00024
apply
평균 정확도 (점수)Average Accuracy (Score) 7575 9090 9797

상기 표 1은 전문가로부터 평가된 정확도에 대한 점수를 각 케이스별로 나타낸 것이다. 본 실험예는 빅데이터를 통하여 미리 학습된 학습 모듈에 대하여, 필터 적용 여부에 따른 정확도를 조사한 것이다. Table 1 shows the scores for accuracy evaluated by experts for each case. In this experimental example, the accuracy of the learning module pre-learned through big data was investigated according to whether or not a filter was applied.

또한, 본 실험예는 20명의 서로 다른 사람을 촬영한 영상 데이터로 실험된 것이며, 인식 결과값에 대하여 영상 데이터에 생성된 스켈레톤 데이터의 정확도를 전문가 10명으로부터 설문 조사한 것이다. In addition, this experimental example was experimented with image data of 20 different people, and 10 experts surveyed the accuracy of the skeleton data generated in the image data with respect to the recognition result value.

표 1에서 확인할 수 있는 것과 같이, 필터 적용 없는 경우, 이미지에 대한 인식에 오류가 발생할 확률이 존재하여 상대적으로 낮은 정확도로 평가되었다. 이에 비하여, 일반 CNN 필터 F를 적용한 경우 다소 정확도가 높았으나, 응용 필터 F'를 적용하는 경우의 정확도가 현저하게 향상되는 것이 확인된다.As can be seen in Table 1, when the filter is not applied, there is a probability of error in image recognition, and the evaluation is relatively low accuracy. In contrast, the accuracy was slightly higher when the general CNN filter F was applied, but it was confirmed that the accuracy was remarkably improved when the applied filter F' was applied.

전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 모델링하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽힐 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 모델링되는 것도 포함한다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 명세서의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 명세서의 등가적 범위 내에서의 모든 변경은 본 명세서의 범위에 포함된다.The above-described present invention can be modeled as a computer readable code on a medium on which a program is recorded. The computer-readable medium includes all types of recording devices in which data readable by a computer system is stored. Examples of computer-readable media include Hard Disk Drive (HDD), Solid State Disk (SSD), Silicon Disk Drive (SDD), ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, etc. , and also includes those modeled in the form of carrier waves (eg, transmission over the Internet). Accordingly, the above detailed description should not be construed as limiting in all respects and should be considered illustrative. The scope of this specification should be determined by reasonable interpretation of the appended claims, and all changes within the equivalent scope of this specification are included in the scope of this specification.

앞에서 설명된 본 발명의 어떤 실시 예들 또는 다른 실시 예들은 서로 배타적이거나 구별되는 것은 아니다. 앞서 설명된 본 발명의 어떤 실시 예들 또는 다른 실시 예들은 각각의 구성 또는 기능이 병용되거나 조합될 수 있다.Any or other embodiments of the present invention described above are not mutually exclusive or distinct. Certain or other embodiments of the present invention described above may be used in combination or combination of respective configurations or functions.

상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.The above detailed description should not be construed as limiting in all respects and should be considered illustrative. The scope of the present invention should be determined by reasonable interpretation of the appended claims, and all changes within the equivalent scope of the present invention are included in the scope of the present invention.

10: 헬스 케어 시스템
100: 카메라
200: 컴퓨팅 장치
300: 디스플레이 장치
400: RFID 모듈
500: 서버
10: health care system
100: camera
200: computing device
300: display device
400: RFID module
500: server

Claims (7)

타겟을 포함하는 영상 데이터를 생성하는 카메라 장치;
상기 영상 데이터를 수신하고, 맞춤형 운동 프로그램을 구동하는 컴퓨팅 장치; 및
상기 맞춤형 운동 프로그램에 따른 화면을 표시하는 디스플레이 장치;를 포함하되,
상기 컴퓨팅 장치는,
상기 영상 데이터에서 상기 타겟을 인식하여 스켈레톤 데이터를 추출하고, 상기 스켈레톤 데이터는 상기 타겟의 특정 신체 영역에 대한 특징점을 포함하며, 상기 특징점을 기초로 상기 타겟의 운동 정보를 생성하고,
상기 영상 데이터는,
상기 맞춤형 운동 프로그램에서 제공하는 시나리오에 기반하여 생성되고
상기 컴퓨팅 장치는,
상기 특징점에 기초한 제1 입체 영역 및 제2 입체 영역을 생성하고,
상기 제1 입체 영역은 상기 타겟의 특정 신체 영역의 움직임에 따라 함께 움직이고, 상기 제2 입체 영역은 상기 타겟의 특정 신체 영역의 움직임의 계산을 위한 기준 영역이고,
미리 입력된 정의에 따라, 상기 제1 입체 영역과 상기 제2 입체 영역이 겹치는 제1 지점을 시작 지점으로 생성하고,
상기 제1 입체 영역이 상기 제1 지점으로 되돌아오는 시간 정보를 획득하며, 상기 시간 정보를 기초로 상기 타겟의 운동 정보를 생성하며,
상기 영상 데이터는 하기의 식 2의 연산식에 기초한 이미지 보정 필터가 적용되는 것인
운동 인식 알고리즘을 이용한 헬스 케어 시스템.
[식 2]
Figure 112022094212635-pat00041

Figure 112022094212635-pat00042
: 행렬로 표현된 필터링된 이미지의 i번째 행, j번째 열의 픽셀,
Figure 112022094212635-pat00043
: 응용 필터로 하기의 식 3이 적용된 것이다.
Figure 112022094212635-pat00044
: 이미지,
Figure 112022094212635-pat00045
: 응용 필터의 높이 (행의 수),
Figure 112022094212635-pat00046
: 응용 필터의 너비 (열의 수)이다.)
[식 3]
Figure 112022094212635-pat00047

(단,
Figure 112022094212635-pat00048
: 필터,
Figure 112022094212635-pat00049
: 계수,
Figure 112022094212635-pat00050
: 응용 필터)
a camera device generating image data including a target;
a computing device that receives the image data and drives a customized exercise program; and
A display device displaying a screen according to the customized exercise program; including,
The computing device,
Recognizing the target from the image data and extracting skeleton data, the skeleton data including feature points for a specific body region of the target, and generating exercise information of the target based on the feature points;
The video data is
It is created based on the scenario provided by the customized exercise program,
The computing device,
generating a first solid region and a second solid region based on the feature points;
The first three-dimensional region moves along with the movement of the specific body region of the target, and the second three-dimensional region is a reference region for calculating the movement of the specific body region of the target;
According to a definition input in advance, a first point where the first solid region and the second solid region overlap is created as a starting point;
obtaining information on a time when the first stereoscopic region returns to the first point, and generating motion information of the target based on the time information;
The image data is to which an image correction filter based on the equation 2 below is applied.
A health care system using an exercise recognition algorithm.
[Equation 2]
Figure 112022094212635-pat00041

Figure 112022094212635-pat00042
: pixels in the i-th row and j-th column of the filtered image expressed as a matrix,
Figure 112022094212635-pat00043
: Equation 3 below is applied as an application filter.
Figure 112022094212635-pat00044
: image,
Figure 112022094212635-pat00045
: height of application filter (number of rows),
Figure 112022094212635-pat00046
: The width (number of columns) of the application filter.)
[Equation 3]
Figure 112022094212635-pat00047

(step,
Figure 112022094212635-pat00048
: filter,
Figure 112022094212635-pat00049
: Coefficient,
Figure 112022094212635-pat00050
: application filter)
삭제delete 삭제delete 제1항에 있어서,
상기 컴퓨팅 장치는,
미리 정해진 시간 동안 상기 제1 입체 영역이 상기 제1 지점으로 되돌아오지 않는 경우, 상기 제2 입체 영역을 이동시키는 것인,
운동 인식 알고리즘을 이용한 헬스 케어 시스템.
According to claim 1,
The computing device,
moving the second stereoscopic area when the first stereoscopic area does not return to the first point for a predetermined time period;
A health care system using an exercise recognition algorithm.
제4항에 있어서,
상기 컴퓨팅 장치는,
상기 제1 입체 영역의 궤도 정보에 기초하여 상기 제2 입체 영역을 이동시키고, 미리 입력된 정의에 따라, 상기 제1 입체 영역과 이동된 상기 제2 입체 영역이 겹치는 제2 지점을 시작 지점으로 재생성하는 것인,
운동 인식 알고리즘을 이용한 헬스 케어 시스템.
According to claim 4,
The computing device,
The second solid region is moved based on the trajectory information of the first solid region, and the second point where the first solid region overlaps the moved second solid region is regenerated according to a previously input definition as a starting point. to do,
A health care system using an exercise recognition algorithm.
제1항에 있어서,
상기 특정 신체 영역은 상기 타겟의 발 영역이고,
상기 타겟의 운동 정보는 상기 타겟의 페달 운동 정보이며, 상기 페달 운동 정보는 상기 타겟의 페달 운동 속도 정보 및 페달 운동 시간 정보를 포함하는 것인,
운동 인식 알고리즘을 이용한 헬스 케어 시스템.
According to claim 1,
The specific body region is a foot region of the target,
The movement information of the target is pedal movement information of the target, and the pedal movement information includes pedal movement speed information and pedal movement time information of the target.
A health care system using an exercise recognition algorithm.
제1항에 있어서,
상기 헬스 케어 시스템은,
상기 타겟의 운동 정보를 기초로 상기 타겟의 신체 정보 또는 건강 정보를 획득하는 서버;를 더 포함하고,
상기 서버는,
상기 타겟의 신체 정보 또는 건강 정보에 따른 진단 정보를 상기 컴퓨팅 장치로 전송하는 것인,
운동 인식 알고리즘을 이용한 헬스 케어 시스템.
According to claim 1,
The health care system,
Further comprising a server that obtains body information or health information of the target based on the exercise information of the target;
The server,
Transmitting diagnostic information according to the target's body information or health information to the computing device;
A health care system using an exercise recognition algorithm.
KR1020220041663A 2022-04-04 2022-04-04 Health care system using motion recognition algorithm KR102501842B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220041663A KR102501842B1 (en) 2022-04-04 2022-04-04 Health care system using motion recognition algorithm

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220041663A KR102501842B1 (en) 2022-04-04 2022-04-04 Health care system using motion recognition algorithm

Publications (1)

Publication Number Publication Date
KR102501842B1 true KR102501842B1 (en) 2023-02-21

Family

ID=85328121

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220041663A KR102501842B1 (en) 2022-04-04 2022-04-04 Health care system using motion recognition algorithm

Country Status (1)

Country Link
KR (1) KR102501842B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120017320A (en) * 2010-08-18 2012-02-28 (주)성삼 Exercise system and method using augmented reality
KR20150141213A (en) * 2014-06-09 2015-12-18 (주)앱스톤 Motion counting measurement and display device
KR20180088073A (en) 2017-01-26 2018-08-03 삼성전자주식회사 Method for managing healthcare program and electronic device thereof
KR20210043174A (en) * 2019-10-11 2021-04-21 엘지전자 주식회사 Method for providing exercise coaching function and electronic device performing thereof

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120017320A (en) * 2010-08-18 2012-02-28 (주)성삼 Exercise system and method using augmented reality
KR20150141213A (en) * 2014-06-09 2015-12-18 (주)앱스톤 Motion counting measurement and display device
KR20180088073A (en) 2017-01-26 2018-08-03 삼성전자주식회사 Method for managing healthcare program and electronic device thereof
KR20210043174A (en) * 2019-10-11 2021-04-21 엘지전자 주식회사 Method for providing exercise coaching function and electronic device performing thereof

Similar Documents

Publication Publication Date Title
Tao et al. Integration of vision and inertial sensors for 3D arm motion tracking in home-based rehabilitation
Chang et al. MedGlasses: A wearable smart-glasses-based drug pill recognition system using deep learning for visually impaired chronic patients
US11813121B2 (en) Systems and methods for generating an instrument positioning map for positioning one or more instruments on a patient body
Jalal et al. Human activity recognition via recognized body parts of human depth silhouettes for residents monitoring services at smart home
US20190392587A1 (en) System for predicting articulated object feature location
WO2021169637A1 (en) Image recognition method and apparatus, computer device and storage medium
Petrović et al. Stereo vision-based human tracking for robotic follower
US20150154890A1 (en) System and Method for Augmented Ultrasound Simulation using Flexible Touch Sensitive Surfaces
Chaudhry et al. Design of a mobile face recognition system for visually impaired persons
TW202038133A (en) System and method for rapidly locating iris using deep learning
Westlund et al. Motion Tracker: Camera-based monitoring of bodily movements using motion silhouettes
CN108778123A (en) Gait analysis device, gait analysis method and computer readable recording medium storing program for performing
CN112419326B (en) Image segmentation data processing method, device, equipment and storage medium
WO2022060432A1 (en) Activity assistance system
Shehu et al. Remote eye gaze tracking research: a comparative evaluation on past and recent progress
Sedighi et al. An RFID-based assistive glove to help the visually impaired
KR20200134502A (en) 3D human body joint angle prediction method and system through the image recognition
Gupta et al. Digital twin techniques in recognition of human action using the fusion of convolutional neural network
CN104182723A (en) Gaze estimation method and gaze estimation device
US11666266B2 (en) Source localization of EEG signals
Sipari et al. SANE (Easy Gait Analysis System): Towards an AI-assisted automatic gait-analysis
KR102501842B1 (en) Health care system using motion recognition algorithm
Delabrida et al. Towards a wearable device for monitoring ecological environments
CN112561952A (en) Method and system for setting renderable virtual objects for a target
US20220108445A1 (en) Systems and methods for acne counting, localization and visualization

Legal Events

Date Code Title Description
GRNT Written decision to grant