WO2024143980A1 - Sensor-based human posture estimation device - Google Patents

Sensor-based human posture estimation device Download PDF

Info

Publication number
WO2024143980A1
WO2024143980A1 PCT/KR2023/020122 KR2023020122W WO2024143980A1 WO 2024143980 A1 WO2024143980 A1 WO 2024143980A1 KR 2023020122 W KR2023020122 W KR 2023020122W WO 2024143980 A1 WO2024143980 A1 WO 2024143980A1
Authority
WO
WIPO (PCT)
Prior art keywords
posture
user
unit
data
sensor
Prior art date
Application number
PCT/KR2023/020122
Other languages
French (fr)
Korean (ko)
Inventor
이은영
Original Assignee
주식회사 포스처에이아이
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 포스처에이아이 filed Critical 주식회사 포스처에이아이
Publication of WO2024143980A1 publication Critical patent/WO2024143980A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1116Determining posture transitions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1126Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
    • A61B5/1128Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using image analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems

Definitions

  • Human posture estimation technology is being used to estimate the user's posture by analyzing images taken of the user, but it is difficult to accurately measure the user's posture through image analysis alone.
  • a posture estimation device includes at least one sensor unit that can be worn on the user's body and senses the user's posture; An imaging unit that photographs a user wearing the sensor unit; and a posture estimation unit that estimates the user's posture using sensing data sensed by the sensor unit and image processing data obtained by analyzing the image captured by the imaging unit.
  • the user's posture can be accurately measured, and the accuracy of posture estimation can be increased by applying it along with the user's image analysis. Through this, spinal diseases or musculoskeletal diseases can be prevented.
  • FIG. 4 is a block diagram of the posture estimation unit of the posture estimation device according to an embodiment of the present invention.
  • the posture estimation device 100 consists of a sensor unit 110, a posture estimation unit 120, and an imaging unit 130.
  • the sensor unit 110 may be configured to include a wearable sensor for measuring users' posture.
  • a smart seat may include a pressure sensor that can measure how pressure is distributed when the user sits on the chair. If the pressure value measured by the front pressure sensor is greater than the back, the user's posture can be considered to be tilted forward.
  • the sensor mounted on the sensor unit 110 may include a sensor for sensing body movement or posture of users in a 360-degree direction. For example, it may include a 3-axis gyro sensor to measure the direction of 360 degrees.
  • the direction of front and back and left and right can be measured, and movement in 360 degrees, that is, the user's body posture, can be measured.
  • various types of sensors can be included to measure the user's posture area in front and back, left and right, and 360 degrees.
  • the imaging unit 130 can capture images of a user wearing the sensor unit 110.
  • the imaging unit 130 can capture images necessary to estimate the user's posture. At this time, when estimating the user's body posture, the image may be captured to include only part of the user's body, and when estimating the posture of the entire body, the image may be captured to include the user's entire body. Alternatively, only specific parts of the user can be photographed.
  • the imaging unit 130 photographs the user, and the posture estimation unit 120 separates feature points, such as the user's joints, from the user's image captured by the imaging unit 130, and estimates the user's posture using the relative positions of the feature points. It can be used to do so.
  • the process by which the posture estimation unit 120 estimates the posture from the user's image includes pictorial structure technique, depth-based posture estimation technique, deep learning-based 2D human posture estimation technique, and human posture estimation technique using heatmap.
  • Human pose estimation algorithms such as SOTA 2D human pose estimation technique, RGB-based human pose estimation technique, modeling-based human pose estimation technique, and Posenet can be used.
  • the posture estimation unit 120 may include a processing unit 121, a communication interface unit 122, a storage unit 123, and a posture correction unit 124.
  • the processing unit 121 may include at least one processor that estimates the posture from sensing data.
  • the processing unit 121 may include the artificial intelligence neural network described above.
  • the communication interface unit 122 may transmit and receive signals through communication with the sensor unit 110, a user terminal, or a server. In the process of performing communication, the communication interface unit 122 can perform operations such as modulation/demodulation, encoding/decoding, muxing/demuxing, and resolution conversion. In the case of user terminals such as smartphones, the screen size Since they are all different, the resolution can be converted to provide the optimal screen.
  • the communication interface unit 122 may communicate with the user terminal when an app is executed on the user terminal, and may provide analysis results of data related to the user's posture according to the user's service request. Typically, a UI screen for posture in front and back, left and right, and 360 degree directions can be provided. Of course, in addition to this, the communication interface unit 122 may, at the request of the processing unit 121, send a notification for posture correction when the user's posture deviates from the standard posture. When using an application, notifications in the form of a push may be notified through the application.
  • the posture correction unit 124 since the types of sensor units 110 carried by each user may be different, it is desirable for the posture correction unit 124 to recommend exercise based on data acquired from the sensor units 110 carried by each user. However, since the posture correction unit 124 collects and analyzes big data, for example, it can further increase accuracy when recommending posture correction exercise by reflecting data from the sensor unit 110 that users A and B do not possess. You can. In other words, it may be more accurate to recommend posture correction exercises based on the analysis results of data acquired by 100 people rather than recommending posture correction exercises based on the analysis results of data acquired by 5 people. Therefore, the posture correction unit 124 is not limited to the sensing data of the sensor unit 110 carried by the user, but can recommend exercise by comprehensively judging the posture measurement data of other users.
  • the storage unit 123 can temporarily store various types of data that are processed under the control of the processing unit 121. For example, when the posture measurement data of the sensor unit 110 is temporarily stored, the storage unit 123 may provide the posture measurement data to the posture correction unit 124 to enable data analysis.
  • the processing unit 121 can perform the following operations: analysis of time to maintain correct posture, analysis of data by cycle, provision of posture scores, and analysis of 360-degree posture area. Analysis of the time to maintain a correct posture can, for example, distinguish and determine the time to maintain a correct posture among the total time used by the sensor unit 110, generate daily activity data, and provide analysis results to the user terminal. Additionally, by analyzing the posture data, the daily posture can be scored and provided to the user terminal.
  • the standard data that serves as the standard for posture can be built in advance as a big data DB, so the user's posture correction range or posture correction index is calculated based on comparison with the standard data and scored based on this. The action can be performed.
  • the embodiment of the present invention provides posture correction in various fields related to posture correction, such as golf swing posture correction, fitness and virtual training, weightlifting posture correction, office worker posture correction, musculoskeletal system and physical therapy, through the posture correction unit 124. Since it is possible to provide any number of services, embodiments of the present invention will not be specifically limited to posture correction operations in daily life.
  • the communication interface unit 122, processing unit 121, posture correction unit 124, and storage unit 123 of FIG. 4 can perform various operations.
  • the communication interface unit 122, the processing unit 121, the posture correction unit 124, and the storage unit 123 may be composed of hardware modules that are physically separated from each other, and each module has internal functions for performing the above operations. You can save software and run it.
  • the software is a set of software modules, and each module can be formed as hardware, so there is no particular limitation on the configuration of software or hardware.
  • the storage unit 123 may be hardware, such as storage or memory. However, since it is possible to store information through software (repository), there is no particular limitation to the above.
  • the processing unit 121 may include a CPU and memory, and may be formed as a single chip.
  • the CPU includes a control circuit, an arithmetic unit (ALU), an instruction interpretation unit, and a registry
  • the memory may include RAM.
  • the control circuit performs control operations
  • the operation unit performs operations on binary bit information
  • the command interpretation unit includes an interpreter or compiler, which can convert high-level language into machine language and machine language into high-level language.
  • the registry can be involved in software data storage. According to the above configuration, the data operation processing speed can be rapidly increased by initially copying the program stored in the posture correction unit 124, loading it into memory, that is, RAM, and then executing it. In the case of deep learning models, they can be loaded into GPU memory rather than RAM and executed by accelerating the execution speed using GPU.
  • the user's posture can be detected and a notification service such as "Your shoulders are bent too much and you need to stretch your deltoid muscle! can be provided through the user terminal.
  • the notification can be in the form of a text message, a messenger-based chat service, or a voice outputting the content through a speaker, or when a nearby artificial intelligence (AI) speaker is detected, a voice can also be output through it. Anything is possible.
  • the user terminal and the artificial intelligence speaker can perform direct communication such as beacon communication, and through this, the posture correction exercise recommendation device 130 can recognize what peripheral devices are present and provide the results. You can output voice through an artificial intelligence speaker.
  • the user terminal can check the user's real-time posture data periodically on a daily, weekly, and monthly basis. Above all, the user's 360-degree posture area analysis results can be checked using the 360-degree sensing data acquired from the sensor unit 110. there is. You can visualize the direction your body is tilted in 360 degrees and see it at a glance.
  • the user terminal can also have a conversation with a posture AI chatbot. Through this, users can also receive AI-based 1:1 customized posture coaching.
  • the posture correction exercise recommendation device 130 learns answers to various questions in advance through an artificial intelligence program of an AI chatbot, so that the user terminal can receive answers to questions.
  • artificial intelligence programs are different from existing rule-based chatbots in that they recognize text-type sentences like humans, so they can predict and provide answers. In other words, when a user asks a question, the chatbot cannot answer if it is not in the rules.
  • predictions are possible based on the analysis results of the question, so by providing the user with the expected answer, it is possible to continue the conversation and provide an accurate answer to the user's desired query through data learning. .
  • the user terminal may be various types of devices other than smartphones.
  • the user terminal may be another wearable device that users wear on their wrists, etc., and mobile-based devices such as tablet PCs, or even PC-based terminal devices such as desktop computers or laptop computers may also be possible. You can. Therefore, in embodiments of the present invention, there will be no particular limitation on the type of user terminal.
  • the user can perform authentication with the server that stores and provides it.
  • the server may encrypt the identification number of a user group that can access the current body tilt value as posture data, generate a first password, and transmit it to the user terminal.
  • the user can receive the first password, decode the first password using the identification number of the user group to which the user belongs, and read the body tilt value.
  • You can generate a second password by encrypting the read body tilt value and your user identification number and send it to the server.
  • the server reads the body tilt value from the second password using the user identification number, checks whether there is a user identification number whose body tilt value is the same as the body tilt value, and determines whether the user identification number is the same as the body tilt value.
  • Computer-readable recording media include all types of recording devices that store data that can be read by a computer system.
  • Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, floppy disk, and optical data storage devices. Additionally, computer-readable recording media are distributed in computer systems connected to a network. , computer-readable code can be stored and executed in a distributed manner. And functional programs, codes, and code segments for implementing the present invention can be easily deduced by programmers in the technical field to which the present invention pertains.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Physics & Mathematics (AREA)
  • Surgery (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Physiology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Dentistry (AREA)
  • Primary Health Care (AREA)
  • Data Mining & Analysis (AREA)
  • Epidemiology (AREA)
  • Databases & Information Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

A posture estimation device using a sensor, according to an embodiment of the present invention, comprises: at least one sensor unit which is wearable on a user's body and senses a posture of the user; an image capture unit which captures an image of the user wearing the sensor unit; and a posture estimation unit which estimates a posture of the user by using image processing data obtained as a result of analyzing sensing data sensed by the sensor unit and the image captured by the image capture unit.

Description

센서 기반 인간자세추정 장치Sensor-based human posture estimation device
본 발명은 인간자세추정 장치에 관한 것으로, 보다 구체적으로 사용자의 몸에 장착되는 센서를 이용하여 인간자세를 추정하는 자세추정장치에 관한 발명이다.The present invention relates to a human posture estimation device, and more specifically, to a posture estimation device that estimates human posture using a sensor mounted on the user's body.
현대인의 흔한 질병 중 근골격계 관련 질환은 좌식 생활의 증가와 컴퓨터를 이용한 업무환경, 스마트폰이나 태블릿 등의 휴대형 기기의 사용시간 증가로 인해 바르지 못한 자세 또는 동일 자세를 장시간 지속하는 생활 습관에서 비롯되는 경우가 많고, 그 발병 추세가 증가하고 있다. 특히, 좌식 생활이 많은 현대인들에게 있어서 고개를 숙이거나 허리를 앞으로 굽히는 자세를 반복하는 경우가 많다. 이러한 자세가 지속되면, 점진적으로 머리가 몸의 중심에서 앞쪽으로 향하게 되고, 어깨가 움츠러들며, 등이 굽는 형태로 발전하게 된다. 또한, 머리 무게로 인하여 목 근육의 긴장으로 목 근육과 연결된 근육이 경직되며, 어깨의 근육들도 머리의 무게를 지탱하기 위하여 항상 긴장이 되어 피로감이 쉽게 찾아 온다. 아울러, 등이 굽은 상태에서는 척추의 관절이 몸의 중심에서 뒤쪽으로 향하기 때문에 몸의중심이 좌우로 어긋나거나 기울어지기 쉽다.Among the common diseases of modern people, diseases related to the musculoskeletal system are caused by poor posture or a lifestyle habit of maintaining the same posture for a long period of time due to the increase in sedentary lifestyles, computer-based work environments, and increased use of portable devices such as smartphones and tablets. There are many, and the trend of outbreaks is increasing. In particular, modern people who lead a sedentary lifestyle often repeat the posture of lowering their head or bending their back forward. If this posture continues, the head will gradually turn forward from the center of the body, the shoulders will slump, and the back will bend. In addition, due to the weight of the head, the muscles connected to the neck muscles become stiff due to tension in the neck muscles, and the shoulder muscles are also constantly tense to support the weight of the head, which easily leads to fatigue. In addition, when the back is bent, the joints of the spine point backwards from the center of the body, so the center of the body is prone to shift or tilt to the left or right.
따라서, 현대인들에게 올바른 자세를 유지하는 것은 매우 중요하기 때문에 좌식 생활 시에 의자나 책상 등이 인체공학적으로 만들어지고 있으며, 최근에는 자세교정을 위한 기술들이 등장하고 있다.Therefore, maintaining correct posture is very important for modern people, so chairs and desks are being made ergonomically for sedentary lifestyles, and recently, technologies for posture correction have been introduced.
사용자를 촬영한 이미지를 분석하여 사용자의 자세를 추정하는 인간자세추정 기술이 이용되고 있으나, 이미지 분석만으로 정확한 사용자의 자세를 측정하기 어려운 점이 있다.Human posture estimation technology is being used to estimate the user's posture by analyzing images taken of the user, but it is difficult to accurately measure the user's posture through image analysis alone.
[선행기술문헌][Prior art literature]
[특허문헌][Patent Document]
(특허문헌 1) 등록특허공보 제 제10-1480026호(Patent Document 1) Registered Patent Publication No. 10-1480026
본 발명이 해결하고자 하는 기술적 과제는, 사용자의 몸에 장착되는 센서를 이용하여 인간자세를 추정하는 자세추정장치를 제공하는 것이다.The technical problem to be solved by the present invention is to provide a posture estimation device that estimates human posture using a sensor mounted on the user's body.
상기 기술적 과제를 해결하기 위하여, 본 발명의 일 실시예에 따른 자세추정장치는, 사용자의 몸에 착용가능하고, 상기 사용자의 자세를 센싱하는 적어도 하나의 센서부; 상기 센서부를 착용한 사용자를 촬영하는 촬상부; 및 상기 센서부가 센싱한 센싱 데이터 및 상기 촬상부가 촬영한 이미지를 분석한 이미지 처리 데이터를 이용하여 상기 사용자의 자세를 추정하는 자세추정부를 포함한다.In order to solve the above technical problem, a posture estimation device according to an embodiment of the present invention includes at least one sensor unit that can be worn on the user's body and senses the user's posture; An imaging unit that photographs a user wearing the sensor unit; and a posture estimation unit that estimates the user's posture using sensing data sensed by the sensor unit and image processing data obtained by analyzing the image captured by the imaging unit.
또한, 상기 자세추정장치는 상기 촬상부를 포함하는 사용자 단말을 포함하고, 상기 추정한 사용자의 자세를 상기 사용자 단말의 표시부에 표시할 수 있다.Additionally, the posture estimation device may include a user terminal including the imaging unit, and display the estimated user's posture on a display unit of the user terminal.
또한, 상기 자세추정부는, 상기 센싱 데이터 및 이미지 처리 데이터로부터 빅데이터를 생성하고, 학습된 인공지능(AI) 신경망을 이용하여 상기 생성한 빅데이터로부터 상기 사용자의 자세를 360도의 방향에서 분석하고, 상기 빅데이터를 분석한 결과를 상기 표시부에 표시할 수 있다.In addition, the posture estimation unit generates big data from the sensing data and image processing data, and analyzes the user's posture in a 360-degree direction from the generated big data using a learned artificial intelligence (AI) neural network, The results of analyzing the big data can be displayed on the display unit.
본 발명의 실시예들에 따르면, 사용자의 자세를 정확히 측정할 수 있고, 사용자의 이미지분석과 함께 적용하여 자세추정의 정확성을 높일 수 있다. 이를 통해, 척추질환 또는 근골격계 질환을 예방할 수 있다. According to embodiments of the present invention, the user's posture can be accurately measured, and the accuracy of posture estimation can be increased by applying it along with the user's image analysis. Through this, spinal diseases or musculoskeletal diseases can be prevented.
도 1은 본 발명의 일 실시예에 따른 자세추정장치의 블록도이다.Figure 1 is a block diagram of a posture estimation device according to an embodiment of the present invention.
도 2 및 도 3은 본 발명의 실시예에 따른 자세추정장치의 센서부의 예시도이다.Figures 2 and 3 are exemplary diagrams of the sensor unit of the posture estimation device according to an embodiment of the present invention.
도 4는 본 발명의 실시예에 따른 자세추정장치의 자세추정부의 블록도이다.Figure 4 is a block diagram of the posture estimation unit of the posture estimation device according to an embodiment of the present invention.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명한다. Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the attached drawings.
다만, 본 발명의 기술 사상은 설명되는 일부 실시 예에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있고, 본 발명의 기술 사상 범위 내에서라면, 실시 예들간 그 구성 요소들 중 하나 이상을 선택적으로 결합 또는 치환하여 사용할 수 있다.However, the technical idea of the present invention is not limited to some of the described embodiments, but may be implemented in various different forms, and as long as it is within the scope of the technical idea of the present invention, one or more of the components may be optionally used between the embodiments. It can be used by combining or replacing.
또한, 본 발명의 실시예에서 사용되는 용어(기술 및 과학적 용어를 포함)는, 명백하게 특별히 정의되어 기술되지 않는 한, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 일반적으로 이해될 수 있는 의미로 해석될 수 있으며, 사전에 정의된 용어와 같이 일반적으로 사용되는 용어들은 관련 기술의 문맥상의 의미를 고려하여 그 의미를 해석할 수 있을 것이다.In addition, terms (including technical and scientific terms) used in the embodiments of the present invention, unless explicitly specifically defined and described, are generally understood by those skilled in the art to which the present invention pertains. It can be interpreted as meaning, and the meaning of commonly used terms, such as terms defined in a dictionary, can be interpreted by considering the contextual meaning of the related technology.
또한, 본 발명의 실시예에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. Additionally, the terms used in the embodiments of the present invention are for describing the embodiments and are not intended to limit the present invention.
본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함할 수 있고, "A 및(와) B, C 중 적어도 하나(또는 한 개 이상)"로 기재되는 경우 A, B, C로 조합할 수 있는 모든 조합 중 하나 이상을 포함할 수 있다.In this specification, the singular may also include the plural unless specifically stated in the phrase, and when described as "at least one (or more than one) of A and B and C", it is combined with A, B, and C. It can contain one or more of all possible combinations.
또한, 본 발명의 실시 예의 구성 요소를 설명하는데 있어서, 제1, 제2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성요소의 본질이나 차례 또는 순서 등으로 한정되지 않는다.Additionally, in describing the components of the embodiments of the present invention, terms such as first, second, A, B, (a), and (b) may be used. These terms are only used to distinguish the component from other components, and are not limited to the essence, sequence, or order of the component.
그리고, 어떤 구성 요소가 다른 구성 요소에 '연결', '결합', 또는 '접속'된다고 기재된 경우, 그 구성 요소는 그 다른 구성 요소에 직접적으로 '연결', '결합', 또는 '접속'되는 경우뿐만 아니라, 그 구성 요소와 그 다른 구성 요소 사이에 있는 또 다른 구성 요소로 인해 '연결', '결합', 또는 '접속'되는 경우도 포함할 수 있다.And, when a component is described as being 'connected', 'coupled', or 'connected' to another component, that component is directly 'connected', 'coupled', or 'connected' to that other component. In addition to cases, it may also include cases where the component is 'connected', 'coupled', or 'connected' by another component between that component and that other component.
또한, 각 구성 요소의 "상(위)" 또는 "하(아래)"에 형성 또는 배치되는 것으로 기재되는 경우, "상(위)" 또는 "하(아래)"는 두 개의 구성 요소들이 서로 직접 접촉되는 경우뿐만 아니라, 하나 이상의 또 다른 구성 요소가 두 개의 구성 요소들 사이에 형성 또는 배치되는 경우도 포함한다. 또한, "상(위)" 또는 "하(아래)"로 표현되는 경우 하나의 구성 요소를 기준으로 위쪽 방향뿐만 아니라 아래쪽 방향의 의미도 포함될 수 있다. Additionally, when described as being formed or disposed “on top” or “bottom” of each component, “top” or “bottom” means that the two components are directly adjacent to each other. This includes not only the case of contact, but also the case where one or more other components are formed or disposed between the two components. In addition, when expressed as “top” or “bottom,” the meaning of not only the upward direction but also the downward direction can be included based on one component.
도 1은 본 발명의 일 실시예에 따른 자세추정장치의 블록도이다. 도 2 및 도 3은 본 발명의 실시예에 따른 자세추정장치의 센서부의 예시도이고, 도 4는 본 발명의 실시예에 따른 자세추정장치의 자세추정부의 블록도이다.Figure 1 is a block diagram of a posture estimation device according to an embodiment of the present invention. Figures 2 and 3 are exemplary diagrams of the sensor unit of the posture estimation device according to an embodiment of the present invention, and Figure 4 is a block diagram of the posture estimation unit of the posture estimation device according to an embodiment of the present invention.
본 발명의 일 실시예에 따른 자세추정장치(100)는 센서부(110), 자세추정부(120), 및 촬상부(130)로 구성된다.The posture estimation device 100 according to an embodiment of the present invention consists of a sensor unit 110, a posture estimation unit 120, and an imaging unit 130.
센서부(110)는 사용자의 몸에 착용가능하고, 상기 사용자의 자세를 센싱하는 적어도 하나의 센서를 포함한다. 센서부(110)는 웨어러블 장치로 구현되어, 사용자의 몸에 착용가능하고, 360도 방향에서 사용자의 자세를 센싱할 수 있다. 센서부(110)는 사용자의 자세를 센싱하기 위한 적어도 하나 이상의 특징점 위치에 장착될 수 있다. 사용자의 몸(가슴 중앙, 등 뒤, 어깨), 목, 머리, 팔, 손, 엉덩이, 다리, 발 등, 사용자의 자세를 측정하는데 필요한 위치에 장착될 수 있다. 이때, 추정하고자 하는 자세의 복잡도에 따라 장착되는 센서부(110)의 개수가 달라질 수 있다. 센서부(110)는 별도의 모듈로 구성될 수 있다. The sensor unit 110 can be worn on the user's body and includes at least one sensor that senses the user's posture. The sensor unit 110 is implemented as a wearable device, can be worn on the user's body, and can sense the user's posture in a 360-degree direction. The sensor unit 110 may be mounted at the location of at least one feature point for sensing the user's posture. It can be installed in locations necessary to measure the user's posture, such as the user's body (center of the chest, back, shoulders), neck, head, arms, hands, hips, legs, and feet. At this time, the number of sensor units 110 mounted may vary depending on the complexity of the posture to be estimated. The sensor unit 110 may be composed of a separate module.
센서부(100)는 도 2에 도시된 바와 같이, 본 발명의 실시예에 따라 사용자들의 자세를 측정할 수 있는 다양한 유형의 장치를 포함할 수 있다. 센서부(110)는 사용자들이 멈춰서 자세를 잡거나 이동하면서 자세를 변화하는 일상의 데이터를 하나로 모을 수 있도록 도 2의 (a) 내지 (e)에서와 같이 사용자의 목, 어깨, 허리 골반, 가슴 중앙,다리에 착용하는 센서기기를 포함할 수 있다. 도 2(a)와 같이, 벨트 형태로 사용자의 허리나 몸의 중심부인 가슴 중앙(예: 명치)에 착용하는 센서기기, 도 2(b)와 같이, 몸의 상부에 착용하는 스포츠 브라 또는 셔츠 등의 의류형기기, 도 2(c)와 같이, 사용자들이 착석하는 의자에 놓이거나 설치되는 스마트 시트, 도 2(d)와 같이, 거북목 습관 교정기, 또는 도 2(e)와 같이, 신체에 직접 부착되는 패치 형태의 센서 등을 포함할 수 있다. 여기서, 스마트 시트는 앉는 것에 관련되지만, 스포츠 브라나 거북목 습관 교정기는 움직이는 것에 관련되는 기기라 볼 수 있다. 나아가 본 발명의 실시예에 따른 센서부(110)는 라이프스타일의 웨어러블뿐 아니라 근골격계 의료용 기기를 융합한 하이브리드 형태의 제품을 포함할 수도 있으므로, 본 발명의 실시예에서는 어느 하나의 형태에 특별히 한정하지는 않는다.As shown in FIG. 2, the sensor unit 100 may include various types of devices that can measure the posture of users according to an embodiment of the present invention. The sensor unit 110 measures the user's neck, shoulders, waist, pelvis, and center of the chest as shown in (a) to (e) of FIG. 2 so that users can collect daily data on changes in posture while stopping or moving. ,It may include a sensor device worn on the leg. As shown in Figure 2(a), a sensor device is worn in the form of a belt on the user's waist or in the center of the chest (e.g., solar plexus), which is the center of the body, and as shown in Figure 2(b), a sports bra or shirt worn on the upper part of the body. A clothing type device such as a smart seat placed or installed on a chair where users sit, as shown in Figure 2(c), a turtle neck habit corrector as shown in Figure 2(d), or a body wearer as shown in Figure 2(e). It may include a sensor in the form of a patch that is directly attached to the. Here, a smart seat is related to sitting, but a sports bra or turtleneck habit corrector can be seen as a device related to moving. Furthermore, the sensor unit 110 according to an embodiment of the present invention may include a hybrid type product that combines not only a lifestyle wearable but also a musculoskeletal medical device, so the embodiment of the present invention is not specifically limited to any one type. No.
센서부(110)는 사용자들의 자세 측정을 위한 웨어러블 센서를 포함하여 구성될 수 있다. 예를 들어, 스마트 시트의 경우에는 사용자가 의자에 앉을 때 압력이 어떻게 분포되는지를 측정할 수 있는 압력센서를 포함할 수 있다. 앞쪽의 압력센서에서 압력 값이 뒤쪽보다 크게 측정되면 사용자의 자세는 앞쪽으로 기울어져 있다고 볼 수 있다. 무엇보다 본 발명의 실시예에 따른 센서부(110)에 탑재되는 센서는 사용자들에 대한 몸의 움직임 또는 자세를 360도의 방향에서 센싱하기 위한 센서를 포함할 수 있다. 예를 들어, 360도의 방향을 측정하기 위한 3축 자이로 센서를 포함할 수 있다. 3축 가속도 센서나 3축 자이로 센서 또는 6축 또는 9 축 센서를 포함할 수 있고, 관성측정장치(IMU)를 포함할 수 있다. 여기서, 9축 센서는 고정밀 9축 IMU 센서일 수 있고, 3축 컴파스, 3축 자이로, 3축 가속도센서가 결합되어 물체의 움직임, 방향, 진동 및 컴파스 데이터, 자이로 데이터를 센싱할 수 있다. +/-2.5g의 가속도 측정, 125°/s이하 속도에서 측정 가능한 자이로를 포함하고, 고정밀도(high precision) 측정에서 저정밀도(low precision)측정으로의 변경도 센서데이터의 끊김없이 수행이 가능하다. 또는, 신체에 탈부착이 가능한 5축 물리센서 등을 포함할 수 있다. 이외에, 사용자의 위치좌표, 기울기, 이동벡터 등을 측정할 수 있는 다양한 센서를 포함할 수 있다. 상기 센서들 중 적어도 하나의 센서를 이용하여 사용자의 자세각, 자세각속도, 가속도 등을 측정할 수 있다.The sensor unit 110 may be configured to include a wearable sensor for measuring users' posture. For example, a smart seat may include a pressure sensor that can measure how pressure is distributed when the user sits on the chair. If the pressure value measured by the front pressure sensor is greater than the back, the user's posture can be considered to be tilted forward. Above all, the sensor mounted on the sensor unit 110 according to an embodiment of the present invention may include a sensor for sensing body movement or posture of users in a 360-degree direction. For example, it may include a 3-axis gyro sensor to measure the direction of 360 degrees. It may include a 3-axis acceleration sensor, a 3-axis gyro sensor, or a 6-axis or 9-axis sensor, and may include an inertial measurement unit (IMU). Here, the 9-axis sensor may be a high-precision 9-axis IMU sensor, and a 3-axis compass, 3-axis gyro, and 3-axis acceleration sensor can be combined to sense the object's movement, direction, vibration, compass data, and gyro data. It includes acceleration measurement of +/-2.5g and a gyro that can measure at speeds of 125°/s or less, and changes from high precision measurement to low precision measurement can be performed without interruption of sensor data. do. Alternatively, it may include a 5-axis physical sensor that is attachable and detachable from the body. In addition, it may include various sensors that can measure the user's position coordinates, tilt, movement vector, etc. The user's posture angle, posture angular velocity, acceleration, etc. can be measured using at least one of the sensors.
3축 자이로센서나 3축 가속도센서 등을 통해 앞뒤 및 좌우의 방향을 측정할 수 있으며, 360도 방향의 움직임 즉 사용자 몸의 자세를 측정할 수 있다. 이외에, 사용자의 자세 영역을 앞뒤, 좌우 및 360도의 방향에서 측정하기 위한 다양한 유형의 센서를 포함할 수 있음은 당연하다. Through a 3-axis gyro sensor or a 3-axis acceleration sensor, the direction of front and back and left and right can be measured, and movement in 360 degrees, that is, the user's body posture, can be measured. In addition, it is natural that various types of sensors can be included to measure the user's posture area in front and back, left and right, and 360 degrees.
센서부(110)의 센서를 통해 취득되는 센싱데이터가 앞뒤 기울기의 자세 정보에 한정되지 않고 좌우 및 360도의 방향에 대한자세 정보를 포함하여 사용자의 정확한 자세를 추정할 수 있다. Sensing data acquired through the sensor of the sensor unit 110 is not limited to posture information of forward and backward inclinations, but includes posture information for left and right and 360 degrees, so that the user's accurate posture can be estimated.
촬상부(130)는 센서부(110)를 착용한 사용자를 촬영할 수 있다. 촬상부(130)는 사용자의 자세를 추정하는데 필요한 이미지를 촬영할 수 있다. 이때, 사용자의 몸의 자세를 추정하는 경우, 사용자의 몸 부분을 포함하도록 촬영하고, 몸 전체의 자세를 추정하는 경우, 사용자의 전신을 포함하도록 촬영할 수 있다. 또는, 사용자의 특정 부위만을 촬영할 수도 있다. The imaging unit 130 can capture images of a user wearing the sensor unit 110. The imaging unit 130 can capture images necessary to estimate the user's posture. At this time, when estimating the user's body posture, the image may be captured to include only part of the user's body, and when estimating the posture of the entire body, the image may be captured to include the user's entire body. Alternatively, only specific parts of the user can be photographed.
촬상부(130)는 사용자 단말에 포함될 수 있다. 여기서, 사용자 단말은 사용자의 휴대폰, 태블릿 등 이동단말일 수 있다. 또는, PC 단말일 수도 있음은 당연하다. 촬상부(130)는 사용자 단말에 장착된 이미지 센서 및 이미지 처리 프로세서(ISP) 등을 포함할 수 있다. 촬상부(130)는 별도의 모듈로 구성될 수도 있다. The imaging unit 130 may be included in the user terminal. Here, the user terminal may be a mobile terminal such as the user's mobile phone or tablet. Or, of course, it could be a PC terminal. The imaging unit 130 may include an image sensor and an image processing processor (ISP) mounted on the user terminal. The imaging unit 130 may be configured as a separate module.
자세추정부(120)는 센서부(110)가 센싱한 센싱 데이터 및 촬상부(130)가 촬영한 이미지를 분석한 이미지 처리 데이터를 이용하여 상기 사용자의 자세를 추정한다. The posture estimation unit 120 estimates the user's posture using the sensing data sensed by the sensor unit 110 and image processing data obtained by analyzing the image captured by the imaging unit 130.
자세추정부(120)는 촬상부(130)가 상기 사용자를 촬영한 이미지를 분석하고, 상기 이미지를 분석한 결과인 이미지 처리 데이터와 상기 센싱 데이터를 분석한 결과를 이용하여 상기 사용자의 자세를 추정할 수 있다.The posture estimation unit 120 analyzes the image captured by the imaging unit 130 of the user, and estimates the user's posture using image processing data that is the result of analyzing the image and the result of analyzing the sensing data. can do.
촬상부(130)는 사용자를 촬영하고 자세추정부(120)는 촬상부(130)가 촬영한 사용자의 이미지로부터 사용자의 관절 등 특징점을 분리하여, 특징점의 상대적인 위치를 이용하여 사용자의 자세를 추정하는데 이용할 수 있다. 자세추정부(120)가 사용자의 이미지로부터 자세를 추정하는 과정은 Pictorial structure 기법, 거리(depth) 기반 자세추정 기법, 딥러닝 기반 2D 인간자세 추정 기법, 히트맵(heatmap)을 이용한 인간자세 추정 기법, SOTA 2D 인간자세 추정 기법, RGB 기반 인간자세 추정 기법, 모델링 기반 인간자세 추정 기법, Posenet 등 인간자세추정(Human pose estimation) 알고리즘을 이용할 수 있다. The imaging unit 130 photographs the user, and the posture estimation unit 120 separates feature points, such as the user's joints, from the user's image captured by the imaging unit 130, and estimates the user's posture using the relative positions of the feature points. It can be used to do so. The process by which the posture estimation unit 120 estimates the posture from the user's image includes pictorial structure technique, depth-based posture estimation technique, deep learning-based 2D human posture estimation technique, and human posture estimation technique using heatmap. , Human pose estimation algorithms such as SOTA 2D human pose estimation technique, RGB-based human pose estimation technique, modeling-based human pose estimation technique, and Posenet can be used.
자세추정부(120)는 센서부(110)가 센싱한 360도 방향의 센싱 데이터를 이용하여 상기 사용자의 자세를 추정한다. 자세추정부(120)는 센서부(110)가 센싱한 센싱 데이터를 이용하여 사용자의 현재 자세가 어떤지를 추정한다. 센싱 데이터는 움직임이 고정되는 몸통의 좌표정보 또는 기울기 정보 등을 포함할 수 있고, 움직임이 가능한 관절 등의 좌표정보 또는 꺾여있는 각도 정보 등을 포함할 수 있다.The posture estimation unit 120 estimates the user's posture using 360-degree sensing data sensed by the sensor unit 110. The posture estimation unit 120 estimates the user's current posture using the sensing data sensed by the sensor unit 110. Sensing data may include coordinate information or tilt information of a body whose movement is fixed, and may include coordinate information of a joint capable of movement or bent angle information.
촬상부(130)가 촬영한 이미지로부터 분석되는 특징점의 위치는 센서부(110)가 부착되는 사용자의 착용위치와 대응할 수 있다. 이미지로부터 분석되는 특징점을 분석한 결과와 센서부(110)가 해당 특징점에 대응하는 위치에 장착된 센서를 통해 센싱한 센싱 데이터를 비교함으로써 정확한 자세 정보를 추정할 수 있다. 이미지 처리 데이터를 중심으로 판단하되, 센싱 데이터로 보완할 수 있다. 예를 들어, 이미지 처리 데이터상 특징점이 오버랩되는 경우, 특징점을 구분하거나, 상대적인 위치를 실제 자세와 다르게 인식할 수 있으나, 센싱 데이터를 이용하여, 각 특징점간 상대적인 위치를 정확히 알 수 있어, 자세 추정의 정확성을 높일 수 있다. 또는, 센싱 데이터를 중심으로 판단하되, 이미지 처리 데이터로 보완하거나, 두 데이터를 이용하여 사용자의 자세를 추정할 수 있다. The location of the feature point analyzed from the image captured by the imaging unit 130 may correspond to the user's wearing position where the sensor unit 110 is attached. Accurate posture information can be estimated by comparing the results of analyzing the feature points analyzed from the image and the sensing data sensed by the sensor unit 110 through a sensor mounted at a position corresponding to the feature point. Decisions are made based on image processing data, but can be supplemented with sensing data. For example, when feature points overlap in image processing data, the feature points may be distinguished or the relative position may be recognized differently from the actual posture. However, using sensing data, the relative position between each feature point can be accurately known, thereby estimating the posture. accuracy can be increased. Alternatively, the decision can be made based on the sensing data, supplemented with image processing data, or the user's posture can be estimated using both data.
자세추정부(120)가 추정한 사용자의 자세는 사용자 단말의 표시부에 표시될 수 있다. 사용자 단말은 디스플레이 등의 표시부를 포함하고, 표시부상에 사용자의 자세를 추정한 인간자세추정 결과를 표시함으로써 사용자의 자세 정보를 제공할 수 있다. The user's posture estimated by the posture estimation unit 120 may be displayed on the display of the user terminal. The user terminal may include a display unit, such as a display, and provide posture information of the user by displaying a human posture estimation result of estimating the user's posture on the display portion.
센서부(110)는 도 3과 같이, 사용자 몸의 명치부분과 등 부분에 장착될 수 있고, 명치에 부착되는 제1 센서(S)와 등에 부착되는 제2 센서(S)에서 측정되는 센싱 데이터를 이용하여 사용자의 자세를 추정할 수 있다. 제1 센서(S)와 제2 센서(S')의 기울기 정보를 이용하여 제1 센서(S) 및 제2 센서(S')가 지상과 수직인 상태를 유지하는 도 3(a) 경우, 사용자의 자세는 똑바로 서있는 상태로 추정할 수 있다. 하지만, 제1 센서(S) 및 제2 센서(S')가 지상과 수직인 상태가 아니고 기울어진 도 3(b) 경우, 사용자의 자세는 구부정한 상태인 것으로 추정할 수 있다. 도 3(b)에서 제1 센서(S)와 제2 센서(S')는 서로 반대방향으로 기울어진 상태인 반면, 제1 센서(S)와 제2 센서(S')가 동일방향으로 기울어진 경우, 뒤로 기대거나 누운 상태로 추정하거나, 반대로 앞으로 기대거나 엎드려 있는 상태로 추정할 수 있다.As shown in FIG. 3, the sensor unit 110 may be mounted on the solar plexus and back portion of the user's body, and sensing data measured by the first sensor (S) attached to the solar plexus and the second sensor (S) attached to the back. You can estimate the user's posture using . In the case of Figure 3 (a), where the first sensor (S) and the second sensor (S') are maintained perpendicular to the ground using the tilt information of the first sensor (S) and the second sensor (S'), The user's posture can be estimated as standing upright. However, in the case where the first sensor S and the second sensor S' are not perpendicular to the ground but are tilted as shown in FIG. 3(b), it can be assumed that the user's posture is in a slouching state. In Figure 3(b), the first sensor (S) and the second sensor (S') are tilted in opposite directions, while the first sensor (S) and the second sensor (S') are tilted in the same direction. If you lose, it can be assumed that you are leaning back or lying down, or, conversely, that you are leaning forward or lying down.
도 3은 몸을 예로 설명하였으나, 목, 팔이나 다리 등 관절의 움직임을 분석하여 자세를 추정할 수 있다. 관절을 중심으로 양측에 센서가 장착되어, 센서간 상대좌표 및 기울기를 통해 관절이 어느 방향으로 얼마나 꺾여 있는지를 추정할 수 있다.Figure 3 illustrates the body as an example, but the posture can be estimated by analyzing the movements of joints such as the neck, arms, or legs. Sensors are installed on both sides of the joint, and it is possible to estimate in which direction and how much the joint is bent through the relative coordinates and tilt between the sensors.
자세추정부(120)는, 상기 센싱 데이터로부터 빅데이터를 생성하고, 학습된 인공지능(AI) 신경망을 이용하여 상기 생성한 빅데이터로부터 상기 사용자의 몸이 기울어진 방향을 360도의 방향에서 분석하고, 상기 빅데이터를 분석한 결과를 사용자 단말로 제공할 수 있다.The posture estimation unit 120 generates big data from the sensing data, and analyzes the direction in which the user's body is tilted in a 360-degree direction from the generated big data using a learned artificial intelligence (AI) neural network. , the results of analyzing the big data can be provided to the user terminal.
자세추정부(120)는 센싱데이터로부터 자세를 추정하도록 기계학습된 인공지능 신경망을 이용하여 자세를 추정할 수 있다. 여기서, 인공지능 신경망은 컨볼루션 신경망(CNN), 딥러닝 신경망(DNN) 등 다양한 인공지능 신경망을 포함할 수 있다. 인공지능 신경망의 트레이닝 세트는 특정 자세에서 측정되는 센싱 데이터를 입력데이터로 하고, 해당 특정 자세를 비교 데이터로 할 수 있고, 트레이닝을 통해 학습된 인공지능 신경망의 파라미터는 저장부에 저장될 수 있다.The posture estimation unit 120 can estimate the posture using a machine-learned artificial intelligence neural network to estimate the posture from sensing data. Here, the artificial intelligence neural network may include various artificial intelligence neural networks such as convolutional neural network (CNN) and deep learning neural network (DNN). The training set of the artificial intelligence neural network can use sensing data measured in a specific posture as input data, and the specific posture can be used as comparison data, and the parameters of the artificial intelligence neural network learned through training can be stored in the storage unit.
자세추정부(120)는 도 4와 같이, 처리부(121), 통신 인터페이스부(122), 저장부(123), 및 자세교정부(124)를 포함할 수 있다. 처리부(121)는 센싱 데이터로부터 자세를 추정하는 적어도 하나의 프로세서를 포함할 수 있다. 처리부(121)는 앞서 설명한 인공지능 신경망을 포함할 수 있다.As shown in FIG. 4, the posture estimation unit 120 may include a processing unit 121, a communication interface unit 122, a storage unit 123, and a posture correction unit 124. The processing unit 121 may include at least one processor that estimates the posture from sensing data. The processing unit 121 may include the artificial intelligence neural network described above.
통신 인터페이스부(122)는 센서부(110), 사용자 단말, 또는 서버 등과의 통신을 통해 신호를 송수신할 수 있다. 통신을 수행하는 과정에서 통신 인터페이스부(122)는 변/복조, 인코딩/디코딩, 먹싱/디먹싱, 해상도를 변환하는 등의 동작을 수행할 수 있으며, 스마트폰 등의 사용자 단말의 경우에는 화면 크기가 모두 다르므로 최적 상태의 화면이 되도록 해상도를 변환하여 제공할 수 있다.The communication interface unit 122 may transmit and receive signals through communication with the sensor unit 110, a user terminal, or a server. In the process of performing communication, the communication interface unit 122 can perform operations such as modulation/demodulation, encoding/decoding, muxing/demuxing, and resolution conversion. In the case of user terminals such as smartphones, the screen size Since they are all different, the resolution can be converted to provide the optimal screen.
통신 인터페이스부(122)의 통신은 유무선 통신망을 모두 포함한다. 가령 통신망으로서 유무선 인터넷망이 이용되거나 연동될 수 있다. 여기서 유선망은 케이블망이나 공중 전화망(PSTN)과 같은 인터넷망을 포함하는 것이고, 무선 통신망은 CDMA,WCDMA, GSM, EPC(Evolved Packet Core), LTE(Long Term Evolution), 와이브로(Wibro) 망 등을 포함하는 의미이다. 물론 본 발명의 실시예에 따른 통신망(120)은이에 한정되는 것이 아니며, 향후 구현될 차세대 이동 통신 시스템의 접속망으로서 클라우드 컴퓨팅 환경하의 클라우드 컴퓨팅망, 5G망 등에 사용될 수 있다. 가령, 통신망(120)이 유선 통신망인 경우 통신망 내의 액세스포인트는 전화국의 교환국 등에 접속할 수 있지만, 무선 통신망인 경우에는 통신사에서 운용하는 SGSN 또는 GGSN(Gateway GPRS Support Node)에 접속하여 데이터를 처리하거나, BTS(BaseTransceiver Station), NodeB, e-NodeB 등의 다양한 중계기에 접속하여 데이터를 처리할 수 있다.Communication of the communication interface unit 122 includes both wired and wireless communication networks. For example, a wired or wireless Internet network may be used or linked as a communication network. Here, the wired network includes Internet networks such as cable networks and public switched telephone networks (PSTN), and the wireless communication network includes CDMA, WCDMA, GSM, EPC (Evolved Packet Core), LTE (Long Term Evolution), and Wibro networks. It means including. Of course, the communication network 120 according to an embodiment of the present invention is not limited to this, and can be used in a cloud computing network, 5G network, etc. in a cloud computing environment as an access network for a next-generation mobile communication system to be implemented in the future. For example, if the communication network 120 is a wired communication network, the access point within the communication network can connect to the telephone company's exchange office, etc., but in the case of a wireless communication network, data is processed by connecting to the SGSN or GGSN (Gateway GPRS Support Node) operated by the communication company, or Data can be processed by connecting to various repeaters such as BTS (BaseTransceiver Station), NodeB, and e-NodeB.
통신망은 액세스포인트를 포함할 수도 있다. 액세스포인트는 건물 내에 많이 설치되는 펨토(femto) 또는 피코(pico) 기지국과 같은 소형 기지국을 포함한다. 여기서, 펨토 또는 피코 기지국은 소형 기지국의 분류상 센서부(110)나 사용자 단말 등을 최대 몇 대까지 접속할 수 있느냐에 따라 구분된다. 물론 액세스포인트는 센서부(110)나 사용자 단말 등과 지그비 및 와이파이(Wi-Fi) 등의 근거리 통신을 수행하기 위한 근거리 통신 모듈을 포함할 수 있다. 액세스포인트는 무선통신을 위하여 TCP/IP 혹은 RTSP(Real-TimeStreaming Protocol)를 이용할 수 있다. 여기서, 근거리 통신은 와이파이 이외에 블루투스, 지그비, 적외선(IrDA), UHF(Ultra High Frequency) 및 VHF(Very HighFrequency)와 같은 RF(Radio Frequency) 및 초광대역 통신(UWB) 등의 다양한 규격으로 수행될 수 있다. 이에 따라 액세스포인트는 데이터 패킷의 위치를 추출하고, 추출된 위치에 대한 최상의 통신 경로를 지정하며, 지정된 통신 경로를 따라 데이터 패킷을 다음 장치, 예컨대 자세교정 운동추천장치(130)로 전달할 수 있다. 액세스포인트는 일반적인 네트워크 환경에서 여러 회선을 공유할 수 있으며, 예컨대 라우터(router), 리피터(repeater) 및 중계기 등이 포함될 수 있다.A communication network may also include access points. Access points include small base stations such as femto or pico base stations that are often installed in buildings. Here, femto or pico base stations are classified according to the maximum number of sensor units 110 or user terminals that can be connected in the classification of small base stations. Of course, the access point may include a short-distance communication module for performing short-distance communication such as Zigbee and Wi-Fi with the sensor unit 110 or a user terminal. Access points can use TCP/IP or RTSP (Real-TimeStreaming Protocol) for wireless communication. Here, in addition to Wi-Fi, short-range communication can be performed using various standards such as Bluetooth, Zigbee, infrared (IrDA), RF (Radio Frequency) such as UHF (Ultra High Frequency) and VHF (Very High Frequency), and ultra-wideband communication (UWB). there is. Accordingly, the access point can extract the location of the data packet, designate the best communication path for the extracted location, and forward the data packet to the next device, such as the posture correction exercise recommendation device 130, along the designated communication path. Access points can share multiple lines in a typical network environment and may include, for example, routers, repeaters, and repeaters.
통신 인터페이스부(122)는 센서부(110)가 작동할 때, 해당 센서부(110)가 기 등록되어 있는 경우 실시간으로 센싱 데이터를 수신하여 처리부(121)에 전달할 수 있다. 예를 들어, 사용자가 도 2에서 볼 때, 360도의 몸의 움직임방향을 알 수 있도록 도 2(a)에서와 같은 자세측정기기를 사용하고, 도 2(c)에서와 같은 스마트 시트를 사용하고 있는 경우라면, 해당 사용자가 소지하는 센서부(110)를 기준으로 2개의 센서부(110)에서 수집되는 데이터를 분류하여 처리부(121)에 제공할 수 있다. 본 발명의 실시예에 따라 사용자가 자신이 소지하는 센서부(110)를 등록할 때 센서부(110)의 장치식별정보를 취득하여 저장부(123) 등에 저장하고, 해당 정보를 이용함으로써 어떤 사용자가 어떤 센서를 소지하는지를 알 수 있다. 센서부(110)가 작동하여 센싱 데이터를 전송할 때 자신의 장치식별정보를 함께 전송하기 때문이다. 물론 센서부(110)는 센싱 데이터가 생성되는 시간 정보도 함께 전송할 수 있다.When the sensor unit 110 operates, the communication interface unit 122 can receive sensing data in real time and transmit it to the processing unit 121 if the corresponding sensor unit 110 is already registered. For example, when the user looks at FIG. 2, use a posture measurement device as shown in FIG. 2(a) and use a smart sheet as shown in FIG. 2(c) so that the user can know the 360-degree direction of body movement. If so, the data collected from the two sensor units 110 can be classified based on the sensor unit 110 possessed by the user and provided to the processing unit 121. According to an embodiment of the present invention, when a user registers his or her sensor unit 110, the device identification information of the sensor unit 110 is acquired and stored in the storage unit 123, etc., and the user uses the information to determine which user You can find out what sensor it has. This is because when the sensor unit 110 operates and transmits sensing data, it also transmits its own device identification information. Of course, the sensor unit 110 can also transmit information on the time when the sensing data is generated.
또한, 통신 인터페이스부(122)는 사용자 단말에서 앱이 실행될 때 사용자 단말과 통신을 수행하고, 또 사용자의 서비스 요청에 따라 사용자의 자세와 관련한 데이터의 분석 결과를 제공할 수 있다. 대표적으로, 앞뒤, 좌우 및 360도 방향에서의 자세에 대한 UI 화면을 제공할 수 있다. 물론 이외에도 통신 인터페이스부(122)는 처리부(121)의 요청에 따라 사용자의 자세가 기준 자세를 벗어날 때 자세교정을 위한 알림통지를 수행할 수 있다. 어플리케이션을 사용하는 경우에는 어플리케이션을 통해 푸쉬(push) 형태의 알림이 통지될 수 있다.Additionally, the communication interface unit 122 may communicate with the user terminal when an app is executed on the user terminal, and may provide analysis results of data related to the user's posture according to the user's service request. Typically, a UI screen for posture in front and back, left and right, and 360 degree directions can be provided. Of course, in addition to this, the communication interface unit 122 may, at the request of the processing unit 121, send a notification for posture correction when the user's posture deviates from the standard posture. When using an application, notifications in the form of a push may be notified through the application.
처리부(121)는 통신 인터페이스부(122), 자세교정부(124) 및 저장부(123)의 전반적인 제어 동작을 담당할 수 있다. 처리부(121)는 대표적으로 통신 인터페이스부(122)로부터 사용자별 자세측정에 의한 센싱 데이터가 수신될 때 이를 저장부(123)에 임시 저장한 후 불러내어 자세교정부(124)에 제공할 수 있다. 이의 과정에서 처리부(121)는 저장부(123)에 데이터를 분류하여 저장하도록 지정 포맷으로 데이터를 가공해 제공하는 경우, 해당 지정 포맷의 데이터를 저장부(123)에 체계적으로 분류하여 저장시키기 위해 통신 인터페이스부(400)를 제어할 수 있다.The processing unit 121 may be responsible for the overall control operation of the communication interface unit 122, the posture correction unit 124, and the storage unit 123. Typically, when sensing data based on posture measurement for each user is received from the communication interface unit 122, the processing unit 121 temporarily stores it in the storage unit 123, retrieves it, and provides it to the posture correction unit 124. . In this process, when the processing unit 121 processes and provides data in a specified format to classify and store the data in the storage unit 123, the processing unit 121 systematically classifies and stores the data in the specified format in the storage unit 123. The communication interface unit 400 can be controlled.
처리부(121)는 저장부(123)로부터 특정 사용자들의 자세데이터를 가져와 분석 동작을 수행하기 위한 동작을 수행할 수 있다. 이외에도 처리부(121)는 사용자 단말에서 서비스에 접속하여 자신과 관련한 다양한 형태의 데이터를 요청하는 경우 사용자의 데이터를 그래픽 처리한 UI 화면을 사용자 단말로 제공할 수 있다. 예를 들어, 앞뒤, 좌우, 360도 방향에서의 정밀한 기울기의 자세측정과 관련한 화면이라든가, 자세습관을 추적해 1:1 코칭을 위한 화면을 제공하거나, 사용자의 자세측정 데이터의 분석 결과를 토대로 운동 추천을 위한 동영상을 제공할 수 있다. 이러한 동작을 위하여 처리부(121)는 자세교정부(124)와 연계하여 동작할 수 있다.The processing unit 121 may retrieve posture data of specific users from the storage unit 123 and perform an analysis operation. In addition, when the user terminal accesses a service and requests various types of data related to the user terminal, the processing unit 121 may provide a UI screen that graphically processes the user data to the user terminal. For example, it provides a screen related to posture measurement of precise inclinations in the front and back, left and right, and 360-degree directions, provides a screen for 1:1 coaching by tracking posture habits, or provides exercise based on the analysis results of the user's posture measurement data. Videos can be provided for recommendations. For this operation, the processing unit 121 may operate in conjunction with the posture correction unit 124.
처리부(121)는 센서부(110)로부터 취득되는 사용자별 자세 측정와 관련한 센싱 데이터를 분석할 수 있다. 처리부(121)는 인공지능 신경망을 이용하여 사전에 자세와 관련한 데이터를 학습한 후 그 학습 결과를 근거로 자세 추정을 수행할 수 있다. 통상적으로 기계학습은 지도학습과 비지도학습이 있다. 지도학습은 학습 데이터를 구축할 때 프로그램 설계자가 이게 기준 자세라고 데이터를 설정해 주는 것이다. 반면 비지도 학습은 빅데이터를 분석하여 이를 통해 인공지능 프로그램이 스스로 기준 자세를 판단해 가는 과정이다. 따라서 비지도 학습은 학습을 위한 많은 데이터가 필요하다. 물론 비지도 학습의 경우에도 초기에는 기준되는 자세와 관련한 데이터가 필요할 수 있으므로 본 발명의 실시예에서는 지도 학습과 비지도 학습을 병행하는 것도 얼마든지 가능하므로 어느 하나의 형태로 한정하지는 않을 것이다. 인공지능의 딥러닝 프로그램은 자세 측정시 정확도를 증가시킬 수 있다. 따라서 이의 정확한 결과를 근거로 그에 매칭되는 자세교정 운동을 사용자들의 사용자 단말로 추천할 수 있다.The processing unit 121 may analyze sensing data related to posture measurement for each user acquired from the sensor unit 110. The processing unit 121 may learn posture-related data in advance using an artificial intelligence neural network and then perform posture estimation based on the learning results. Typically, machine learning includes supervised learning and unsupervised learning. Supervised learning is when the program designer sets the data as a reference posture when constructing learning data. On the other hand, unsupervised learning is a process in which an artificial intelligence program determines the standard posture on its own by analyzing big data. Therefore, unsupervised learning requires a lot of data for learning. Of course, even in the case of unsupervised learning, data related to the reference posture may be needed initially, so in embodiments of the present invention, it is possible to combine supervised learning and unsupervised learning, so it will not be limited to any one form. Artificial intelligence's deep learning program can increase accuracy when measuring posture. Therefore, based on the accurate results, matching posture correction exercises can be recommended to users' user terminals.
무엇보다 처리부(121)는 센서부(110)로부터 앉고 서고 움직이는 일상의 데이터를 수집하여 빅데이터를 생성하고 그 빅데이터를 분석할 때, 사용자들의 자세와 관련해 360도의 기울기에 대한 정밀한 자세 측정이 가능할 수 있다는 것이다. 물론 그러한 360도 방향의 자세 측정 데이터는 센서부(110)의 3축, 6축, 9축 자이로센서 등을 통해 취득하여 제공될 수 있으며, 자세교정부(124)가 해당 데이터를 분석하여 각 사용자의 자세습관에 따른 맞춤형 운동을 추천할 수 있다.Above all, the processing unit 121 collects daily data about sitting, standing, and moving from the sensor unit 110 to generate big data, and when analyzing the big data, it is possible to precisely measure the 360-degree tilt in relation to the user's posture. It is possible. Of course, such 360-degree orientation measurement data can be acquired and provided through the 3-axis, 6-axis, and 9-axis gyro sensors of the sensor unit 110, and the posture correction unit 124 analyzes the data and provides We can recommend customized exercises based on your posture habits.
물론 사용자들마다 소지하는 센서부(110)의 종류가 다를 수 있기 때문에 자세교정부(124)는 각 사용자들이 소지하는 센서부(110)에서 취득되는 데이터를 근거로 운동을 추천하는 것이 바람직하다. 그러나, 자세교정부(124)는 빅데이터를 수집해 분석하므로, 가령 A 사용자와 B 사용자가 서로 소지하지 않는 센서부(110)의 데이터를 반영함으로써 자세교정운동을 추천할 때 정확도를 더욱 증가시킬 수 있다. 다시 말해, 5명에 의해서 취득되는 데이터의 분석결과를 근거로 자세교정 운동을 추천하기보다는 100명에 의해 취득되는 데이터의 분석결과를 근거로 자세교정 운동을 추천하는 것이 더 정확도가 높을 수 있다. 따라서, 자세교정부(124)는 사용자가 소지하는 센서부(110)의 센싱 데이터에 제한하지 않고, 다른 사용자들의 자세측정 데이터를 종합적으로 판단하여 운동을 추천할 수 있는 것이다. Of course, since the types of sensor units 110 carried by each user may be different, it is desirable for the posture correction unit 124 to recommend exercise based on data acquired from the sensor units 110 carried by each user. However, since the posture correction unit 124 collects and analyzes big data, for example, it can further increase accuracy when recommending posture correction exercise by reflecting data from the sensor unit 110 that users A and B do not possess. You can. In other words, it may be more accurate to recommend posture correction exercises based on the analysis results of data acquired by 100 people rather than recommending posture correction exercises based on the analysis results of data acquired by 5 people. Therefore, the posture correction unit 124 is not limited to the sensing data of the sensor unit 110 carried by the user, but can recommend exercise by comprehensively judging the posture measurement data of other users.
예를 들어, 도 2에서와 같이 4개의 센서부(110)의 분석 결과를 근거로 자세교정 운동이 추천된다면, 사용자가 도 2(a)에서와 같은 자세측정기기만 소지하고 있을 때, 해당 자세측정기기의 센싱 데이터와 함께 사용자가 소지하는 않는 나머지 3가지의 센서부(110)의 데이터를 반영하되, 많은 사용자들에게서 공통적으로 추출되는 데이터를 반영하여 자세교정운동을 추천할 수 있다. 이의 과정에서 자세교정부(124)는 사용자의 성별, 나이, 또 신체조건, 동일 또는 유사 직업군 등이 동일 또는 유사한 사용자들의 특성을 반영해 그들의 데이터를 가져와 운동 추천시 반영할 수 있다. 이에 따라 가령 하나의 센서부(110)에 기반할 때 A 운동이 추천된다면, 다른 사용자들의 데이터도 함께 참조함으로써 B 운동이 추천될 수도 있다. 다시 말해, A 운동은 가령 목과 관련한 센싱 데이터만을 반영한 결과라면, B 운동은 목, 척추 및 허리 등의 상관관계를 종합 반영하는 추천되는 결과라고 볼 수 있다.For example, if posture correction exercise is recommended based on the analysis results of the four sensor units 110 as shown in FIG. 2, when the user only possesses the posture measurement device as shown in FIG. 2(a), the corresponding posture measurement Posture correction exercise can be recommended by reflecting the sensing data of the device as well as data from the remaining three sensor units 110 that the user does not possess, and by reflecting data commonly extracted from many users. In this process, the posture correction unit 124 can reflect the characteristics of users with the same or similar gender, age, physical condition, and same or similar occupation, and retrieve their data and reflect it when recommending exercise. Accordingly, for example, if exercise A is recommended based on one sensor unit 110, exercise B may be recommended by also referring to data from other users. In other words, if exercise A is a result that reflects only the sensing data related to the neck, exercise B can be seen as a recommended result that comprehensively reflects the correlation between the neck, spine, and waist.
저장부(123)는 처리부(121)의 제어하에 처리되는 다양한 유형의 데이터를 임시 저장할 수 있다. 저장부(123)는 가령 센서부(110)의 자세측정데이터가 임시 저장되는 경우 이를 자세교정부(124)에 제공하여 데이터분석이 이루어지도록 할 수 있다.The storage unit 123 can temporarily store various types of data that are processed under the control of the processing unit 121. For example, when the posture measurement data of the sensor unit 110 is temporarily stored, the storage unit 123 may provide the posture measurement data to the posture correction unit 124 to enable data analysis.
자세교정부(124)는 사용자들에게 자세 교정이나 운동 추천 등의 서비스를 제공할 수 있다. 이를 위하여 자세교정부(124)는 다양한 서비스(예: 운동추천, 자세교정 구독 등)가 한 곳에서 이루어질 수 있도록 올인원(all in one) 자세 통합 솔루션을 구축할 수 있다. 예를 들어, 자세교정부(124)는 사용자들의 실시간 자세 측정을 통해 나쁜 자세에는 진동 알림을 센서부(110)로 직접 주거나, 또는 사용자들이 소지하는 사용자 단말로 제공할 수 있다. 또한, 사용자 단말을 소지하는 사용자들의 요구시에는 데이터 수집 및 분석에 따라 개인별 자세습관과 관련한 분석 결과를 제공할 수 있다. 이외에도 자세교정부(124)는 자세교정 구독 서비스를 제공하고, 포스처 AI 챗봇과 메신저 기반의 채팅을 통해 AI 기반 1:1 맞춤형 자세 코칭을 수행할 수 있으며, 나아가 사용자 단말로 자세 교정을 위한 운동을 추천하는 것도 얼마든지 가능할 수 있다.The posture correction unit 124 can provide services such as posture correction or exercise recommendations to users. To this end, the posture correction unit 124 can build an all-in-one posture integration solution so that various services (e.g., exercise recommendations, posture correction subscriptions, etc.) can be provided in one place. For example, the posture correction unit 124 may measure users' real-time posture and provide a vibration notification directly to the sensor unit 110 for poor posture, or to a user terminal carried by the users. In addition, upon request from users holding the user terminal, analysis results related to individual postural habits can be provided through data collection and analysis. In addition, the posture correction unit 124 provides a posture correction subscription service and can perform AI-based 1:1 customized posture coaching through posture AI chatbot and messenger-based chat, and further provides posture correction exercises through the user terminal. It is also possible to recommend .
자세교정부(124)는 운동 처방 서비스를 제공할 수 있다. 이와 같이 자세교정부(124)는 자세습관을 추적해 가령 자세습관의 변화를 주기적으로 판단해 자세교정이 필요한 경우 1:1 코칭 동작을 수행할 수 있고, 또 자세습관에 대한 재활이 필요한 경우 맞춤 재활운동 처방을 수행할 수 있다. 자세교정부(124)는 이러한 동작에 관련된 통합형 자세교정 솔루션 즉 서비스를 제공할 수 있게 된다. 예를 들어, 빅데이터 분석을 통해 사용자의 자세습관을 예측하는 것도 얼마든지 가능할 수 있으며, 심각한 상황에 이르기 전에 이를 사용자에게 알리고 자세교정을 위한 코칭동작을 수행함으로써 예방 차원의 동작을 수행할 수 있다. 이의 과정에서 자세교정부(124)는 코칭을 위하여 사용자에게 특정 운동을 추천하고 그 추천한 운동을 수행하고 있는지에 대한 데이터를 다시 수신할 수 있다. 사용자가 코칭에 따라 자세교정 운동을 실질적으로 하고 있는지 센서부(110) 등으로부터 취득되는 센싱 데이터를 분석해 확인할 수 있고, 이와 같이 사용자의 상황에 따라 다양한 형태의 코칭이 이루어질 수 있을 것이다.The posture correction unit 124 may provide exercise prescription services. In this way, the posture correction unit 124 can track posture habits, periodically determine changes in posture habits, and perform 1:1 coaching when posture correction is necessary. Additionally, when rehabilitation for posture habits is necessary, customized coaching is provided. Rehabilitation exercise prescriptions can be performed. The posture correction unit 124 can provide an integrated posture correction solution, or service, related to these operations. For example, it may be possible to predict the user's posture habits through big data analysis, and preventive actions can be taken by informing the user before a serious situation occurs and performing coaching actions to correct posture. . In this process, the posture correction unit 124 may recommend a specific exercise to the user for coaching and receive data on whether the user is performing the recommended exercise. It can be confirmed by analyzing the sensing data acquired from the sensor unit 110, etc., whether the user is actually performing posture correction exercises according to the coaching, and in this way, various forms of coaching can be performed depending on the user's situation.
처리부(121)는 바른자세 유지시간 분석, 주기별 데이터 분석, 자세 점수 제공 및 360도 자세 영역 분석 동작을 수행할 수 있다. 바른자세 유지 시간 분석은 가령 센서부(110)를 사용하는 총 시간 중에 바른 자세 유지 시간을 구분해 즉 판단해 일일 활동 데이터를 생성해 사용자 단말로 분석 결과를 제공할 수 있다. 또한, 자세 데이터를 분석하여 일별 자세를 점수화하여 사용자 단말로 제공할 수 있다. 물론 자세와 관련해서는 자세의 기준이 되는 기준 데이터가 사전에 빅데이터DB로 구축될 수 있으므로 그 기준 데이터와의 비교에 따라 사용자의 자세 교정 범위 또는 자세 교정 지수를 산출하고 이를 근거로 점수화하는 등의 동작을 수행할 수 있다. 물론 그러한 기준 자세는 자세의 기준이 되는 사람, 가령 전문가의 영상을 분석하여 그 분석 결과를 비교하여 판단할 수도 있다. 나아가 360도의 몸 기울기 등에 대한 센싱 데이터를 취득하는 만큼 이의 분석을 통해 사용자의 몸이 기울어진 방향을 360도로 시각화하여 시각화 화면을 사용자의 사용자 단말로 제공할 수 있다. The processing unit 121 can perform the following operations: analysis of time to maintain correct posture, analysis of data by cycle, provision of posture scores, and analysis of 360-degree posture area. Analysis of the time to maintain a correct posture can, for example, distinguish and determine the time to maintain a correct posture among the total time used by the sensor unit 110, generate daily activity data, and provide analysis results to the user terminal. Additionally, by analyzing the posture data, the daily posture can be scored and provided to the user terminal. Of course, with regard to posture, the standard data that serves as the standard for posture can be built in advance as a big data DB, so the user's posture correction range or posture correction index is calculated based on comparison with the standard data and scored based on this. The action can be performed. Of course, such a standard posture can also be determined by analyzing the video of a person who serves as a standard for posture, such as an expert, and comparing the analysis results. Furthermore, as sensing data about 360-degree body tilt is acquired, the direction in which the user's body is tilted can be visualized in 360 degrees through analysis and a visualization screen can be provided to the user's user terminal.
자세교정부(124)는 센서부(110)의 유형에 따라 사용자의 현재 상태를 인식하고, 현 상태에서의 적절한 운동을 추천하는 것도 얼마든지 가능할 수 있다. 예를 들어, 도 2의 (d)에서와 같은 거북목 습관 교정기를 사용하고 있는 경우에는 적절한 목 운동에 관련되는 영상을 추천할 수 있으며, 도 2의 (c)에서와 같은 스마트 시트를 사용하고 있는 것으로 판단될 때에는 앉은 자세에서 수행할 수 있는 적절한 운동 영상을 추천하는 것도 얼마든지 가능할 수 있다. 물론 이러한 서비스를 제공하기 위하여 자세교정부(124)는 각 센서부(110)의 유형과 사용자들의 자세에 따라 제공할 수 있는 적절한 동영상 등의 추천 영상을 기구축하고 이를 근거로 서비스를 제공할 수 있다. 다시 말해, 자세교정부(124)는 현재 수신되는 센싱 데이터로부터 사용자의 현 상태와 센서부(110)의 유형을 판단할 수 있다. 만약 사용자가 착석한 상태로 판단되면, 가령 다양한 자세에 따라 추천할 수 있는 추천 영상이 수십 개라고 가정하면, 사용자의 착석 상태에서의 자세 분석 결과를 근거로 그결과에 매칭되는 추천 영상을 추출하여 해당 사용자의 사용자 단말로 제공할 수 있는 것이다.The posture correction unit 124 may be able to recognize the user's current state depending on the type of the sensor unit 110 and recommend appropriate exercise for the current state. For example, if you are using a turtle neck habit corrector as shown in (d) of Figure 2, videos related to appropriate neck exercises can be recommended, and if you use a smart sheet as shown in (c) of Figure 2, If it is determined that it exists, it may be possible to recommend appropriate exercise videos that can be performed in a sitting position. Of course, in order to provide this service, the posture correction unit 124 can construct recommended images such as appropriate videos that can be provided according to the type of each sensor unit 110 and the user's posture and provide services based on this. there is. In other words, the posture correction unit 124 can determine the user's current state and the type of the sensor unit 110 from the currently received sensing data. If it is determined that the user is in a seated state, for example, assuming that there are dozens of recommended images that can be recommended according to various postures, recommended images that match the results are extracted based on the results of analyzing the user's posture while seated. It can be provided to the user's user terminal.
뿐만 아니라, 본 발명의 실시예는 자세교정부(124)를 통해 골프 스윙 자세 교정, 피트니스 및 가상 트레이닝, 역도자세 교정, 오피스 워커자세 교정, 근골격계 및 물리 치료 등 자세 교정과 관련한 다양한 분야에서 자세교정 서비스를 제공하는 것도 얼마든지 가능하므로 본 발명의 실시예에서는 일상생활에서의 자세 교정 동작에 특별히 한정하지는 않을 것이다.In addition, the embodiment of the present invention provides posture correction in various fields related to posture correction, such as golf swing posture correction, fitness and virtual training, weightlifting posture correction, office worker posture correction, musculoskeletal system and physical therapy, through the posture correction unit 124. Since it is possible to provide any number of services, embodiments of the present invention will not be specifically limited to posture correction operations in daily life.
상기한 내용 이외에도 도 4의 통신 인터페이스부(122), 처리부(121), 자세교정부(124) 및 저장부(123)는 다양한 동작을 수행할 수 있다. 통신 인터페이스부(122), 처리부(121), 자세교정부(124) 및 저장부(123)는 서로 물리적으로 분리된 하드웨어 모듈로 구성될 수 있고, 각 모듈은 내부에 상기의 동작을 수행하기 위한 소프트웨어를 저장하고 이를 실행할 수 있다. 다만, 해당 소프트웨어는 소프트웨어모듈의 집합이고, 각 모듈은 하드웨어로 형성되는 것이 얼마든지 가능하므로 소프트웨어니 하드웨어니 하는 구성에 특별히 한정하지 않는다. 예를 들어 저장부(123)는 하드웨어인 스토리지(storage) 또는 메모리(memory)일 수 있다. 하지만, 소프트웨어적으로 정보를 저장(repository)하는 것도 얼마든지 가능하므로 위의 내용에 특별히 한정하지는 않는다.In addition to the above, the communication interface unit 122, processing unit 121, posture correction unit 124, and storage unit 123 of FIG. 4 can perform various operations. The communication interface unit 122, the processing unit 121, the posture correction unit 124, and the storage unit 123 may be composed of hardware modules that are physically separated from each other, and each module has internal functions for performing the above operations. You can save software and run it. However, the software is a set of software modules, and each module can be formed as hardware, so there is no particular limitation on the configuration of software or hardware. For example, the storage unit 123 may be hardware, such as storage or memory. However, since it is possible to store information through software (repository), there is no particular limitation to the above.
한편, 본 발명의 다른 실시예로서 처리부(121)는 CPU 및 메모리를 포함할 수 있으며, 원칩화하여 형성될 수 있다. CPU는 제어회로, 연산부(ALU), 명령어해석부 및 레지스트리 등을 포함하며, 메모리는 램을 포함할 수 있다. 제어회로는 제어동작을, 그리고 연산부는 2진비트 정보의 연산동작을, 그리고 명령어해석부는 인터프리터나 컴파일러 등을 포함하여 고급언어를 기계어로, 또 기계어를 고급언어로 변환하는 동작을 수행할 수 있으며, 레지스트리는 소프트웨어적인 데이터저장에 관여할 수 있다. 상기의 구성에 따라, 초기에 자세교정부(124)에 저장되어 있는 프로그램을 복사하여 메모리 즉 램(RAM)에 로딩한 후 이를 실행시킴으로써 데이터 연산 처리 속도를 빠르게 증가시킬 수 있다. 딥러닝 모델 같은 경우 램(RAM)이 아닌 GPU 메모리에 올라가GPU를 이용하여 수행 속도를 가속화하여 실행될 수도 있다.Meanwhile, as another embodiment of the present invention, the processing unit 121 may include a CPU and memory, and may be formed as a single chip. The CPU includes a control circuit, an arithmetic unit (ALU), an instruction interpretation unit, and a registry, and the memory may include RAM. The control circuit performs control operations, the operation unit performs operations on binary bit information, and the command interpretation unit includes an interpreter or compiler, which can convert high-level language into machine language and machine language into high-level language. , the registry can be involved in software data storage. According to the above configuration, the data operation processing speed can be rapidly increased by initially copying the program stored in the posture correction unit 124, loading it into memory, that is, RAM, and then executing it. In the case of deep learning models, they can be loaded into GPU memory rather than RAM and executed by accelerating the execution speed using GPU.
사용자 단말은 자세추정장치에 접속하여 사용자들마다 자신의 자세와 관련한 데이터의 분석 결과를 확인할 수 있다. 사용자 단말로 제공되는 UX/UI 화면은 물론 다양할 수 있다. 사용자 단말은 본 발명의 실시예에 따른 대표적으로 인공지능(AI)의 분석에 따른 운동추천 서비스를 제공받을 수 있다. 예를 들어 운동 추천은 동영상의 형태로 제공되거나 해당 동영상에 접속할 수 있는 URL 정보를 제공받는 것도 얼마든지 가능할 수 있다. 이외에도 사용자 단말은 나쁜 자세 진동 알림을 수신할 수 있고, 즉 나쁜 자세가 감지될 때 알림 신호를 전송해 사용자 단말이나 센서부(110)를 진동시킬 수 있고, 또 수집된 데이터의 분석 결과에 따른 개인별자세습관 분석 결과는 그래프나 도표 등의 형태로 확인하는 것도 얼마든지 가능하다. 예를 들어, 사용자가 TV 시청 중일 때 사용자의 자세를 감지하여 사용자 단말을 통해 알림 서비스로서 "어깨가 많이 굽어 있어 삼각근 스트레칭이 필요합니다!"와 같은 알림 서비스를 제공받을 수 있다. 물론 알림은 문자 메시지의 형태이거나, 메신저 기반의 채팅 서비스, 또는 스피커를 통해 음성의 형태로 해당내용의 음성을 출력하거나, 주변의 인공지능(AI) 스피커가 감지될 때에는 이를 통해 음성을 출력하는 것도 얼마든지 가능할 수 있다. 예를 들어, 사용자 단말과 인공지능 스피커는 비콘(beacon) 통신 등의 다이렉트 통신을 수행할 수 있으며, 이를 통해 어떤 주변 기기가 있는지를 자세교정 운동추천장치(130)에서 인식할 수 있으므로 그 결과를 통해 인공지능 스피커로 음성을 출력하도록 할 수 있다.The user terminal can access the posture estimation device and check the analysis results of data related to each user's posture. Of course, the UX/UI screens provided to the user terminal may vary. The user terminal may be provided with an exercise recommendation service based on analysis of artificial intelligence (AI) according to an embodiment of the present invention. For example, exercise recommendations may be provided in the form of a video, or URL information that can access the video may be provided. In addition, the user terminal can receive a bad posture vibration notification, that is, when a bad posture is detected, a notification signal can be transmitted to vibrate the user terminal or the sensor unit 110, and individual information based on the analysis results of the collected data can be provided. It is also possible to check the results of postural habits analysis in the form of graphs or charts. For example, when the user is watching TV, the user's posture can be detected and a notification service such as "Your shoulders are bent too much and you need to stretch your deltoid muscle!" can be provided through the user terminal. Of course, the notification can be in the form of a text message, a messenger-based chat service, or a voice outputting the content through a speaker, or when a nearby artificial intelligence (AI) speaker is detected, a voice can also be output through it. Anything is possible. For example, the user terminal and the artificial intelligence speaker can perform direct communication such as beacon communication, and through this, the posture correction exercise recommendation device 130 can recognize what peripheral devices are present and provide the results. You can output voice through an artificial intelligence speaker.
이외에도 사용자 단말은 본 발명의 실시예에 따른 서비스를 이용하기 위한 어플리케이션(이하, 앱)을 통해 자세 데이터 분석 결과를 확인할 수 있다. 대표적으로 분석 결과로서 자세 점수가 제공될 수 있다. 일별 자세를 점수화하여 점수를 확인할 수 있다. 물론 계산 방식은 다양하게 이루어질 수 있으므로 어느 하나의 방식에 특별히 한정하지는 않을 것이다. 예를 들어, 바른 자세를 유지해야 하는 총 시간이 10시간일 때 5시간만 바른 자세가 유지되고 나머지 시간은 바른 자세가 아니었다면 일일 점수는 50점이 될 수 있는 것이다. 이와 같이, 사용자 단말은 점수 이외에도 센서부(110)를 사용하는 총 사용시간 중에서 바른 자세를 유지하는 시간을 구분하여 일일 활동 데이터를 확인해 볼 수 있다. 막대 그래프의 형태로 확인하는 것이 가능할 수 있다.In addition, the user terminal can check the results of posture data analysis through an application (hereinafter referred to as app) for using the service according to an embodiment of the present invention. Typically, a posture score may be provided as an analysis result. You can check your score by grading your daily posture. Of course, the calculation method can be performed in various ways, so it will not be specifically limited to any one method. For example, if the total time to maintain correct posture is 10 hours, and the correct posture was maintained for only 5 hours and the remaining time was not correct, the daily score could be 50 points. In this way, in addition to the score, the user terminal can check daily activity data by distinguishing the time for maintaining correct posture from the total usage time using the sensor unit 110. It may be possible to check this in the form of a bar graph.
사용자 단말은 일, 주, 월별로 주기적으로 사용자의 실시간 자세 데이터를 확인해 볼 수 있으며, 무엇보다 센서부(110)로부터 취득되는 360도의 센싱 데이터를 이용해 사용자들의 360도 자세 영역 분석 결과를 확인해 볼 수 있다. 몸이 기울어진 방향을 360도로 시각화하여 한눈에 볼 수 있다.The user terminal can check the user's real-time posture data periodically on a daily, weekly, and monthly basis. Above all, the user's 360-degree posture area analysis results can be checked using the 360-degree sensing data acquired from the sensor unit 110. there is. You can visualize the direction your body is tilted in 360 degrees and see it at a glance.
사용자 단말은 포스처 AI 챗봇 등과 대화를 나누는 것도 가능하다. 이를 통해 AI 기반 1:1 맞춤형 자세 코칭을 사용자가 지도받을 수도 있다. 이외에도 자세교정 운동추천장치(130)는 AI챗봇의 인공지능 프로그램을 통해 사전에 다양한 질문들에 대한 답변을 학습시켜 사용자 단말은 질문에 답변을 제공받을 수 있다. 무엇보다 인공지능 프로그램은 사람과 같이 텍스트(text) 형태의 문장을 인식하므로 그에 대한 답변을 예측하여 제공할 수 있다는 점에서, 기존의 룰(rule) 방식의 챗봇과는 차이가 있다. 다시 말해, 기존에는 사용자에게서 질의가 있을 때 룰에 없으면 챗봇이 답변을 할 수가 없다. 그러나, 인공지능의 경우에는 질문에 대한 분석 결과를 토대로 예측이 가능하므로, 예상되는 답변을 사용자에게 제공함으로써 대화를 계속 이어가면서 데이터 학습을 통해 사용자가 원하는 질의에 정확한 답변을 제공할 수 있게 되는 것이다. 따라서 포스처 AI 챗봇의 경우에도 사용자로부터 질의가 있을 때 인공지능의 딥러닝 프로그램을 통해 그에 맞는 적절한 응답이 이루어지게 된다. 본 발명의 실시예에 따른 포스처 AI의 경우에는 자세교정이나 운동추천과 관련한 데이터를 미리 학습하고 이를 근거로 사용자들에게 질의와 관련한 적절한 답변을 제공할 수 있다. 물론 본 발명의 실시예에서는 그러한 자세교정이나 운동추천 답변에만 한정하지는 않을 것이다. 사용자 단말은 자세교정 구독 서비스를 이용하는 것도 가능할 수 있다. 해당 구독 서비스 화면을 통해서는 AI 기반 1:1 맞춤형자세 코칭을 위한 동영상 등의 자료를 확인하는 것도 가능할 수 있다. The user terminal can also have a conversation with a posture AI chatbot. Through this, users can also receive AI-based 1:1 customized posture coaching. In addition, the posture correction exercise recommendation device 130 learns answers to various questions in advance through an artificial intelligence program of an AI chatbot, so that the user terminal can receive answers to questions. Above all, artificial intelligence programs are different from existing rule-based chatbots in that they recognize text-type sentences like humans, so they can predict and provide answers. In other words, when a user asks a question, the chatbot cannot answer if it is not in the rules. However, in the case of artificial intelligence, predictions are possible based on the analysis results of the question, so by providing the user with the expected answer, it is possible to continue the conversation and provide an accurate answer to the user's desired query through data learning. . Therefore, even in the case of posture AI chatbots, when there is an inquiry from a user, an appropriate response is provided through an artificial intelligence deep learning program. In the case of posture AI according to an embodiment of the present invention, it is possible to learn data related to posture correction or exercise recommendations in advance and provide appropriate answers to users' inquiries based on this. Of course, the embodiment of the present invention will not be limited to such posture correction or exercise recommendation answers. The user terminal may also be able to use a posture correction subscription service. It may also be possible to check materials such as videos for AI-based 1:1 customized posture coaching through the subscription service screen.
사용자 단말은 스마트폰 이외에도 다양한 유형의 장치가 가능할 수 있다. 예를 들어, 사용자 단말은 사용자들이 손목 등에 착용하는 또 다른 웨어러블장치가 가능할 수 있으며, 태블릿PC 등의 모바일 기반의 장치나, 나아가서는 데스크탑 컴퓨터나 랩탑 컴퓨터와 같이 PC 기반의 단말장치도 얼마든지 가능할 수 있다. 따라서, 본 발명의 실시예에서는 사용자 단말의 유형에 특별히 한정하지는 않을 것이다.The user terminal may be various types of devices other than smartphones. For example, the user terminal may be another wearable device that users wear on their wrists, etc., and mobile-based devices such as tablet PCs, or even PC-based terminal devices such as desktop computers or laptop computers may also be possible. You can. Therefore, in embodiments of the present invention, there will be no particular limitation on the type of user terminal.
사용자는 분석된 자세 데이터로의 접근을 위하여 이를 저장하고 제공하는 서버와 인증을 수행할 수 있다. 먼저, 서버는 현재 몸의 기울기 값을 자세 데이터로 접근이 가능한 사용자 그룹의 식별번호를 암호화하여 제1 패스워드를 생성하여 사용자 단말로 전송할 수 있다. 사용자는 제1 패스워드를 수신하고, 자신이 속한 사용자 그룹의 식별번호를 이용하여 제1 패스워드를 복호화하여 몸의 기울기 값을 독출할 수 있다. 독출한 몸의 기울기 값과 자신의 사용자 식별번호를 암호화하여 제2 패스워드를 생성하여 서버로 전송할 수 있다. 서버는 사용자 식별번호를 이용하여 제2 패스워드로부터 몸의 기울기 값을 독출하고, 해당 몸의 기울기 값과 몸의 기울기 값이 동일한 사용자 식별번호가 있는지 확인하고, 해당 사용자 식별번호가 인증을 수행하고자 하는 사용자의 사용자 식별번호와 일치하는지를 판단하여 사용자에 대한 인증을 수행할 수 있다. 서버와 사용자가 주고받는 제1 패스워드와 제2 패스워드는 서로 다른 데이터를 이용하여 암호화되고, 사용자마다 달라지기 때문에, 그 중 하나가 해킹되어도 다른 정보가 해킹되는 것을 방지할 수 있다.In order to access the analyzed posture data, the user can perform authentication with the server that stores and provides it. First, the server may encrypt the identification number of a user group that can access the current body tilt value as posture data, generate a first password, and transmit it to the user terminal. The user can receive the first password, decode the first password using the identification number of the user group to which the user belongs, and read the body tilt value. You can generate a second password by encrypting the read body tilt value and your user identification number and send it to the server. The server reads the body tilt value from the second password using the user identification number, checks whether there is a user identification number whose body tilt value is the same as the body tilt value, and determines whether the user identification number is the same as the body tilt value. The user can be authenticated by determining whether it matches the user's user identification number. Since the first password and second password exchanged between the server and the user are encrypted using different data and are different for each user, even if one of them is hacked, other information can be prevented from being hacked.
한편, 본 발명의 실시예들은 컴퓨터로 읽을 수 있는 기록 매체에 컴퓨터가 읽을 수 있는 코드로 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. Meanwhile, embodiments of the present invention can be implemented as computer-readable code on a computer-readable recording medium. Computer-readable recording media include all types of recording devices that store data that can be read by a computer system.
컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 또한, 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고 본 발명을 구현하기 위한 기능적인(functional) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술 분야의 프로그래머들에 의하여 용이하게 추론될 수 있다.Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, floppy disk, and optical data storage devices. Additionally, computer-readable recording media are distributed in computer systems connected to a network. , computer-readable code can be stored and executed in a distributed manner. And functional programs, codes, and code segments for implementing the present invention can be easily deduced by programmers in the technical field to which the present invention pertains.
본 실시 예와 관련된 기술 분야에서 통상의 지식을 가진 자는 상기된 기재의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 방법들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.Those skilled in the art related to this embodiment will understand that the above-described substrate can be implemented in a modified form without departing from its essential characteristics. Therefore, the disclosed methods should be considered from an explanatory rather than a restrictive perspective. The scope of the present invention is indicated in the claims rather than the foregoing description, and all differences within the equivalent scope should be construed as being included in the present invention.

Claims (3)

  1. 사용자의 몸에 착용가능하고, 상기 사용자의 자세를 센싱하는 적어도 하나의 센서부;At least one sensor unit that can be worn on the user's body and senses the user's posture;
    상기 센서부를 착용한 사용자를 촬영하는 촬상부; 및An imaging unit that photographs a user wearing the sensor unit; and
    상기 센서부가 센싱한 센싱 데이터 및 상기 촬상부가 촬영한 이미지를 분석한 이미지 처리 데이터를 이용하여 상기 사용자의 자세를 추정하는 자세추정부를 포함하는 자세추정장치.A posture estimation device comprising a posture estimation unit that estimates the user's posture using sensing data sensed by the sensor unit and image processing data obtained by analyzing images captured by the imaging unit.
  2. 제1항에 있어서,According to paragraph 1,
    상기 자세추정장치는 상기 촬상부를 포함하는 사용자 단말을 포함하고,The posture estimation device includes a user terminal including the imaging unit,
    상기 추정한 사용자의 자세를 상기 사용자 단말의 표시부에 표시하는 자세추정장치.A posture estimation device that displays the estimated user's posture on a display of the user terminal.
  3. 제2항에 있어서,According to paragraph 2,
    상기 자세추정부는,The posture estimation unit,
    상기 센싱 데이터 및 이미지 처리 데이터로부터 빅데이터를 생성하고, 학습된 인공지능(AI) 신경망을 이용하여 상기 생성한 빅데이터로부터 상기 사용자의 자세를 360도의 방향에서 분석하고, 상기 빅데이터를 분석한 결과를 상기 표시부에 표시하는 자세추정장치.Big data is generated from the sensing data and image processing data, the user's posture is analyzed in a 360-degree direction from the generated big data using a learned artificial intelligence (AI) neural network, and the results of analyzing the big data A posture estimation device that displays on the display unit.
PCT/KR2023/020122 2022-12-28 2023-12-07 Sensor-based human posture estimation device WO2024143980A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2022-0187810 2022-12-28
KR1020220187810A KR20240105696A (en) 2022-12-28 2022-12-28 Pose estimation apparatus using sensor on the body for posture recognition

Publications (1)

Publication Number Publication Date
WO2024143980A1 true WO2024143980A1 (en) 2024-07-04

Family

ID=91718353

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2023/020122 WO2024143980A1 (en) 2022-12-28 2023-12-07 Sensor-based human posture estimation device

Country Status (2)

Country Link
KR (1) KR20240105696A (en)
WO (1) WO2024143980A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170132109A (en) * 2017-11-13 2017-12-01 주상호 Method and apparatus for identification of turtle neck using sitting posture recognition per slope of machine learning-based neck
KR20210120148A (en) * 2020-03-24 2021-10-07 주식회사 에스에스티컴퍼니 (SSTC Co., Ltd.) Method for analysis of exercising posture
KR102355008B1 (en) * 2021-10-26 2022-01-25 아이픽셀 주식회사 Method of providing personal training service and recording medium thereof
KR20220117399A (en) * 2021-02-16 2022-08-24 (주)컬처릿 Online motion correction system and its method
KR20220146290A (en) * 2021-04-23 2022-11-01 삼육대학교산학협력단 System and method for providing intelligent posture correction function based on three-dimensional array measurement sensor and computer-readable recording medium including the same

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101480026B1 (en) 2014-03-31 2015-01-08 (주) 피앤에스프로 Method for correcting posture, apparatus for managing posture, and system for correcting posture

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170132109A (en) * 2017-11-13 2017-12-01 주상호 Method and apparatus for identification of turtle neck using sitting posture recognition per slope of machine learning-based neck
KR20210120148A (en) * 2020-03-24 2021-10-07 주식회사 에스에스티컴퍼니 (SSTC Co., Ltd.) Method for analysis of exercising posture
KR20220117399A (en) * 2021-02-16 2022-08-24 (주)컬처릿 Online motion correction system and its method
KR20220146290A (en) * 2021-04-23 2022-11-01 삼육대학교산학협력단 System and method for providing intelligent posture correction function based on three-dimensional array measurement sensor and computer-readable recording medium including the same
KR102355008B1 (en) * 2021-10-26 2022-01-25 아이픽셀 주식회사 Method of providing personal training service and recording medium thereof

Also Published As

Publication number Publication date
KR20240105696A (en) 2024-07-08

Similar Documents

Publication Publication Date Title
US20210008413A1 (en) Interactive Personal Training System
US10314536B2 (en) Method and system for delivering biomechanical feedback to human and object motion
Mitra et al. KNOWME: a case study in wireless body area sensor network design
JP5356690B2 (en) Method, system, and program for tracking a range of physical movement of a user
US10970661B2 (en) System and method for monitoring motion and orientation patterns associated to physical activities of users
KR101859549B1 (en) Motion training guide system based on wearable sensor and method thereof
WO2017161733A1 (en) Rehabilitation training by means of television and somatosensory accessory and system for carrying out same
KR101974902B1 (en) smart exercise equipment, system method thereof
KR20200080628A (en) A Posture Coaching System and Method for Weight Training by Motion Pattern
Radhakrishnan et al. ERICA: enabling real-time mistake detection & corrective feedback for free-weights exercises
US10272292B1 (en) Adaptive sport posture sensing system and method
WO2022145563A1 (en) User-customized exercise training method and system
Guo et al. When your wearables become your fitness mate
Yi et al. [Retracted] Home Interactive Elderly Care Two‐Way Video Healthcare System Design
Wang et al. Advances for indoor fitness tracking, coaching, and motivation: A review of existing technological advances
CN115240247A (en) Recognition method and system for detecting motion and posture
WO2024143980A1 (en) Sensor-based human posture estimation device
KR20200119753A (en) A Posture Coaching System and Method for Weight Training by Motion Pattern
KR102593121B1 (en) System and Method for Posture Correction Exercise Recommendation of Artificial Intelligence by Using Wearable Device
KR102613638B1 (en) Application-based health managing system installed in terminals
WO2017222112A1 (en) Method for providing diet through biometric tracking
KR102566211B1 (en) Method and system for providing treatment using artificial intelligence posture estimation model and motion analysis model
WO2023106846A1 (en) Skeleton point-based service providing apparatus and method
US20240095310A1 (en) Information processing device, data generation method, grouping model generation method, grouping model learning method, emotion estimation model generation method, and grouping user information generation method
WO2023127870A1 (en) Care support device, care support program, and care support method

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23912655

Country of ref document: EP

Kind code of ref document: A1