KR20190036929A - 실시간 자세 관리 시스템 - Google Patents

실시간 자세 관리 시스템 Download PDF

Info

Publication number
KR20190036929A
KR20190036929A KR1020170126420A KR20170126420A KR20190036929A KR 20190036929 A KR20190036929 A KR 20190036929A KR 1020170126420 A KR1020170126420 A KR 1020170126420A KR 20170126420 A KR20170126420 A KR 20170126420A KR 20190036929 A KR20190036929 A KR 20190036929A
Authority
KR
South Korea
Prior art keywords
posture
server
information
real
management system
Prior art date
Application number
KR1020170126420A
Other languages
English (en)
Inventor
권명규
Original Assignee
권명규
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 권명규 filed Critical 권명규
Priority to KR1020170126420A priority Critical patent/KR20190036929A/ko
Publication of KR20190036929A publication Critical patent/KR20190036929A/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1116Determining posture transitions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1121Determining geometric values, e.g. centre of rotation or angular range of movement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7275Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/746Alarms related to a physiological condition, e.g. details of setting alarm thresholds or avoiding false alarms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/22Social work or social welfare, e.g. community support activities or counselling services

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Pathology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Physiology (AREA)
  • Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Dentistry (AREA)
  • Geometry (AREA)
  • Economics (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Marketing (AREA)
  • Child & Adolescent Psychology (AREA)
  • Human Resources & Organizations (AREA)
  • Primary Health Care (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Psychiatry (AREA)
  • Signal Processing (AREA)
  • Medical Treatment And Welfare Office Work (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

본 발명의 일 실시예에 따른 실시간 자세 관리 시스템은 카메라를 구비하는 사용자단말, 디스플레이를 구비하는 외부단말 및 상기 사용자단말과 상기 외부단말을 중계하는 서버를 포함하는 실시간 자세 관리 시스템에 있어서, 상기 카메라로 촬영한 피측정자의 자세 영상과 상기 서버로부터 수신한 참조 자세 정보를 비교하여 자세상태판단결과를 출력하는 사용자단말; 상기 비교결과 상기 자세 영상과 상기 참조 자세 정보의 비교가 불가능한 경우, 상기 자세 영상을 수신하여 상기 외부단말로 전송하는 서버; 상기 서버로부터 수신한 자세 영상에 대한 자세상태평가결과를 상기 서버로 전송하는 외부단말을 포함한다.

Description

실시간 자세 관리 시스템 {SYSTEM FOR MANAGING POSTURE IN REAL TIME}
본 발명은 신체 특징점을 이용하여 3차원 모델을 도출하여, 이를 자세 정보와 비교함으로써 실시간으로 자세 관리를 할 수 있는 실시간 자세 관리 시스템에 관한 것이다.
스마트폰 사용률이 증가하면서 본인도 모르게 고개를 숙이는 형태를 유지하거나, 모니터를 볼 때 턱을 앞당겨서 컴퓨터를 사용하게 되어 목의 통증을 호소하는 사람들이 늘어나고 있다.
이처럼 바른 자세가 아니라 고개를 숙이는 등 올바르지 않은 자세가 계속될 경우 통증이 발생하며, 거북목 증후군이 발생하기 쉽다.
종래에는 좌석의 등받이 또는 방석에 배치된 센서를 활용하여 사용자의 중심이동 현황을 측정하여 이상증세를 검출하고, 자세 교정을 위한 운동 콘텐츠를 선별하여 제공하는 자세 관리 장치가 개시되었다.
하지만, 압력 센서를 이용하여 사용자의 자세를 판단하기 때문에, 복수 개의 센서가 설치된 자세 관리 장치에 사용자가 앉아 있을 경우에만 사용자의 자세를 판단할 수 있는 문제점이 있다.
KR 101480026 B1
본 발명은 촬영된 영상에서 3차원 관절 정보를 생성하여, 참고 자세 정보와 비교하여 자세를 판단하고, 서버를 통해 외부단말에 촬영된 영상을 전송하여 정확한 자세 진단을 받을 수 있는 실시간 자세 관리 시스템에 관한 것이다.
본 발명의 일 실시예에 따른 실시간 자세 관리 시스템은, 카메라를 구비하는 사용자단말, 디스플레이를 구비하는 외부단말 및 상기 사용자단말과 상기 외부단말을 중계하는 서버를 포함하는 실시간 자세 관리 시스템에 있어서, 상기 카메라로 촬영한 피측정자의 자세 영상과 상기 서버로부터 수신한 참조 자세 정보를 비교하여 자세상태판단결과를 출력하는 사용자단말; 상기 비교결과 상기 자세 영상과 상기 참조 자세 정보의 비교가 불가능한 경우, 상기 자세 영상을 수신하여 상기 외부단말로 전송하는 서버; 상기 서버로부터 수신한 자세 영상에 대한 자세상태평가결과를 상기 서버로 전송하는 외부단말을 포함할 수 있다.
상기 사용자단말은, 상기 자세 영상에서 3차원 정보를 생성하여 상기 참조 자세 정보와 비교할 수 있다.
상기 3차원 정보는, 상기 자세 영상에서 상기 피측정자의 신체 특징점들 사이의 각도에 기반하여 3차원 좌표를 추출하고, 상기 추출된 3차원 좌표에 기반하여 생성된 3차원 관절 정보일 수 있다.
상기 자세상태판단결과는, 상기 3차원 관절 정보와 상기 참조 자세 정보의 비교 결과일 수 있다.
상기 자세상태판단결과 및 자세상태평가결과는, 위험자세, 건강자세를 포함하는 복수의 카테고리로 분류될 수 있다.
상기 사용자단말은, 상기 자세상태판단결과 또는 자세상태평가결과 중 적어도 하나가 상기 위험자세인 경우, 상기 위험자세의 지속시간을 카운팅할 수 있다.
상기 사용자단말은, 상기 카운팅된 지속시간이 소정의 시간 이상인 경우, 경보를 출력할 수 있다.
상기 외부단말은, 상기 자세상태평가결과와 별도로 건강 자세 정보를 상기 서버로 전송하고, 상기 서버는, 상기 수신한 건강 자세 정보를 저장할 수 있다.
상기 사용자단말은, 상기 자세상태판단결과를 상기 서버로 전송하고, 상기 서버는, 상기 수신한 자세상태판단결과를 저장할 수 있다.
상기 서버는, 상기 수신한 자세상태평가결과가 위험자세인 경우, 상기 자세상태평가결과를 저장할 수 있다.
본 발명의 일 실시예에 따른 실시간 자세 관리 시스템에 따르면, 촬영된 영상에서 3차원 관절 정보를 생성하여 참고 자세 정보와 비교함으로써 입체적으로 자세를 판단할 수 있는 효과가 있다.
또한, 서버를 통해 외부단말에 촬영된 영상을 전송하여 피측정자의 자세에 대한 진단을 받을 수 있어, 정확하게 자세를 판단할 수 있는 효과가 있다.
또한, 서버에는 촬영된 영상에 대한 자세상태판단결과 및 자세상태평가결과가 저장되므로, 정확하게 자세 판단을 할 수 있는 효과가 있다.
본 발명에 관한 이해를 돕기 위해 상세한 설명의 일부로 포함되는, 첨부 도면은 본 발명에 대한 실시예를 제공하고, 상세한 설명과 함께 본 발명의 기술적 특징을 설명한다.
도 1은 본 발명의 일 실시예에 따른 실시간 자세 관리 시스템의 블록도를 도시한 도면이다.
도 2는 본 발명의 일 실시예에 따른 실시간 자세 관리 시스템의 구성도를 도시한 도면이다.
도 3은 본 발명의 일 실시예에 따른 실시간 자세 관리 시스템에 있어서, 도출된 3차원 정보의 예시를 도시한 도면이다.
도 4는 본 발명의 일 실시예에 따른 실시간 자세 관리 시스템에 있어서, 3차원 정보의 자세 판단을 도시한 도면이다.
본 명세서에서 제1 및/또는 제2 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 즉, 구성요소들을 상기 용어들에 의해 한정하고자 함이 아니다.
본 명세서에서 '포함하다' 라는 표현으로 언급되는 구성요소, 특징, 및 단계는 해당 구성요소, 특징 및 단계가 존재함을 의미하며, 하나 이상의 다른 구성요소, 특징, 단계 및 이와 동등한 것을 배제하고자 함이 아니다.
본 명세서에서 단수형으로 특정되어 언급되지 아니하는 한, 복수의 형태를 포함한다. 즉, 본 명세서에서 언급된 구성요소 등은 하나 이상의 다른 구성요소 등의 존재나 추가를 의미할 수 있다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함하여, 본 명세서에서 사용되는 모든 용어들은 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자(통상의 기술자)에 의하여 일반적으로 이해되는 것과 동일한 의미이다.
즉, 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미인 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
이하에서는, 첨부된 도면을 참조하여 본 발명의 실시예에 따른 실시간 자세 관리 시스템에 대해 상세하게 설명한다.
도 1은 본 발명의 일 실시예에 따른 실시간 자세 관리 시스템의 블록도를 도시한 도면이다.
도 2는 본 발명의 일 실시예에 따른 실시간 자세 관리 시스템의 중계 과정을 도시한 도면이다.
도 1 및 2를 참조하면, 실시간 자세 관리 시스템은 카메라(101)를 구비하는 사용자단말(100), 디스플레이(201)를 구비하는 외부단말(300) 및 사용자단말(100)과 외부단말(300)을 중계하는 서버(200)를 포함할 수 있다.
사용자단말(100) 및 외부단말(300)은 서버(200)와 유선 및/또는 무선 통신이 가능한 스마트폰, 노트북 등의 단말기 일 수 있다.
카메라(101)는 일정 주기마다 사용자의 자세 영상을 촬영할 수 있다. 예컨대, 카메라(101)는 1분마다 사용자의 자세 영상을 촬영할 수 있다.
사용자단말(100)은 촬영된 자세 영상에 포함된 사용자의 자세를 서버(200)에 저장된 참조 자세 정보와 비교하여, 자세상태판단결과를 출력할 수 있다.
사용자단말(100)은 촬영된 자세 영상에 포함된 사용자의 신체 특징점들을 추출하고, 이에 기반하여 3차원 좌표를 추출할 수 있다.
또한, 추출된 3차원 좌표에 기반하여, 3차원 관절 정보를 측정하고, 이를 서버(200)에 저장된 참조 자세 정보와 비교함으로써, 사용자의 자세를 판단할 수 있다.
예컨대, 사용자단말(100)은 사용자의 자세를 판단하는 경우마다 서버(200)에 접속하여 서버(200)에 저장된 참조 자세 정보와 측정된 3차원 관절 정보를 비교하여 사용자의 자세를 판단할 수 있다.
또한, 사용자단말(100)은 서버(200)에 저장된 참조 자세 정보들을 미리 저장하고, 저장된 참조 자세 정보와 측정된 3차원 관절 정보를 비교하여 사용자의 자세를 판단할 수 있다.
사용자단말(100)은 3차원 관절 정보에 포함된 신체 특징점들 사이의 각도들을 서버(200)에 저장된 참조 자세 정보에 포함된 신체 특징점들 사이의 각도들과 비교할 수 있다.
예컨대, 사용자단말(100)은 3차원 관절 정보에서 목과 어깨 사이의 각도를 측정하여, 참조 자세 정보에 포함된 목과 어깨 사이의 각도와 비교함으로써, 사용자의 자세를 판단할 수 있다.
사용자단말(100)은 측정된 사용자의 목과 어깨 사이의 각도가 참조 자세 정보에 포함된 건강자세의 목과 어깨 사이의 각도와 동일하면, 건강자세인 것으로 판단할 수 있고, 반대로, 위험자세의 목과 어깨 사이의 각도와 동일하면, 위험자세인 것으로 판단할 수 있다.
즉, 자세상태판단결과는 위험자세, 건강자세를 포함하는 복수의 카테고리로 분류될 수 있다.
사용자단말(100)은 사용자의 자세가 위험자세인 것으로 판단되면, 위험자세의 지속 여부를 확인하기 위하여 위험자세의 지속시간을 카운팅할 수 있다.
사용자단말(100)은 카메라(101)에서 일정 주기마다 촬영하는 자세 영상에 대하여 사용자의 자세판단을 수행하기 때문에, 각 자세 영상에 포함된 사용자의 자세가 위험자세인 경우 지속시간을 카운팅하여, 카운팅된 지속시간이 소정의 시간 이상인 경우, 경보를 출력할 수 있다.
예컨대, 사용자단말(100)은 카운팅된 지속시간이 소정의 시간 이상인 경우, 경보음, 경보영상 및 경보문구 중 적어도 하나를 출력할 수 있다.
사용자단말(100)은 자세 영상에 포함된 사용자의 자세를 참조 자세 정보와 비교한 자세상태판단결과를 서버(200)로 전송할 수 있다.
전송된 자세상태판단결과는 서버(200)의 서버(200)에 저장되므로, 서버(200)의 참조 자세 정보는 일정 주기마다 추가될 수 있다.
사용자단말(100)은 3차원 관절 정보와 참조 자세 정보를 비교결과, 자세 영상과 참조 자세 정보의 비교가 불가능하다고 판단한 경우, 촬영된 자세 영상을 서버(200)로 전송할 수 있다.
예컨대, 사용자단말(100)은 3차원 관절 정보에 포함된 신체 특징점들 사이의 각도가 참조 자세 정보에 포함된 신체 특징점들 사이의 각도와 상이하여, 건강자세인지 위험자세인지 여부를 판단할 수 없을 경우, 서버(200)로 자세 영상을 전송할 수 있다.
서버(200)는 수신한 자세 영상을 외부단말(300)로 전송하며, 외부단말(300)은 수신한 영상을 디스플레이(301)에 표시할 수 있다.
디스플레이(301)에 표시된 자세 영상에 대응되는 자세상태평가결과가 외부단말(300)에 입력되면, 외부단말(300)은 입력된 자세상태평가결과를 서버(200)로 전송할 수 있다.
자세상태평가결과는 사용자단말(100)의 자세상태판단결과와 마찬가지로 건강자세, 위험자세를 포함하는 복수의 카테고리로 분류될 수 있다.
서버(200)는 수신한 자세상태평가결과가 위험자세이면, 서버(200)에 자세상태평가결과를 저장할 수 있다.
서버(200)는 수신한 자세상태평가결과를 사용자단말(100)로 전송할 수 있다.
사용자단말(100)은 수신한 자세상태평가결과가 위험자세이면, 위험자세 지속시간을 카운팅할 수 있다.
사용자단말(100)은 일정 주기마다 촬영된 각 자세 영상에 대한 자세상태판단결과 및 자세상태평가결과 중 적어도 하나가 위험자세인 경우, 위험자세의 지속시간을 카운팅할 수 있고, 카운팅된 지속시간이 소정의 시간 이상인 경우 경보를 출력할 수 있다.
즉, 사용자단말(100)은 촬영된 자세 영상에 대해 자체적으로 판단한 자세상태판단결과 및 외부단말에서 판단한 자세상태평가결과에 기반하여, 사용자에게 소정의 시간 이상의 위험자세가 지속된 경우 경보를 출력함으로써, 실시간으로 사용자의 자세를 관리할 수 있다.
서버(200)는 사용자단말(100)과 외부단말(300) 간 데이터 전송의 중계 역할을 하고, 사용자단말(100)이 촬영된 자세 영상의 자세를 판단하기 위해 비교하는 참조 자세 정보를 저장할 수 있다.
서버(200)는 사용자단말(100)로부터 수신한 자세 영상을 외부단말(300)로 전송하며, 외부단말(300)로부터 수신한 자세상태평가결과를 사용자단말(100)로 전송할 수 있다.
서버(200)는 외부단말(300)로부터 수신한 자세상태평가결과가 위험자세인 경우, 서버(200)에 자세상태평가결과를 저장한 후, 사용자단말(100)로 자세상태평가결과를 전송할 수 있다.
서버(200)는 건강자세와 위험자세로 분류될 수 있는 참조 자세 정보를 저장할 수 있다.
저장되는 참조 자세 정보는 사용자단말(100)로부터 전송되는 자세상태판단결과 및 외부단말(300)로부터 전송되는 건강 참조 자세 정보를 포함할 수 있다.
자세상태판단결과는 사용자단말(100)이 자세 영상에 포함된 사람의 3차원 관절 정보와 서버(200)에 저장된 참조 자세 정보를 비교한 결과이고, 건강 참조 자세 정보는 외부단말(300)에서 자세상태평가결과와 별도로 전송한 건강 자세에 대한 정보이다.
사용자단말(100)은 촬영된 자세 영상에 포함된 사람의 자세를 서버(200)에 저장된 참조 자세 정보와 비교한 결과인 자세상태판단결과를 서버(200)로 전송하고, 서버(200)는 수신한 자세상태판단결과를 서버(200)에 저장할 수 있다.
서버(200)는 외부단말(300)로부터 수신한 자세상태평가결과가 위험자세인 경우, 자세상태평가결과를 서버(200)에 저장할 수 있다.
외부단말(300)은 서버(200)로 자세상태평가결과를 전송하는 것과 별도로 건강 참조 자세 정보를 전송할 수 있으며, 서버(200)는 전송받은 건강 참조 자세 정보를 서버(200)에 저장할 수 있다.
디스플레이(301)는 외부단말(300)이 서버(200)로부터 수신한 자세 영상을 표시할 수 있다.
외부단말(300)은 디스플레이(301)에 표시된 자세 영상에 대응되는 자세상태평가결과가 입력되면, 입력된 자세상태평가결과를 서버(200)로 전송할 수 있다.
서버(200)는 전송받은 자세상태평가결과가 위험자세인 경우, 서버(200)에 저장하고, 사용자단말(100)로 자세상태평가결과를 전송할 수 있다.
또한, 외부단말(300)은 자세상태평가결과와 별도로 입력된 건강 참조 자세 정보를 서버(200)로 전송할 수 있다. 서버는 전송받은 건강 참조 자세 정보를 서버(200)에 저장할 수 있다.
건강 참조 자세 정보는 저작 도구(authoring tool)를 이용하여 생성된 관절 형상에 대한 건강한 자세의 관절 정보이며, 서버(200)에 저장될 수 있다.
도 3은 본 발명의 일 실시예에 따른 실시간 자세 관리 시스템에 있어서, 도출된 3차원 관절 정보의 예시를 도시한 도면이다.
도 3을 참조하면, 촬영된 자세 영상(301)에서 사람의 신체 특징점들(분홍색 점으로 표시)에 기반하여 3차원 좌표(303)를 추출할 수 있다.
예컨대, 제1 자세 영상(301)에서 눈, 코, 입, 귀를 포함하는 특징점들을 추출함으로써, 3차원의 좌표를 추출할 수 있다.
3차원 좌표계(303)의 빨간색 축은 코의 방향, 초록색 축은 얼굴의 세로의 기울기, 파란색 축은 얼굴의 가로의 기울기일 수 있다.
제2 자세 영상(305)에서도 눈, 코, 입, 귀를 포함하는 사람의 신체 특징점들을 추출할 수 있다. 추출된 특징점들에 기반하여 3축 좌표를 추출할 수 있으며, 추출된 3축 좌표계에 기반하여 3차원 관절 정보(307)을 생성할 수 있다.
다만, 신체 특징점은 사람의 얼굴에만 국한되는 것은 아니라, 목, 어깨, 팔꿈치, 손목 등 특징점으로 추출할 수 있는 신체의 다양한 부분들이 포함될 수 있다.
자세 영상에서 사람의 신체의 특징점들을 추출하기 위해서 컨볼루션 신경망(Convolutional Neural Network, CNN) 등의 딥러닝 기법을 이용하여, 자세 영상을 분석함으로써 사람의 신체의 특징점들을 추출할 수 있다.
촬영된 자세 영상에서 신체 특징점들을 추출하고, 각 특징점에 SMPL(Skinned Multi-Person Linear Model)을 적용하여 3차원 관절 정보를 생성할 수 있다.
도 4는 본 발명의 일 실시예에 따른 실시간 자세 관리 시스템에 있어서, 3차원 관절 정보의 자세 판단을 도시한 도면이다
도 4를 참조하면, 건강자세(401)는 귀와 어깨가 직선을 이루고 있으므로 건강 자세로 판단될 수 있지만, 위험자세(405)는 건강자세(401)의 경우보다 귀의 위치가 현저하게 앞으로 나와 있기 때문에, 위험자세로 판단될 수 있다.
사용자단말(100)은 사용자의 자세가 건강자세(401), 위험자세(405)와 같을 경우, 촬영된 자세 영상으로부터 측정된 3D 관절 정보와 참조 자세 정보를 비교함으로써 사용자의 자세를 판단할 수 있다.
하지만, 사용자단말(100)은 중간자세(403)과 같이 건강자세(401)와 위험자세(405)의 중간에 위치하여 자세 판단을 내릴 수 없는 경우, 해당 자세 영상을 서버(200)로 전송할 수 있고, 외부단말(300)로부터 서버(200)를 통해 전송되는 자세상태판단결과에 기반하여, 사용자의 자세상태를 판단할 수 있다.
비록 본 명세서에서의 설명은 예시적인 몇 가지 양상으로 나타났지만, 다양한 수정이나 변경이 후술되는 특허청구범위에 의해 정의되는 범주로부터 이루어질 수 있으며, 본 발명의 기술적인 보호범위는 다음의 특허청구범위에 의하여 정해져야 할 것이다.
100 : 사용자 단말 303 : 3축 좌표
101 : 카메라 305 : 제2 이미지
200 : 서버 307 : 3차원 관절 정보
300 : 외부 단말 401 : 건강자세
301 : 디스플레이 403 : 중간자세
301 : 제1 이미지 405 : 위험자세

Claims (10)

  1. 카메라를 구비하는 사용자단말, 디스플레이를 구비하는 외부단말 및 상기 사용자단말과 상기 외부단말을 중계하는 서버를 포함하는 실시간 자세 관리 시스템에 있어서,
    상기 카메라로 촬영한 피측정자의 자세 영상과 상기 서버로부터 수신한 참조 자세 정보를 비교하여 자세상태판단결과를 출력하는 사용자단말;
    상기 비교결과 상기 자세 영상과 상기 참조 자세 정보의 비교가 불가능한 경우, 상기 자세 영상을 수신하여 상기 외부단말로 전송하는 서버;
    상기 서버로부터 수신한 자세 영상에 대한 자세상태평가결과를 상기 서버로 전송하는 외부단말을 포함하는,
    실시간 자세 관리 시스템.
  2. 제1항에 있어서,
    상기 사용자단말은,
    상기 자세 영상에서 3차원 정보를 생성하여 상기 참조 자세 정보와 비교하는,
    실시간 자세 관리 시스템.
  3. 제2항에 있어서,
    상기 3차원 정보는,
    상기 자세 영상에서 상기 피측정자의 신체 특징점들 사이의 각도에 기반하여 3차원 좌표를 추출하고,
    상기 추출된 3차원 좌표에 기반하여 생성된 3차원 관절 정보인,
    실시간 자세 관리 시스템.
  4. 제3항에 있어서,
    상기 자세상태판단결과는,
    상기 3차원 관절 정보와 상기 참조 자세 정보의 비교 결과인,
    실시간 자세 관리 시스템.
  5. 제1항에 있어서,
    상기 자세상태판단결과 및 자세상태평가결과는,
    위험자세, 건강자세를 포함하는 복수의 카테고리로 분류되는,
    실시간 자세 관리 시스템.
  6. 제5항에 있어서,
    상기 사용자단말은,
    상기 자세상태판단결과 또는 자세상태평가결과 중 적어도 하나가 상기 위험자세인 경우, 상기 위험자세의 지속시간을 카운팅하는,
    실시간 자세 관리 시스템.
  7. 제6항에 있어서,
    상기 사용자단말은,
    상기 카운팅된 지속시간이 소정의 시간 이상인 경우, 경보를 출력하는,
    실시간 자세 관리 시스템.
  8. 제1항에 있어서,
    상기 외부단말은, 상기 자세상태평가결과와 별도로 건강 자세 정보를 상기 서버로 전송하고,
    상기 서버는, 상기 수신한 건강 자세 정보를 저장하는,
    실시간 자세 관리 시스템.
  9. 제1항에 있어서,
    상기 사용자단말은, 상기 자세상태판단결과를 상기 서버로 전송하고,
    상기 서버는, 상기 수신한 자세상태판단결과를 저장하는,
    실시간 자세 관리 시스템.
  10. 제1항에 있어서,
    상기 서버는,
    상기 수신한 자세상태평가결과가 위험자세인 경우, 상기 자세상태평가결과를 저장하는,
    실시간 자세 관리 시스템.
KR1020170126420A 2017-09-28 2017-09-28 실시간 자세 관리 시스템 KR20190036929A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170126420A KR20190036929A (ko) 2017-09-28 2017-09-28 실시간 자세 관리 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170126420A KR20190036929A (ko) 2017-09-28 2017-09-28 실시간 자세 관리 시스템

Publications (1)

Publication Number Publication Date
KR20190036929A true KR20190036929A (ko) 2019-04-05

Family

ID=66104314

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170126420A KR20190036929A (ko) 2017-09-28 2017-09-28 실시간 자세 관리 시스템

Country Status (1)

Country Link
KR (1) KR20190036929A (ko)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102255483B1 (ko) * 2020-10-16 2021-05-24 한수연 관절질환 진단 방법 및 이를 이용하는 장치
KR20210109378A (ko) * 2020-02-27 2021-09-06 동의대학교 산학협력단 학습자세 예측 시스템
KR102507074B1 (ko) * 2022-09-02 2023-03-07 (주)모션어드바이저 학습정보 제공 시스템
WO2023136388A1 (ko) * 2022-01-17 2023-07-20 주식회사 에이아이포펫 관절의 상태를 예측 및 진단할 수 있는 서비스 제공 시스템 및 그 방법

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101480026B1 (ko) 2014-03-31 2015-01-08 (주) 피앤에스프로 자세 교정 방법, 이를 이용하는 자세 관리 장치 및 자세 교정 시스템

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101480026B1 (ko) 2014-03-31 2015-01-08 (주) 피앤에스프로 자세 교정 방법, 이를 이용하는 자세 관리 장치 및 자세 교정 시스템

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210109378A (ko) * 2020-02-27 2021-09-06 동의대학교 산학협력단 학습자세 예측 시스템
KR102255483B1 (ko) * 2020-10-16 2021-05-24 한수연 관절질환 진단 방법 및 이를 이용하는 장치
WO2022080772A1 (ko) * 2020-10-16 2022-04-21 한수연 관절질환 진단 방법 및 이를 이용하는 장치
WO2023136388A1 (ko) * 2022-01-17 2023-07-20 주식회사 에이아이포펫 관절의 상태를 예측 및 진단할 수 있는 서비스 제공 시스템 및 그 방법
KR102507074B1 (ko) * 2022-09-02 2023-03-07 (주)모션어드바이저 학습정보 제공 시스템

Similar Documents

Publication Publication Date Title
KR20190036929A (ko) 실시간 자세 관리 시스템
KR102141288B1 (ko) 홈 트레이닝 제공 방법 및 시스템
CN103400476B (zh) 一种坐姿提醒方法及装置
KR101582347B1 (ko) 개인 트레이닝 서비스 방법 및 시스템
US10665021B2 (en) Augmented reality apparatus and system, as well as image processing method and device
JP2019511067A5 (ko)
KR101796664B1 (ko) 헬스 트레이닝 시스템
Lawanont et al. Neck posture monitoring system based on image detection and smartphone sensors using the prolonged usage classification concept
CN107909023B (zh) 运动参数的识别方法、装置、终端及存储介质
US11400342B2 (en) Moving body information providing system and program
US10380411B2 (en) Method for constructing a model of the face of a person, method and device for posture analysis using such a model
JP6579411B1 (ja) 介護設備又は病院用の監視システム及び監視方法
KR20150009229A (ko) Ar 기반 양방향 cpr 시뮬레이터 장치 및 시스템
CN112101124A (zh) 一种坐姿检测方法及装置
CN105960663A (zh) 信息处理装置、信息处理方法及程序
CN104123562A (zh) 一种基于双目视觉的人体面部表情识别方法及其装置
KR20190119212A (ko) 인공신경망을 이용한 가상 피팅 시스템, 이를 위한 방법 및 이 방법을 수행하는 프로그램이 기록된 컴퓨터 판독 가능한 기록매체
CN112861564A (zh) 一种坐姿检测的实现装置
KR20150077846A (ko) 유아에 대한 안전 감시 시스템
CN114187651A (zh) 基于混合现实的太极拳训练方法及系统、设备及存储介质
KR20170143209A (ko) 앉은 자세 모니터링 시스템
US20230135997A1 (en) Ai monitoring and processing system
KR20210070119A (ko) 스마트폰 전면 카메라와 인공지능 자세 분석을 이용한 명상 가이드 시스템
KR20140104158A (ko) 근골격계 질환 예방을 위한 스트레칭 코칭시스템 및 방법
US20160110886A1 (en) Information processing apparatus and clothes proposing method

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application