KR102176769B1 - 사용자의 행동 특징을 기반으로 센서 데이터를 보정하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체 - Google Patents

사용자의 행동 특징을 기반으로 센서 데이터를 보정하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체 Download PDF

Info

Publication number
KR102176769B1
KR102176769B1 KR1020200052794A KR20200052794A KR102176769B1 KR 102176769 B1 KR102176769 B1 KR 102176769B1 KR 1020200052794 A KR1020200052794 A KR 1020200052794A KR 20200052794 A KR20200052794 A KR 20200052794A KR 102176769 B1 KR102176769 B1 KR 102176769B1
Authority
KR
South Korea
Prior art keywords
sensor
sensor data
user
worn
target user
Prior art date
Application number
KR1020200052794A
Other languages
English (en)
Inventor
신민용
신성준
유흥종
전진홍
최윤철
Original Assignee
주식회사 바딧
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 바딧 filed Critical 주식회사 바딧
Application granted granted Critical
Publication of KR102176769B1 publication Critical patent/KR102176769B1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7275Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Measuring devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor or mobility of a limb
    • A61B5/1116Determining posture transitions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Measuring devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor or mobility of a limb
    • A61B5/1121Determining geometric values, e.g. centre of rotation or angular range of movement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7221Determining signal validity, reliability or quality
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/02Details of sensors specially adapted for in-vivo measurements
    • A61B2562/0219Inertial sensors, e.g. accelerometers, gyroscopes, tilt switches

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • Veterinary Medicine (AREA)
  • Physiology (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Psychiatry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Signal Processing (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Geometry (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

본 발명의 일 태양에 따르면, 사용자의 행동 특징을 기반으로 센서 데이터를 보정하는 방법으로서, 타겟 사용자가 특정 동작을 행하는 동안에 상기 타겟 사용자에 착용되는 센서에 의해 실제로 측정되는 특정 센서 데이터를 획득하고, 기준 사용자가 상기 특정 동작을 행하는 동안에 상기 기준 사용자의 기준 위치에 착용되는 상기 센서에 의해 측정될 것으로 예측되는 기준 센서 데이터를 획득하는 단계, 적어도 하나의 사용자에 착용되는 상기 센서의 위치와 상기 적어도 하나의 사용자가 적어도 하나의 동작을 행하는 동안에 상기 적어도 하나의 사용자에 착용되는 상기 센서에 의해 측정되는 적어도 두 종류의 센서 데이터 사이의 관계에서 나타나는 오차 사이의 관계를 정의하는 추정 모델을 참조하여, 상기 특정 센서 데이터 및 상기 기준 센서 데이터 사이의 차이로부터 상기 타겟 사용자에 착용되는 상기 센서의 위치에 관한 정보를 추정하는 단계, 및 상기 추정되는 위치에 관한 정보를 참조하여, 상기 타겟 사용자가 임의의 동작을 행하는 동안에 상기 타겟 사용자에 착용되는 상기 센서에 의해 실제로 측정되는 제1 센서 데이터에 포함될 것으로 예상되는 오차를 추정하는 단계를 포함하는 방법이 제공된다.

Description

사용자의 행동 특징을 기반으로 센서 데이터를 보정하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체{METHOD, SYSTEM AND NON-TRANSITORY COMPUTER-READABLE RECORDING MEDIUM FOR CORRECTING SENSOR DATA BASED ON MOTION CHARACTERISTIC OF USER}
본 발명은 사용자의 행동 특징을 기반으로 센서 데이터를 보정하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체에 관한 것이다.
근래에 들어, 사무실에 오래 앉아서 일하는 사무직 근로자가 증가하고, 사람들의 스마트 기기의 사용시간이 증가하고 있다. 그러나 사람들이 앉아서 일하거나 스마트 기기를 사용할 때에 잘못된 자세를 취하는 경우가 많고, 이러한 잘못된 자세는 목, 허리, 어깨, 다리 등의 신체 부위에 좋지 않은 영향을 미치게 된다. 따라서, 잘못된 자세는 각종 질환의 원인이 되며, 그 중에서도 특히 경추 질환과 요추 질환을 유발하게 된다.
한국의 건강 보험 심사 평가원의 통계에 따르면, 척추 질환 환자는 2012년 760만명에서 2016년 840만명으로 약 10% 증가했고, 경추 디스크 환자는 동 기간 160만명에서 193만명으로 약 20% 증가했다고 한다. 경추 질환과 요추 질환을 가진 환자의 증가 추세는 국내뿐만 아니라 전 세계적으로 나타나고 있는 현상인데, 이와 관련된 연구에 의하면, 앉아 있거나 스마트 기기를 사용할 때 올바른 자세를 취하기만 해도 위와 같은 질환을 예방할 수 있을 뿐만 아니라, 질환을 갖고 있는 사람들도 올바른 자세를 취하면 몸의 균형이 개선되고 통증이 완화된다고 한다.
이에 따라, 최근에는 사용자의 신체에 착용되는 센서를 이용하여 그 사용자의 보행 패턴을 추정함으로써 그 사용자의 몸의 균형 등을 분석하고 개선할 수 있도록 지원하는 기술이 개발되고 있다. 이러한 센서들은 사용자의 신체에 착용되어 그 사용자의 신체의 동작을 감지하도록 구성되는데, 센서가 신체에 착용될 때 해당 센서가 정위치에 착용되지 않는 경우 등과 같이 해당 센서가 잘못 착용되는 경우에는 정확한 감지가 이루어지지 않는다는 문제점이 있었다.
이에 본 발명자(들)는, 센서가 기준 위치가 아닌 위치에 사용자에 착용되는 경우에도 해당 센서에 의하여 측정되는 센서 데이터를 보정함으로써 정확한 센서 데이터를 획득할 수 있도록 하는 기술을 제안하는 바이다.
한국공개특허공보 제10-2018-0117376호 (2018. 10. 29)
본 발명은 전술한 종래 기술의 문제점을 모두 해결하는 것을 그 목적으로 한다.
또한, 본 발명은, 타겟 사용자가 특정 동작을 행하는 동안에 위의 타겟 사용자에 착용되는 센서에 의해 실제로 측정되는 특정 센서 데이터를 획득하고, 기준 사용자가 위의 특정 동작을 행하는 동안에 위의 기준 사용자의 기준 위치에 착용되는 위의 센서에 의해 측정될 것으로 예측되는 기준 센서 데이터를 획득하고, 적어도 하나의 사용자에 착용되는 위의 센서의 위치와 위의 적어도 하나의 사용자가 적어도 하나의 동작을 행하는 동안에 위의 적어도 하나의 사용자에 착용되는 위의 센서에 의해 측정되는 적어도 두 종류의 센서 데이터 사이의 관계에서 나타나는 오차 사이의 관계를 정의하는 추정 모델을 참조하여, 위의 특정 센서 데이터 및 위의 기준 센서 데이터 사이의 차이로부터 위의 타겟 사용자에 착용되는 위의 센서의 위치에 관한 정보를 추정하고, 그 추정되는 위치에 관한 정보를 참조하여, 위의 타겟 사용자가 임의의 동작을 행하는 동안에 위의 타겟 사용자에 착용되는 위의 센서에 의해 실제로 측정되는 제1 센서 데이터에 포함될 것으로 예상되는 오차를 추정하는 것을 다른 목적으로 한다.
또한, 본 발명은, 센서가 기준 위치가 아닌 위치에 사용자에 착용되는 경우에도 해당 센서에 의하여 측정되는 센서 데이터를 보정함으로써 정확한 센서 데이터를 획득하는 것을 또 다른 목적으로 한다.
또한, 본 발명은, 사용자에 착용된 센서의 위치가 변동되는 경우에도 해당 센서에 의하여 측정되는 센서 데이터를 보정함으로써 정확한 센서 데이터를 획득하는 것을 또 다른 목적으로 한다.
또한, 본 발명은, 사용자가 센서를 착용할 때에 그 착용 위치를 따로 입력하거나 설정하는 번거로움 없이, 그 사용자가 원하는 위치에 센서를 착용하는 경우에도 해당 센서에 의하여 측정되는 센서 데이터를 보정함으로써 정확한 센서 데이터를 획득하는 것을 또 다른 목적으로 한다.
상기 목적을 달성하기 위한 본 발명의 대표적인 구성은 다음과 같다.
본 발명의 일 태양에 따르면, 타겟 사용자가 특정 동작을 행하는 동안에 상기 타겟 사용자에 착용되는 센서에 의해 실제로 측정되는 특정 센서 데이터를 획득하고, 기준 사용자가 상기 특정 동작을 행하는 동안에 상기 기준 사용자의 기준 위치에 착용되는 상기 센서에 의해 측정될 것으로 예측되는 기준 센서 데이터를 획득하는 단계, 적어도 하나의 사용자에 착용되는 상기 센서의 위치와 상기 적어도 하나의 사용자가 적어도 하나의 동작을 행하는 동안에 상기 적어도 하나의 사용자에 착용되는 상기 센서에 의해 측정되는 적어도 두 종류의 센서 데이터 사이의 관계에서 나타나는 오차 사이의 관계를 정의하는 추정 모델을 참조하여, 상기 특정 센서 데이터 및 상기 기준 센서 데이터 사이의 차이로부터 상기 타겟 사용자에 착용되는 상기 센서의 위치에 관한 정보를 추정하는 단계, 및 상기 추정되는 위치에 관한 정보를 참조하여, 상기 타겟 사용자가 임의의 동작을 행하는 동안에 상기 타겟 사용자에 착용되는 상기 센서에 의해 실제로 측정되는 제1 센서 데이터에 포함될 것으로 예상되는 오차를 추정하는 단계를 포함하는 방법이 제공된다.
본 발명의 다른 태양에 따르면, 타겟 사용자가 특정 동작을 행하는 동안에 상기 타겟 사용자에 착용되는 센서에 의해 실제로 측정되는 특정 센서 데이터를 획득하고, 기준 사용자가 상기 특정 동작을 행하는 동안에 상기 기준 사용자의 기준 위치에 착용되는 상기 센서에 의해 측정될 것으로 예측되는 기준 센서 데이터를 획득하는 센서 데이터 관리부, 적어도 하나의 사용자에 착용되는 상기 센서의 위치와 상기 적어도 하나의 사용자가 적어도 하나의 동작을 행하는 동안에 상기 적어도 하나의 사용자에 착용되는 상기 센서에 의해 측정되는 적어도 두 종류의 센서 데이터 사이의 관계에서 나타나는 오차 사이의 관계를 정의하는 추정 모델을 참조하여, 상기 특정 센서 데이터 및 상기 기준 센서 데이터 사이의 차이로부터 상기 타겟 사용자에 착용되는 상기 센서의 위치에 관한 정보를 추정하는 센서 위치 정보 추정부, 및 상기 추정되는 위치에 관한 정보를 참조하여, 상기 타겟 사용자가 임의의 동작을 행하는 동안에 상기 타겟 사용자에 착용되는 상기 센서에 의해 실제로 측정되는 제1 센서 데이터에 포함될 것으로 예상되는 오차를 추정하는 오차 추정부를 포함하는 시스템이 제공된다.
이 외에도, 본 발명을 구현하기 위한 다른 방법, 다른 시스템 및 상기 방법을 실행하기 위한 컴퓨터 프로그램을 기록하는 비일시성의 컴퓨터 판독 가능한 기록 매체가 더 제공된다.
본 발명에 의하면, 타겟 사용자가 특정 동작을 행하는 동안에 위의 타겟 사용자에 착용되는 센서에 의해 실제로 측정되는 특정 센서 데이터를 획득하고, 기준 사용자가 위의 특정 동작을 행하는 동안에 위의 기준 사용자의 기준 위치에 착용되는 위의 센서에 의해 측정될 것으로 예측되는 기준 센서 데이터를 획득하고, 적어도 하나의 사용자에 착용되는 위의 센서의 위치와 위의 적어도 하나의 사용자가 적어도 하나의 동작을 행하는 동안에 위의 적어도 하나의 사용자에 착용되는 위의 센서에 의해 측정되는 적어도 두 종류의 센서 데이터사이의 관계에서 나타나는 오차 사이의 관계를 정의하는 추정 모델을 참조하여, 위의 특정 센서 데이터 및 위의 기준 센서 데이터 사이의 차이로부터 위의 타겟 사용자에 착용되는 위의 센서의 위치에 관한 정보를 추정하고, 그 추정되는 위치에 관한 정보를 참조하여, 위의 타겟 사용자가 임의의 동작을 행하는 동안에 위의 타겟 사용자에 착용되는 위의 센서에 의해 실제로 측정되는 제1 센서 데이터에 포함될 것으로 예상되는 오차를 추정할 수 있게 된다.
또한, 본 발명에 의하면, 센서가 기준 위치가 아닌 위치에 사용자에 착용되는 경우에도 해당 센서에 의하여 측정되는 센서 데이터를 보정함으로써 정확한 센서 데이터를 획득할 수 있게 된다.
또한, 본 발명에 의하면, 사용자에 착용된 센서의 위치가 변동되는 경우에도 해당 센서에 의하여 측정되는 센서 데이터를 보정함으로써 정확한 센서 데이터를 획득할 수 있게 된다.
또한, 본 발명은, 사용자가 센서를 착용할 때에 그 착용 위치를 따로 입력하거나 설정하는 번거로움 없이, 그 사용자가 원하는 위치에 센서를 착용하는 경우에도 해당 센서에 의하여 측정되는 센서 데이터를 보정함으로써 정확한 센서 데이터를 획득할 수 있게 된다.
도 1은 본 발명의 일 실시예에 따라 사용자의 행동 특징을 기반으로 센서 데이터를 보정하는 전체 시스템의 개략적인 구성을 나타내는 도면이다.
도 2는 본 발명의 일 실시예에 따른 센서 데이터 보정 시스템의 내부 구성을 상세하게 도시하는 도면이다.
도 3 및 4는 본 발명의 일 실시예에 따른 센서의 위치에 관한 정보를 추정하는 과정을 예시적으로 나타내는 도면이다.
후술하는 본 발명에 대한 상세한 설명은, 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이러한 실시예는 당업자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다. 본 발명의 다양한 실시예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 본 명세서에 기재되어 있는 특정 형상, 구조 및 특성은 본 발명의 정신과 범위를 벗어나지 않으면서 일 실시예로부터 다른 실시예로 변경되어 구현될 수 있다. 또한, 각각의 실시예 내의 개별 구성요소의 위치 또는 배치도 본 발명의 정신과 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 행하여지는 것이 아니며, 본 발명의 범위는 특허청구범위의 청구항들이 청구하는 범위 및 그와 균등한 모든 범위를 포괄하는 것으로 받아들여져야 한다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 구성요소를 나타낸다.
이하에서는, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있도록 하기 위하여, 본 발명의 여러 바람직한 실시예에 관하여 첨부된 도면을 참조하여 상세히 설명하기로 한다.
전체 시스템의 구성
도 1은 본 발명의 일 실시예에 따라 사용자의 행동 특징을 기반으로 센서 데이터를 보정하는 전체 시스템의 개략적인 구성을 나타내는 도면이다.
도 1에 도시된 바와 같이, 본 발명의 일 실시예에 따른 전체 시스템은 통신망(100), 센서 데이터 보정 시스템(200) 및 센서(300)를 포함할 수 있다.
먼저, 본 발명의 일 실시예에 따른 통신망(100)은 유선 통신이나 무선 통신과 같은 통신 양태를 가리지 않고 구성될 수 있으며, 근거리 통신망(LAN; Local Area Network), 도시권 통신망(MAN; Metropolitan Area Network), 광역 통신망(WAN; Wide Area Network) 등 다양한 통신망으로 구성될 수 있다. 바람직하게는, 본 명세서에서 말하는 통신망(100)은 공지의 인터넷 또는 월드 와이드 웹(WWW; World Wide Web)일 수 있다. 그러나, 통신망(100)은, 굳이 이에 국한될 필요 없이, 공지의 유무선 데이터 통신망, 공지의 전화망 또는 공지의 유무선 텔레비전 통신망을 그 적어도 일부에 있어서 포함할 수도 있다.
예를 들면, 통신망(100)은 무선 데이터 통신망으로서, 와이파이(WiFi) 통신, 와이파이 다이렉트(WiFi-Direct) 통신, 롱텀 에볼루션(LTE, Long Term Evolution) 통신, 5G 통신, 블루투스 통신(저전력 블루투스(BLE; Bluetooth Low Energy) 통신 포함), 적외선 통신, 초음파 통신 등과 같은 종래의 통신 방법을 적어도 그 일부분에 있어서 구현하는 것일 수 있다. 다른 예를 들면, 통신망(100)은 광 통신망으로서, 라이파이(LiFi, Light Fidelity) 등과 같은 종래의 통신 방법을 적어도 그 일부분에 있어서 구현하는 것일 수 있다.
다음으로, 본 발명의 일 실시예에 따른 센서 데이터 보정 시스템(200)은 타겟 사용자가 특정 동작을 행하는 동안에 위의 타겟 사용자에 착용되는 센서에 의해 실제로 측정되는 특정 센서 데이터를 획득하고, 기준 사용자가 위의 특정 동작을 행하는 동안에 위의 기준 사용자의 기준 위치에 착용되는 위의 센서에 의해 측정될 것으로 예측되는 기준 센서 데이터를 획득하고, 적어도 하나의 사용자에 착용되는 위의 센서의 위치와 위의 적어도 하나의 사용자가 적어도 하나의 동작을 행하는 동안에 위의 적어도 하나의 사용자에 착용되는 위의 센서에 의해 측정되는 적어도 두 종류의 센서 데이터 사이의 관계에서 나타나는 오차 사이의 관계를 정의하는 추정 모델을 참조하여, 위의 특정 센서 데이터 및 위의 기준 센서 데이터 사이의 차이로부터 위의 타겟 사용자에 착용되는 위의 센서의 위치에 관한 정보를 추정하고, 그 추정되는 위치에 관한 정보를 참조하여, 위의 타겟 사용자가 임의의 동작을 행하는 동안에 위의 타겟 사용자에 착용되는 위의 센서에 의해 실제로 측정되는 제1 센서 데이터에 포함될 것으로 예상되는 오차를 추정하는 기능을 수행할 수 있다.
본 발명에 따른 센서 데이터 보정 시스템(200)의 구성과 기능에 관하여는 이하의 상세한 설명을 통하여 자세하게 알아보기로 한다.
다음으로, 본 발명의 일 실시예에 따른 센서(300)는 센서 데이터 보정 시스템(200)에 접속한 후 통신할 수 있는 기능을 포함하는 디지털 기기로서, 공지의 6축 각속도/가속도 센서를 포함할 수 있다. 따라서, 센서(300)에 의하여 X축, Y축 및 Z축의 가속도와 각속도(즉, 어떤 방향으로 기울어지는 속도)를 측정할 수 있다. 나아가, 각가속도가 각속도와 함께 또는 각속도를 대신하여 측정될 수도 있다. 이러한 센서(300)는 외견상 만보기와 유사한 형태로 구성될 수 있고, 사용자의 신체의 중심이 아닌 위치(예를 들면, 오른편 허리춤이나 왼편 허리춤)에 착용될 수 있다. 다만, 본 발명의 일 실시예에 따른 센서(300)의 종류 및 센서(300)가 착용되는 위치에 특별한 제한이 있는 것은 아니며, 본 발명의 목적을 달성할 수 있는 범위 내에서 다양하게 변경될 수 있다. 예를 들면, 각속도 및 가속도 센서가 아닌 다른 종류의 센서가 포함될 수 있고, 사용자의 신체의 중심에 해당하는 위치에 착용될 수도 있다.
특히, 센서(300)는, 사용자가 센서 데이터 보정 시스템(200)으로부터 센서 데이터 보정 등의 서비스를 제공받을 수 있도록 지원하는 애플리케이션(미도시됨)을 포함할 수 있다. 이와 같은 애플리케이션은 센서 데이터 보정 시스템(200) 또는 외부의 애플리케이션 배포 서버(미도시됨)로부터 다운로드된 것일 수 있다. 한편, 이러한 애플리케이션의 성격은 후술할 바와 같은 센서 데이터 보정 시스템(200)의 센서 데이터 관리부(210), 센서 위치 정보 추정부(220), 오차 추정부(230), 통신부(240) 및 제어부(250)와 전반적으로 유사할 수 있다. 여기서, 애플리케이션은 그 적어도 일부가 필요에 따라 그것과 실질적으로 동일하거나 균등한 기능을 수행할 수 있는 하드웨어 장치나 펌웨어 장치로 치환될 수도 있다.
센서 데이터 보정 시스템의 구성
이하에서는, 본 발명의 구현을 위하여 중요한 기능을 수행하는 센서 데이터 보정 시스템(200)의 내부 구성과 각 구성요소의 기능에 대하여 살펴보기로 한다.
도 2는 본 발명의 일 실시예에 따른 센서 데이터 보정 시스템(200)의 내부 구성을 상세하게 도시하는 도면이다.
도 2에 도시된 바와 같이, 본 발명의 일 실시예에 따른 센서 데이터 보정 시스템(200)은, 센서 데이터 관리부(210), 센서 위치 정보 추정부(220), 오차 추정부(230), 통신부(240) 및 제어부(250)를 포함하여 구성될 수 있다. 본 발명의 일 실시예에 따르면, 센서 데이터 관리부(210), 센서 위치 정보 추정부(220), 오차 추정부(230), 통신부(240) 및 제어부(250)는 그 중 적어도 일부가 외부의 시스템과 통신하는 프로그램 모듈일 수 있다. 이러한 프로그램 모듈은 운영 시스템, 응용 프로그램 모듈 또는 기타 프로그램 모듈의 형태로 센서 데이터 보정 시스템(200)에 포함될 수 있고, 물리적으로는 여러 가지 공지의 기억 장치에 저장될 수 있다. 또한, 이러한 프로그램 모듈은 센서 데이터 보정 시스템(200)과 통신 가능한 원격 기억 장치에 저장될 수도 있다. 한편, 이러한 프로그램 모듈은 본 발명에 따라 후술할 특정 업무를 수행하거나 특정 추상 데이터 유형을 실행하는 루틴, 서브루틴, 프로그램, 오브젝트, 컴포넌트, 데이터 구조 등을 포괄하지만, 이에 제한되지는 않는다.
한편, 센서 데이터 보정 시스템(200)에 관하여 위와 같이 설명되었으나, 이러한 설명은 예시적인 것이고, 센서 데이터 보정 시스템(200)의 구성요소 또는 기능 중 적어도 일부가 필요에 따라 외부 시스템(미도시됨) 내에서 실현되거나 포함될 수도 있음은 당업자에게 자명하다.
먼저, 본 발명의 일 실시예에 따른 센서 데이터 관리부(210)는, 타겟 사용자가 특정 동작을 행하는 동안에 그 타겟 사용자에 착용되는 센서(300)에 의해 실제로 측정되는 특정 센서 데이터를 획득하는 기능을 수행할 수 있다.
구체적으로, 실제 사용 환경에서 센서(300)가 기준 위치 아닌 위치에 타겟 사용자에 착용된 상태에서 타겟 사용자가 임의의 동작을 행하는 경우에 그 센서(300)에 의해 측정되는 센서 데이터에서 오차가 발생할 수 있다. 본 발명의 일 실시예에 따른 특정 동작은, 본 발명의 일 실시예에 따른 센서 위치 정보 추정부(220)로 하여금 센서의 위치에 관한 정보를 추정할 수 있게 함으로써, 위와 같은 오차를 추정 및 제거할 수 있게 하는 타겟 사용자의 특정한 동작을 의미할 수 있다. 이러한 특정 동작에는 걷는 동작이 포함될 수 있고, 한 걸음 또는 반걸음으로 세분화될 수 있다. 다만, 본 발명의 일 실시예에 따른 특정 동작은 위에서 열거된 것에 한정되지 않으며, 본 발명의 목적을 달성할 수 있는 범위 내에서 다양하게 변경될 수 있다.
계속하여, 본 발명의 일 실시예에 따른 센서 데이터 관리부(210)는, 위의 타겟 사용자가 위의 특정 동작을 행하는 동안에 그 타겟 사용자에 착용되는 센서(300)에 의해 실제로 측정되는 특정 센서 데이터를 획득할 수 있다. 나아가, 본 발명의 일 실시예에 따른 특정 센서 데이터는, 타겟 사용자가 특정 동작을 반복적으로 행함으로써 획득되는 복수의 센서 데이터를 종합한 데이터를 의미할 수 있고, 그 복수의 센서 데이터의 값의 평균과 같이 그 복수의 센서 데이터에 대하여 소정의 연산을 수행한 결과를 의미할 수도 있다.
그리고, 본 발명의 일 실시예에 따른 센서 데이터 관리부(210)는, 타겟 사용자가 특정 동작을 수행했는지 여부를 판단하는 기능을 수행할 수 있다. 예를 들면, 본 발명의 일 실시예에 따른 특정 동작이 반걸음인 경우에, 본 발명의 일 실시예에 따른 센서 데이터 관리부(210)는, 타겟 사용자가 어떤 동작을 하는 동안에 그 타겟 사용자에 착용되는 센서(300)에 의하여 실제로 측정되는 센서 데이터를 분석하여 그 타겟 사용자가 반걸음을 걸었는지 여부를 판단할 수 있고, 반걸음을 걸었다고 판단된다면, 그 측정되는 센서 데이터를 타겟 센서 데이터로서 획득할 수 있다.
또한, 본 발명의 일 실시예에 따른 센서 데이터 관리부(210)는, 기준 사용자가 특정 동작을 행하는 동안에 그 기준 사용자의 기준 위치에 착용되는 센서(300)에 의해 측정될 것으로 예측되는 기준 센서 데이터를 획득하는 기능을 수행할 수 있다.
구체적으로, 본 발명의 일 실시예에 따르면, 기준 위치는 기준 사용자가 특정 동작을 행하는 동안에 센서(300)에 의해 측정될 것으로 예측되는 센서 데이터에 그 센서(300)의 착용 위치에 따른 오차가 없게 되는 위치를 의미할 수 있다. 예를 들면, 이러한 기준 위치는, 기준 사용자의 오른쪽 전상장골극(ASIS; Anterior Superior Iliac Spine)의 오른쪽 끝으로부터 왼쪽으로 소정의 거리만큼 떨어진 위치, 기준 사용자의 배꼽으로부터 오른쪽으로 소정의 거리만큼 떨어진 위치 등으로 미리 설정될 수 있다. 다만, 본 발명의 일 실시예에 따른 기준 위치는 위에서 열거된 것에 한정되지 않으며, 본 발명의 목적을 달성할 수 있는 범위 내에서 다양하게 변경될 수 있다.
도 3은 본 발명의 일 실시예에 따른 센서의 위치에 관한 정보를 추정하는 과정을 예시적으로 나타내는 도면이다.
도 3의 (a)를 참조하면, 센서(300a)가 기준 위치에 착용된 상태를 확인할 수 있다. 그리고, 도 3의 (b)를 참조하면, 센서(300b)가 기준 위치에 착용되지 않은 상태를 확인할 수 있다.
한편, 본 발명의 일 실시예에 따른 센서 데이터 관리부(210)에 의하여 획득되는 특정 센서 데이터 및 기준 센서 데이터 각각에는, 적어도 두 종류의 센서 데이터가 포함될 수 있다. 나아가, 본 발명의 일 실시예에 따른 특정 센서 데이터 및 기준 센서 데이터 각각은, 위의 적어도 두 종류의 센서 데이터 중 적어도 하나를 환산한 센서 데이터를 포함할 수 있고, 위의 적어도 두 종류의 센서 데이터의 비율(적어도 하나의 센서 데이터는 환산된 것일 수 있음)을 의미할 수 있다. 다만, 본 발명의 일 실시예에 따른 특정 센서 데이터 및 기준 센서 데이터에 포함되는 센서 데이터의 종류는 위에서 열거된 것에 한정되지 않으며, 본 발명의 목적을 달성할 수 있는 범위 내에서 다양하게 변경될 수 있다.
도 4는 본 발명의 일 실시예에 따른 센서의 위치에 관한 정보를 추정하는 과정을 예시적으로 나타내는 도면이다. 구체적으로, 도 4의 (a) 및 (b)에서 직선(400)은 골반을 표현한 것으로서, 예를 들면, 그 직선(400)의 양 끝은 왼쪽 전상장골극(ASIS)의 왼쪽 끝 및 오른쪽 전상장골극(ASIS)의 오른쪽 끝을 의미할 수 있다. 그리고, 센서(300a 및 300b)는 각각 해당 센서가 기준 위치에 착용된 상태(300a)와 기준 위치가 아닌 위치에 착용된 상태(300b)를 나타낼 수 있다. 그리고, 일반적으로 사람이 정면을 향하여 걸을 때 왼발 또는 오른발이 지면에 닿는 시점에 진행 방향을 축으로 하여 그 축을 중심으로 몸이 시계 방향 또는 반시계 방향으로 회전하게 되므로, 도 4의 (b)는 오른발이 지면에 닿는 시점에서의 골반의 상태를 나타낼 수 있다.
계속하여 예를 들면, 본 발명의 일 실시예에 따른 특정 센서 데이터 및 기준 센서 데이터 각각에 가속도 데이터 및 각속도 데이터가 포함되고, 본 발명의 일 실시예에 따른 특정 동작이 걷는 동작인 경우를 가정할 수 있다. 이러한 경우에, 도 4의 (a), (b), (c) 및 (d)를 참조하면, 사용자가 걸으면서 그 사용자의 골반이 도 4의 (a)의 상태에서 도 4의 (b)의 상태로 변하는 동안에 그 사용자에 착용된 센서(300a 및 300b)에 의하여 측정되는 가속도 데이터 및 각속도 데이터에 대한 그래프를 확인할 수 있다(도 4의 (c) 및 (d)). 여기서, 도 4의 (c)는 센서(300a)가 기준 위치에 착용된 상태에서 사용자가 걸으면서 그 사용자의 골반이 도 4의 (a)의 상태에서 도 4의 (b)의 상태로 변하는 동안에 측정되는 가속도 데이터 및 각속도 데이터에 대하여, 두 데이터가 1:1의 비율이 되도록 소정의 연산(환산)을 수행한 다음의 가속도 데이터 및 각속도 데이터에 대한 그래프일 수 있다. 그리고, 도 4의 (d)는 센서(300b)가 기준 위치가 아닌 위치에 착용된 상태에서 사용자가 걸으면서 그 사용자의 골반이 도 4의 (a)의 상태에서 도 4의 (b)의 상태로 변하는 동안에 측정되는 가속도 데이터 및 각속도 데이터에 대하여, 위의 소정의 연산(환산)을 동일하게 수행한 다음의 가속도 데이터 및 각속도 데이터에 대한 그래프일 수 있다.
다음으로, 본 발명의 일 실시예에 따른 센서 위치 정보 추정부(220)는, 적어도 하나의 사용자에 착용되는 센서(300)의 위치와 위의 적어도 하나의 사용자가 적어도 하나의 동작을 행하는 동안에 위의 적어도 하나의 사용자에 착용되는 위의 센서(300)에 의해 측정되는 적어도 두 종류의 센서 데이터 사이의 관계에서 나타나는 오차 사이의 관계를 정의하는 추정 모델을 참조하여, 본 발명의 일 실시예에 따른 센서 데이터 관리부(210)에 의하여 획득되는 특정 센서 데이터 및 기준 센서 데이터 사이의 차이로부터 타겟 사용자에 착용되는 센서(300)의 위치에 관한 정보를 추정하는 기능을 수행할 수 있다.
구체적으로, 본 발명의 일 실시예에 따른 센서 위치 정보 추정부(220)는, 적어도 하나의 사용자에 착용되는 센서(300)의 위치와 위의 적어도 하나의 사용자가 적어도 하나의 동작을 행하는 동안에 위의 적어도 하나의 사용자에 착용되는 위의 센서(300)에 의해 측정되는 적어도 두 종류의 센서 데이터 사이의 관계에서 나타나는 오차에 관한 경험적인 데이터를 이용하여 추정 모델을 구축할 수 있다. 그리고, 본 발명의 일 실시예에 따른 센서 위치 정보 추정부(220)는, 본 발명의 일 실시예에 따른 센서 데이터 관리부(210)에 의하여 획득되는 특정 센서 데이터 및 기준 센서 데이터 사이의 차이를 참조하여 타겟 사용자에게 착용되는 센서(300)의 위치에 관한 정보를 추정할 수 있다. 여기서, 위의 센서(300)의 위치에 관한 정보에는 기준 위치에 대한 그 센서(300)의 상대적인 위치가 포함될 수 있다.
보다 구체적으로, 본 발명의 일 실시예에 따른 센서 위치 정보 추정부(220)는, 적어도 하나의 사용자(타겟 사용자도 포함될 수 있음)가 센서(300)를 다양한 위치에 착용한 상태에서 적어도 하나의 동작(특정 동작도 포함될 수 있음)을 행하는 동안에, 그 센서(300)에 의해 측정되는 두 종류의 센서 데이터 사이의 관계에서 나타나는 오차에 관한 정보를 수집할 수 있다. 그리고, 그 수집되는 정보에 기초하여, 사용자에 착용되는 센서(300)의 위치와 적어도 두 종류의 센서 데이터 사이의 관계에서 나타나는 오차 사이의 관계를 도출함으로써, 추정 모델을 구축할 수 있다.
한편, 본 발명의 일 실시예에 따르면, 사용자에 착용되는 센서(300)에 의하여 측정되는 적어도 두 종류의 센서 데이터 사이의 관계는, 그 적어도 두 종류의 센서 데이터의 비율에 기초하여 정의될 수 있다.
예를 들면, 도 4의 (a), (b), (c) 및 (d)를 참조하면, 센서(300a)가 기준 위치에 착용된 상태에서 사용자가 걸으면서 그 사용자의 골반이 도 4의 (a)의 상태에서 도 4의 (b)의 상태로 변하는 동안에 측정되는 가속도 데이터 및 각속도 데이터가 1:1이 되도록 설정이 된 경우를 가정할 수 있다(도 4의 (c)). 이러한 경우에, 센서(300b)가 기준 위치보다 사용자의 중심으로부터 먼 위치에 착용된 상태에서 위와 동일한 동작을 하게 되면, 각속도 데이터는 변화가 없지만, 가속도 데이터는 더 커지게 되므로(도 4의 (d)), 가속도 데이터 및 각속도 데이터의 비율이 k:1(여기서, k >> 1)로 변하게 된다. 즉, 이러한 경우에는 사용자가 걷는 동안에 해당 센서(300b)에 의해 측정되는 해당 센서(300b)의 가속도 데이터에 오차가 포함되어 있다. 따라서, 본 발명의 일 실시예에 따른 센서 위치 정보 추정부(220)는, 이와 같은 센서(300a 및 300b)의 위치와 사용자가 걷는 동안에 해당 센서(300a 및 300b)로부터 측정되는 적어도 두 종류의 센서 데이터의 비율에서 나타나는 오차를 바탕으로 추정 모델을 구축할 수 있다.
한편, 본 발명의 일 실시예에 따른 추정 모델은 다양한 공지의 인공 지능(머신 러닝) 알고리즘을 이용하여 구축될 수 있다. 예를 들면, 합성곱 신경망(Convolutional Neural Network; CNN), 순환 신경망(Recurrent Neural Network; RNN) 등과 같은 인공 신경망을 이용하여 구축될 수 있지만, 이에 제한되는 것은 아니다. 또한, 본 발명의 일 실시예에 따른 센서 위치 정보 추정부(220)는, 미리 구축된 추정 모델을 참조로 하는 것에 그치지 않고, 새롭게 획득되는 정보에 기초하여 기존의 추정 모델을 갱신하는 기능을 수행할 수 있다. 이러한 추정 모델은, 사용자의 행동 특징을 기반으로 센서 데이터를 보정하는 데에 활용될 수 있고, 나아가 사용자의 자세 분석, 자세 교정 등에 활용될 수도 있다.
다음으로, 본 발명의 일 실시예에 따른 오차 추정부(230)는, 본 발명의 일 실시예에 따른 센서 위치 정보 추정부(220)에 의하여 추정되는 위치에 관한 정보를 참조하여, 타겟 사용자가 임의의 동작을 행하는 동안에 그 타겟 사용자에 착용되는 센서에 의해 실제로 측정되는 제1 센서 데이터에 포함될 것으로 예상되는 오차를 추정하는 기능을 수행할 수 있다.
구체적으로, 본 발명의 일 실시예에 따르면, 타겟 사용자가 특정 동작을 행하는 동안에 위의 타겟 사용자에 착용되는 센서(300)에 의해 실제로 측정되는 특정 센서 데이터 및 기준 센서 데이터 사이의 차이로부터 위의 센서(300)의 위치에 관한 정보가 추정되면, 본 발명의 일 실시예에 따른 오차 추정부(230)는, 그 추정되는 위치에 관한 정보를 참조하여, 위의 타겟 사용자가 임의의 동작을 행하는 동안에 위의 센서(300)에 의해 실제로 측정되는 제1 센서 데이터에 포함될 것으로 예상되는 오차를 추정할 수 있다. 그리고, 본 발명의 일 실시예에 따른 오차 추정부(230)는, 그 추정되는 오차를 위의 제1 센서 데이터에서 제거함으로써, 위의 센서(300)가 기준 위치가 아닌 상태로 위의 타겟 사용자에 착용되는 경우에도 정확한 센서 데이터를 획득할 수 있다.
다음으로, 본 발명의 일 실시예에 따른 통신부(240)는 센서 데이터 관리부(210), 센서 위치 정보 추정부(220) 및 오차 추정부(230)로부터의/로의 데이터 송수신이 가능하도록 하는 기능을 수행할 수 있다.
마지막으로, 본 발명의 일 실시예에 따른 제어부(250)는 센서 데이터 관리부(210), 센서 위치 정보 추정부(220), 오차 추정부(230) 및 통신부(240) 간의 데이터의 흐름을 제어하는 기능을 수행할 수 있다. 즉, 본 발명에 따른 제어부(250)는 센서 데이터 보정 시스템(200)의 외부로부터의/로의 데이터 흐름 또는 센서 데이터 보정 시스템(200)의 각 구성요소 간의 데이터 흐름을 제어함으로써, 센서 데이터 관리부(210), 센서 위치 정보 추정부(220), 오차 추정부(230) 및 통신부(240)에서 각각 고유 기능을 수행하도록 제어할 수 있다.
이상 설명된 본 발명에 따른 실시예는 다양한 컴퓨터 구성요소를 통하여 실행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수 있다. 컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등과 같은, 프로그램 명령어를 저장하고 실행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 컴파일러에 의하여 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용하여 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위하여 하나 이상의 소프트웨어 모듈로 변경될 수 있으며, 그 역도 마찬가지이다.
이상에서 본 발명이 구체적인 구성요소 등과 같은 특정 사항과 한정된 실시예 및 도면에 의하여 설명되었으나, 이는 본 발명의 보다 전반적인 이해를 돕기 위하여 제공된 것일 뿐, 본 발명이 상기 실시예에 한정되는 것은 아니며, 본 발명이 속하는 기술분야에서 통상적인 지식을 가진 자라면 이러한 기재로부터 다양한 수정과 변경을 꾀할 수 있다.
따라서, 본 발명의 사상은 상기 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등한 또는 이로부터 등가적으로 변경된 모든 범위는 본 발명의 사상의 범주에 속한다고 할 것이다.
100: 통신망
200: 센서 데이터 보정 시스템
210: 센서 데이터 관리부
220: 센서 위치 정보 추정부
230: 오차 추정부
240: 통신부
250: 제어부
300: 센서

Claims (9)

  1. 사용자의 행동 특징을 기반으로 센서 데이터를 보정하는 방법으로서,
    타겟 사용자가 특정 동작을 행하는 동안에 상기 타겟 사용자에 착용되는 센서에 의해 실제로 측정되는 특정 센서 데이터를 획득하고, 기준 사용자가 상기 특정 동작을 행하는 동안에 상기 기준 사용자의 기준 위치에 착용되는 상기 센서에 의해 측정될 것으로 예측되는 기준 센서 데이터를 획득하는 단계,
    적어도 하나의 사용자에 착용되는 상기 센서의 위치와 상기 적어도 하나의 사용자가 적어도 하나의 동작을 행하는 동안에 상기 적어도 하나의 사용자에 착용되는 상기 센서에 의해 측정되는 적어도 두 종류의 센서 데이터 사이의 관계에서 나타나는 오차 사이의 관계를 정의하는 추정 모델을 참조하여, 상기 특정 센서 데이터 및 상기 기준 센서 데이터 사이의 차이로부터 상기 타겟 사용자에 착용되는 상기 센서의 위치에 관한 정보를 추정하는 단계, 및
    상기 추정되는 위치에 관한 정보를 참조하여, 상기 타겟 사용자가 임의의 동작을 행하는 동안에 상기 타겟 사용자에 착용되는 상기 센서에 의해 실제로 측정되는 제1 센서 데이터에 포함될 것으로 예상되는 오차를 추정하는 단계를 포함하고,
    상기 센서에는, 가속도 센서 및 각속도 센서가 포함되고,
    상기 특정 동작에는, 걷는 동작이 포함되는
    방법.
  2. 삭제
  3. 제1항에 있어서,
    상기 적어도 두 종류의 센서 데이터 사이의 관계는, 상기 적어도 두 종류의 센서 데이터의 비율에 기초하여 정의되는
    방법.
  4. 삭제
  5. 제1항에 따른 방법을 실행하기 위한 컴퓨터 프로그램을 기록하는 비일시성의 컴퓨터 판독 가능 기록 매체.
  6. 사용자의 행동 특징을 기반으로 센서 데이터를 보정하는 시스템으로서,
    타겟 사용자가 특정 동작을 행하는 동안에 상기 타겟 사용자에 착용되는 센서에 의해 실제로 측정되는 특정 센서 데이터를 획득하고, 기준 사용자가 상기 특정 동작을 행하는 동안에 상기 기준 사용자의 기준 위치에 착용되는 상기 센서에 의해 측정될 것으로 예측되는 기준 센서 데이터를 획득하는 센서 데이터 관리부,
    적어도 하나의 사용자에 착용되는 상기 센서의 위치와 상기 적어도 하나의 사용자가 적어도 하나의 동작을 행하는 동안에 상기 적어도 하나의 사용자에 착용되는 상기 센서에 의해 측정되는 적어도 두 종류의 센서 데이터 사이의 관계에서 나타나는 오차 사이의 관계를 정의하는 추정 모델을 참조하여, 상기 특정 센서 데이터 및 상기 기준 센서 데이터 사이의 차이로부터 상기 타겟 사용자에 착용되는 상기 센서의 위치에 관한 정보를 추정하는 센서 위치 정보 추정부, 및
    상기 추정되는 위치에 관한 정보를 참조하여, 상기 타겟 사용자가 임의의 동작을 행하는 동안에 상기 타겟 사용자에 착용되는 상기 센서에 의해 실제로 측정되는 제1 센서 데이터에 포함될 것으로 예상되는 오차를 추정하는 오차 추정부를 포함하고,
    상기 센서에는, 가속도 센서 및 각속도 센서가 포함되고,
    상기 특정 동작에는, 걷는 동작이 포함되는
    시스템.
  7. 삭제
  8. 제6항에 있어서,
    상기 적어도 두 종류의 센서 데이터 사이의 관계는, 상기 적어도 두 종류의 센서 데이터의 비율에 기초하여 정의되는
    시스템.
  9. 삭제
KR1020200052794A 2019-06-03 2020-04-29 사용자의 행동 특징을 기반으로 센서 데이터를 보정하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체 KR102176769B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20190065513 2019-06-03
KR1020190065513 2019-06-03

Publications (1)

Publication Number Publication Date
KR102176769B1 true KR102176769B1 (ko) 2020-11-09

Family

ID=73429443

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200052794A KR102176769B1 (ko) 2019-06-03 2020-04-29 사용자의 행동 특징을 기반으로 센서 데이터를 보정하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체

Country Status (2)

Country Link
KR (1) KR102176769B1 (ko)
WO (1) WO2020246714A1 (ko)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004150900A (ja) * 2002-10-29 2004-05-27 Japan Aviation Electronics Industry Ltd 姿勢角検出装置および取付け角度補正量取得方法
JP2015073263A (ja) * 2013-09-06 2015-04-16 キヤノン株式会社 画像処理装置およびその方法、並びに、画像読取装置
WO2015098211A1 (ja) * 2013-12-25 2015-07-02 ソニー株式会社 姿勢測定装置及び姿勢測定方法、画像処理装置及び画像処理方法、表示装置及び表示方法、コンピューター・プログラム、並びに画像表示システム
JP2018044822A (ja) * 2016-09-13 2018-03-22 株式会社東芝 測位装置、測位方法及びコンピュータプログラム
KR20180085916A (ko) * 2017-01-20 2018-07-30 만도헬라일렉트로닉스(주) 웨어러블 장치의 위치를 추정하는 방법 및 이를 이용하는 장치
KR20180117376A (ko) 2017-04-19 2018-10-29 한국해양대학교 산학협력단 헬스케어 및 스마트라이프로거를 위한 걸음걸이 분석 방법 및 시스템
KR20190022198A (ko) * 2017-08-25 2019-03-06 숭실대학교산학협력단 착용형 센서를 이용한 자세정보 보정 방법 및 이를 수행하는 기록매체

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004150900A (ja) * 2002-10-29 2004-05-27 Japan Aviation Electronics Industry Ltd 姿勢角検出装置および取付け角度補正量取得方法
JP2015073263A (ja) * 2013-09-06 2015-04-16 キヤノン株式会社 画像処理装置およびその方法、並びに、画像読取装置
WO2015098211A1 (ja) * 2013-12-25 2015-07-02 ソニー株式会社 姿勢測定装置及び姿勢測定方法、画像処理装置及び画像処理方法、表示装置及び表示方法、コンピューター・プログラム、並びに画像表示システム
JP2018044822A (ja) * 2016-09-13 2018-03-22 株式会社東芝 測位装置、測位方法及びコンピュータプログラム
KR20180085916A (ko) * 2017-01-20 2018-07-30 만도헬라일렉트로닉스(주) 웨어러블 장치의 위치를 추정하는 방법 및 이를 이용하는 장치
KR20180117376A (ko) 2017-04-19 2018-10-29 한국해양대학교 산학협력단 헬스케어 및 스마트라이프로거를 위한 걸음걸이 분석 방법 및 시스템
KR20190022198A (ko) * 2017-08-25 2019-03-06 숭실대학교산학협력단 착용형 센서를 이용한 자세정보 보정 방법 및 이를 수행하는 기록매체

Also Published As

Publication number Publication date
WO2020246714A1 (ko) 2020-12-10

Similar Documents

Publication Publication Date Title
CN107632698B (zh) 基于影像的动作分析系统与方法
CN108829232B (zh) 基于深度学习的人体骨骼关节点三维坐标的获取方法
US20220409098A1 (en) A wearable device for determining motion and/or a physiological state of a wearer
US20220207921A1 (en) Motion recognition method, storage medium, and information processing device
CN110603570B (zh) 对象物识别方法、装置、系统、程序
US10653351B2 (en) Systems and methods for quantification of postural balance of users in an augmented reality environment
KR20220062461A (ko) 객체 동작 기반의 애니메이션을 생성하는 장치 및 방법
CN112568898A (zh) 一种基于视觉图像对人体运动动作自动进行伤病风险评估及动作矫正的方法、装置及设备
EP3618075B1 (en) Particle filtering for continuous tracking and correction of body joint positions
KR102176769B1 (ko) 사용자의 행동 특징을 기반으로 센서 데이터를 보정하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체
KR20220063847A (ko) 대상자의 보행 패턴을 식별하는 방법 및 이를 수행하는 전자 장치
Ahmed et al. Kalman filter-based noise reduction framework for posture estimation using depth sensor
WO2019230199A1 (ja) 行動推定装置
CN113902845A (zh) 一种动作视频生成方法、装置、电子设备和可读存储介质
KR102201105B1 (ko) 인체 운동의 역학 정보 추정 방법 및 그 장치
KR102176767B1 (ko) 사용자의 특정 동작을 통해 센서 데이터를 보정하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체
CN113272864A (zh) 信息处理装置、信息处理方法和程序
JP6174864B2 (ja) 歩行状態推定装置および歩行状態推定方法
US20220301352A1 (en) Motion recognition method, non-transitory computer-readable storage medium for storing motion recognition program, and information processing device
Peiffer et al. Fusing uncalibrated IMUs and handheld smartphone video to reconstruct knee kinematics
WO2016203285A1 (en) Systems and methods for virtually displaying real movements of objects in a 3d-space
CN115479601A (zh) 一种三维空间定位方法、系统、装置与存储介质
CN111435535B (zh) 一种关节点信息的获取方法及装置
US11978228B2 (en) Systems and methods for determining an orientation of an image
KR20230009676A (ko) 3차원 인체 자세 추정 장치 및 그 방법

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20200429

PA0201 Request for examination
PA0302 Request for accelerated examination

Patent event date: 20200507

Patent event code: PA03022R01D

Comment text: Request for Accelerated Examination

Patent event date: 20200429

Patent event code: PA03021R01I

Comment text: Patent Application

PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20200701

Patent event code: PE09021S01D

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20201021

GRNT Written decision to grant
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20201103

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20201104

End annual number: 3

Start annual number: 1

PG1601 Publication of registration
PR1001 Payment of annual fee

Payment date: 20231024

Start annual number: 4

End annual number: 4

PR1001 Payment of annual fee

Payment date: 20241104

Start annual number: 5

End annual number: 5