KR20120013842A - 휴대 단말을 이용한 사용자 행동 측정 장치 및 방법 - Google Patents

휴대 단말을 이용한 사용자 행동 측정 장치 및 방법 Download PDF

Info

Publication number
KR20120013842A
KR20120013842A KR1020100076113A KR20100076113A KR20120013842A KR 20120013842 A KR20120013842 A KR 20120013842A KR 1020100076113 A KR1020100076113 A KR 1020100076113A KR 20100076113 A KR20100076113 A KR 20100076113A KR 20120013842 A KR20120013842 A KR 20120013842A
Authority
KR
South Korea
Prior art keywords
behavior
sensing data
data
user
mobile terminal
Prior art date
Application number
KR1020100076113A
Other languages
English (en)
Other versions
KR101827885B1 (ko
Inventor
채승철
이선재
장경아
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020100076113A priority Critical patent/KR101827885B1/ko
Priority to US13/086,602 priority patent/US9999395B2/en
Publication of KR20120013842A publication Critical patent/KR20120013842A/ko
Application granted granted Critical
Publication of KR101827885B1 publication Critical patent/KR101827885B1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6887Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient mounted on external non-worn devices, e.g. non-medical devices
    • A61B5/6898Portable consumer electronic devices, e.g. music players, telephones, tablet computers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1113Local tracking of patients, e.g. in a hospital or private home
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1116Determining posture transitions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1118Determining activity level
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/67ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for remote operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/02Details of sensors specially adapted for in-vivo measurements
    • A61B2562/0219Inertial sensors, e.g. accelerometers, gyroscopes, tilt switches

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Pathology (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Biophysics (AREA)
  • Physics & Mathematics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Physiology (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Multimedia (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Telephone Function (AREA)

Abstract

휴대 단말에 구비된 적어도 하나의 센서로부터 센싱 데이터를 수집하는 센싱 데이터 수집부, 수집된 센싱 데이터를 이용하여 휴대 단말에 관한 자세 데이터를 산출하고, 산출된 자세 데이터와 휴대 단말의 위치 별로 패턴화된 자세 데이터를 포함하는 위치 모델을 이용하여 휴대 단말의 위치를 결정하는 위치 결정부, 및 결정된 휴대 단말의 위치, 수집된 센싱 데이터, 및 휴대 단말의 위치 별 그리고 휴대 단말 사용자의 행동 별로 패턴화된 센싱 데이터를 포함하는 행동 모델을 이용하여 사용자의 행동을 결정하는 행동 결정부를 포함하는 휴대 단말을 이용한 사용자 행동 측정 장치가 제공된다.

Description

휴대 단말을 이용한 사용자 행동 측정 장치 및 방법{Apparatus and Method for measuring user`s action using mobile terminal}
휴대 단말을 이용하여 사용자의 현재 행동 상태를 측정하는 기술과 관련된다.
고령화 사회가 도래함에 따라 질병 진단-치료 보다는 장기적인 행동을 관찰하여 행동을 교정하거나, 잠재적인 위험을 측정하고 미리 알려주는 예방적인 측면의 Preventive Healthcare의 중요성이 부각되고 있다.
Preventive Healthcare란 병이 발병한 다음에 치료하는 과정이 아니라, 건강한 상태에서 지속적인 관찰을 통해 위험요소를 미리 사용자에게 알려주어 잘못된 습관을 인지 시키고, 행동을 교정하여 질병 자체를 예방하는 분야를 일컫는다. 이러한 예방을 위해서는 지속적인 사용자의 행동 관찰 및 분석이 선행되어야 한다.
사용자의 행동 관찰 및 분석은 병원 내에 입원한 환자 또는 재택 중인 중환자를 대상으로 간병인 또는 전용 모니터링 카메라를 통해 이루어지는 것이 통상적이다. 그러나 최근에는 언제 어디서든 사용자의 행동이 관찰 및 분석될 수 있도록 몸에 24시간 부착되는 전용 장비가 등장하게 되었다. 그렇지만 환자를 제외한 일반인은 이러한 전용 장비의 필요성을 못 느낄뿐더러, 고가이며, 항상 부착해야 하는 불편함이 따른다.
사용자가 소지하고 있는 휴대 단말을 이용하여 사용자의 행동을 측정하는 장치 및 방법이 제공된다.
본 발명의 일 양상에 따른 사용자 행동 측정 장치는 휴대 단말에 구비된 적어도 하나의 센서로부터 센싱 데이터를 수집하는 센싱 데이터 수집부, 수집된 센싱 데이터를 이용하여 휴대 단말에 관한 자세 데이터를 산출하고, 산출된 자세 데이터와 휴대 단말의 위치 별로 패턴화된 자세 데이터를 포함하는 위치 모델을 이용하여 휴대 단말의 위치를 결정하는 위치 결정부, 및 결정된 휴대 단말의 위치, 수집된 센싱 데이터, 및 휴대 단말의 위치 별 그리고 휴대 단말 사용자의 행동 별로 패턴화된 센싱 데이터를 포함하는 행동 모델을 이용하여 사용자의 행동을 결정하는 행동 결정부를 포함할 수 있다.
본 발명의 일 양상에 따른 사용자 행동 측정 방법은 휴대 단말에 구비된 적어도 하나의 센서로부터 센싱 데이터를 수집하는 단계, 수집된 센싱 데이터를 이용하여 휴대 단말에 관한 자세 데이터를 산출하고, 산출된 자세 데이터와 휴대 단말의 위치 별로 패턴화된 자세 데이터를 포함하는 위치 모델을 이용하여 휴대 단말의 위치를 결정하는 단계, 및 결정된 휴대 단말의 위치, 수집된 센싱 데이터, 및 휴대 단말의 위치 별 그리고 휴대 단말 사용자의 행동 별로 패턴화된 센싱 데이터를 포함하는 행동 모델을 이용하여 사용자의 행동을 결정하는 단계를 포함할 수 있다.
휴대 단말은 사용자가 거의 늘 소지하고 다니는 것이 일반적이다. 따라서 휴대 단말의 각종 센싱 데이터를 이용해서 사용자의 행동을 추정하면 별도의 전용 장비 없이 사용자의 행동을 지속적으로 관측할 수 있다. 또한 휴대 단말의 위치를 확정한 후 행동을 결정하기 때문에 확정된 휴대 단말의 위치에서 사용자가 취할 수 있는 행동의 종류를 제한할 수 있고 그 행동의 종류를 신속하게 도출할 수 있다.
도 1은 본 발명의 일 실시예에 따른 사용자 행동 측정 장치를 도시한다.
도 2는 본 발명의 일 실시예에 따른 위치 모델을 도시한다.
도 3은 본 발명의 일 실시예에 따른 행동 모델을 도시한다.
도 4는 본 발명의 일 실시예에 따른 사용자 행동 측정 방법을 도시한다.
이하, 첨부된 도면을 참조하여 본 발명의 실시를 위한 구체적인 예를 상세히 설명한다.
도 1은 본 발명의 일 실시예에 따른 사용자 행동 측정 장치를 도시한다.
도 1을 참조하면, 사용자 행동 측정 장치(100)는 사용자가 소지한 채로 이동 중 사용할 수 있는 휴대 단말에 적용될 수 있다. 휴대 단말의 예로는 휴대폰, 스마트폰, PDA, PMP, MP3 player 등이 대표적이다. 휴대 단말에 적용된 사용자 행동 측정 장치(100)는 각종 센싱 정보를 바탕으로 사용자의 현재 행동 상태(예컨대, 사용자가 서있는지, 앉아있는지, 또는 뛰는 중인지 등)를 측정하는 것이 가능하다. 본 실시예에 따라, 사용자 행동 측정 장치(100)는 센서부(101), 센싱 데이터 수집부(102), 위치 결정부(103), 행동 결정부(104), 및 데이터베이스(105)를 포함할 수 있다.
센서부(101)는 휴대 단말 또는 휴대 단말 사용자와 관련된 다양한 정보를 감지한다. 예를 들어, 센서부(101)는 휴대 단말의 이동 방향 및 이동 속도를 측정하는 3축 가속도 센서(111), 휴대 단말로 접근하는 물체의 유무를 측정하는 근접 센서(proximity sensor)(112), 오리엔테이션 센서(orientation sensor)(113), 지자기 센서(114), 휴대 단말의 디스플레이의 온(ON)/오프(OFF) 상태를 감지하는 센서(115), 음향 감지 센서(116) 등을 포함할 수 있다. 그 밖에도 본 발명의 사용목적 및 응용예에 따라 중력계 센서, 각속도계 센서, 조도 센서, GPS 센서 등 다양한 센서가 사용될 수 있음은 당업자에게 자명하다.
센싱 데이터 수집부(102)는 센서부(101)의 센싱 데이터를 수집한다. 예를 들어, 사용자가 휴대 단말을 소지한 채로 일정한 시간에 걸쳐서 특정한 행동을 취하면 그 시간 동안 센서부(101)의 센싱 데이터는 변할 수 있는데, 센싱 데이터 수집부(102)는 시간에 따라 변하는 센싱 데이터를 센서부(101)의 센서 모듈 별로 수집하는 것이 가능하다.
위치 결정부(103)는 휴대 단말이 어디에 존재하고 있는지를 결정한다. 즉 위치 결정부(103)는 휴대 단말의 위치를 결정한다. 위치의 결정이란 휴대 단말이 존재할 수 있는 여러 곳의 신체, 공간 상의 위치 중에서 어느 하나를 선택하는 것을 의미할 수 있다. 다시 말해 본 실시예에 있어서 위치의 결정이란 위치의 추정과 동일한 의미로 해석될 수도 있다.
위치 결정부(103)는 센싱 데이터 수집부(102)가 수집한 센싱 데이터와 데이터베이스(105)에 저장된 소정의 위치 모델(121)을 이용하여 휴대 단말의 위치를 결정할 수 있다. 본 실시예에 따른 위치 모델(121)은 휴대 단말이 존재할 가능성이 있는 위치들, 각 위치에서 휴대 단말이 취할 수 있는 자세 패턴, 및 각 위치에서 휴대 단말이 존재할 가능성을 높여주는 요소들을 정의한다.
예를 들어, 위치 결정부(103)는 첫 번째 종류의 센싱 데이터를 이용하여 휴대 단말의 자세를 추정한다. 휴대 단말의 자세가 추정되면, 위치 결정부(103)는 추정된 휴대 단말의 자세와 위치 모델(121) 상에서 위치 별로 모델링된 자세패턴을 비교해서 여러 개의 후보 위치를 추출한다. 후보 위치가 추출되면, 위치 결정부(103)는 두 번째 종류의 센싱 데이터를 이용하여 위치 모델(121) 상의 각 위치에서 휴대 단말이 존재할 가능성을 높여주는 요소를 도출하고 도출 결과에 따라 여러 개의 후보 위치 중 어느 하나를 최종 위치로 결정하는 것이 가능하다.
행동 결정부(104)는 휴대 단말의 사용자가 어떤 행동을 취하고 있는지 결정한다. 즉, 행동 결정부(104)는 사용자의 행동을 결정한다. 행동의 결정이란 사용자가 취할 수 있는 여러 가지의 행동 중에서 어느 하나를 선택하는 것을 의미할 수 있다. 다시 말해 본 실시예에 있어서 행동의 결정이란 행동의 추정과 동일한 의미로 해석될 수도 있다.
행동 결정부(104)는 센싱 데이터 수집부(102)가 수집한 센싱 데이터, 위치 결정부(103)가 결정한 휴대 단말의 위치, 및 베이터베이스(105)에 저장된 소정의 행동 모델(122)을 이용하여 사용자의 행동을 결정할 수 있다. 본 실시예에 다른 행동 모델(122)은 휴대 단말이 존재할 가능성이 있는 위치들, 각 위치에서 휴대 단말 사용자가 취할 수 있는 행동들, 및 각 위치 및 각 행동에 대응되는 센싱 데이터의 데이터 패턴을 정의한다.
예를 들어, 행동 결정부(104)는 위치 결정부(103)에 의해 결정된 위치에 대응되는 여러 개의 후보 행동을 행동 모델(122)에서 추출한다. 후보 행동이 추출되면, 행동 결정부(104)는 추출된 각각의 후보 행동에 대응되는 센싱 데이터의 패턴과 센싱 데이터 수집부(102)에 의해 수집된 센싱 데이터를 비교해서 가장 높은 확률로 추정되는 후보 행동 중 어느 하나를 최종 행동으로 선택하는 것이 가능하다.
데이터베이스(105)는 전술한 위치 모델(121) 및 행동 모델(122)을 저장한다. 데이터베이스(105)에 저장된 위치 모델(121) 및 행동 모델(122)은 기계학습을 통해 생성되거나 규칙 등의 형태로 사용자 설정에 따라 갱신되는 것이 가능하다.
휴대 단말은 사용자가 거의 늘 소지하고 다니는 것이 일반적이다. 따라서 휴대 단말의 각종 센싱 데이터를 이용해서 사용자의 행동을 추정하는 사용자 행동 측정 장치(100)에 의하면 별도의 전용 장비 없이 휴대 단말만으로 사용자의 행동을 지속적으로 관측할 수 있다. 또한 위치 모델(121)을 통해 휴대 단말의 위치를 확정한 후 행동 모델(122)을 통해 행동을 결정하기 때문에 확정된 휴대 단말의 위치에서 사용자가 취할 수 있는 행동의 종류를 제한할 수 있고 그 행동의 종류를 신속하게 도출할 수 있다.
한편, 센싱 데이터 수집부(102)에서 수집된 데이터에는 끊임없이 변화하며 휴대 단말의 움직임 및 사용 상황에 따라 다양한 잡음이 포함될 수 있다. 이러한 잡음은 위치 모델(121) 및 행동 모델(122)과 비교하기 전에 Karman Filter 등을 통해 제거될 수 있다.
도 2는 본 발명의 일 실시예에 따른 위치 모델을 도시한다.
도 2를 참조하면, 본 실시예에 따른 위치 모델은 세 가지의 모델링 요소를 가질 수 있다. 제 1 요소는 휴대 단말이 존재할 가능성이 있는 위치들에 관한 모델링 요소가 될 수 있다. 본 실시예에 따라 제 1 요소를 대표 위치(201)라 칭하기로 한다. 제 2 요소는 각각의 대표 위치(201)에서의 휴대 단말의 자세들에 관한 모델링 요소가 될 수 있다. 본 실시예에 따라 제 2 요소를 자세 패턴(202)이라 칭하기로 한다. 제 3 요소는 각각의 대표 위치(201)에 휴대 단말이 존재할 가능성을 높여주는 조건들에 관한 모델링 요소가 될 수 있다. 본 실시예에 따라 제 3 요소를 확률 증가 조건(203)이라 칭하기로 한다.
도 1 및 도 2에서, 위치 결정부(103)는 센싱 데이터로부터 획득된 휴대 단말의 자세 정보와 위치 모델(121)의 자세 패턴(202) 및 확률 증가 조건(203)을 이용해서 휴대 단말의 위치를 결정할 수 있다.
예를 들어, 위치 결정부(103)는 3축 가속도 센서(111)의 센서 값을 이용하여 휴대 단말의 자세 정보를 다음과 같이 획득한다.
Figure pat00001
수학식 1에서, Ax, Ay, Az는 3축 가속도 센서(111)의 센서 값을, pitch, roll, theta는 3축 가속도 센서(111)의 좌표계에 있어서 각각의 축에 대한 기울기를 나타낸다. 휴대 단말의 자세 정보는 (pitch, roll, theta)와 같이 나타낼 수 있다.
휴대 단말의 자세 정보가 획득되면, 위치 결정부(103)는 획득된 자세 정보와 위치 모델(121)의 자세 패턴(202)을 비교해서 대표 위치(201) 중 적어도 하나를 후보 위치로 선택하는 것이 가능하다. 예컨대, 획득된 자세 정보가 자세 패턴(202) 중 Pattern Model #1 및 Pattern Model #2와 유사한 경우, 위치 결정부(103)는 Pocket과 Hands를 후보 위치로 선택할 수 있다.
후보 위치가 선택되면, 위치 결정부(103)는 센싱 데이터 수집부(102)가 수집한 센싱 데이터 중에서 확률 증가 조건(203)을 만족하는 데이터가 있는지 여부를 분석한다. 예를 들어, 휴대 단말의 디스플레이의 온(ON)/오프(OFF) 상태를 감지하는 센서(115)의 센싱 데이터가 수신된 경우, 휴대 단말이 Pocket에 있을 때보다 Hands에 있을 확률이 더 크므로 확률 증가 조건(203-1)을 참조하여 Hands를 최종 위치로 선택하는 것이 가능하다.
이와 같이, 위치 결정부(103)는 센싱 데이터로부터 얻어진 자세 정보와 위치 모델을 통해 휴대 단말의 위치를 결정할 수 있다. 예를 들어, 휴대 단말이 직각으로 서 있고 근접 센서(112)가 ON 상태인 경우 휴대 단말이 Pocket에 있는 것으로 판단할 수 있고 근접 센서(112)가 OFF 상태인 경우 Hands에 있는 것으로 판단할 수 있다.
도 3은 본 발명의 일 실시예에 따른 행동 모델을 도시한다.
도 3을 참조하면, 본 실시예에 따른 행동 모델은 세 가지의 모델링 요소를 가질 수 있다. 제 1 요소는 휴대 단말이 존재할 가능성이 있는 위치들에 관한 모델링 요소가 될 수 있다. 본 실시예에 따라 제 1 요소를 대표 위치(301)라 칭하기로 한다. 제 2 요소는 각각의 대표 위치(301)에서의 휴대 단말 사용자가 취할 수 있는 행동들에 관한 모델링 요소가 될 수 있다. 본 실시예에 따라 제 2 요소를 대표 행동(302)이라 칭하기로 한다. 제 3 요소는 사용자가 각각의 대표 행동(302)을 취할 때의 센싱 데이터들에 관한 모델링 데이터가 될 수 있다. 즉 사용자가 어떤 행동을 취하느냐에 따라 휴대 단말의 센싱 데이터가 달라질 수 있는데 제 3 요소는 각 행동 별로 수집되는 센싱 데이터를 정형화시킨 패턴 데이터가 될 수 있다. 본 실시예에 따라 제 3 요소를 데이터 패턴(303)이라 칭하기로 한다.
대표 행동(302)과 관련하여, 휴대 단말의 위치를 어느 하나로 확정하면 휴대 단말이 확정된 그 위치에 있을 때 사용자가 취할 수 있는 행동은 전체 사용자가 취할 수 있는 행동 중의 일부로 제한될 수 있다.
도 1 내지 도 3을 참조하면, 행동 결정부(104)는 위치 결정부(103)에 의해 결정된 휴대 단말의 위치에 따라 행동 모델(122)의 대표 위치(301) 중 어느 하나를 선택한다. 예컨대, 도 2와 같이, 휴대 단말의 위치가 Hands로 결정된 경우, 행동 결정부(104)는 대표 위치(301) 중에서 Hands에 대응되는 대표 위치(301-1)를 선택할 수 있다. 그리고 행동 결정부(104)는 선택된 대표 위치(301-1)에 대응되는 대표 행동(302)을 후보 행동으로 선택한다.
후보 행동이 선택되면, 행동 결정부(104)는 센싱 데이터 수집부(102)에 의해 수집된 센싱 데이터와 후보 행동으로 선택된 각 대표 행동(302)에 대응되는 데이터 패턴(303)을 비교하여 최종 행동을 선택한다. 예컨대, 수집된 센싱 데이터가 데이터 패턴(303) 중에서 Pattern Model #21과 유사한 경우 Standing을 최종 행동으로 선택할 수 있다.
이와 같이, 행동 결정부(104)는 휴대 단말의 현재 위치가 확정된 상태에서 휴대 단말이 그 위치에 있을 때 가능한 행동들만 검색하기 때문에 사용자 행동을 빠르고 정확하게 결정할 수 있다.
도 4는 본 발명의 일 실시예에 따른 사용자 행동 측정 방법을 도시한다.
도 4를 참조하면, 먼저 센싱 데이터가 수집된다(401). 예컨대, 도 1에서, 센싱 데이터 수집부(102)가 3축 가속도 센서(111), 근접 센서(proximity sensor)(112), 오리엔테이션 센서(orientation sensor)(113), 지자기 센서(114), 휴대 단말의 디스플레이의 온(ON)/오프(OFF) 상태를 감지하는 센서(115), 및 음향 감지 센서(116)의 센서 값들을 수집하는 것이 가능하다.
그리고 휴대 단말의 위치가 결정된다(402). 예컨대, 도 1 및 도 2에서, 위치 결정부(103)가 수집된 센싱 데이터로부터 획득된 자세 데이터를 이용하여 위치 모델(121)에서 적어도 하나의 후보 위치를 선택하고, 수집된 센싱 데이터를 이용하여 선택된 후보 위치 중에서 최종 위치를 선택하는 것이 가능하다.
그리고 결정된 위치를 바탕으로 사용자의 행동이 결정된다(403). 예컨대, 도 1 및 도 3에서, 행동 결정부(104)가 결정된 휴대 단말의 위치에 기초하여 행동 모델(122)에서 적어도 하나의 후보 행동을 선택하고, 수집된 센싱 데이터를 이용하여 선택된 후보 행동에서 최종 행동을 선택하는 것이 가능하다.
한편, 본 발명의 실시 예들은 컴퓨터로 읽을 수 있는 기록 매체에 컴퓨터가 읽을 수 있는 코드로 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다.
컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현하는 것을 포함한다. 또한, 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고 본 발명을 구현하기 위한 기능적인(functional) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술 분야의 프로그래머들에 의하여 용이하게 추론될 수 있다.
이상에서 본 발명의 실시를 위한 구체적인 예를 살펴보았다. 전술한 실시 예들은 본 발명을 예시적으로 설명하기 위한 것으로 본 발명의 권리범위가 특정 실시 예에 한정되지 아니할 것이다.

Claims (12)

  1. 휴대 단말에 구비된 적어도 하나의 센서로부터 센싱 데이터를 수집하는 센싱 데이터 수집부;
    수집된 센싱 데이터를 이용하여 휴대 단말에 관한 자세 데이터를 획득하고, 획득된 자세 데이터와 휴대 단말의 위치 별로 패턴화된 자세 데이터를 포함하는 위치 모델을 이용하여 휴대 단말의 위치를 결정하는 위치 결정부; 및
    결정된 휴대 단말의 위치, 수집된 센싱 데이터, 및 휴대 단말의 위치 별 그리고 휴대 단말 사용자의 행동 별로 패턴화된 센싱 데이터를 포함하는 행동 모델을 이용하여 상기 사용자의 행동을 결정하는 행동 결정부; 를 포함하는 사용자 행동 측정 장치.
  2. 제 1 항에 있어서, 상기 위치 결정부는
    3축 가속도 센서의 센싱 데이터를 이용하여 상기 자세 데이터를 획득하는 사용자 행동 측정 장치.
  3. 제 2 항에 있어서, 상기 자세 데이터는
    상기 3축 가속도 센서에 관한 좌표계에 있어서 각각의 축에 대한 기울기 정보를 포함하는 사용자 행동 측정 장치.
  4. 제 1 항에 있어서, 상기 위치 결정부는
    획득된 자세 데이터를 이용하여 상기 위치 모델에서 적어도 하나의 후보 위치를 선택하고,
    수집된 센싱 데이터를 이용하여 상기 선택된 후보 위치 중에서 최종 위치를 선택하는 사용자 행동 측정 장치.
  5. 제 4 항에 있어서, 상기 위치 결정부는
    획득된 자세 데이터와 상기 위치 모델의 패턴화된 자세 데이터를 비교해서 상기 후보 위치를 선택하고,
    3축 가속도 센서, 근접 센서, 오리엔테이션 센서, 지자기 센서, 디스플레이 온/오프 감지 센서, 음향 감지 센서의 센싱 데이터 중 적어도 하나를 이용하여 상기 후보 위치 중에서 상기 최종 위치를 선택하는 사용자 행동 측정 장치.
  6. 제 1 항에 있어서, 상기 행동 결정부는
    결정된 휴대 단말의 위치에 기초하여 상기 행동 모델에서 적어도 하나의 후보 행동을 선택하고,
    수집된 센싱 데이터를 이용하여 상기 선택된 후보 행동에서 최종 행동을 선택하는 사용자 행동 측정 장치.
  7. 제 1 항에 있어서, 상기 위치 모델은
    상기 휴대 단말의 위치 별로 각 위치에 관한 확률 증가 조건을 더 포함하는 사용자 행동 측정 장치.
  8. 휴대 단말에 구비된 적어도 하나의 센서로부터 센싱 데이터를 수집하는 단계;
    수집된 센싱 데이터를 이용하여 휴대 단말에 관한 자세 데이터를 하고, 획득된 자세 데이터와 휴대 단말의 위치 별로 패턴화된 자세 데이터를 포함하는 위치 모델을 이용하여 휴대 단말의 위치를 결정하는 단계; 및
    결정된 휴대 단말의 위치, 수집된 센싱 데이터, 및 휴대 단말의 위치 별 그리고 휴대 단말 사용자의 행동 별로 패턴화된 센싱 데이터를 포함하는 행동 모델을 이용하여 상기 사용자의 행동을 결정하는 단계; 를 포함하는 사용자 행동 측정 방법.
  9. 제 8 항에 있어서, 상기 위치를 결정하는 단계는
    3축 가속도 센서의 센싱 데이터를 이용하여 상기 자세 데이터를 획득하는 과정을 포함하는 사용자 행동 측정 방법.
  10. 제 8 항에 있어서, 상기 위치를 결정하는 단계는
    획득된 자세 데이터를 이용하여 상기 위치 모델에서 적어도 하나의 후보 위치를 선택하고,
    수집된 센싱 데이터를 이용하여 상기 선택된 후보 위치 중에서 최종 위치를 선택하는 과정을 포함하는 사용자 행동 측정 방법.
  11. 제 10 항에 있어서, 상기 위치를 결정하는 단계는
    획득된 자세 데이터와 상기 위치 모델의 패턴화된 자세 데이터를 비교해서 상기 후보 위치를 선택하고,
    3축 가속도 센서, 근접 센서, 오리엔테이션 센서, 지자기 센서, 디스플레이 온/오프 감지 센서, 음향 감지 센서의 센싱 데이터 중 적어도 하나를 이용하여 상기 후보 위치 중에서 상기 최종 위치를 선택하는 과정을 포함하는 사용자 행동 측정 방법.
  12. 제 8 항에 있어서, 상기 행동을 결정하는 단계는
    결정된 휴대 단말의 위치에 기초하여 상기 행동 모델에서 적어도 하나의 후보 행동을 선택하고,
    수집된 센싱 데이터를 이용하여 상기 선택된 후보 행동에서 최종 행동을 선택하는 과정을 포함하는 사용자 행동 측정 방법.
KR1020100076113A 2010-08-06 2010-08-06 휴대 단말을 이용한 사용자 행동 측정 장치 및 방법 KR101827885B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020100076113A KR101827885B1 (ko) 2010-08-06 2010-08-06 휴대 단말을 이용한 사용자 행동 측정 장치 및 방법
US13/086,602 US9999395B2 (en) 2010-08-06 2011-04-14 Apparatus and method for detecting user action

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100076113A KR101827885B1 (ko) 2010-08-06 2010-08-06 휴대 단말을 이용한 사용자 행동 측정 장치 및 방법

Publications (2)

Publication Number Publication Date
KR20120013842A true KR20120013842A (ko) 2012-02-15
KR101827885B1 KR101827885B1 (ko) 2018-02-12

Family

ID=45555753

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100076113A KR101827885B1 (ko) 2010-08-06 2010-08-06 휴대 단말을 이용한 사용자 행동 측정 장치 및 방법

Country Status (2)

Country Link
US (1) US9999395B2 (ko)
KR (1) KR101827885B1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017039140A1 (ko) * 2015-09-02 2017-03-09 삼성전자(주) 센서 기반 행동 인식을 이용하여 사용자의 위치를 인식하는 사용자단말장치 및 방법
WO2017104970A1 (ko) * 2015-12-18 2017-06-22 (의료)길의료재단 사용자의 자세나 자세의 변화에 기초하여 배뇨를 모니터링하기 위한 장치 내지 시스템, 배뇨를 모니터링하는 방법, 그리고 상기 방법을 실행하기 위한 컴퓨터 프로그램을 기록하는 컴퓨터 판독 가능한 기록 매체
KR20200010051A (ko) * 2018-07-19 2020-01-30 바이두 온라인 네트웍 테크놀러지 (베이징) 캄파니 리미티드 운동 검출 방법, 장치, 기기 및 매체

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2011316599B2 (en) 2010-10-12 2018-09-20 Smith & Nephew, Inc. Medical device
US8473975B1 (en) 2012-04-16 2013-06-25 The Nielsen Company (Us), Llc Methods and apparatus to detect user attentiveness to handheld computing devices
JP5904021B2 (ja) * 2012-06-07 2016-04-13 ソニー株式会社 情報処理装置、電子機器、情報処理方法、及びプログラム
US8805407B2 (en) 2012-08-31 2014-08-12 The Nielsen Company (Us), Llc. Methods and apparatus to scan a wireless communication spectrum
US8886161B2 (en) 2012-10-05 2014-11-11 The Nielsen Company (Us), Llc Methods and apparatus to discover spectrum usage of mobile carriers
US9737649B2 (en) 2013-03-14 2017-08-22 Smith & Nephew, Inc. Systems and methods for applying reduced pressure therapy
BR112015021924A2 (pt) 2013-03-14 2017-07-18 Smith & Nephew Inc sistemas e métodos para aplicar terapia de pressão reduzida
US9100926B2 (en) 2013-08-01 2015-08-04 The Nielsen Company (Us), Llc Methods and apparatus to determine a base station location
JP6679483B2 (ja) 2013-08-13 2020-04-15 スミス アンド ネフュー インコーポレイテッド 減圧治療を実施するためのシステムおよび方法
RU2622880C2 (ru) * 2014-08-22 2017-06-20 Нокиа Текнолоджиз Ой Обработка информации датчика
US9571979B2 (en) 2015-06-10 2017-02-14 The Nielsen Company (Us), Llc Methods and apparatus for cell tower location estimation using multiple types of data sources
WO2017062042A1 (en) 2015-10-07 2017-04-13 Smith & Nephew, Inc. Systems and methods for applying reduced pressure therapy
WO2017197357A1 (en) 2016-05-13 2017-11-16 Smith & Nephew Plc Automatic wound coupling detection in negative pressure wound therapy systems
EP3519002A2 (en) 2016-09-29 2019-08-07 Smith & Nephew, Inc Construction and protection of components in negative pressure wound therapy systems
CN110545766A (zh) 2017-03-07 2019-12-06 史密夫和内修有限公司 包括天线的减压治疗系统和方法
WO2019014141A1 (en) 2017-07-10 2019-01-17 Smith & Nephew, Inc. SYSTEMS AND METHODS FOR INTERACTING DIRECTLY WITH A COMMUNICATION MODULE OF A WOUND PROCESSING APPARATUS
US20200390370A1 (en) 2017-12-12 2020-12-17 Mindmaze Holding Sa System, apparatus and method for activity classification
KR102570301B1 (ko) 2018-08-02 2023-08-25 삼성전자주식회사 전자 장치 및 그 제어 방법
GB201820668D0 (en) 2018-12-19 2019-01-30 Smith & Nephew Inc Systems and methods for delivering prescribed wound therapy

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002149912A (ja) * 2000-11-13 2002-05-24 Toshihiko Furukawa 通報システム
JP2004280376A (ja) 2003-03-14 2004-10-07 Japan Science & Technology Agency 被写体の行動認識方法及び装置
KR100583423B1 (ko) 2004-06-08 2006-05-25 김성식 휴대폰
KR100601981B1 (ko) * 2005-01-14 2006-07-18 삼성전자주식회사 활동패턴 감시 방법 및 장치
KR100629076B1 (ko) 2005-01-18 2006-09-26 주식회사 팬택앤큐리텔 3차원 움직임 감지가 가능한 블루투스 통신 장치
KR20070034849A (ko) 2005-09-26 2007-03-29 주식회사 팬택 공간 위치 측정 기능을 구비한 이동통신 단말기
JP2007325296A (ja) 2007-07-13 2007-12-13 Microstone Corp 運動センサ付き携帯電話機
JP4992043B2 (ja) * 2007-08-13 2012-08-08 株式会社国際電気通信基礎技術研究所 行動識別装置、行動識別システムおよび行動識別方法
KR100953826B1 (ko) 2007-08-14 2010-04-20 광주과학기술원 사용자 건강 관리 기능을 가지는 휴대용 단말기 및 이를 이용한 사용자 건강 관리 방법
US20090047998A1 (en) * 2007-08-16 2009-02-19 Motorola, Inc. Method and apparatus for controlling power transmission levels for a mobile station having transmit diversity
US8644843B2 (en) * 2008-05-16 2014-02-04 Apple Inc. Location determination
US8187182B2 (en) * 2008-08-29 2012-05-29 Dp Technologies, Inc. Sensor fusion for activity identification
US20100095251A1 (en) * 2008-10-15 2010-04-15 Sony Ericsson Mobile Communications Ab Linkage between motion sensing and position applications in a portable communication device
US20100121716A1 (en) * 2008-11-12 2010-05-13 Jonathan Golan Activity-based targeted advertising
US20100255856A1 (en) * 2009-04-03 2010-10-07 Microsoft Corporation Location Sensing Selection for Mobile Devices
US8150384B2 (en) * 2010-06-16 2012-04-03 Qualcomm Incorporated Methods and apparatuses for gesture based remote control

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017039140A1 (ko) * 2015-09-02 2017-03-09 삼성전자(주) 센서 기반 행동 인식을 이용하여 사용자의 위치를 인식하는 사용자단말장치 및 방법
US10341981B2 (en) 2015-09-02 2019-07-02 Samsung Electronics Co., Ltd. User terminal device and method for recognizing user'S location using sensor-based behavior recognition
WO2017104970A1 (ko) * 2015-12-18 2017-06-22 (의료)길의료재단 사용자의 자세나 자세의 변화에 기초하여 배뇨를 모니터링하기 위한 장치 내지 시스템, 배뇨를 모니터링하는 방법, 그리고 상기 방법을 실행하기 위한 컴퓨터 프로그램을 기록하는 컴퓨터 판독 가능한 기록 매체
KR20200010051A (ko) * 2018-07-19 2020-01-30 바이두 온라인 네트웍 테크놀러지 (베이징) 캄파니 리미티드 운동 검출 방법, 장치, 기기 및 매체
US10993079B2 (en) 2018-07-19 2021-04-27 Baidu Online Network Technology (Beijing) Co., Ltd. Motion detection method, device, and medium

Also Published As

Publication number Publication date
US9999395B2 (en) 2018-06-19
US20120032819A1 (en) 2012-02-09
KR101827885B1 (ko) 2018-02-12

Similar Documents

Publication Publication Date Title
KR20120013842A (ko) 휴대 단말을 이용한 사용자 행동 측정 장치 및 방법
JP5674766B2 (ja) 着用位置を検出するためのセンシングデバイス
KR101690649B1 (ko) 다축 활동 모니터 디바이스로의 활동 분류
US20140074431A1 (en) Wrist Pedometer Step Detection
WO2012119126A2 (en) Apparatus, system, and method for automatic identification of sensor placement
WO2013114596A1 (ja) 情報処理装置、代表波形生成方法および代表波形生成プログラム
CN103218889A (zh) 一种离身报警终端及其实现方法
JP2008175816A (ja) ユーザ行跡追跡システム、方法および媒体
KR101609813B1 (ko) 스마트폰 환경에서 보행 수 검출 장치 및 방법
CA2961371A1 (en) Impairment detection with biological considerations
CN116092193A (zh) 一种基于人体运动状态识别的行人航迹推算方法
Weng et al. Fall detection based on tilt angle and acceleration variations
Wang et al. Multimodal gait analysis based on wearable inertial and microphone sensors
US10488924B2 (en) Wearable device, and method of inputting information using the same
US11638556B2 (en) Estimating caloric expenditure using heart rate model specific to motion class
JP2019103609A (ja) 動作状態推定装置、動作状態推定方法及びプログラム
Ookura et al. Development and evaluation of walking path estimation system using sensors of Android device and vector map matching
EP3193714B1 (en) Impairment detection with environmental considerations
KR101785284B1 (ko) 보행정보를 이용한 피로도 측정장치 및 측정방법
KR101509959B1 (ko) 심탄도 분석 방법 및 이를 이용한 차량의 심탄도 분석 시스템
Sie et al. The design of a smartphone-based fall detection system
KR20210071839A (ko) 디지털 피노타입 스크립트 기반 치매 상태 판단 시스템 및 방법
JP5967428B2 (ja) 生活機能モニタリングシステム
CN111887859A (zh) 跌倒行为识别方法、装置、电子设备以及介质
Lan et al. Early detection of neurological disease using a smartphone: a case study

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant