KR20160075977A - 로코모션 인터페이스 장치상에서 보행하는 보행자의 위치 추정 방법 및 장치 - Google Patents

로코모션 인터페이스 장치상에서 보행하는 보행자의 위치 추정 방법 및 장치 Download PDF

Info

Publication number
KR20160075977A
KR20160075977A KR1020140184803A KR20140184803A KR20160075977A KR 20160075977 A KR20160075977 A KR 20160075977A KR 1020140184803 A KR1020140184803 A KR 1020140184803A KR 20140184803 A KR20140184803 A KR 20140184803A KR 20160075977 A KR20160075977 A KR 20160075977A
Authority
KR
South Korea
Prior art keywords
pedestrian
estimating
stride
interface device
locomotion interface
Prior art date
Application number
KR1020140184803A
Other languages
English (en)
Other versions
KR101693629B1 (ko
Inventor
이소연
박상준
이양구
박찬국
이민수
주호진
Original Assignee
서울대학교산학협력단
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 서울대학교산학협력단, 한국전자통신연구원 filed Critical 서울대학교산학협력단
Priority to KR1020140184803A priority Critical patent/KR101693629B1/ko
Priority to US14/602,467 priority patent/US20160179190A1/en
Publication of KR20160075977A publication Critical patent/KR20160075977A/ko
Application granted granted Critical
Publication of KR101693629B1 publication Critical patent/KR101693629B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C22/00Measuring distance traversed on the ground by vehicles, persons, animals or other moving solid bodies, e.g. using odometers, using pedometers
    • G01C22/006Pedometers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01PMEASURING LINEAR OR ANGULAR SPEED, ACCELERATION, DECELERATION, OR SHOCK; INDICATING PRESENCE, ABSENCE, OR DIRECTION, OF MOVEMENT
    • G01P15/00Measuring acceleration; Measuring deceleration; Measuring shock, i.e. sudden change of acceleration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/012Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing

Abstract

본 발명의 실시 예들은, 가상 현실상에서 보행자의 위치를 추정하기 위한 방법 및 장치에 관한 것으로, 본 발명의 일 실시 예에 따른 로코모션 인터페이스 장치를 보행하는 보행자의 위치를 추정하는 방법은, 제 1 센싱 데이터를 기반으로 입각기(stance phase)를 검출하는 단계; 상기 로코모션 인터페이스 장치로부터 상기 로코모션 인터페이스 장치의 구동 속도 정보를 수신하는 단계; 및 제 2 센싱 데이터에 칼만 필터(Kalman filter)를 적용하여 상기 보행자의 보폭을 추정하되, 상기 입각기에의 상기 로코모션 인터페이스 장치의 구동 속도를 고려하여 상기 보폭을 추정하는 단계를 포함한다. 본 발명의 실시 예들에 따르면, 가상 현실 상에서 보행자가 실제로 움직인 거리 및 위치를 추정할 수 있다.

Description

로코모션 인터페이스 장치상에서 보행하는 보행자의 위치 추정 방법 및 장치{Method for position estimation of pedestrian walking on loco-motion interface and apparatus thereof}
본 발명의 실시 예들은, 가상 현실 환경과 접목된 로코모션 인터페이스 장치상에서 보행하는 보행자의 위치를 추정하기 위한 방법 및 장치에 관한 것이다.
개인 항법 시스템(Personal Navigation System)은, 보행자의 위치 파악을 위한 시스템을 통칭한다. 이 중, 외부의 도움 없이 자신의 센서만을 이용하여 보행자의 위치를 파악하는 대표적인 시스템으로 PDR(Pedestrian Dead-Reckoning)이 있다. PDR은, 일반적으로 보행자가 걸음에 의해 위치를 변화시킨다는 가정하에 개발된 추측 항법 시스템이다.
PDR은, 보행자의 걸음 정보를 이용하여 보행자의 현재 위치를 구한다. 예를 들어, PDR은, 보행자의 진행 방향과 이동 거리를 추정하고 추정된 데이터를 보행자의 초기 위치에 적용하여 현재의 위치를 구한다. PDR은, 걸음 검출(step detection), 보폭 추정(step length estimation) 및 이동 방향 추정(heading estimation)으로 구성된다.
걸음 검출은, 보행자의 걸음을 검출하는 것을 의미한다. 걸음 검출에는, 관성 센서가 이용될 수 있다. 예를 들어, 보행자의 신발에 관성 센서가 장착되어 있는 경우, 관성 센서에서 획득한 데이터의 패턴을 분석하여 걸음 검출을 수행할 수 있다. 보행자의 걸음은, 입각기(stance phase)와 유각기(swing phase)로 나뉠 수 있다. stance phase는 신발이 지면에 붙어 있는 구간을 의미하고, swing phase는 신발이 움직이는 구간을 의미한다.
보폭 추정 및 이동 방향 추정은, 검출된 걸음 정보를 바탕으로 보행자의 보폭 및 이동 방향을 추정하는 것을 의미한다. 일반적으로, 보폭 추정 및 이동 방향 추정에는 ZUPT(Zero velocity UPdaTe)가 이용된다. ZUPT는, stance phase에서의 신발의 속도는 0임을 이용하는 방법이다.
한편, 도 1은 전 방향(omni directional) 로코모션(locomotion) 인터페이스 장치의 일 예를 도시한다. 로코모션 인터페이스 장치(20)는, 가상 현실 구현을 위한 장치로서, 보행자(10)의 이동 속도 및 이동 방향에 따라 작동하여 보행자가 로코모션 인터페이스 장치(20)상의 제한된 영역을 벗어나지 않도록 만들어 준다. 예를 들어, 보행자(10)가 상기 로코모션 인터페이스 장치의 바깥 방향(원심 력방향)으로 1m 이동한다고 가정하자. 이러한 경우, 로코모션 인터페이스 장치(20)는 보행자(10)의 움직임을 감지하고, 로코모션 인터페이스 장치의 상부판을 안쪽 방향(구심력 방향)으로 1m 구동함으로써, 보행자(10)를 초기 위치로 돌려보낼 수 있다.
기존 보행자의 걸음 특성을 이용한 PDR의 경우, 걸음 검출, 보폭 추정 및 이동 방향 추정을 통하여 보행자의 위치를 추정한다. 그러나, 가상 현실 구현을 위한 로코모션 인터페이스 장치상에서 보행자가 걸음을 걷는 경우, 로코모션 인터페이스 장치는 보행자의 이동 방향의 반대 방향으로 구동하기 때문에 보행자는 제자리 걸음을 걷는 형태가 된다. 또한, 로코모션 인터페이스가 구동하는 동안에는, 신발이 로코모션 인터페이스 장치에 닿아 있더라도 신발의 속도가 0이 아니기 때문에, 종래의 ZUPT를 그대로 적용할 수 없다.
본 발명의 실시 예들은, 보행자가 로코모션 인터페이스 장치상에서 보행하더라도 보행자의 보폭, 이동 방향 및 위치를 추정할 수 있는 방안을 제공한다.
본 발명의 일 실시 예에 따른 로코모션(locomotion) 인터페이스 장치상에서 보행하는 보행자의 위치를 추정하는 방법은, 제 1 센싱 데이터를 기반으로 입각기(stance phase)를 검출하는 단계; 상기 로코모션 인터페이스 장치로부터 상기 로코모션 인터페이스 장치의 구동 속도 정보를 수신하는 단계; 및 제 2 센싱 데이터에 칼만 필터(Kalman filter)를 적용하여 상기 보행자의 보폭을 추정하되, 상기 입각기에서의 상기 로코모션 인터페이스 장치의 구동 속도를 고려하여 상기 보폭을 추정하는 단계를 포함할 수 있다.
본 발명의 일 실시 예에 따른 로코모션(locomotion) 인터페이스 장치상에서 보행하는 보행자의 위치를 추정하는 장치는, 상기 로코모션 인터페이스 장치로부터 상기 로코모션 인터페이스 장치의 구동 속도를 수신하는 통신부; 및 제 1 IMU에서 획득된 제 1 센싱 데이터를 기반으로 입각기(stance phase)를 검출하고, 상기 제 1 IMU에서 획득된 제 2 센싱 데이터에 칼만 필터(Kalman filter)를 적용하여 상기 보행자의 보폭을 추정하되, 상기 입각기에서의 상기 로코모션 인터페이스 장치의 구동 속도를 고려하여 상기 보폭을 추정하는 보폭 계산부를 포함할 수 있다.
일 실시 예에서, 상기 제 1 센싱 데이터는 자이로 신호를 포함하며, 상기 보폭 계산부는, 상기 자이로 신호가 제 1 임계 값보다 작고, 설정된 시간 동안의 자이로 신호의 분산 값이 제 2 임계 값보다 작은 시간 구간을 상기 입각기로 검출할 수 있다.
일 실시 예에서, 상기 제 1 임계 값 및 상기 제 2 임계 값은, 상기 로코모션 인터페이스 장치에서 발생하는 진동을 고려하여 설정될 수 있다.
일 실시 예에서, 상기 보폭 계산부는, 상기 제 1 센싱 데이터의 신호 패턴을 분석하여 상기 입각기를 검출할 수 있다.
일 실시 예에서, 상기 제 2 센싱 데이터는, 자이로 신호 및 가속도 신호를 포함할 수 있다.
일 실시 예에서, 상기 보폭 계산부는, 상기 입각기에서의 상기 보행자의 속도를, 상기 로코모션 인터페이스 장치의 구동 속도로 보정하여 상기 보폭을 추정할 수 있다.
일 실시 예에서, 상기 보폭 계산부는, 설정된 시간 구간에서 추정된 보폭에 해당 시간 구간 동안 상기 로코모션 인터페이스 장치가 구동된 거리를 더함으로써 상기 추정된 보폭을 보정할 수 있다.
일 실시 예에서, 상기 장치는, 제 2 IMU에서 획득된 제 3 센싱 데이터에 칼만 필터를 적용하여 보행자의 이동 방향을 추정하는 방위각 계산부를 더 포함하며, 상기 가상 위치 추정부는, 상기 추정된 이동 방향을 더 고려하여 상기 가상 현실상의 사용자의 위치를 추정할 수 있다.
본 발명의 실시 예들에 따르면, 가상 현실 상에서 보행자가 실제로 움직인 거리 및 위치를 추정할 수 있다.
본 발명의 실시 예들에 따르면, 로코모션 인터페이스 장치 상에서 보행하는 보행자의 보폭 및 이동 방향을 정확히 추정할 수 있다.
본 발명의 실시 예들에 따르면, 추정된 보행자의 보폭 및 이동 방향을 기반으로 가상 현실 상에서의 보행자의 위치를 정확히 추정할 수 있다.
본 발명의 실시 예들에 따르면, 가상 현실의 몰입감을 극대화 할 수 있다.
도 1은 전 방향 로코모션 인터페이스 장치의 일 예를 설명하기 위한 예시도,
도 2는 본 발명의 일 실시 예에 따른 보행자 위치 추정 장치를 설명하기 위한 블록도,
도 3은 본 발명의 다른 실시 예에 따른 보행자 위치 추정 장치를 설명하기 위한 블록도,
도 4는 본 발명의 다른 실시 예에 따른 위치 추정 방법을 설명하기 위한 흐름도,
도 5는 본 발명의 다른 실시 예에 따른 위치 추정 방법을 설명하기 위한 예시도,
도 6은 본 발명의 실시 예들에 따른 HMM를 이용한 stance phase 검출 방법을 설명하기 위한 예시도,
도 7의 (a) 및 (b)는 본 발명의 실시 예들에 따른 보폭 보정 과정을 설명하기 위한 예시도.
이하에서, 본 발명의 실시 예들을 설명함에 있어, 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략한다.
본 발명의 실시 예들은, 로코모션 인터페이스 장치 상에서 보행하는 보행자의 위치를 추정하는 방안을 제공한다.
본 발명의 실시 예들에서, 보행자의 위치 추정을 위하여, 적어도 하나의 관성 측정 장치(Inertial Measurement Unit; IMU)가 이용될 수 있다. 상기 IMU는, 3축의 가속도 센서, 3축의 자이로 센서 및 지자기 센서 중 적어도 하나를 포함할 수 있다.
상기 IMU는, 보행자의 신체, 예를 들어 보행자의 발에 부착될 수 있다. 실시 예에 따라, 상기 IMU는, 보행자의 허리를 비롯한 각종 신체 부위에 추가적으로 부착될 수 있다. 이러한 경우, 스켈레톤(skeleton) 기반의 위치 추정 방법이 적용될 수 있다.
실시 예에 따라, 상기 IMU는, 보행자가 입고 있는 의류 등에 장착될 수도 있다. 예를 들어, 상기 IMU는, 보행자가 신고 있는 신발 또는 보행자가 매고 있는 허리띠 등에 장착될 수 있다.
실시 예에 따라, 상기 IMU는, 보행자가 소지하는 각종 사용자 디바이스에 내장될 수도 있다. 상기 사용자 디바이스는 예를 들어, 스마트폰, 스마트워치 및 HMD(Head Mounded Display)등의 각종 전자 디바이스 일 수 있다.
이하에서 본 발명의 실시 예들을 설명함에 있어, 설명의 편의를 위하여, IMU는 보행자가 신고 있는 신발에 부착되거나, 보행자가 신고 있는 신발과 보행자가 매고 있는 허리띠에 부착되는 것을 가정한다.
이하에서, 본 발명의 실시 예들을 설명함에 있어, 보행자는 로코모션 인터페이스 장치(단 방향 로코모션 인터페이스 장치, 양 방향 로코모션 인터페이스 장치 및 전 방향 로코모션 인터페이스 장치 중 어느 하나일 수 있다) 상에서 보행하며, 상기 로코모션 인터페이스 장치는, 보행자가 현실 세계의 일정한 위치에 머무를 수 있도록 동작한다고 가정한다.
이하, 첨부되는 도면을 참조하여 본 발명의 실시 예들을 설명한다.
도 2는 본 발명의 일 실시 예에 따른 보행자 위치 추정 장치를 설명하기 위한 블록도이다. 도 2에는, 단 방향 또는 양 방향 로코모션 인터페이스 장치 상에서 보행하는 보행자의 위치를 추정하기 위한 장치의 일 예를 도시하였다. 도 2를 참조하여 설명하는 실시 예에서, IMU는 보행자가 신고 있는 신발에 부착되는 것을 가정한다. 이하, 보행자가 신고 있는 신발에 부착된 IMU를 제 1 IMU라 한다.
도 2를 참조하면, 본 발명의 일 실시 예에 따른 보행자 위치 추정 장치는, 보폭 계산부(200) 및 가상 위치 추정부(400)를 포함한다. 실시 예에 따라, 도시된 구성 요소 중 적어도 하나는 생략될 수 있다.
보폭 계산부(200)는, 걸음 검출 모듈(210), 보폭 추정 모듈(220) 및 보폭 보정 모듈(230)을 포함하며, 제 1 IMU에서 센싱된 데이터 및 로코모션 인터페이스 장치의 구동 속도를 기반으로 보행자의 보폭을 계산한다. 이하, 각 모듈의 동작을 살펴본다.
걸음 검출 모듈(210)은, 제 1 IMU에서 센싱된 데이터를 기반으로 걸음 검출을 수행한다.
실시 예에 따라, 제 1 IMU는, 한 쪽 신발에만 부착되거나 양 쪽 신발 모두에 부착될 수 있다. 제 1 IMU가 양 쪽 신발 모두에 부착되는 경우, 각각의 신발을 기준으로 걸음 검출이 수행될 수 있다. 다시 말해, 왼쪽 신발에 부착된 제 1 IMU에서 센싱된 데이터에 기반하여 걸음 검출이 수행되고, 오른쪽 신발에 부착된 제 1 IMU에서 센싱된 데이터에 기반하여 걸음 검출이 수행될 수 있다.
한편, 전술한 바와 같이, 걸음 검출을 수행하는 과정은, stance phase를 검출하는 과정을 포함한다. Stance phase는 다양한 방법을 이용하여 검출될 수 있다. 예를 들어, stance phase는, 제 1 IMU에서 센싱된 데이터가 설정된 조건을 만족하는지 여부에 따라 검출되거나, 제 1 IMU에서 센싱된 데이터의 패턴 분석을 통하여 검출될 수 있다. 이와 관련하여서는, 도 4 내지 도 6을 참조하여 좀 더 상세히 설명한다.
보폭 추정 모듈(220)은, 걸음 검출 모듈(210)에서 검출된 걸음을 이용하여 보행자의 보폭을 추정한다. 상기 보폭 추정에는, 예를 들어, EKF 또는 UKF(Unscented Kalman Filter)가 이용될 수 있다. 즉, 보폭 추정 모듈(220)은, 검출된 걸음에 EKF 또는 UKF를 적용하여 보행자의 보폭을 추정할 수 있다.
보폭 추정 모듈(220)은, 보행자의 보폭을 추정함에 있어 로코모션 인터페이스 장치의 구동 속도를 고려한다. 예를 들어, 보폭 추정 모듈(220)은, stance phase에서의 신발의 이동 속도는 로코모션 인터페이스 장치의 구동 속도와 같다는 가정 하에 보행자의 보폭을 추정할 수 있다.
이하, 본 발명의 실시 예들을 설명함에 있어, 로코모션 인터페이스 장치의 구동 속도를 고려하여 보폭 추정을 수행하는 방법을, '수정된 ZUPT' 또는 'TUPT(Treadmill velocity UPdaTe)'라 한다. 이와 관련하여서는, 도 4를 참조하여 좀 더 상세히 설명한다.
한편, 제 1 IMU가 양 쪽 신발 모두에 부착되는 경우, 각각의 신발을 기준으로 보폭 추정이 수행될 수 있다.
보폭 보정 모듈(230)은, 보폭 추정 모듈(220)에서 추정된 보폭과 로코모션 인터페이스 장치의 구동 거리를 기반으로 보폭 보정을 수행한다. 상기 보폭 보정은, 보행자가 걸음을 걷는 동안 로코모션 인터페이스 장치가 구동하기 때문에 발생하는 오차를 제거하기 위함이다. 보폭 보정을 수행함으로써 사용자가 실제 의도했던 보폭이 구해질 수 있다. 이와 관련하여서는, 도 4 및 도 7을 참조하여 좀 더 상세히 설명한다.
가상 위치 추정부(400)는, 보정된 보폭을 기반으로 보행자의 가상 위치를 추정한다. 예를 들어, 가상 위치 추정부(400)는, 이전 시점에 추정된 보행자의 가상 위치에 현재 추정된 보행자의 보폭을 반영하여 가상 위치를 추정할 수 있다.
도 3은 본 발명의 다른 실시 예에 따른 따른 보행자 위치 추정 장치를 설명하기 위한 블록도이다. 도 3에는, 전 방향 로코모션 인터페이스 장치 상에서 보행하는 보행자의 위치를 추정하기 위한 장치의 일 예를 도시하였다. 도 3을 참조하여 설명하는 실시 예에서, IMU는 보행자가 신고 있는 신발과 보행자가 매고 있는 허리띠에 부착된 것을 가정한다. 이하, 보행자가 신고 있는 신발에 부착된 IMU를 제 1 IMU라 하고, 보행자가 매고 있는 허리띠에 부착된 IMU를 제 2 IMU라 한다.
도 3을 참조하면, 본 발명의 일 실시 예에 따른 보행자 위치 추정 장치는, 보폭 계산부(200), 방위각 계산부(300) 및 가상 위치 추정부(400)를 포함한다. 실시 예에 따라, 도시된 구성 요소 중 적어도 하나는 생략될 수 있다.
보폭 계산부(200)의 기본적인 동작은 도 2를 참조하여 설명한 바와 같으므로, 여기서는 그 상세한 설명은 생략한다.
방위각 계산부(300)는, 방위각 추정 모듈(320) 및 방위각 보정 모듈(330)을 포함하며, 제 1 IMU 및 제 2 IMU에서 센싱된 데이터 및 보폭 보정 모듈(230)에서 보정된 보폭을 기반으로 방위각, 즉 보행자의 이동 방향을 계산한다. 이하, 각 모듈의 동작을 살펴본다.
방위각 추정 모듈(320)은, 제 1 IMU 및 제 2 IMU 중 적어도 하나에서 센싱된 데이터를 기반으로, 방위각을 추정한다. 예를 들어, 방위각 추정 모듈(320)은, 제 1 IMU를 기준으로 하는 하나의 방위각과 제 2 IMU를 기준으로 하는 하나의 방위각을 추정할 수 있다. 만약, 제 1 IMU가 양 쪽 신발에 부착되는 경우, 방위각 추정 모듈(320)은, 각각의 신발에 부착된 제 1 IMU를 기준으로 하는 두 개의 방위각을 추정할 수 있다.
방위각 보정 모듈(330)은, 방위각 추정 모듈(320)에서 추정된 방위각과 보폭 보정 모듈(230)에서 보정된 보폭을 기반으로 방위각을 보정한다.
방위각 보정 모듈(330)은, 방위각 보정을 위하여 수신 데이터들에 대한 시간 동기화, 즉 수신 데이터들의 시점을 일치시키는 동작을 수행할 수 있다. 즉, 방위각 추정 모듈(320)로부터 수신되는 데이터와 보폭 보정 모듈(230)로부터 수신되는 데이터에 대한 시간 동기화를 수행하고, 동일한 시점에 처리된 데이터들을 기반으로 방위각 보정을 수행할 수 있다.
실시 예에 따라, 방위각 추정 및 방위각 보정은, 제 2 IMU에서 센싱된 데이터만을 기반으로 이루어질 수도 있다.
가상 위치 추정부(400)는, 보폭 보정 모듈(230)에서 보정된 보폭과 방위각 보정 모듈(330)에서 보정된 방위각을 기반으로 보행자의 가상 위치를 추정한다.
도 4는 본 발명의 다른 실시 예에 따른 보행자의 위치 추정 방법을 설명하기 위한 흐름도이고, 도 5는 본 발명의 다른 실시 예에 따른 보행자의 위치 추정 방법을 설명하기 위한 예시도이다. 도 4 및 도 5를 참조하여 설명하는 실시 예에서, 보행자 위치 추정 장치는, 사용자의 신발에 부착된 제 1 IMU와 사용자의 허리띠에 부착된 제 2 IMU에서 센싱된 데이터를 기반으로 보행자의 위치를 추정하는 것으로 가정한다. 실시 예에 따라, 단계(401) 내지 단계(407) 중 적어도 하나는 생략될 수 있다.
단계(401)에서, 보행자 위치 추정 장치는, 걸음 검출을 수행한다.
걸음 검출은, 제 1 IMU에서 센싱된 데이터를 기반으로 이루어질 수 있다. 전술한 바와 같이, 걸음 검출은, stance phase를 검출하는 과정을 포함한다. Stance phase는, 가속도 신호 또는 자이로 신호 기반으로 검출될 수 있다. 본 발명의 실시 예들에서, 보행자는 구동하는 로코모션 인터페이스 장치상에서 보행하기 때문에, 가속도 신호보다 자이로 신호의 신뢰도가 더 높을 수 있다. 이하에서는, 자이로 신호를 기반으로 stance phase를 검출하는 실시 예를 살펴본다.
Stance phase는, 자이로 신호의 크기와 자이로 신호의 분산 값을 기반으로 검출될 수 있다. 예를 들어, 보행자 위치 추정 장치는, <수학식 1>에 나타낸 바와 같이, 자이로 신호의 크기(|Wk|)가 설정된 제 1 임계 값(thw)보다 작고, 설정된 시간 구간(Wk -14:Wk)에서의 분산 값(var(Wk -14:Wk))이 설정된 제 2 임계 값(thvar (w))보다 작은 경우, 해당 시간 구간을 stance phase로 결정할 수 있다.
Figure pat00001
여기서, Wkx, Wky, Wkz는, 각각 x, y, z축 방향으로의 자이로 신호의 크기,
k는, 시간 인덱스(time index),
Wk -14:Wk는, k-14부터 k시점까지의 자이로 신호의 크기를 의미한다.
여기서, 제 1 임계 값(thw) 및 제 2 임계 값(thvar (w))은, 로코모션 인터페이스 장치에 의한 영향을 고려하여 정해질 수 있다. 예를 들어, 제 1 임계 값(thw) 및 제 2 임계 값(thvar (w))은, 로코모션 인터페이스 장치의 구동 시에 발생하는 진동의 영향을 고려하여 정해질 수 있다. 즉, 실험적으로 stance phase 에서 자이로 신호를 측정하고, 측정된 자이로 신호에 기반하여 제 1 임계 값(thw) 및 제 2 임계 값(thvar (w))을 설정할 수 있다.
Stance phase는, 다양한 패턴 인식 기법을 이용하여 자이로 신호의 패턴을 분석함으로써 검출될 수도 있다. 상기 패턴 인식 기법으로 HMM(Hidden Markov Model)이 이용될 수 있다. 이를 도 6을 참조하여 설명한다.
도 6은 본 발명의 실시 예들에 따른 HMM을 이용한 stance phase 검출 방법을 설명하기 위한 예시도이다.
도 6에서 가로축은 시간을 나타내고, 세로축은 신발 피치축의 자이로 신호를 나타낸다. 보행자 위치 추정 장치는, 한 걸음 동안의 자이로 신호의 패턴을 분석하여 stance phase를 검출할 수 있다. 도 6에는 자이로 신호의 크기를 기준으로 패턴 분석을 수행한 예를 도시하였다. 도 6의 예에서, 영역 1은 자이로 신호가 0에 근접한 구간이고, 영역 2는 자이로 신호가 0보다 설정 값 이상 작은 구간이며, 영역 3은 자이로 신호가 0보다 설정 값 이상 큰 구간이다. 도 6에 도시된 예에서, 보행자 위치 추정 장치는, 자이로 신호의 변화가 상대적으로 일정한 영역 즉, 영역 1을 stance phase로 검출할 수 있다.
다시 도 4를 참조하면, 단계(403)에서, 보행자 위치 추정 장치는, 보폭 추정 및 방위각 추정을 수행한다.
보폭 추정에는, 종래의 INS-EKF-ZUPT 기법이 수정되어 이용될 수 있다. INS-EKF-ZUPT은, 보행자의 발이 지면에 닿아있는 동안의 속도는 0이라는 가정을 EKF에 적용한 INS(Inertial Navigation System)를 의미한다. 이를 좀 더 상세히 살펴본다.
먼저, 제 1 IMU에서 센싱된 데이터를 기반으로 INS 및 에러 상태 벡터(error states vector)를 구성한다. 상기 INS는, 제 1 IMU에서 센싱된 데이터인 가속도 신호와 자이로 신호들의 적분 및 중력 보상을 통해 구성될 수 있다. 에러 상태 벡터(δXk |k)는, 예를 들어 <수학식 2>와 같이 자세(φk), 자이로 바이어스(bg ,k), 위치(rk), 속도(vk), 가속도 바이어스(ba ,k)의 오차(δ)들을, 상태 변수(states)로서 포함할 수 있다.
Figure pat00002
IMU들이 MEMS(Micro-Electro-Mechanical Systems)급 센서로 이루어지는 경우, <수학식 3> 및 <수학식 4>와 같이 역학 모델(dynamic model)이 단순화될 수 있다.
Figure pat00003
여기서, Φk는, k 시점에서의 상태 천이 행렬(state transition matrix),
I는, 항등행렬(identity matrix),
Δt는, 단위시간(Sampling time),
S(ak 'n)은, Navigation frame에서의 가속도 신호의 교대행렬(skew symmetric matrix),
Cn bk |k- 1는, 방향 코사인 행렬(Direction Cosine Matrix)이다.
Figure pat00004
여기서, an ,k는, n(north)축 방향으로의 가속도 신호의 크기,
ae ,k는, e(east)축 방향으로의 가속도 신호의 크기,
ad ,k는 d(down)축 방향으로의 가속도 신호의 크기이다.
그리고, 에러 상태 벡터와 역학 모델에 EKF가 적용된다. EKF는, <수학식 5> 내지 <수학식 7>의 시간 전파(Time propagation)(또는 예측(Predict)이라고도 함)와 <수학식 8> 내지 <수학식 10>의 관측 보정(Measurement update)으로 이루어진다.
이에 따라, 상태 변수들, 즉 오차들이 추정될 수 있으며, 추정된 오차를 제거함으로써 보다 정확한 자세 및 위치가 추정될 수 있다.
Figure pat00005
여기서, ak 'n는, navigation frame 에서의 가속도 값,
ak 'b는, body frame에서의 가속도값을 의미한다.
Figure pat00006
여기서, δXk |k-1은, k-1 시점의 측정 값을 토대로 한 k 시점의 상태 추정 값 오차(estimated errors of states),
δXk -1|k-1은, k-1 시점의 측정 값을 토대로 한 k-1 시점의 상태 추정 값 오차(estimated errors of states),
Wk -1은, 공분산 Q(k)를 갖는 프로세스의 잡음 모델(additive noise model)이다.
Figure pat00007
여기서, Pk |k- 1는, k-1 시점의 측정 값을 토대로 한 k 시점의 공분산 추정 값 (estimated covariance),
Pk -1|k- 1는, k-1 시점의 측정 값을 토대로 한 k-1 시점의 공분산 추정 값 (estimated covariance),
Φk-1은 k-1 시점에서의 상태 천이 행렬(state transition matrix)이다.
Figure pat00008
여기서, zk는, 선형화된 관측 모델(linearized observation model),
vk는, 공분산 Rk를 갖는 잡음 모델(additive noise model with covariance Rk)이다.
Figure pat00009
여기서, H는, 관측 행렬(observation matrix),
Kk는, 최적의 칼만 이득(Near-optimal Kalman gain)이다.
Figure pat00010
여기서, mk는, 측정치(measurement)이다.
한편, 오차 추정에 이용되는 종래의 ZUPT는, <수학식 11>과 같이 보행자의 신발이 지면(로코모션 인터페이스 장치)에 닿아 있는 동안의 속도가 0이라고 가정한다.
Figure pat00011
그러나, 보행자가 로코모션 인터페이스 장치 상에서 보행하는 경우에는, 보행자의 신발이 로코모션 인터페이스 장치에 닿아 있는 동안의 속도가 0이 아니므로, 종래의 ZUPT가 수정될 필요가 있다.
이에, 본 발명의 실시 예들에서는 <수학식 12>와 같이 보행자의 신발이 로코모션 인터페이스 장치에 닿아있는 동안(즉, stance phase 동안)은, 신발의 속도와 로코모션 인터페이스 장치의 구동 속도가 같음을 이용(즉, TPUT를 적용)하여 보폭을 추정한다.
Figure pat00012
여기서, mk는, k 시점에 추정된 신발의 속도와 stance phase에서의 로코모션 인터페이스 장치의 구동 속도(즉, stance phase에서의 신발의 속도)와의 차이,
vODM은, 로코모션 인터페이스 장치의 구동 속도이다.
한편, 방위각 추정은, 제 1 IMU 및 제 2 IMU 중 적어도 하나에서 센싱되는 데이터를 기반으로 이루어질 수 있다.
제 1 IMU에서 센싱된 데이터를 기반으로 방위각을 추정하는 경우, 보행자 위치 추정 장치는, <수학식 2> 내지 <수학식 4>에 나타낸 에러 상태 벡터와 역학 모델을 기반으로 방위각 추정을 수행할 수 있다.
제 2 IMU에서 센싱된 데이터를 기반으로 방위각을 추정하는 경우, 보행자 위치 추정 장치는, 제 2 IMU로부터 수신되는 가속도 신호 및 자이로 신호를 이용하여 ARS(Attitude Reference System)를 구성함으로써, 방위각 추정을 수행할 수 있다.
예를 들어, 보행자 위치 추정 장치는, <수학식 13>에 나타낸 바와 같이, 제 2 IMU에서 센싱된 데이터를 기반으로, 자세(φk) 및 자이로 바이어스(bg ,k)의 오차(δ)들을 상태 변수로서 포함하는 에러 상태 벡터를 구성한다.
Figure pat00013
<수학식 3>에서와 마찬가지로, 제 2 IMU가 MEMS급 센서로 이루어지는 경우, <수학식 14>와 같이 역학 모델이 단순화 될 수 있다.
Figure pat00014
여기서, Φk는, k 시점에서의 상태 천이 행렬(state transition matrix),
I는, 항등행렬(identity matrix),
Δt는, 단위시간(Sampling time),
Cn bk |k- 1는, 방향 코사인 행렬(Direction Cosine Matrix)이다.
이후, 보행자 위치 추정 장치는, <수학식 13 > 및 <수학식 14>에 나타낸 에러 상태 벡터 및 역할 모델에 EKF를 적용하여 방위각을 추정할 수 있다.
단계(405)에서, 보행자 위치 추정 장치는, 보폭 보정 및 방위각 보정을 수행한다.
단계(403)에서 TUPT를 적용하여 보행자의 보폭을 추정하더라도, 걸음이 발생하는 동안, 즉 swing phase에서도 로코모션 인터페이스 장치는 구동하기 때문에, 실제로 보행자가 이동하고자 했던 만큼의 보폭과는 다른 값이 추정된다.
예를 들어, 도 6의 (a)에 도시된 바와 같이, 보행자가 로코모션 인터페이스 장치가 아닌 곳에서 보행하고 있는 경우, 시간 구간(t0~t1)에서 보행자의 신발의 위치 변화량이 보폭이 될 수 있다.
그러나, 도 6의 (b)에 도시된 바와 같이, 보행자가 로코모션 인터페이스 장치 상에서 보행하는 경우, 시간 구간(t0~t1)에서 로코모션 인터페이스 장치가 보행자의 이동 방향 반대로 구동하기 때문에, 해당 시간 구간(t0~t1)에서 로코모션 인터페이스 장치의 구동 거리를 고려하여 보폭을 보정할 필요가 있다. 예를 들어, <수학식 15>에 나타낸 바와 같이, 추정된 보폭에 로코모션 인터페이스 장치의 구동 속도를 적분하여 더함으로써, 보행자가 실제 이동하고자 했던 거리를 계산할 수 있다.
즉, 걸음이 발생하는 동안 보행자가 로코모션 인터페이스 장치에 의해 이동된 만큼을 보상하여, 실제로 보행자가 이동하고자 한 보폭이 계산될 수 있다.
Figure pat00015
여기서, rk는, k시점에서의 신발의 위치,
vk , ODM는, k시점에서의 로코모션 인터페이스 장치의 구동 속도,
rk , TRUE는, k시점에서의 신발의 보정된 위치이다.
한편, 보행자 위치 추정 장치는, 추정된 방위각과 보정된 보폭을 기반으로 방위각을 보정할 수 있다. 방위각 보정을 위하여, 보행자 위치 추정 장치는, 추정된 방위각과 보정된 보폭들에 대한 시간 동기화를 먼저 수행할 수 있다. 그리고, 보행자 위치 추정 장치는, 시간 동기화된 데이터들을 기반으로 방위각을 보정할 수 있다. 방위각을 보정한다는 것은, 예를 들어 시간 동기화된 데이터들을 융합하여 오차가 감소된 방위각을 도출하는 것일 수 있다. 예를 들어, 이전 단계들에서 추정된 방위각과 보정된 보폭을 기반으로 위치 추정을 수행할 경우, 각 IMU의 오차에 따라 서로 다른 위치가 추정될 수 있다. 따라서, 추정된 각 IMU의 위치가 설정된 임계 범위 내에 존재하도록 데이터들을 융합할 수 있다. 실시 예에 따라, 방위각 보정 과정은 생략될 수 있다.
단계(407)에서, 보행자 위치 추정 장치는, 보행자의 가상 위치, 즉 가상 현실 상에서의 보행자의 위치를 추정한다. 보행자의 가상 위치는, 이전 단계들에서 추정 및 보정된 보행자의 이동 방향(방위각) 및 보폭을 기반으로 추정될 수 있다. 추정된 보행자의 가상 위치는, 가상 현실 상에서 지속적으로 업데이트될 수 있고, 보행자의 가상 위치가 연결되어 보행자의 이동 경로가 구성될 수 있다.
한편, 보폭 추정 및 방위각 추정에 이용되는 제 1 IMU는 한 쪽 신발에만 부착되거나 양 쪽 신발 모두에 부착될 수 있다. 한 쪽 신발의 보폭 정보 및 방위각 정보만 주어지더라도 보행자의 가상 위치는 추정될 수 있으나 그 정확도는 상대적으로 낮을 수 있다. 따라서 양 쪽 신발 사이의 간격이 일정하다는 가정 하에, 양 쪽 신발의 보폭 추정 값 및 보행자의 방위각 추정 값을 이용하여 가상 위치를 추정하고, 이를 가상 현실상에 반영할 수도 있다. 이에 따라 가상 현실상의 초기 위치로부터 사용자의 위치가 지속적으로 업데이트될 수 있다.
한편, 본 발명의 실시 예들에 따른 TUPT 적용을 위하여 로코모션 인터페이스 장치의 구동 속도 정보가 요구된다. 이에, 로코모션 인터페이스 장치의 구동 모터에 엔코더가 설치될 수 있으며, 본 발명의 실시 예에 따른 보행자 위치 추정 장치는, 상기 엔코더로부터 구동 속도 정보를 수신하기 위한 통신 모듈을 포함할 수 있다. 따라서, 보행자 위치 추정 장치는, 상기 엔코더로부터 수신되는 속도 정보에 기반하여 TUPT를 적용할 수 있다.
상기 엔코더는, 로코모션 인터페이스 장치의 각 구동 모터마다 설치될 수 있다. 예를 들어, 로코모션 인터페이스 장치는 1차원 내지 3차원으로 구현될 수 있으며, 각 차원수를 구현하기 위한 각각의 구동 모터에 엔코더가 설치될 수 있다. 예를 들어, 평면 상에서 전, 후, 좌, 우로 움직이는 2차원 로코모션 인터페이스 장치의 경우, 두 개의 구동 모터가 장착될 수 있으며, 따라서 2개의 엔코더가 설치될 수 있다.

Claims (18)

  1. 로코모션(locomotion) 인터페이스 장치상에서 보행하는 보행자의 위치를 추정하는 방법으로서,
    제 1 센싱 데이터를 기반으로 입각기(stance phase)를 검출하는 단계;
    상기 로코모션 인터페이스 장치로부터 상기 로코모션 인터페이스 장치의 구동 속도 정보를 수신하는 단계; 및
    제 2 센싱 데이터에 칼만 필터(Kalman filter)를 적용하여 상기 보행자의 보폭을 추정하되, 상기 입각기에서의 상기 로코모션 인터페이스 장치의 구동 속도를 고려하여 상기 보폭을 추정하는 단계
    를 포함하는 보행자 위치 추정 방법.
  2. 제 1 항에 있어서,
    상기 제 1 센싱 데이터는 자이로 신호를 포함하며,
    상기 입각기를 검출하는 단계는, 상기 자이로 신호가 제 1 임계 값보다 작고, 설정된 시간 동안의 자이로 신호의 분산 값이 제 2 임계 값보다 작은 시간 구간을 상기 입각기로 검출하는 단계
    를 포함하는 보행자 위치 추정 방법.
  3. 제 2 항에 있어서, 상기 제 1 임계 값 및 상기 제 2 임계 값은,
    상기 로코모션 인터페이스 장치에서 발생하는 진동을 고려하여 설정되는
    보행자 위치 추정 방법.
  4. 제 1 항에 있어서, 상기 입각기를 검출하는 단계는, 상기 제 1 센싱 데이터의 신호 패턴을 분석하여 상기 입각기를 검출하는 단계
    를 포함하는 보행자 위치 추정 방법.
  5. 제 1 항에 있어서, 상기 제 2 센싱 데이터는,
    자이로 신호 및 가속도 신호를 포함하는
    보행자 위치 추정 방법.
  6. 제 1 항에 있어서, 상기 보폭을 추정하는 단계는,
    상기 입각기에서의 상기 보행자의 속도를, 상기 로코모션 인터페이스 장치의 구동 속도로 보정하여 상기 보폭을 추정하는 단계
    를 포함하는 보행자 위치 추정 방법.
  7. 제 6 항에 있어서,
    설정된 시간 구간에서 추정된 보폭에 해당 시간 구간 동안 상기 로코모션 인터페이스 장치가 구동된 거리를 더함으로써 상기 추정된 보폭을 보정하는 단계
    를 더 포함하는 보행자 위치 추정 방법.
  8. 제 8 항에 있어서,
    상기 보정된 보폭을 기반으로 가상 현실상의 사용자의 위치를 추정하는 단계
    를 더 포함하는 보행자 위치 추정 방법.
  9. 제 8 항에 있어서,
    상기 제 2 센싱 데이터에 칼만 필터를 적용하여 보행자의 이동 방향을 추정하는 단계를 더 포함하며
    상기 사용자의 위치를 추정하는 단계는, 상기 추정된 이동 방향을 더 고려하여 상기 가상 현실 상의 사용자의 위치를 추정하는 단계를 포함하는
    보행자 위치 추정 방법.
  10. 로코모션(locomotion) 인터페이스 장치상에서 보행하는 보행자의 위치를 추정하는 장치로서,
    상기 로코모션 인터페이스 장치로부터 상기 로코모션 인터페이스 장치의 구동 속도를 수신하는 통신부; 및
    제 1 IMU에서 획득된 제 1 센싱 데이터를 기반으로 입각기(stance phase)를 검출하고, 상기 제 1 IMU에서 획득된 제 2 센싱 데이터에 칼만 필터(Kalman filter)를 적용하여 상기 보행자의 보폭을 추정하되, 상기 입각기에서의 상기 로코모션 인터페이스 장치의 구동 속도를 고려하여 상기 보폭을 추정하는 보폭 계산부
    를 포함하는 보행자 위치 추정 장치.
  11. 제 10 항에 있어서,
    상기 제 1 센싱 데이터는, 자이로 신호를 포함하며,
    상기 보폭 계산부는, 상기 자이로 신호가 제 1 임계 값보다 작고, 설정된 시간 동안의 자이로 신호의 분산 값이 제 2 임계 값보다 작은 시간 구간을 상기 입각기로 검출하는
    보행자 위치 추정 장치.
  12. 제 11 항에 있어서, 상기 제 1 임계 값 및 상기 제 2 임계 값은,
    상기 로코모션 인터페이스 장치에서 발생하는 진동을 고려하여 설정되는
    보행자 위치 추정 장치.
  13. 제 10 항에 있어서, 상기 보폭 계산부는,
    상기 제 1 센싱 데이터의 신호 패턴을 분석하여 상기 입각기를 검출하는
    보행자 위치 추정 장치.
  14. 제 10 항에 있어서, 상기 제 2 센싱 데이터는,
    자이로 신호 및 가속도 신호를 포함하는
    보행자 위치 추정 장치.
  15. 제 10 항에 있어서, 상기 보폭 계산부는,
    상기 입각기에서의 상기 보행자의 속도를, 상기 로코모션 인터페이스 장치의 구동 속도로 보정하여 상기 보폭을 추정하는
    보행자 위치 추정 장치.
  16. 제 15 항에 있어서, 상기 보폭 계산부는,
    설정된 시간 구간에서 추정된 보폭에 해당 시간 구간 동안 상기 로코모션 인터페이스 장치가 구동된 거리를 더함으로써 상기 추정된 보폭을 보정하는
    보행자 위치 추정 장치.
  17. 제 16 항에 있어서,
    상기 보정된 보폭을 기반으로 가상 현실상의 사용자의 위치를 추정하는 가상 위치 추정부
    를 더 포함하는 보행자 위치 추정 장치.
  18. 제 17 항에 있어서,
    제 2 IMU에서 획득된 제 3 센싱 데이터에 칼만 필터를 적용하여 보행자의 이동 방향을 추정하는 방위각 계산부를 더 포함하며,
    상기 가상 위치 추정부는, 상기 추정된 이동 방향을 더 고려하여 상기 가상 현실상의 사용자의 위치를 추정하는
    보행자 위치 추정 장치.
KR1020140184803A 2014-12-19 2014-12-19 로코모션 인터페이스 장치상에서 보행하는 보행자의 위치 추정 방법 및 장치 KR101693629B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020140184803A KR101693629B1 (ko) 2014-12-19 2014-12-19 로코모션 인터페이스 장치상에서 보행하는 보행자의 위치 추정 방법 및 장치
US14/602,467 US20160179190A1 (en) 2014-12-19 2015-01-22 Method and apparatus for estimating position of pedestrian walking on locomotion interface device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140184803A KR101693629B1 (ko) 2014-12-19 2014-12-19 로코모션 인터페이스 장치상에서 보행하는 보행자의 위치 추정 방법 및 장치

Publications (2)

Publication Number Publication Date
KR20160075977A true KR20160075977A (ko) 2016-06-30
KR101693629B1 KR101693629B1 (ko) 2017-01-09

Family

ID=56129317

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140184803A KR101693629B1 (ko) 2014-12-19 2014-12-19 로코모션 인터페이스 장치상에서 보행하는 보행자의 위치 추정 방법 및 장치

Country Status (2)

Country Link
US (1) US20160179190A1 (ko)
KR (1) KR101693629B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108106630A (zh) * 2017-12-08 2018-06-01 北京理工大学 一种行人导航的二维人体里程计及里程计算方法

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6113934B2 (ja) * 2014-09-18 2017-04-12 一博 椎名 レコーディング装置、携帯端末、解析装置、プログラム及び記憶媒体
US9832085B1 (en) * 2015-01-20 2017-11-28 Mehdi Malboubi System for estimating unknown attributes of interest in the under-determined inverse problem and a process of accomplishing the same
US10055028B2 (en) * 2016-12-05 2018-08-21 Google Llc End of session detection in an augmented and/or virtual reality environment
US10259653B2 (en) 2016-12-15 2019-04-16 Feedback, LLC Platforms for omnidirectional movement
CN107885320B (zh) * 2017-08-24 2018-08-31 吉林大学 一种装配线工人活动区域的布置方法
CN109710072B (zh) * 2018-12-26 2022-03-11 华中科技大学鄂州工业技术研究院 一种个性化重定向行走方法及系统
CN109883429A (zh) * 2019-04-15 2019-06-14 山东建筑大学 基于隐马尔科夫模型的零速检测方法以及室内行人惯性导航系统
KR102192451B1 (ko) * 2019-05-03 2020-12-16 주식회사 인포웍스 복합 보행 동작 인식 기반 스마트 신발 및 이의 데이터 처리 방법

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001324306A (ja) * 2000-05-12 2001-11-22 Unipulse Corp トレッドミルの歩幅測定装置
KR20120005701A (ko) * 2010-07-09 2012-01-17 삼성전자주식회사 보행자의 보폭 추정 방법 및 이를 위한 휴대 단말

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8862394B2 (en) * 2013-01-22 2014-10-14 Ensco, Inc. System and method for tracking and locating a person, animal, or machine
US9223004B2 (en) * 2013-03-22 2015-12-29 Qualcomm Incorporated Controlling position uncertainty in a mobile device
US10508920B2 (en) * 2014-11-04 2019-12-17 Xsens Holding B.V. Pedestrian dead reckoning position tracker

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001324306A (ja) * 2000-05-12 2001-11-22 Unipulse Corp トレッドミルの歩幅測定装置
KR20120005701A (ko) * 2010-07-09 2012-01-17 삼성전자주식회사 보행자의 보폭 추정 방법 및 이를 위한 휴대 단말

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
차무현 外, 대한기계학회 춘추학술대회, 2013.12, 1917-1918(2 pages) *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108106630A (zh) * 2017-12-08 2018-06-01 北京理工大学 一种行人导航的二维人体里程计及里程计算方法
CN108106630B (zh) * 2017-12-08 2020-11-06 北京理工大学 一种行人导航的二维人体里程计及里程计算方法

Also Published As

Publication number Publication date
US20160179190A1 (en) 2016-06-23
KR101693629B1 (ko) 2017-01-09

Similar Documents

Publication Publication Date Title
KR101693629B1 (ko) 로코모션 인터페이스 장치상에서 보행하는 보행자의 위치 추정 방법 및 장치
JP7023234B2 (ja) 歩行者の動きを推定する方法
US10267646B2 (en) Method and system for varying step length estimation using nonlinear system identification
US9599475B2 (en) Movement state information calculation method and movement state information calculation device
US9759567B2 (en) Position calculation method and position calculation device
KR102126506B1 (ko) 보행자의 이동 방향 추정 방법, 상기 방법을 기록한 컴퓨터 판독 가능 저장매체 및 보행자 이동 방향 추정 장치.
CN111024126B (zh) 一种行人导航定位中的自适应零速修正方法
CN104251702A (zh) 一种基于相对位姿测量的行人导航方法
Cho et al. Threshold-less zero-velocity detection algorithm for pedestrian dead reckoning
JP2013117493A (ja) 移動経路推定システム、移動経路推定装置及び移動経路推定方法
EP3227634B1 (en) Method and system for estimating relative angle between headings
Wang et al. Scenario-dependent ZUPT-aided pedestrian inertial navigation with sensor fusion
KR101642286B1 (ko) 보행특성을 이용한 실내에서의 보행자 이동방향 추정 방법
CN110260860B (zh) 基于足部惯性传感器的室内移动测量定位定姿方法及系统
Jao et al. Zero velocity detector for foot-mounted inertial navigation system assisted by a dynamic vision sensor
CN104897155A (zh) 一种个人携行式多源定位信息辅助修正方法
KR101356347B1 (ko) 보행용 관성 항법 시스템 및 이를 이용한 경사각 및 높이 성분의 추정 방법
US20140303924A1 (en) Reference value generating method and reference value generating device
JP2014219340A (ja) オフセット補正方法及びオフセット補正装置
JP2015017858A (ja) 参照値生成装置及び参照値生成方法
JP6494552B2 (ja) フロア間の遷移に基づいて位置の補正が可能な位置推定装置、プログラム及び方法
Bojja et al. Robust misalignment handling in pedestrian dead reckoning
EP2851652B1 (en) Systems and methods for a limb strike detector
CN110579212B (zh) 室内定位方法及装置
KR20190079470A (ko) 객체 측위 방법 및 장치

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20191223

Year of fee payment: 4