KR20190008180A - 3d 지오로케이션 시스템 - Google Patents

3d 지오로케이션 시스템 Download PDF

Info

Publication number
KR20190008180A
KR20190008180A KR1020187024254A KR20187024254A KR20190008180A KR 20190008180 A KR20190008180 A KR 20190008180A KR 1020187024254 A KR1020187024254 A KR 1020187024254A KR 20187024254 A KR20187024254 A KR 20187024254A KR 20190008180 A KR20190008180 A KR 20190008180A
Authority
KR
South Korea
Prior art keywords
user
spatial orientation
sensor
pair
inertial
Prior art date
Application number
KR1020187024254A
Other languages
English (en)
Inventor
나다니엘 조소
빅토리안 티옥스
에릭 두플레인
마틴 보몬트
스테파니 베달드
Original Assignee
비-테미아 인코포레이티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 비-테미아 인코포레이티드 filed Critical 비-테미아 인코포레이티드
Publication of KR20190008180A publication Critical patent/KR20190008180A/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C22/00Measuring distance traversed on the ground by vehicles, persons, animals or other moving solid bodies, e.g. using odometers, using pedometers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • G01C21/1652Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with ranging devices, e.g. LIDAR or RADAR
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C22/00Measuring distance traversed on the ground by vehicles, persons, animals or other moving solid bodies, e.g. using odometers, using pedometers
    • G01C22/02Measuring distance traversed on the ground by vehicles, persons, animals or other moving solid bodies, e.g. using odometers, using pedometers by conversion into electric waveforms and subsequent integration, e.g. using tachometer generator
    • G01S17/023
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/01Determining conditions which influence positioning, e.g. radio environment, state of motion or energy consumption
    • G01S5/017Detecting state or type of motion
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/02Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/02Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves
    • G01S5/14Determining absolute distances from a plurality of spaced points of known location
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S2205/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S2205/01Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations specially adapted for specific applications
    • G01S2205/09Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations specially adapted for specific applications for tracking people

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Navigation (AREA)
  • Length Measuring Devices With Unspecified Measuring Means (AREA)
  • Position Fixing By Use Of Radio Waves (AREA)

Abstract

글로벌 포지셔닝 시스템(GPS) 신호가 없을 시에 움직이는 사람의 3D 좌표를 제공하는 3차원(3D) 지오로케이션 시스템. 3D 지오로케이션 시스템은 좌우 발-발목 구조부에 위치되도록 구성된 2개의 관성 센서, 및 사용자의 하지(정강이, 대퇴, 몸통)의 각각의 세그먼트의 공간적 배향을 측정하는 일련의 센서를 사용한다. 일 예에서, 3D 지오로케이션 시스템은 좌우 다리-무릎 또는 대퇴-둔부 구조부에 있는 2개의 추가적인 관성 센서, 뿐만 아니라 사용자가 착용하는 지지대 디바이스 또는 외골격에 의해 제공될 수 있는, 좌우 무릎 및 대퇴의 각도 위치를 나타내는 정보를 제공하는 센서를 사용한다. 사용자의 3D 좌표의 이러한 결정은 무릎 및 둔부 각도와 결합되어 관성 센서로부터의 사용자에 관한 생체역학 정보를 사용하여 수행된다.

Description

3D 지오로케이션 시스템
관련 출원에 대한 상호 참조
이 출원은 본 명세서에 참조로서 포함되어 있는 2016년 1월 25일에 출원된 미국 가출원 제62/286,896호의 혜택을 주장한다.
기술분야
본 개시는 3D 지오로케이션(geolocation) 시스템에 관한 것으로, 보다 구체적으로는, 본 개시는 GPS 신호가 없을 시에 동작하는 3D 지오로케이션 시스템에 관한 것이다.
몇몇 활동은 항상 사람의 위치에 대한 지식을 필요로 한다. 예를 들어, 소방관의 경우, 그 혹은 그녀가 기능할 수 없게 되면(incapacitated), 분대장은 기능할 수 없게 된 소방관의 위치로 도움을 보낼 수 있어야 한다. 구조 팀은 시야가 매우 제한되어 있고 검색 영역은 보통 제한되어 있다; 검색이 빠를수록 기능할 수 없게 된 소방관을 구할 확률이 높아진다. 동일한 시나리오가 글로벌 포지셔닝 시스템(Global Positioning System, GPS) 신호에 액세스할 수 없는 건물 또는 지하에서 움직이는 군인에게도 적용된다.
보통은, GPS가 작동할 것이다. 그러나, 일부 건물에서는, GPS 신호의 수신이 조금이라도 존재할 경우, 극히 제한적일 수 있다. GPS가 없으면, 현재에는 추측 항법(dead-reckoning) 외에는 변변찮은 해결책이 없다. 이 알고리즘은 관성 센서를 사용하고, 근본적으로 글로벌 좌표에서의 가속도를 계산한다(센서의 배향(orientation)을 알면, 로컬 기준(즉, 센서)의 측정된 가속도를 글로벌 좌표계(즉, 세계)로 변환할 수 있다). 이 수치 적분(integration)은 오차를 누적하는 경향이 있으며, 보통 이동된 거리의 3% 정도이다. GPS 없이 100미터를 이동한 후에는, 오차가 ± 3미터이므로, 도움을 필요로 하는 사용자가 어느 층에 위치해 있는지를 정확히 알기에는 너무 커서, 단 한 팀 대신에 대신 3개의 구조 팀(즉, 상부 층, 중간 층, 및 하부 층)을 보내야 하거나, 단일 팀의 경우 일반적인 시간보다 3배가 소요된다. 또한, 관성 항법은 발이 지면과 접촉할 때 "재설정"이 필요로 한다. 이 재설정이 없으면, 오차가 기하 급수적으로 증가한다. 말할 필요도 없이, 재설정이 좋지 않은 때에 일어나는 경우, 오차가 증가한다.
따라서, GPS 신호가 없을 시에 움직이는 사람의 3D 좌표를 제공하기 위한 정확한 3D 지오로케이션 시스템이 필요하다.
본 개시는
사용자의 좌우 발-발목 구조부에 위치되도록 구성된 한 쌍의 관성 센서로서, 관성 센서는 사용자의 생체역학 정보를 제공하는, 한 쌍의 관성 센서;
사용자의 좌우 대퇴 및 몸통(trunk)의 공간적 배향을 나타내는 정보를 제공하는 적어도 한 쌍의 공간 배향 센서;
사용자의 좌우 정강이의 공간적 배향을 나타내는 정보를 제공하는 적어도 한 쌍의 공간 배향 센서; 및
통신 링크를 통해 관성 센서 및 공간 배향 센서와 통신하는 프로세서로서, 프로세서는 저장된 명령을 포함하는 연관 메모리를 가지는, 프로세서를 포함하고,
명령은 프로세서는 프로세서 상에서 실행될 때
생체역학 정보 및 사용자의 좌우 대퇴, 몸통, 좌우 정강이의 공간적 배향을 나타내는 정보를 수신하는 단계;
생체역학 정보 및 좌우 대퇴, 몸통, 좌우 정강이의 공간적 배향을 나타내는 정보를 사용하여 사용자의 3D 좌표를 계산하는 단계; 및
계산된 사용자의 3D 좌표를 제공하는 단계를 수행하고,
여기서, 생체역학 정보, 및 좌우 대퇴, 몸통, 및 좌우 정강이의 공간적 배향을 나타내는 정보가 사용자의 3D 좌표를 연속적으로 계산하는 프로세서에 연속적으로 제공됨으로써, 사용자의 변위를 모니터링할 수 있게 하는, 사용자의 변위를 모니터링하기 위한 지오로케이션 시스템을 제공한다.
본 개시는 또한 상기 개시된 바와 같은 3D 지오로케이션 시스템을 제공하며, 여기서:
사용자의 좌우 대퇴 및 몸통의 공간적 배향을 나타내는 정보를 제공하는 적어도 한 쌍의 공간 배향 센서는 는 사용자의 좌우 다리-무릎 또는 대퇴-둔부 구조부에 위치되도록 구성된 한 쌍의 관성 센서이며, 관성 센서는 사용자의 생체역학 정보를 제공하고;
사용자의 좌우 정강이의 공간적 배향을 나타내는 정보를 제공하는 적어도 한 쌍의 공간 배향 센서는 좌우 무릎 및 둔부에 위치되도록 구성된 한 쌍의 각도 위치 센서이다.
본 개시는 위에서 개시된 바와 같은 3D 지구 위치 시스템을 추가로 제공하며, 여기서 사용자의 생체역학 정보는 사용자의 좌우 발-발목 구조부에 위치되도록 구성된 관성 센서 각각에서의 가속도를 포함하고, 여기서 사용자의 3D 좌표를 계산하는 단계는:
글로벌 기준 시스템 회전 행렬을 적용함으로써 사용자의 발에 대한 사용자의 좌우 발-발목 구조부에 위치되도록 구성된 관성 센서 각각의 가속도를 회전시키는 하위 단계;
회전된 가속도를 이중으로 적분하여 사용자의 좌우 발-발목 구조부에 위치되도록 구성된 관성 센서 각각에 대한 위치를 획득하는 하위 단계;
사용자의 좌우 대퇴, 몸통, 및 좌우 정강이의 공간적 배향의 공간적 배향을 나타내는 정보를 사용하여 사용자의 자세를 생성하는 하위 단계;
센서 융합 알고리즘을 사용하여 각각의 관성 센서의 위치를 사용자의 자세와 병합하여 3D 좌표를 획득하는 하위 단계를 포함한다.
본 개시는 또한 전술한 바와 같은 3D 지오로케이션 시스템을 추가로 제공하며, 여기서 관성 센서 및 공간 배향 센서는 사용자가 착용하는 한 쌍의 지지대(orthotic) 디바이스 및 외골격(exoskeleton) 중 하나에 의해 제공된다.
본 개시는 또한 통신 링크를 통해 상기 프로세서와 통신하는 원격 모니터링 시스템으로서, 통신 링크는 유선 통신 링크, 무선 통신 링크, 또는 둘의 조합인, 원격 모니터링 시스템을 더 포함하는, 전술한 바와 같은 3D 지오로케이션 시스템을 제공한다.
본 개시는 사용자의 변위가 모니터링되는 구조물 주위에 위치될 적어도 3개의 무선 주파수 센서 비콘을 더 포함하는, 전술한 바와 같은 3D 지오로케이션 시스템을 추가로 제공하며, 여기서 메모리에 저장된 명령은 프로세서 상에서 실행될 때, 적어도 3개의 무선 주파수 센서 비콘으로부터 신호를 수신할 시에, 사용자의 위치를 삼각 측량하고 사용자의 위치를 재설정하는 추가 단계를 수행한다.
본 개시는 사용자의 변위가 모니터링되는 구조물의 벽의 위치를 제공하는 적어도 하나의 라이다(lidar)형 센서를 더 포함하는, 전술한 바와 같은 3D 지오로케이션 시스템을 또한 추가로 제공하며, 여기서 메모리에 저장된 명령은 프로세서 상에서 실행될 때, 드리프트 오차를 제한하기 위해, 벽의 위치가 사용자가 움직이지 않음을 나타내는 경우, 회전된 가속도를 이중으로 적분하는 하위 단계를 중단시키는 추가 단계를 수행한다. 라이다형 센서는 사용자가 착용하는 한 쌍의 지지대 디바이스 및 외골격 중 하나에 의해 제공될 수 있다.
본 개시의 실시예가 첨부 도면을 참조하여 단지 예로서 설명될 것이며, 여기서:
도 1은 GPS 신호가 없는 움직이는 신체의 3D 지오로케이션에 대한 3D 지오로케이션 시스템의 개략적 표현이다;
도 2는 도 1의 3D 지오로케이션 시스템의 대안적인 실시예의 개략적 표현이다;
도 3은 본 개시의 예시적인 실시예에 따른 3D 지오로케이션 계산 프로세스의 흐름도이다; 그리고
도 4는 도 1의 3D 지오로케이션 시스템의 다른 대안적인 실시예의 개략적 표현이다;
상이한 도면에서 사용된 유사한 참조 번호는 유사한 구성 요소를 지칭한다.
일반적으로 기술된, 본 개시의 비제한적인 실시예는 글로벌 포지셔닝 시스템(GPS) 신호가 없을 시에 움직이는 사람의 3D 좌표를 제공하는 3차원(three-dimensional, 3D) 지오로케이션 시스템을 제공한다. 3D 지오로케이션 시스템은 좌우 발-발목 구조부에 위치되도록 구성된 2개의 관성 센서, 및 사용자의 하지(정강이, 대퇴, 몸통)의 각각의 세그먼트의 공간적 배향을 측정하는 일련의 센서를 사용한다. 예시적인 실시예에서, 3D 지오로케이션 시스템은 예를 들어 발명의 명칭이 “LOAD DISTRIBUTION DEVICE FOR HUMAN JOINTS”인 미국 특허 제9,370,439호에서 기술된 바와 같이, 좌우 다리-무릎 또는 대퇴-둔부 구조부에 있는 2개의 추가적인 관성 센서, 뿐만 아니라 사용자가 착용하는 지지대 디바이스 및 외골격에 의해 제공될 수 있는, 좌우 무릎 및 대퇴의 각도 위치를 나타내는 정보를 제공하는 센서를 사용한다. 사용자의 3D 좌표의 이러한 결정은 무릎 및 둔부 각도와 결합되어 관성 센서로부터의 사용자에 관한 생체역학 정보를 사용하여 수행된다.
알려진 위치 및 배향(예를 들어, 마지막으로 알려진 GPS 위치 및 배향)부터 시작하여, 3D 지오로케이션 시스템은 관성 센서에 의해 계산된 배향을 사용하여 가속도를 글로벌 좌표계로 회전시킨다. 적절한 필터링 및 오차 정정과 함께 이중 적분은 각각의 관성 센서의 위치를 제공한다. 동시에, 각각의 세그먼트(정강이, 대퇴, 몸통)의 배향은 다른 관성 센서와 관련한 각각의 관성 센서의 상대적 위치를 결정할 수 있게 하며, 이는 각각의 단계에서 최대 오차를 최소화하는 것을 돕는다. 모든 관성 센서 데이터뿐만 아니라 세그먼트 배향(예를 들어, 무릎 및 둔부 각도)을 사용하는 데이터 융합 알고리즘은 사용자의 위치를 계산할 시에 정확도를 높일 수 있게 한다.
도 1을 참조하면, 3D 지오로케이션 시스템(10)은 저장된 명령을 포함하는 연관 메모리(14)를 갖는 프로세서를 포함하며, 명령은 프로세서(12) 상에서 실행될 때, 하기에서 더 설명될 프로세스인, 3D 지오로케이션 계산 프로세스(100)의 단계를 수행한다. 3D 지오로케이션 시스템(10)은 유선, 무선, 또는 둘의 조합일 수 있는 통신 링크(18)를 통해, 우측(20a) 및 좌측(20b) 발 - 발목 구조부에 위치된 관성 센서, 우측(30a) 및 좌측(30b) 대퇴 및 몸통 공간적 배향을 관찰하는 센서, 우측(40a) 및 좌측(40b) 정강이 공간적 배향을 관찰하는 센서, 및 원격 모니터링 시스템(50)과의 통신을 위한 입/출력(I/O) 인터페이스(16)를 더 포함한다.
도 2에 도시된 3D 지오로케이션 시스템(10)의 예시적인 실시예에서, 우측(30a) 및 좌측(30b) 대퇴 및 몸통 공간적 배향을 관찰하는 센서는 각각 우측(30'a) 및 좌측(30'b) 다리-무릎 구조부 또는 대퇴-둔부 구조부에 위치된 관성 센서의 형태를 취하고, 우측(40a) 및 좌측(40b) 정강이 공간적 배향을 관찰하는 센서는 각각 우측(40'a) 및 좌측(40'b) 무릎 및 둔부의 각도 위치 센서의 형태를 취한다.
각도 위치 센서40'a, 40'b)는 각도 위치를 나타내거나, 다양한 유형의 센서에 의해 제공되는 직접적인 측정 및 생체역학 정보로부터의 추론에 의해 무릎 및 둔부 각도가 결정될 수 있음에 따라 각도 위치가 생성될 수 있는 정보를 제공하는 임의의 센서의 형태를 취할 수 있음이 이해될 것이다.
3D 지오로케이션 시스템(10)은 무릎 및 둔부의 각도 위치 센서(40'a, 40'b)뿐만 아니라 관성 센서(20a, 20b, 30'a, 30'b) 각각으로부터 생체역학 정보, 예를 들어 배향, 측정된 회전, 및 측정된 가속도를 획득하여, 사용자의 3D 좌표를 계산한다. 임의로, 이 정보는 사용자의 변위를 모니터링할 수 있도록 통신 링크(18)를 통해 원격 모니터링 시스템(50)에 제공된다.
이제 도 3을 참조하면, 프로세서(12)(도 1 및 도 2 참조)에 의해 실행되는 3D 지오로케이션 계산 프로세스(100)의 예시적인 예의 흐름도가 도시되어 있다. 사용자의 각각의 단계로 실행되는 프로세스(100)의 단계는 블록(102 내지 110)에 의해 나타내어진다.
프로세스(100)는 관성 센서(20a, 20b, 30'a, 30'b) 각각으로부터의 생체역학 정보, 및 무릎 및 둔부 센서(40'a, 40'b)의 각도 위치가 프로세서(12)에 제공되는 블록(102)에서 시작한다(즉, 관성 센서(20a, 20b), 우측(30a) 및 좌측(30b) 대퇴 및 몸통 공간 배향을 관찰하는 센서, 및 우측(40a) 및 좌측(40b) 정강이 공간 배향을 관찰하는 센서).
그 다음, 블록(104)에서, 각각의 발 관성 센서(20a, 20b)에 대한 가속도는 글로벌 기준 시스템과 관련되도록 회전 행렬을 사용하여 회전된다. 예를 들어, 관성 센서(20a, 20b)가 글로벌 기준 시스템에 대해 각각 10, -20, 및 30도의 롤(roll), 피치(pitch) 및 요(yaw)를 갖는 것으로 가정하면, -10, 20, 및 30도의 롤, 피치, 및 요와 대등한 회전 행렬이 관성 센서(20a, 20b) 각각의 가속도 벡터에 적용되어, 가속도가 글로벌 기준 시스템에 관하여 표현되며, 글로벌 기준 시스템에서, 수직 가속도는 관성 센서(20a, 20b)의 상부/하부 말고 중력의 반대에 대응한다.
블록(106)에서, 가속도는 이중으로 적분되고(즉, 가속도는 시간 t=0에서의 속도에 관한 속도를 획득하기 위해 적분되고, 그 다음에 속도는 시간 t=0에서의 위치에 대한 위치를 획득하기 위해 적분됨), 오차가 정정되어 각각의 관성 센서(20a, 20b)에 대한 관성 위치를 제공한다.
블록(108)에서, 각각의 관성 센서(20a, 20b)의 위치는 센서 융합 알고리즘으로, 관성 센서(30'a, 30'b) 및 각도 위치 센서(40'a, 40'b)에 의해 제공되는 무릎 및 둔부 각도를 사용하여 생성된 사용자의 자세와 병합되어, 단일의 정정된 신체의 3D 좌표 세트를 제공한다.
마지막으로, 블록(110)에서, 사용자의 3D 좌표가 제공된다.
도 4를 참조하면, 사용자가 움직이는 건물 또는 다른 구조물 주위에 위치될 3개 이상의 무선 주파수(radio frequency, RF) 센서 비콘(60)을 더 포함하는 3D 지오로케이션 시스템(10)의 다른 대안적인 실시예가 도시되어 있다. 이러한 RF 센서 비콘(60)은 사용자의 위치를 삼각 측량하는 데 사용될 수 있어, 프로세서(12)가 적어도 3개의 RF 센서 비콘(60)으로부터 신호를 수신할 때마다, 3D 지오로케이션 계산 프로세스(100)는 사용자의 위치를 정확하게 삼각 측량하고 사용자의 위치를 재설정할 수 있다. 판독 사이에, 3D 지오로케이션 계산 프로세스(100)는 다양한 센서(20a, 20b, 30a, 30b, 30'a, 30'b, 40a, 40b, 40'a, 40'b)에 의해 제공되는 신호에 의존하여 사용자의 위치를 결정한다.
이러한 대안적인 실시예에서, 3D 지오로케이션 시스템(10)은 또한 사용자가 착용하는 지지대 디바이스 또는 외골격에 의해 제공되는 적어도 하나의 라이다형 센서(70)(또는 다른 맵핑 센서)를 포함할 수 있다. 적어도 하나의 라이다형 센서(70)는 벽의 위치를 판독하고, 3D 지오로케이션 계산 프로세스(100)가 드리프트 오차를 제한하는 것을 돕는다. 적어도 하나의 라이다형 센서(70)로부터의 신호가 사용자가 그 주변 환경에 대해 상대적으로 움직이지 않음을 나타낼 때, 3D 지오로케이션 계산 프로세스(100)는 현재 속도 오차를 제거하기 위해 블록(106)에서 가속도의 이중 적분을 중단한 것이다.
전술한 대안적인 실시예에서, 적어도 3개의 RF 센서 비콘(60) 및 적어도 하나의 라이다형 센서(70)는 개별적으로 또는 조합하여 사용될 수 있음이 이해될 것이다. 적어도 3개의 RF 센서 비콘(60) 및/또는 적어도 하나의 라이다형 센서(70)는 도 2에 도시된 3D 지오로케이션 시스템(10)의 대안적인 실시예와 함께 사용될 수 있음이 또한 이해될 것이다.
본 개시가 특정의 비제한적인 예시적인 실시예 및 그 예로서 기술되었지만, 이하에서 청구되는 본 개시의 범위를 벗어나지 않으면서 본 특정 실시예에 변형이 가해질 수 있음이 본 기술분야의 통상의 기술자에게 명백할 것임에 유의해야 한다.

Claims (9)

  1. 사용자의 변위를 모니터링하기 위한 3D 지오로케이션 시스템으로서,
    상기 사용자의 좌우 발-발목 구조부에 위치되도록 구성된 한 쌍의 관성 센서로서, 상기 사용자의 생체역학 정보를 제공하는, 한 쌍의 관성 센서;
    상기 사용자의 좌우 대퇴 및 몸통의 공간적 배향을 나타내는 정보를 제공하는 적어도 한 쌍의 공간 배향 센서;
    상기 사용자의 좌우 정강이의 공간적 배향을 나타내는 정보를 제공하는 적어도 한 쌍의 공간 배향 센서; 및
    통신 링크를 통해 상기 관성 센서 및 상기 공간 배향 센서와 통신하는 프로세서로서, 내부에 저장된 명령을 포함하는 연관 메모리를 가지는, 프로세서를 포함하고,
    상기 명령은 상기 프로세서 상에서 실행될 때
    상기 생체역학 정보 및 상기 사용자의 좌우 대퇴, 몸통, 및 좌우 정강이의 공간적 배향을 나타내는 정보를 수신하는 단계;
    상기 생체역학 정보 및 상기 좌우 대퇴, 몸통, 및 좌우 정강이의 공간적 배향을 나타내는 정보를 사용하여 상기 사용자의 3D 좌표를 계산하는 단계; 및
    계산된 사용자의 3D 좌표를 제공하는 단계를 수행하고,
    상기 생체역학 정보, 및 상기 좌우 대퇴, 몸통, 및 좌우 정강이의 공간적 배향을 나타내는 정보가 상기 사용자의 3D 좌표를 연속적으로 계산하는 상기 프로세서에 연속적으로 제공됨으로써, 상기 사용자의 변위를 모니터링할 수 있게 하는, 사용자의 변위를 모니터링하기 위한 3D 지오로케이션 시스템.
  2. 제1항에 있어서,
    상기 사용자의 좌우 대퇴 및 몸통의 공간적 배향을 나타내는 정보를 제공하는 적어도 한 쌍의 공간 배향 센서는 상기 사용자의 좌우 다리-무릎 구조부 또는 대퇴-둔부 구조부에 위치되도록 구성된 한 쌍의 관성 센서이며, 상기 관성 센서는 사용자의 생체역학 정보를 제공하고;
    상기 사용자의 좌우 정강이의 공간적 배향을 나타내는 정보를 제공하는 적어도 한 쌍의 공간 배향 센서는 좌우 무릎 및 둔부에 위치되도록 구성된 한 쌍의 각도 위치 센서인, 사용자의 변위를 모니터링하기 위한 3D 지오로케이션 시스템.
  3. 제1항 또는 제2항에 있어서,
    상기 사용자의 생체역학 정보는 상기 사용자의 좌우 발-발목 구조부에 위치되도록 구성된 관성 센서 각각에서의 가속도를 포함하고,
    상기 사용자의 3D 좌표를 계산하는 단계는
    글로벌 기준 시스템 회전 행렬을 적용함으로써 상기 사용자의 발에 대한 사용자의 좌우 발-발목 구조부에 위치되도록 구성된 관성 센서 각각의 가속도를 회전시키는 하위 단계;
    회전된 가속도를 이중으로 적분하여 상기 사용자의 좌우 발-발목 구조부에 위치되도록 구성된 관성 센서 각각에 대한 위치를 획득하는 하위 단계;
    상기 사용자의 좌우 대퇴, 몸통, 및 좌우 정강이의 공간적 배향의 공간적 배향을 나타내는 정보를 사용하여 상기 사용자의 자세를 생성하는 하위 단계; 및
    센서 융합 알고리즘을 사용하여 각각의 관성 센서의 위치를 상기 사용자의 자세와 병합하여 상기 3D 좌표를 획득하는 하위 단계를 포함하는, 사용자의 변위를 모니터링하기 위한 3D 지오로케이션 시스템.
  4. 제1항 내지 제3항 중 어느 한 항에 있어서,
    상기 관성 센서 및 상기 공간 배향 센서는 상기 사용자가 착용하는 한 쌍의 지지대 디바이스 및 외골격 중 하나에 의해 제공되는, 사용자의 변위를 모니터링하기 위한 3D 지오로케이션 시스템.
  5. 제1항 내지 제4항 중 어느 한 항에 있어서,
    통신 링크를 통해 상기 프로세서와 통신하는 원격 모니터링 시스템을 더 포함하는, 사용자의 변위를 모니터링하기 위한 3D 지오로케이션 시스템.
  6. 제5항에 있어서,
    상기 통신 링크는 유선 통신 링크, 무선 통신 링크, 및 유선 통신 링크와 무선 통신 링크의 조합으로 구성되는 그룹으로부터 선택되는, 사용자의 변위를 모니터링하기 위한 3D 지오로케이션 시스템.
  7. 제1항 내지 제6항 중 어느 한 항에 있어서,
    상기 사용자의 변위가 모니터링되는 구조물 주위에 위치될 적어도 3개의 무선 주파수 센서 비콘을 더 포함하고,
    상기 메모리에 저장된 명령은 상기 프로세서 상에서 실행될 때, 상기 적어도 3개의 무선 주파수 센서 비콘으로부터 신호를 수신시 상기 사용자의 위치를 삼각 측량하고 상기 사용자의 위치를 재설정하는 추가 단계를 수행하는, 사용자의 변위를 모니터링하기 위한 3D 지오로케이션 시스템.
  8. 제3항 내지 제7항 중 어느 한 항에 있어서,
    상기 사용자의 변위가 모니터링되는 구조물의 벽의 위치를 제공하는 적어도 하나의 라이다형 센서를 더 포함하고,
    상기 메모리에 저장된 명령은 상기 프로세서 상에서 실행될 때, 드리프트 오차를 제한하기 위해, 상기 벽의 위치가 상기 사용자가 움직이지 않음을 나타내는 경우, 상기 회전된 가속도를 이중으로 적분하는 하위 단계를 중단시키는 추가 단계를 수행하는, 사용자의 변위를 모니터링하기 위한 3D 지오로케이션 시스템.
  9. 제8항에 있어서,
    상기 라이다형 센서는 상기 사용자가 착용하는 한 쌍의 지지대 디바이스 및 외골격 중 하나에 의해 제공되는, 사용자의 변위를 모니터링하기 위한 3D 지오로케이션 시스템.
KR1020187024254A 2016-01-25 2017-01-25 3d 지오로케이션 시스템 KR20190008180A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201662286896P 2016-01-25 2016-01-25
US62/286,896 2016-01-25
PCT/CA2017/000015 WO2017127914A1 (en) 2016-01-25 2017-01-25 3d geolocation system

Publications (1)

Publication Number Publication Date
KR20190008180A true KR20190008180A (ko) 2019-01-23

Family

ID=59396966

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020187024254A KR20190008180A (ko) 2016-01-25 2017-01-25 3d 지오로케이션 시스템

Country Status (9)

Country Link
US (1) US20190041220A1 (ko)
EP (1) EP3408616A4 (ko)
JP (2) JP7075889B2 (ko)
KR (1) KR20190008180A (ko)
CN (1) CN108603767B (ko)
AU (2) AU2017212156A1 (ko)
CA (1) CA3012530A1 (ko)
IL (1) IL260648B1 (ko)
WO (1) WO2017127914A1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3408616A4 (en) * 2016-01-25 2019-03-06 B-Temia Inc. 3D GEOLOCATION SYSTEM

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6522266B1 (en) * 2000-05-17 2003-02-18 Honeywell, Inc. Navigation system, method and software for foot travel
JP2004062874A (ja) 2002-06-07 2004-02-26 Mitsubishi Electric Corp 通信装置、準天頂衛星、保険料割引サービスシステム及び、課金システム
US7747409B2 (en) * 2004-03-12 2010-06-29 Vectronix Ag Pedestrian navigation apparatus and method
US8626472B2 (en) * 2006-07-21 2014-01-07 James C. Solinsky System and method for measuring balance and track motion in mammals
US8435177B2 (en) 2007-08-08 2013-05-07 Koninklijke Philips Electronics N.V. Process and system for monitoring exercise motions of a person
US7986271B2 (en) * 2009-06-18 2011-07-26 Bae Systems Information And Electronic Systems Integration Inc. Tracking of emergency personnel
WO2011097018A1 (en) 2010-02-05 2011-08-11 Trimble Navigation Limited Systems and methods for processing mapping and modeling data
WO2012014008A1 (en) * 2010-07-30 2012-02-02 Abb Research Ltd A method and a system for localization in industrial wireless sensor network
CN102175244A (zh) * 2011-03-16 2011-09-07 公安部沈阳消防研究所 基于惯性传感器的建筑物内人员定位系统及定位方法
US8504292B1 (en) * 2011-05-05 2013-08-06 Bentley Systems, Incorporated Indoor localization based on ultrasound sensors
US9119569B2 (en) * 2011-11-08 2015-09-01 Nanyang Technological University Method and apparatus for calibrating a motion tracking system
US9582072B2 (en) * 2013-09-17 2017-02-28 Medibotics Llc Motion recognition clothing [TM] with flexible electromagnetic, light, or sonic energy pathways
US20140343460A1 (en) * 2013-05-15 2014-11-20 Ut-Battelle, Llc Mobile gait force and motion analysis system
CN103750841B (zh) * 2014-01-20 2015-06-24 上海交通大学 基于mems惯性传感器的人体膝关节角度无线检测系统及方法
US9918202B2 (en) 2014-05-12 2018-03-13 Microsoft Technology Licensing, Llc Adaptive position determination
FR3022624B1 (fr) * 2014-06-18 2016-07-29 Commissariat Energie Atomique Procede de localisation d'un appareil qui est deplace a l'interieur d'un espace tridimentionnel
CN105093169A (zh) * 2015-08-25 2015-11-25 中国人民解放军总参谋部工程兵第四设计研究院 一种无线定位装置
EP3408616A4 (en) * 2016-01-25 2019-03-06 B-Temia Inc. 3D GEOLOCATION SYSTEM

Also Published As

Publication number Publication date
IL260648B1 (en) 2024-04-01
IL260648A (ko) 2018-09-20
US20190041220A1 (en) 2019-02-07
EP3408616A4 (en) 2019-03-06
WO2017127914A1 (en) 2017-08-03
JP2019509470A (ja) 2019-04-04
CA3012530A1 (en) 2017-08-03
JP2022058484A (ja) 2022-04-12
JP7332728B2 (ja) 2023-08-23
CN108603767B (zh) 2022-11-25
JP7075889B2 (ja) 2022-05-26
AU2017212156A1 (en) 2018-09-06
CN108603767A (zh) 2018-09-28
EP3408616A1 (en) 2018-12-05
AU2022206833A1 (en) 2022-09-08

Similar Documents

Publication Publication Date Title
US10679360B2 (en) Mixed motion capture system and method
TW479145B (en) Terrain navigation apparatus for a legged animal traversing terrain
US8825435B2 (en) Intertial tracking system with provision for position correction
Bebek et al. Personal navigation via high-resolution gait-corrected inertial measurement units
US7981057B2 (en) Joint motion sensing to make a determination of a positional change of an individual
Cavallo et al. A step toward GPS/INS personal navigation systems: real-time assessment of gait by foot inertial sensing
US20080249740A1 (en) Device to Determine the Road Followed By a Person on Foot
US20100042322A1 (en) Modular navigation system and methods
Torres-Solis et al. Wearable indoor pedestrian dead reckoning system
KR102134506B1 (ko) 실내외 연속 위치측정 시스템
JP7332728B2 (ja) 3dジオロケーションシステム
Ruotsalainen et al. Mitigation of attitude and gyro errors through vision aiding
KR101301462B1 (ko) 저가형 관성 센서를 이용한 보행자 관성 항법 장치 및 그 항법
Anacleto et al. Localization system for pedestrians based on sensor and information fusion
Alvarez et al. Pedestrian dead reckoning with waist-worn inertial sensors
Rantakokko et al. Foot-and knee-mounted INS for firefighter localization
US8954271B2 (en) Method and system for determining relative displacement and heading for navigation
CN108209931A (zh) 关节夹角的测量系统及方法
Madrigal et al. Hip and lower limbs 3D motion tracking using a double-stage data fusion algorithm for IMU/MARG-based wearables sensors
Anacleto et al. Person localization using sensor information fusion
Lee et al. Use of multiple wearable inertial sensors in human localization
Jia et al. Positioning Algorithm Adaptation of an Indoor Navigation System for Virtual Reality Game Applications
CN109212566A (zh) 一种消防定位装置的定位方法
Croci et al. A GNSS/INS-based architecture for rescue team monitoring
Jakel Using an empirical model of human turning motion to aid heading estimation in a personal navigation system