KR102226846B1 - System for Positioning Hybrid Indoor Localization Using Inertia Measurement Unit Sensor and Camera - Google Patents

System for Positioning Hybrid Indoor Localization Using Inertia Measurement Unit Sensor and Camera Download PDF

Info

Publication number
KR102226846B1
KR102226846B1 KR1020190108082A KR20190108082A KR102226846B1 KR 102226846 B1 KR102226846 B1 KR 102226846B1 KR 1020190108082 A KR1020190108082 A KR 1020190108082A KR 20190108082 A KR20190108082 A KR 20190108082A KR 102226846 B1 KR102226846 B1 KR 102226846B1
Authority
KR
South Korea
Prior art keywords
equation
indoor positioning
angle
pedestrian
unit
Prior art date
Application number
KR1020190108082A
Other languages
Korean (ko)
Other versions
KR20210026795A (en
Inventor
한동석
알윈폴로즈
Original Assignee
경북대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 경북대학교 산학협력단 filed Critical 경북대학교 산학협력단
Priority to KR1020190108082A priority Critical patent/KR102226846B1/en
Publication of KR20210026795A publication Critical patent/KR20210026795A/en
Application granted granted Critical
Publication of KR102226846B1 publication Critical patent/KR102226846B1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • G01C21/1656Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with passive imaging devices, e.g. cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C19/00Gyroscopes; Turn-sensitive devices using vibrating masses; Turn-sensitive devices without moving masses; Measuring angular rate using gyroscopic effects
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • G01C21/206Instruments for performing navigational calculations specially adapted for indoor navigation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01PMEASURING LINEAR OR ANGULAR SPEED, ACCELERATION, DECELERATION, OR SHOCK; INDICATING PRESENCE, ABSENCE, OR DIRECTION, OF MOVEMENT
    • G01P15/00Measuring acceleration; Measuring deceleration; Measuring shock, i.e. sudden change of acceleration
    • G01P15/003Kinematic accelerometers, i.e. measuring acceleration in relation to an external reference frame, e.g. Ferratis accelerometers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01PMEASURING LINEAR OR ANGULAR SPEED, ACCELERATION, DECELERATION, OR SHOCK; INDICATING PRESENCE, ABSENCE, OR DIRECTION, OF MOVEMENT
    • G01P15/00Measuring acceleration; Measuring deceleration; Measuring shock, i.e. sudden change of acceleration
    • G01P15/14Measuring acceleration; Measuring deceleration; Measuring shock, i.e. sudden change of acceleration by making use of gyroscopes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Automation & Control Theory (AREA)
  • Mathematical Physics (AREA)
  • Theoretical Computer Science (AREA)
  • Algebra (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Navigation (AREA)

Abstract

IMU 센서와 카메라를 이용한 하이브리드 실내 측위 시스템은 IMU 센서와 카메라로부터 얻은 위치 결과를 결합하여 IMU 센서 기반의 측위에서 발생하는 IMU 센서 오차를 카메라 측위 결과인 카메라 포즈에 의해 감소시키고, 카메라 기반의 측위에서 발생하는 방위각 오차를 IMU 측위 결과로 줄임으로써 실내 위치 측위에서 위치 오차를 최소화하는 효과가 있다.The hybrid indoor positioning system using the IMU sensor and camera combines the position results obtained from the IMU sensor and the camera to reduce the IMU sensor error that occurs in the IMU sensor-based positioning by the camera pose, which is the camera-based positioning. By reducing the azimuth error that occurs as a result of the IMU positioning, there is an effect of minimizing the position error in indoor positioning.

Figure R1020190108082
Figure R1020190108082

Description

IMU 센서와 카메라를 이용한 하이브리드 실내 측위 시스템{System for Positioning Hybrid Indoor Localization Using Inertia Measurement Unit Sensor and Camera}System for Positioning Hybrid Indoor Localization Using Inertia Measurement Unit Sensor and Camera}

본 발명은 실내 측위 시스템에 관한 것으로서, 특히 IMU 센서와 카메라로부터 얻은 위치 결과를 결합하여 IMU 센서 기반의 측위에서 발생하는 IMU 센서 오차를 카메라 측위 결과인 카메라 포즈에 의해 감소시키고, 카메라 기반의 측위에서 발생하는 방위각 오차를 IMU 측위 결과로 줄일 수 있는 IMU 센서와 카메라를 이용한 하이브리드 실내 측위 시스템에 관한 것이다.The present invention relates to an indoor positioning system, and in particular, by combining an IMU sensor and a position result obtained from a camera, an IMU sensor error occurring in an IMU sensor-based positioning is reduced by a camera pose, which is a camera positioning result, and in the camera-based positioning. The present invention relates to a hybrid indoor positioning system using an IMU sensor and a camera that can reduce the azimuth error that occurs as a result of IMU positioning.

개인항법시스템(Personal Navigation System, PNS)은 사람의 위치 파악을 위한 모든 시스템을 말한다. 개인항법시스템의 대표적인 방법 중 하나로 GPS가 주로 사용되고 있지만 실내 환경이나 터널 같은 신호 음영지역에서 GPS를 단독으로 사용하는 것이 불가능하게 된다.Personal Navigation System (PNS) refers to all systems for finding a person's location. GPS is mainly used as one of the representative methods of the personal navigation system, but it becomes impossible to use GPS alone in an indoor environment or in a signal shaded area such as a tunnel.

이러한 문제점을 해결하기 위한 방법 중 하나인 PDR(Pedestrian Dead-Reckoning) 시스템은 보행자의 걸음에 의해 위치를 변화시킨다는 가정 아래에서 개발된 추측항법시스템이다.One of the methods to solve this problem, the PDR (Pedestrian Dead-Reckoning) system, is a speculative navigation system developed under the assumption that the position is changed by the walking of a pedestrian.

PDR 시스템은 보행자가 보행할 때 발생되는 걸음 정보를 이용하여 처음 위치로부터 얼마나 이동하였는지를 알 수 있다. 이때, 보폭, 방향, 자세, 높이와 같은 걸음 정보를 관성측정장치(Inertia Measurement Unit, IMU)를 이용하여 얻는다.The PDR system can know how far the pedestrian has moved from the initial position by using the step information generated when walking. At this time, step information such as stride length, direction, posture, and height is obtained using an inertia measurement unit (IMU).

그러나 IMU 기반 위치 측정 시스템은 어느 정도 수준의 위치 정확도를 제공하나, 외부 전자기 잡음 또는 센서 드리프트에 의해 발생되는 센서 에러의 크기에 따라 정확도가 달라지고, 가속도계의 축적된 오류, 자이로스코프의 드리프트 오류, 자력계에 영향을 미치는 외부 자기장에 의해 위치 오차가 커지는 문제점이 있다. However, the IMU-based position measurement system provides a certain level of position accuracy, but the accuracy varies depending on the magnitude of sensor error caused by external electromagnetic noise or sensor drift, accelerometer accumulated error, gyroscope drift error, There is a problem in that the position error increases due to an external magnetic field that affects the magnetometer.

한국 등록특허번호 제10-1160132호Korean Patent Registration No. 10-1160132

이와 같은 문제점을 해결하기 위하여, 본 발명은 IMU 센서와 카메라로부터 얻은 위치 결과를 결합하여 IMU 센서 기반의 측위에서 발생하는 IMU 센서 오차를 카메라 측위 결과인 카메라 포즈에 의해 감소시키고, 카메라 기반의 측위에서 발생하는 방위각 오차를 IMU 측위 결과로 줄일 수 있는 IMU 센서와 카메라를 이용한 하이브리드 실내 측위 시스템을 제공하는 것을 목적으로 한다.In order to solve such a problem, the present invention reduces the IMU sensor error occurring in the IMU sensor-based positioning by combining the position result obtained from the IMU sensor and the camera by the camera pose, which is the camera positioning result, and An object of the present invention is to provide a hybrid indoor positioning system using an IMU sensor and a camera that can reduce the azimuth error that occurs as a result of IMU positioning.

상기 목적을 달성하기 위한 본 발명의 특징에 따른 하이브리드 실내 측위 시스템은,Hybrid indoor positioning system according to a feature of the present invention for achieving the above object,

3축 가속도계와 3축 자력계 및 3축 자이로스코프를 포함하는 IMU(Inertia Measurement Unit) 센서들로부터 수신한 센서 신호를 이용하여 보행자의 스텝과 방향각 정보를 계산하며, 상기 스텝과 방향각 정보를 이용하여 제1 위치를 계산하는 제1 실내 측위 장치;By using sensor signals received from IMU (Inertia Measurement Unit) sensors including a 3-axis accelerometer, a 3-axis magnetometer, and a 3-axis gyroscope, the step and direction angle information of the pedestrian is calculated, and the step and direction angle information are used. A first indoor positioning device for calculating a first position;

카메라에 의해 촬영된 복수의 영상 프레임에서 복수의 특징점을 검출하여 미리 저장된 키프레임의 매칭을 수행하고, 매칭 결과를 이용하여 상기 카메라의 자세 변화 정보를 추정하며, 상기 자세 변화 정보를 기초로 제2 위치를 측위하는 제2 실내 측위 장치; 및Detects a plurality of feature points in a plurality of image frames photographed by a camera, performs matching of a pre-stored key frame, estimates posture change information of the camera using the matching result, and calculates a second posture change information based on the posture change information. A second indoor positioning device for positioning a position; And

상기 제1 실내 측위 장치로부터 계산된 제1 위치와, 상기 제2 실내 측위 장치로부터 계산된 제2 위치를 선형 칼만 필터를 이용하여 결합하여 보행자의 최종 위치를 계산하는 센서 융합부를 포함하는 것을 특징으로 한다.And a sensor fusion unit for calculating a final position of a pedestrian by combining the first position calculated from the first indoor positioning device and the second position calculated from the second indoor positioning device using a linear Kalman filter. do.

상기 제1 실내 측위 장치는 상기 3축 가속도계와 상기 3축 자이로스코프의 각 센서 신호를 이용하여 가속도와 각속도의 크기 변화를 분석하여 보행자의 스텝을 검출하고, 상기 검출한 스텝을 이용하여 상기 보행자의 스텝 길이를 추정하며, 상기 3축 자력계와 상기 3축 자이로스코프의 센서 신호를 융합하여 방향각 정보를 계산하며, 상기 계산된 방향각 정보와 상기 스텝 길이를 기초로 상기 보행자의 제1 위치를 계산하는 것을 특징으로 한다.The first indoor positioning device detects a pedestrian's step by analyzing a change in magnitude of acceleration and angular velocity using each sensor signal of the 3-axis accelerometer and the 3-axis gyroscope, and uses the detected step to detect the pedestrian's step. The step length is estimated, direction angle information is calculated by fusing the sensor signals of the 3-axis magnetometer and the 3-axis gyroscope, and the first position of the pedestrian is calculated based on the calculated direction angle information and the step length. Characterized in that.

상기 제2 실내 측위 장치는 상기 카메라로부터 촬영된 복수의 영상 프레임을 입력받아 프레임 단위로 복수의 특징점을 검출하고, 상기 검출된 복수의 특징점과 키프레임을 매칭하고, 상기 매칭된 각각의 특징점을 상기 키프레임에 누적하여 상기 키프레임을 갱신하고,상기 키프레임과 상기 갱신한 키프레임 간의 특징점 추적을 통해 상기 카메라의 자세 변화 정보를 계산하며, 상기 자세 변화 정보를 기초로 상기 제2 위치를 측위하는 것을 특징으로 한다.The second indoor positioning device receives a plurality of image frames photographed from the camera, detects a plurality of feature points in a frame unit, matches the detected feature points with a key frame, and determines each of the matched feature points. Accumulating in a key frame to update the key frame, calculating posture change information of the camera through feature point tracking between the key frame and the updated key frame, and positioning the second position based on the posture change information It is characterized by that.

상기 센서 융합부는 상기 제1 위치와 상기 제2 위치를 상기 선형 칼만 필터에 의해 결합하여 위치 보정을 수행한 후, 상기 보행자의 현재 위치를 지도에 정합시켜 상기 지도 상에 보행자의 위치를 계산하는 것을 특징으로 하는The sensor fusion unit performs position correction by combining the first position and the second position by the linear Kalman filter, and then calculates the position of the pedestrian on the map by matching the current position of the pedestrian to the map. Characterized

전술한 구성에 의하여, 본 발명은 IMU 센서와 카메라로부터 얻은 위치 결과를 결합하여 IMU 센서 기반의 측위에서 발생하는 IMU 센서 오차를 카메라 측위 결과인 카메라 포즈에 의해 감소시키고, 카메라 기반의 측위에서 발생하는 방위각 오차를 IMU 측위 결과로 줄임으로써 실내 위치 측위에서 위치 오차를 최소화하는 효과가 있다.According to the above-described configuration, the present invention combines the position results obtained from the IMU sensor and the camera to reduce the IMU sensor error occurring in the IMU sensor-based positioning by the camera pose, which is the camera positioning result, and is generated in the camera-based positioning. By reducing the azimuth error as a result of the IMU positioning, there is an effect of minimizing the position error in indoor positioning.

도 1은 본 발명의 실시예에 따른 IMU(Inertia Measurement Unit) 센서와 카메라를 이용한 하이브리드 실내 측위 시스템의 구성을 나타낸 블록도이다.
도 2는 IMU 기반 측위 결과를 나타낸 도면이다.
도 3은 카메라 기반 측위 결과를 나타낸 도면이다.
도 4는 본 발명의 하이브리드 실내 측위 시스템의 측위에서 얻은 실험 결과를 나타낸 도면이다.
도 5는 IMU 기반의 측위 접근 방식의 RMSE를 나타낸 도면이다.
도 6은 카메라 기반의 측위 접근 방식의 RMSE를 나타낸 도면이다.
도 7은 본 발명의 하이브리드 실내 측위 시스템의 측위 접근 방식의 RMSE를 나타낸 도면이다.
도 8은 IMU 기반의 측위와, 카메라 기반의 측위 및 본 발명의 하이브리드 측위의 CDF를 나타낸 도면이다.
1 is a block diagram showing the configuration of a hybrid indoor positioning system using an IMU (Inertia Measurement Unit) sensor and a camera according to an embodiment of the present invention.
2 is a diagram showing a result of IMU-based positioning.
3 is a diagram showing a camera-based positioning result.
4 is a view showing the experimental results obtained in the positioning of the hybrid indoor positioning system of the present invention.
5 is a diagram showing an RMSE of an IMU-based positioning approach.
6 is a diagram illustrating an RMSE of a camera-based positioning approach.
7 is a diagram showing the RMSE of the positioning approach of the hybrid indoor positioning system of the present invention.
8 is a diagram showing IMU-based positioning, camera-based positioning, and a CDF of hybrid positioning of the present invention.

이하 도면을 참조하여 본 발명의 바람직한 실시예를 설명함으로써 본 발명을 상술한다.Hereinafter, the present invention will be described in detail by describing a preferred embodiment of the present invention with reference to the drawings.

본 발명의 명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.Throughout the specification of the present invention, when a certain part "includes" a certain component, it means that other components may be further included rather than excluding other components unless otherwise stated.

도 1은 본 발명의 실시예에 따른 IMU(Inertia Measurement Unit) 센서와 카메라를 이용한 하이브리드 실내 측위 시스템의 구성을 나타낸 블록도이다.1 is a block diagram showing the configuration of a hybrid indoor positioning system using an IMU (Inertia Measurement Unit) sensor and a camera according to an embodiment of the present invention.

본 발명의 실시예에 따른 하이브리드 실내 측위 시스템(100)은 크게 IMU 센서를 이용한 제1 실내 측위 장치(110)와 카메라를 이용한 제2 실내 측위 장치(120) 및 센서 융합부(130)를 포함한다.The hybrid indoor positioning system 100 according to an embodiment of the present invention largely includes a first indoor positioning device 110 using an IMU sensor, a second indoor positioning device 120 using a camera, and a sensor fusion unit 130. .

본 발명의 제1 실내 측위 장치(110)는 이동체의 움직임에 따른 관성 데이터를 측정하는 기능을 수행한다.The first indoor positioning device 110 of the present invention performs a function of measuring inertia data according to the movement of a moving object.

제1 실내 측위 장치(110)는 IMU 센서들(111), 자세 결정부(112), 스텝 검출부(113), 스텝 길이 추정부(114), 자력계 방위각 계산부(115), 자이로스코프 방위각 계산부(116), 방향 필터부(117) 및 현재 위치 계산부(118)를 포함한다.The first indoor positioning device 110 includes IMU sensors 111, a posture determination unit 112, a step detection unit 113, a step length estimation unit 114, a magnetometer azimuth calculation unit 115, a gyroscope azimuth calculation unit 116, a direction filter unit 117, and a current position calculation unit 118.

IMU 센서들(111)은 가속도계(Acceleration Sensor)(111a), 자력계(Magnetometer)(111b), 자이로스코프(Gyroscope)(111c)를 포함한다.The IMU sensors 111 include an accelerometer 111a, a magnetometer 111b, and a gyroscope 111c.

가속도계(111a)는 임의의 센서, 회로 및/또는 모바일 컴퓨팅 장치의 다른 모션 및/또는 가속도를 3차원 축 각각을 따라 측정한다.The accelerometer 111a measures any sensor, circuit, and/or other motion and/or acceleration of the mobile computing device along each of the three-dimensional axes.

가속도계(111a)는 보행자의 3축 가속도 데이터를 측정한다.The accelerometer 111a measures three-axis acceleration data of a pedestrian.

자력계(111b)는 임의의 센서, 회로 및/또는 미리 정의된 좌표계에 대해 각도 방향을 측정하도록 구성된다.The magnetometer 111b is configured to measure the angular direction for any sensor, circuit and/or predefined coordinate system.

자이로스코프(111c)는 보행자의 3축 롤(roll), 3축 피치(pitch) 및/또는 3축 요(yaw)를 측정할 수 있다.The gyroscope 111c may measure a 3-axis roll, a 3-axis pitch, and/or a 3-axis yaw of a pedestrian.

자이로스코프(111c)는 보행자의 3축 각속도 데이터를 측정한다.The gyroscope 111c measures the three-axis angular velocity data of the pedestrian.

자세 결정부(112)는 가속도계(111a)로부터 3축 가속도 데이터를 수신하고, 수신한 3축 가속도 데이터의 피치 각과 롤 각을 하기의 수학식 1에 의해 계산한다.The posture determination unit 112 receives the 3-axis acceleration data from the accelerometer 111a, and calculates the pitch angle and the roll angle of the received 3-axis acceleration data by Equation 1 below.

자세 결정부(112)는 자이로스코프(111c)로부터 3축 각속도 데이터를 수신하고, 수신한 3축 각속도 데이터의 피치 각과 롤 각을 하기의 수학식 1에 의해 계산한다.The posture determination unit 112 receives the 3-axis angular velocity data from the gyroscope 111c, and calculates the pitch angle and the roll angle of the received 3-axis angular velocity data by Equation 1 below.

자세 결정부(112)는 3축 가속도 데이터의 피치 각 및 롤 각과 3축 각속도 데이터의 피치 각 및 롤 각을 칼만 필터를 이용하여 결합하여 융합 피치 각과 융합 롤 각을 계산한다.The posture determination unit 112 calculates the fusion pitch angle and the fusion roll angle by combining the pitch angle and roll angle of the three-axis acceleration data and the pitch angle and the roll angle of the three-axis angular velocity data using a Kalman filter.

자세 결정부(112)는 가속도 데이터의 피치 각과 롤 각과 각속도 데이터의 피치 각과 롤 각을 결합하면, 가속도계(111a)의 누적 에러와 자이로스코프(111c)의 드리프트 오차를 제거할 수 있다. 이러한 이유로 가속도계(111a)는 오차 범위를 제한적으로 유지할 수 있다.The posture determination unit 112 may remove a cumulative error of the accelerometer 111a and a drift error of the gyroscope 111c by combining the pitch angle and roll angle of acceleration data, and the pitch angle and roll angle of angular velocity data. For this reason, the accelerometer 111a can maintain a limited error range.

칼만 필터는 가속도계(111a)와 자이로스코프(111c)의 피치 각 및 롤 각을 결합하는데 사용된다.The Kalman filter is used to combine the pitch angle and roll angle of the accelerometer 111a and the gyroscope 111c.

Figure 112019090064744-pat00001
Figure 112019090064744-pat00001

여기서,

Figure 112019090064744-pat00002
는 Pitch의 각,
Figure 112019090064744-pat00003
는 Roll의 각,
Figure 112019090064744-pat00004
는 IMU 센서의 3축 가속도 데이터, g는 중력 가속도를 나타낸다.here,
Figure 112019090064744-pat00002
Is the angle of the pitch,
Figure 112019090064744-pat00003
Is the angle of the roll,
Figure 112019090064744-pat00004
Is the 3-axis acceleration data of the IMU sensor, and g is the gravitational acceleration.

가속도계(111a)로부터 피치 및 롤의 각도의 계산에 사용되는 표현은 가속도 또는 각속도가 충분히 작은 상황에서만 유효하다.The expression used for calculating the pitch and roll angles from the accelerometer 111a is valid only in situations where the acceleration or angular velocity is sufficiently small.

자이로스코프(111c)의 피치와 롤의 각도를 고려할 때, 에러는 수치 통합 과정에 따라 누적된다. 이러한 가속도계(111a)와 자이로스코프(111c)의 에러를 제거하기 위해서 제1 실내 측위 장치(110)와 제2 실내 측위 장치(120)를 혼합한 센서 융합 알고리즘을 제안한다.When considering the pitch of the gyroscope 111c and the angle of the roll, errors are accumulated according to the numerical integration process. In order to remove the error of the accelerometer 111a and the gyroscope 111c, a sensor fusion algorithm in which the first indoor positioning device 110 and the second indoor positioning device 120 are mixed is proposed.

스텝 검출부(113)는 자세 결정부(112)로부터 가속도 데이터의 피치 각과 각속도 데이터의 피치 각을 결합한 융합 피치 각을 분석하여 스텝(걸음)을 검출한다. 즉, 스텝 검출부(113)는 가속도와 각속도의 크기 변화를 분석하여 스텝을 검출한다.The step detection unit 113 detects a step (step) by analyzing the fusion pitch angle obtained by combining the pitch angle of acceleration data and the pitch angle of angular velocity data from the posture determination unit 112. That is, the step detection unit 113 detects a step by analyzing a change in magnitude of acceleration and angular velocity.

스텝 길이 추정부(114)는 스텝 검출부(113)로부터 가속도 데이터의 피치 각과 각속도 데이터의 피치 각을 결합한 융합 피치 각을 수신하고, 수신한 융합 피치 각을 이용하여 하기의 수학식 2의 선형 회귀 모델을 기초로 스텝 길이(SL)를 추정한다. The step length estimating unit 114 receives the fusion pitch angle obtained by combining the pitch angle of acceleration data and the pitch angle of angular velocity data from the step detection unit 113, and uses the received fusion pitch angle as a linear regression model of Equation 2 below. The step length SL is estimated based on.

Figure 112019090064744-pat00005
Figure 112019090064744-pat00005

여기서,

Figure 112019090064744-pat00006
는 degree 단위의 피치 진폭이고, 상수 a와 b는 각 회귀선에 맞는 매개 변수이다.here,
Figure 112019090064744-pat00006
Is the pitch amplitude in degrees, and the constants a and b are parameters for each regression line.

IMU 센서의 위치 추정에 사용되는 매개 변수는 방위각 추정이다. 방위각 추정은 보행자의 이동 방향을 결정하는 과정이다. 자력계(111b)와 자이로스코프(111c)는 방위각 추정에 사용된다.The parameter used to estimate the position of the IMU sensor is the azimuth angle estimation. The azimuth estimation is the process of determining the pedestrian's moving direction. The magnetometer 111b and the gyroscope 111c are used for azimuth estimation.

자력계(111b)를 사용하면 장시간의 실험을 통해 높은 위치 정확도를 얻을 수 있다. 그러나 자력계(111b)의 방위각은 외부 자기장의 영향을 쉽게 받기 때문에 신뢰성이 떨어지는 단점이 있다.If the magnetometer 111b is used, high positioning accuracy can be obtained through a long experiment. However, since the azimuth angle of the magnetometer 111b is easily affected by an external magnetic field, reliability is poor.

자이로스코프(111c)의 방위각 추정은 드리프트 에러로 인해 장시간의 실험에서 정확성이 떨어지므로 단시간의 실험에 사용된다.Estimation of the azimuth angle of the gyroscope 111c is used in a short time experiment because accuracy is poor in a long time experiment due to a drift error.

본 발명은 자력계(111b)와 자이로스코프(111c)의 상호 보완적인 기능을 사용하여 짧고 긴 실험에서 더 나은 성능을 보여준다.The present invention shows better performance in short and long experiments by using complementary functions of the magnetometer 111b and the gyroscope 111c.

디바이스(Device)

Figure 112019090064744-pat00007
에서의 자력과 글로벌(Glbal)
Figure 112019090064744-pat00008
좌표계 간의 관계는 다음의 수학식 3과 같이 표현된다.Device
Figure 112019090064744-pat00007
Magnetic and Global (Glbal)
Figure 112019090064744-pat00008
The relationship between the coordinate systems is expressed as Equation 3 below.

Figure 112019090064744-pat00009
Figure 112019090064744-pat00009

여기서,

Figure 112019090064744-pat00010
는 Pitch의 각,
Figure 112019090064744-pat00011
는 Roll의 각을 나타낸다.here,
Figure 112019090064744-pat00010
Is the angle of the pitch,
Figure 112019090064744-pat00011
Represents the angle of the roll.

자력계 방위각 계산부(115)는 방위각(

Figure 112019090064744-pat00012
)을 다음의 수학식 4와 같이 표현한다.Magnetometer azimuth calculation unit 115 is the azimuth (
Figure 112019090064744-pat00012
) Is expressed as in Equation 4 below.

Figure 112019090064744-pat00013
Figure 112019090064744-pat00013

여기서, Hx와 Hy는 글로벌 좌표계의 방위 자력을 나타낸다.Here, Hx and Hy represent the azimuth magnetic force of the global coordinate system.

자력계 방위각 계산부(115)는 자력계(111b)로부터 보행자의 좌표계에 대한 방향 정보를 수신하고, 자세 결정부(112)로부터 가속도 데이터의 피치 각과 각속도 데이터의 피치 각을 결합한 융합 피치 각과, 각속도 데이터의 롤 각과 각속도 데이터의 롤 각을 결합한 융합 롤 각을 수신하여 절대 방위각의 계산 시 파라미터로 이용한다.The magnetometer azimuth calculation unit 115 receives direction information for the pedestrian's coordinate system from the magnetometer 111b, and the fusion pitch angle obtained by combining the pitch angle of acceleration data and the pitch angle of angular velocity data from the attitude determination unit 112, and angular velocity data. The fusion roll angle that combines the roll angle and the roll angle of angular velocity data is received and used as a parameter when calculating the absolute azimuth angle.

자이로스코프(111c)의 방위각은 단시간 실험을 통해 자력계(111b)와 비교해보면 더 낮은 방위각 오차를 가진다.

Figure 112019090064744-pat00014
는 바디 프레임 X축 자이로스코프(111c)의 출력,
Figure 112019090064744-pat00015
는 바디 프레임 Y축 자이로스코프(111c)의 출력,
Figure 112019090064744-pat00016
는 바디 프레임 Z축 자이로스코프(111c)의 출력을 나타낸다.The azimuth angle of the gyroscope 111c has a lower azimuth error when compared with the magnetometer 111b through a short time experiment.
Figure 112019090064744-pat00014
Is the output of the body frame X-axis gyroscope 111c,
Figure 112019090064744-pat00015
Is the output of the body frame Y-axis gyroscope 111c,
Figure 112019090064744-pat00016
Represents the output of the body frame Z-axis gyroscope 111c.

자이로스코프 방위각 계산부(116)는 자이로스코프(111c)로부터 3축 각속도 데이터를 수신하여 보행자가 위치한 방향을 3차원 공간에 표시하기 위하여 피치의 각과 롤의 각을 이용하여 다음의 수학식 5의 오일러의 각도를 계산한다.The gyroscope azimuth calculation unit 116 receives the three-axis angular velocity data from the gyroscope 111c and uses the pitch angle and the roll angle to display the direction in which the pedestrian is located in the three-dimensional space. Calculate the angle of.

Figure 112019090064744-pat00017
Figure 112019090064744-pat00017

여기서,

Figure 112019090064744-pat00018
는 각 Roll, Pitch, Yaw,
Figure 112019090064744-pat00019
는 각 x, y,z 바디 프레임 축의 출력을 나타낸다.here,
Figure 112019090064744-pat00018
Is each Roll, Pitch, Yaw,
Figure 112019090064744-pat00019
Represents the output of each x, y, z body frame axis.

자이로스코프 방위각 계산부(116)는 계산한 오일러의 각도를 다음의 수학식 6과 같이, 사원수의 값을 사용하여 오일러 각도에 의한 사원수(Quaternion)의 업데이트를 수행한다.The gyroscope azimuth calculation unit 116 updates the quaternion according to the Euler angle by using the value of the quaternion to the calculated Euler angle as shown in Equation 6 below.

Figure 112019090064744-pat00020
Figure 112019090064744-pat00020

여기서,

Figure 112019090064744-pat00021
는 각 Roll, Pitch, Yaw의 오일러 각도,
Figure 112019090064744-pat00022
는 사원수의 값을 나타낸다.here,
Figure 112019090064744-pat00021
Is the Euler angle of each Roll, Pitch, Yaw,
Figure 112019090064744-pat00022
Represents the value of the quaternion.

방향 필터부(117)는 자력계 방위각 계산부(115)에서 계산된 절대 방위각과, 자이로스코프 방위각 계산부(116)에서 계산된 각속도 정보를 다음의 수학식 7의 칼만 필터에 의해 결합하여 보행자의 최종 방향 정보(Headinggyro)를 계산한다.The direction filter unit 117 combines the absolute azimuth angle calculated by the magnetometer azimuth angle calculation unit 115 and the angular velocity information calculated by the gyroscope azimuth angle calculation unit 116 by the Kalman filter of Equation 7 below, Calculate the direction information (Heading gyro).

방향 필터부(117)는 오일러 각도를 통해 얻은 사원수로부터 자이로스코프의 방위각을 계산할 수 있다. 다시 말해, 방향 필터부(117)는 자력계(111b)의 방향들과 자이로스코프(111c)의 방향들의 합을 통해 보행자의 최종 방향을 계산한다.The direction filter unit 117 may calculate the azimuth angle of the gyroscope from the quaternion obtained through the Euler angle. In other words, the direction filter unit 117 calculates the final direction of the pedestrian through the sum of the directions of the magnetometer 111b and the directions of the gyroscope 111c.

Figure 112019090064744-pat00023
Figure 112019090064744-pat00023

여기서,

Figure 112019090064744-pat00024
는 업데이트된 사원수의 값을 나타낸다.here,
Figure 112019090064744-pat00024
Represents the updated quaternion value.

자력계(111b)와 자이로스코프(111c)의 센서 오류를 보완하기 위해서 자이로스코프 방위각을 자력계 방위각과 결합하여 개별 센서 방위각의 결과에 비해 더 나은 결과를 제공한다. 칼만 필터는 자력계(111b)와 자이로스코프(111c)의 방위각 융합에 사용된다.In order to compensate for the sensor error of the magnetometer 111b and the gyroscope 111c, the gyroscope azimuth angle is combined with the magnetometer azimuth angle to provide better results compared to the results of the individual sensor azimuth angles. The Kalman filter is used for azimuth fusion of the magnetometer 111b and the gyroscope 111c.

위치 추정에는 방위각 융합 결과와 스텝 길이 정보를 사용한다. 보행자의 현재 위치는 이전에 알려진 위치, 스텝 길이 정보 및 단계 간격에서 방위각으로 추정한다. 보행자의 초기 위치는 0으로 정의되며, 스텝 길이와 방위각 정보는 초기값을 기준으로 보행자의 현재 위치를 추정한다.The azimuth fusion result and step length information are used for position estimation. The current position of the pedestrian is estimated by the azimuth angle from the previously known position, step length information, and step interval. The initial position of the pedestrian is defined as 0, and the step length and azimuth information estimate the current position of the pedestrian based on the initial value.

현재 위치 계산부(118)는 방향 필터부(117)로부터 보행자의 최종 방향 정보를 수신하고, 스텝 길이 추정부(114)로부터 추정한 스텝 길이(SL)를 수신한다.The current position calculation unit 118 receives the final direction information of the pedestrian from the direction filter unit 117 and receives the step length SL estimated from the step length estimation unit 114.

현재 위치 계산부(118)는 하기의 수학식 8과 같이, 보행자의 최종 방향 정보와 스텝 길이, 초기 위치값을 이용하여 보행자의 현재 위치를 계산한다.The current position calculation unit 118 calculates the current position of the pedestrian by using the final direction information of the pedestrian, the step length, and the initial position value, as shown in Equation 8 below.

Figure 112019090064744-pat00025
Figure 112019090064744-pat00025

여기서, Xt-1, Yt-1은 초기 위치값, Xt, Yt는 보행자의 위치값, SL은 스텝 길이, Headingfusion은 자력계와 자이로스코프의 융합한 방위각을 나타낸다.Here, Xt-1 and Yt-1 are the initial position values, Xt and Yt are the pedestrian's position values, SL is the step length, and Heading fusion is the azimuth angle of the fusion of the magnetometer and the gyroscope.

본 발명의 제2 실내 측위 장치(120)는 스마트폰 카메라(121), 트래킹부(Tracking)(122), 위치 인식부(Place Recognition)(123), 지도 데이터베이스부(124), 로컬 매핑부(Local Mapping)(125) 및 루프 클로징부(Loop Closing)(126)를 포함한다.The second indoor positioning device 120 of the present invention includes a smartphone camera 121, a tracking unit 122, a place recognition unit 123, a map database unit 124, and a local mapping unit ( Local Mapping 125 and Loop Closing 126 are included.

제2 실내 측위 장치(120)는 영상 기반으로 보행자의 실시간 위치인식 및 지도작성 방법에 관한 것으로 ORB(Oriented Fast Rotated BRIEF)-SLAM(Simultaneous Localization and Mapping) 시스템을 적용한다.The second indoor positioning device 120 relates to a method for real-time location recognition and mapping of pedestrians based on an image, and applies an Oriented Fast Rotated BRIEF (ORB)-Simultaneous Localization and Mapping (SLAM) system.

동시간 위치 인식 및 지도 작성(SLAM) 방법은 카메라와 같은 센서를 가진 보행자의 주변 환경을 3차원 모델로 복원함과 동시에 3차원 공간상에서 보행자의 위치를 추정하는 기술이다.The Simultaneous Location Recognition and Mapping (SLAM) method is a technology that restores the surrounding environment of a pedestrian with a sensor such as a camera into a 3D model and estimates the pedestrian's position in a 3D space at the same time.

스마트폰 카메라(121)는 렌즈를 이용하여 일정한 크기에 10 FPS(Frame Per Second)으로 촬영하여 복수의 영상 프레임을 획득한다.The smartphone camera 121 acquires a plurality of image frames by photographing at 10 frames per second (FPS) at a predetermined size using a lens.

트래킹부(122)는 각각의 프레임의 새로운 영상으로부터 ORB(Oriented Fast Rotated BRIEF) 특징점(Keypoints)을 추출한다.The tracking unit 122 extracts Oriented Fast Rotated BRIEF (ORB) keypoints from the new image of each frame.

트래킹부(122)는 복수의 프레임을 입력받아 프레임 단위로 특징점을 검출한다.The tracking unit 122 receives a plurality of frames and detects a feature point in units of frames.

트래킹부(122)는 이전 프레임의 특징점과 현재 프레임의 특징점을 정합하여 특징점을 추적한다. 트래킹부(122)는 프레임 간의 특징점 추적을 위해서 현재 프레임에서의 특징점을 이전 프레임 특징점의 좌표로부터 일정 크기의 창 내에 존재할 경우 정합을 수행한다.The tracking unit 122 tracks the feature points by matching the feature points of the previous frame and the feature points of the current frame. In order to track the feature points between frames, the tracking unit 122 matches the feature points in the current frame when they exist within a window of a predetermined size from the coordinates of the previous frame feature points.

트래킹부(122)는 검출된 특징점과 키프레임을 매칭하고, 상기 매칭된 특징점을 키프레임에 누적하여 키프레임을 갱신한다.The tracking unit 122 matches the detected feature point and the key frame, and updates the key frame by accumulating the matched feature point in the key frame.

트래킹부(122)는 제1 프레임의 특징점을 키프레임으로 설정하고, 제1 프레임에 후속하는 프레임들의 특징점이 매칭되면 매칭된 특징점들을 키프레임에 누적하여 키프레임을 갱신하는 것을 반복하여 실행함으로써 키프레임을 추출할 수 있다.The tracking unit 122 sets the feature points of the first frame as a key frame, and when the feature points of the frames following the first frame match, accumulates the matched feature points in the key frame and repeatedly executes the key frame to be updated. Frames can be extracted.

트래킹부(122)는 상기 키프레임 또는 상기 갱신된 키프레임과, 상기 제2 프레임 또는 상기 후속하여 입력되는 프레임간의 특징점 추적을 통해 자세 변화를 계산한다.The tracking unit 122 calculates a posture change by tracking feature points between the key frame or the updated key frame and the second frame or the subsequently input frame.

트래킹부(122)는 이전 프레임으로부터 추적되어 온 특징점의 개수가 일정 개수 이하인 경우, 새로운 특징점 추적을 위한 새로운 키프레임을 추가한다.When the number of feature points tracked from the previous frame is less than a certain number, the tracking unit 122 adds a new key frame for tracking new feature points.

트래킹부(122)는 모든 프레임에서 카메라 위치를 추정하고, 새로운 키프레임의 입력을 제어한다.The tracking unit 122 estimates the camera position in every frame and controls input of a new key frame.

이후에 이전 프레임과 일치하는 초기 특성을 사용하여 카메라 포즈를 최적화하기 위해 BA(Motion only Bunle Adjust)를 사용한다.Afterwards, BA (Motion only Bunle Adjust) is used to optimize the camera pose using the initial characteristics that match the previous frame.

지도 데이터베이스부(124)는 지도 포인트 또는 3D ORB의 지도 포인트를 저장하고 있다. 각각의 지도 포인트는 위치가 다른 뷰에서 삼각 측량되고 번들 조정으로 수정된 텍스처 평면 패치에 해당한다.The map database unit 124 stores map points or map points of a 3D ORB. Each map point corresponds to a patch of texture planes triangulated in different views and modified with bundle adjustments.

지도 포인트는 이미지의 ORB 영상에 해당하므로 FAST 모서리의 삼각 분할이다. 지도 포인트는 여러 키프레임에서 ORB 기능과 연관될 수 있다.The map point corresponds to the ORB image of the image, so it is a triangulation of the FAST edge. Map points can be associated with ORB functions in multiple keyframes.

키프레임은 실제 시각 정보를 요약한 스냅샷이다. 각각의 키프레임은 모든 ORB 기능을 프레임에 저장하고, 카메라 포즈(Pose)를 저장한다.Keyframes are snapshots that summarize actual visual information. Each keyframe stores all ORB functions in a frame and a camera pose.

가시성 그래프(Covisiblity Graph)는 로컬 맵을 결정하거나 위치 인식부(123)의 성능을 향상시킨다.The visibility graph determines a local map or improves the performance of the location recognition unit 123.

가시성 그래프는 2개의 키프레임들이 공통된 지도 포인들이 존재하는 경우, 키프레임과 모서리를 나타내는 각 노드들이 저장된다.In the visibility graph, when there are map points in which two key frames are common, each node representing a key frame and an edge is stored.

위치 인식부(123)는 각 시각적 단어에 대해 해당 키프레임이 표시된 어휘와 키프레임의 가중치가 저장되는 반전 색인이 포함되어 있으며, 이에 따라 일반적인 시각적 단어만을 확인하여 데이터베이스 쿼리를 매우 효율적으로 수행 할 수 있다. For each visual word, the location recognition unit 123 includes a vocabulary in which a corresponding key frame is displayed and a reversal index in which the weight of the key frame is stored. Accordingly, it is possible to perform a database query very efficiently by checking only general visual words. have.

위치 인식부(123)는 로컬 맵핑이 처리를 완료한 후 루프 클로저 작업에 의해 새로운 키프레임이 지도 데이터베이스부(124)에 삽입된다.After the local mapping process is completed, the location recognition unit 123 inserts a new key frame into the map database unit 124 by a loop closure operation.

위치 인식부(123)는 데이터베이스를 쿼리 할 때 쿼리 이미지와 시각적 단어를 공유하는 모든 키프레임 간에 유사성 점수가 계산된다.When querying the database, the location recognition unit 123 calculates a similarity score between all keyframes that share the query image and the visual word.

위치 인식부(123)는 데이터베이스를 쿼리 한 후 카메라 포즈 및 유사성 변환을 각각 계산하여 기하학적 유효성 검사로 사용한다.The location recognition unit 123 queries the database and then calculates camera poses and similarity transformations, respectively, and uses them as geometric validity checks.

위치 인식부(123)는 두 개의 연속적인 키프레임의 일치가 존재하고 이를 연결하는 가시성 그래프에 모서리가 있는 경우 일관성있는 것으로 판단한다.The location recognition unit 123 determines that the two consecutive keyframes are consistent and there is an edge in the visibility graph connecting the two consecutive keyframes.

트래킹부(122)는 특징점 추적을 통해 카메라 포즈의 초기화가 완료되면, 지도 데이터베이스부(124)에서 키프레임을 가진 Covisibility 그래프를 사용하여 로컬 맵이 검색된다. 이후에 재투영에 의해 탐색된 로컬 맵 지점들과 일치시키고, 마지막으로 모든 일치 항목을 사용하여 카메라 포즈를 최적화한다.When the initialization of the camera pose is completed through the feature point tracking, the tracking unit 122 searches for a local map in the map database unit 124 using a covisibility graph having a key frame. Afterwards, it matches the local map points found by reprojection, and finally optimizes the camera pose using all matches.

로컬 매핑부(125)는 새로운 키프레임을 사용하여 로컬 BA를 수행함으로써 카메라 포즈와 관계된 최적의 재구성을 얻는다.The local mapping unit 125 obtains an optimal reconstruction related to a camera pose by performing a local BA using a new key frame.

로컬 매핑부(125)는 트래킹부(122)로부터 수신한 새로운 키프레임을 저장하고, 서로 다른 키프레임에서 ORB 특징점을 삼각 측량 방법에 의해 새로운 지도 포인트들을 생성한다.The local mapping unit 125 stores a new keyframe received from the tracking unit 122, and generates new map points by triangulating ORB feature points in different keyframes.

로컬 매핑부(125)는 대부분의 지도 포인트를 공유하는 가시성 그래프에서 N개의 인접한 키프레임에서 ORB 특징점을 삼각 측량한다.The local mapping unit 125 triangulates the ORB feature points in N adjacent keyframes in the visibility graph sharing most of the map points.

로컬 매핑부(125)는 현재 처리된 키프레임과 가시성 그래프에서 연결된 모든 키프레임 및 이러한 키프레임에서 볼 수 있는 모든 지도 포인트를 최적화하는 로컬 번들 최적화를 수행한다(Local Bundle Adjustment).The local mapping unit 125 performs local bundle optimization for optimizing the currently processed keyframes, all keyframes connected in the visibility graph, and all map points visible in the keyframes (Local Bundle Adjustment).

루프 클로징부(126)는 로컬 매핑부(125)에 의해 처리된 키프레임을 가져오고, 지도에서 새로운 키 프레임이 있는 루프를 탐색하고, 루프를 닫으려면 현재 키프레임으로부터 루프의 키프레임까지의 루프의 누적된 드리프트에 대한 정보를 제공하는 유사성 변환을 계산한다.The loop closing unit 126 retrieves the keyframe processed by the local mapping unit 125, searches for a loop with a new keyframe on the map, and closes the loop from the current keyframe to the keyframe of the loop. A similarity transform that provides information on the accumulated drift of is calculated.

다시 말해, 루프 클로징부(126)는 지도 데이터베이스부(124)에서 이전의 키프레임들과 현재의 키프레임을 비교하여 유사도 정도가 소정의 문턱값보다 큰 키프레임이 있는지를 검색한다. 루프 클로징부(126)는 유사도가 소정의 문턱값보다 큰 키프레임이 검출되는 경우, 이들을 루프 클로져로 설정하며, 설정된 루프 클로져의 자세 변화 정보를 바탕으로 카메라 포즈의 그래프를 최적화하며, 최적화된 그래프를 토대로 위치 인식 및 지도 작성(SLAM)을 수행한다.In other words, the loop closing unit 126 compares the previous keyframes with the current keyframes in the map database unit 124 to search for a keyframe having a degree of similarity greater than a predetermined threshold. When a key frame with a similarity greater than a predetermined threshold value is detected, the loop closing unit 126 sets them as loop closures, optimizes the graph of the camera pose based on the posture change information of the set loop closure, and optimizes the graph. Based on this, location recognition and map creation (SLAM) are performed.

본 발명의 실내 측위 시스템(100)은 위치 측정 오차를 최소화하기 위하여 제1 실내 측위 장치(110)와 제2 실내 측위 장치(120)를 결합하여 IMU 센서 기반의 제1 실내 측위 장치(110)의 센서 에러와 카메라 센서 기반의 제2 실내 측위 장치(120)의 방위각 에러를 감소하는데 있다.The indoor positioning system 100 of the present invention combines the first indoor positioning device 110 and the second indoor positioning device 120 to minimize the position measurement error. It is to reduce the sensor error and the azimuth error of the second indoor positioning device 120 based on the camera sensor.

센서 융합부(130)는 IMU 센서 기반의 제1 실내 측위 장치(110)의 제1 위치 측정 결과와 카메라 센서 기반의 제2 실내 측위 장치(120)의 제2 위치 측정 결과를 결합하여 보행자의 최종 위치 정보를 계산한다.The sensor fusion unit 130 combines the first position measurement result of the first indoor positioning device 110 based on the IMU sensor and the second position measurement result of the second indoor positioning device 120 based on the camera sensor, Calculate location information.

제1 실내 측위 장치(110)의 센서 에러는 제2 실내 측위 장치(120)의 위치 측정 결과로 보완하고, 제2 실내 측위 장치(120)의 방위각 에러는 제1 실내 측위 장치(110)의 위치 측정 결과로 보완하여 위치 측정 정확도를 향상시킨다.The sensor error of the first indoor positioning device 110 is compensated by the position measurement result of the second indoor positioning device 120, and the azimuth error of the second indoor positioning device 120 is the position of the first indoor positioning device 110 It is supplemented with the measurement result to improve the location measurement accuracy.

센서 융합부(130)는 제1 실내 측위 장치(110)의 제1 위치 측정 결과와 제2 실내 측위 장치(120)의 제2 위치 측정 결과를 선형 칼만 필터를 이용하여 결합한다.The sensor fusion unit 130 combines the first position measurement result of the first indoor positioning device 110 and the second position measurement result of the second indoor positioning device 120 using a linear Kalman filter.

센서 융합부(130)는 하기의 수학식 9의 이동 모델과 수학식 10의 관측 모델을 갖는 칼만 필터 알고리즘을 이용한다.The sensor fusion unit 130 uses a Kalman filter algorithm having a movement model of Equation 9 and an observation model of Equation 10 below.

Figure 112019090064744-pat00026
Figure 112019090064744-pat00026

수학식 9는 센서 융합의 전이 상태 함수로서,

Figure 112019090064744-pat00027
는 보행자 위치의 2차원 좌표이고,
Figure 112019090064744-pat00028
는 시스템에 입력되는 IMU 센서의 x,y값(보행자의 2차원 좌표 정보), A와 B는 단위 행렬이고, W는 zero mean을 갖는 동작 모델이고, 공분산 행렬 Q의 가우시안 잡음을 나타낸다.Equation 9 is a function of the transition state of the sensor fusion,
Figure 112019090064744-pat00027
Is the two-dimensional coordinate of the pedestrian's position,
Figure 112019090064744-pat00028
Is the x,y values (two-dimensional coordinate information of the pedestrian) of the IMU sensor input to the system, A and B are the identity matrices, W is the motion model with zero mean, and represents the Gaussian noise of the covariance matrix Q.

Figure 112019090064744-pat00029
Figure 112019090064744-pat00029

수학식 10은 관측 모델로 제1 실내 측위 장치(110)의 위치 측정 결과를 통해 얻을 수 있으며,

Figure 112019090064744-pat00030
는 zero mean과 공분산 행렬 R을 갖는 IMU 기반의 제1 실내 측위 장치(110)의 위치 측정 결과의 가우시안 잡음을 나타낸다. 센서 융합은 직접적인 관측 문제이기 때문에 H를 항등 행렬로 사용한다.Equation 10 can be obtained through the position measurement result of the first indoor positioning device 110 as an observation model,
Figure 112019090064744-pat00030
Denotes Gaussian noise of a position measurement result of the IMU-based first indoor positioning device 110 having a zero mean and a covariance matrix R. Since sensor fusion is a direct observation problem, we use H as the identity matrix.

선형 칼만 필터는 프로세스의 상태를 추적하기 위해 위치 오차를 최소화하는 방법으로 효율적인 계산 수단을 제공하는 수학 방정식의 집합이다. 선형 칼만 필터는 신호와 잡음의 분리도가 우수하여 순간적인 위치의 점프 현상을 방지할 수 있으며, 정확한 위치, 속도 및 시간을 안정적으로 검출하는데 사용된다.The linear Kalman filter is a set of mathematical equations that provide an efficient means of calculation by minimizing positional errors to track the state of a process. The linear Kalman filter has excellent signal-to-noise separation and can prevent instantaneous position jumps, and is used to stably detect accurate position, speed, and time.

선형 칼만 필터 알고리즘은 예측을 위한 시간 갱신 방정식과 측정 갱신 방정식의 두 프로세스로 구성된다.The linear Kalman filter algorithm consists of two processes: a time update equation for prediction and a measurement update equation.

선형 칼만 필터의 시간 갱신 과정(Time Update)은 시간에 앞서 미리 현재 상태를 예측하는 칼만 필터의 예측 단계(Predict)로 순방향으로 현재 상태 추정 결과를 전달한다.The time update process of the linear Kalman filter forwards the current state estimation result to a prediction step (Predict) of the Kalman filter that predicts the current state in advance in advance of time.

선형 칼만 필터의 시간 갱신 과정(Time Update)은 하기의 수학식 11의 선형 추정 방정식과, 하기의 수학식 12의 Prior 추적 에러 공분산 방정식을 포함한다.The time update process of the linear Kalman filter includes a linear estimation equation of Equation 11 below and a Prior tracking error covariance equation of Equation 12 below.

Figure 112019090064744-pat00031
Figure 112019090064744-pat00031

여기서, A와 B는 단위 행렬,

Figure 112019090064744-pat00032
는 시스템에 입력되는 IMU 센서의 x,y값(보행자의 2차원 좌표 정보),
Figure 112019090064744-pat00033
는 예측값을 나타낸다.Where A and B are identity matrices,
Figure 112019090064744-pat00032
Is the x,y value of the IMU sensor input to the system (two-dimensional coordinate information of the pedestrian),
Figure 112019090064744-pat00033
Represents the predicted value.

Figure 112019090064744-pat00034
Figure 112019090064744-pat00034

여기서,

Figure 112019090064744-pat00035
는 공분산 행렬, T는 전치행렬,
Figure 112019090064744-pat00036
는 에러 공분산 값을 나타낸다.here,
Figure 112019090064744-pat00035
Is the covariance matrix, T is the transposed matrix,
Figure 112019090064744-pat00036
Represents the error covariance value.

선형 칼만 필터의 측정 갱신 과정(Measurement Update)은 해당 시간에 실제 측정에 의해 전달된 추정 상태값들을 보정하는 칼만 필터의 보정 단계이다.The measurement update process of the linear Kalman filter is a correction step of the Kalman filter that corrects the estimated state values transmitted by the actual measurement at the corresponding time.

선형 칼만 필터의 측정 갱신 과정(Measurement Update)은 하기의 수학식 13의 칼만 이득 생성 방정식과 하기의 수학식 14의 갱신된 추정값 생성 방정식 및 하기의 수학식 15의 Posteriori 추적 에러 공분산 방정식을 포함한다.The measurement update process of the linear Kalman filter includes the Kalman gain generation equation of Equation 13 below, the updated estimate generation equation of Equation 14 below, and the Posteriori tracking error covariance equation of Equation 15 below.

Figure 112019090064744-pat00037
Figure 112019090064744-pat00037

여기서, H는 항등 행렬, R은 공분산 행렬을 나타낸다.Here, H is an identity matrix, and R is a covariance matrix.

Figure 112019090064744-pat00038
Figure 112019090064744-pat00038

여기서,

Figure 112019090064744-pat00039
는 관찰 함수를 나타낸다.here,
Figure 112019090064744-pat00039
Represents the observation function.

Figure 112019090064744-pat00040
Figure 112019090064744-pat00040

선형 필터의 알고리즘에 사용되는 모든 변수는 하기의 표 1과 같이 정리된다.All variables used in the algorithm of the linear filter are summarized in Table 1 below.

Figure 112019090064744-pat00041
Figure 112019090064744-pat00041

센서 융합부(130)는 선형 칼만 필터를 거쳐 위치 보정을 수행한 후 보행자의 현재 위치를 지도(Map)과 정합시켜 지도 상에 보행자의 위치를 계산할 수 있다.The sensor fusion unit 130 may calculate the position of the pedestrian on the map by matching the current position of the pedestrian with a map after performing position correction through a linear Kalman filter.

본 발명의 하이브리드 실내 측위 시스템(100)은 실내 측위의 성능과 정확성을 평가하기 위해서 IMU 센서와 카메라를 사용하여 데이터를 경북대학교 IT1호관 512호에서 수집하였다. 데이터를 수집을 위해서 사용자는 스마트폰과 IMU 센서를 손에 들고 실험 장소에서 실험을 하였다.In the hybrid indoor positioning system 100 of the present invention, data was collected in IT1 Building 512 of Kyungpook National University by using an IMU sensor and a camera in order to evaluate the performance and accuracy of indoor positioning. In order to collect data, the user held a smartphone and an IMU sensor in his hand and conducted an experiment at the experiment site.

이번 실험은 삼성 갤럭시S6 엣지 스마트폰에 탑재된 안드로이드 5.0.2 롤리팝 플랫폼에 엑시노스 7420 프로세서와 3GB 램을 탑재해 진행했다.This experiment was conducted with an Exynos 7420 processor and 3GB of RAM on the Android 5.0.2 Lollipop platform mounted on the Samsung Galaxy S6 Edge smartphone.

A Biscuit Programmable Wi-Fi 9-Axis absolute orientation 센서는 IMU 측위에 사용했다. 실험 면적의 길이는 3.1m, 폭은 6m이다.A Biscuit Programmable Wi-Fi 9-Axis absolute orientation sensor was used for IMU positioning. The length of the test area is 3.1m and the width is 6m.

도 2는 IMU 기반 측위 결과이고, 도 3은 카메라 기반 측위 결과이며, 도 4는 본 발명의 하이브리드 실내 측위 시스템(100)의 측위에서 얻은 실험 결과를 보여준다.FIG. 2 is an IMU-based positioning result, FIG. 3 is a camera-based positioning result, and FIG. 4 shows an experimental result obtained from positioning of the hybrid indoor positioning system 100 of the present invention.

도 4에 도시된 바와 같이, 본 발명의 하이브리드 측위 결과는 센서 오류의 영향이 상당히 줄어든 것을 볼 수 있다. IMU 기반의 측위 결과는 가속도계(111a)의 누적 오류와 자이로스코프(111c)의 편향 오류가 존재한다.As shown in Fig. 4, it can be seen that the influence of sensor error is significantly reduced in the hybrid positioning result of the present invention. In the IMU-based positioning result, there is a cumulative error of the accelerometer 111a and a deflection error of the gyroscope 111c.

카메라 기반의 측위 결과는 보행자가 방향을 변경할 때 정확하게 추정할 수 없는 문제점이 있다.The camera-based positioning result has a problem that it cannot be accurately estimated when a pedestrian changes direction.

본 발명의 하이브리드 실내 측위 시스템(100)은 IMU 방식과 카메라 방식을 비교할 때 보다 높은 정확도를 보여준다.The hybrid indoor positioning system 100 of the present invention shows higher accuracy when comparing the IMU method and the camera method.

본 발명의 하이브리드 실내 측위 시스템(100)의 측위 정확도는 RMSE(Root Mean Square Error)와 측위 오차의 누적 오차 분포 함수를 이용하여 평가된다.The positioning accuracy of the hybrid indoor positioning system 100 of the present invention is evaluated using a Root Mean Square Error (RMSE) and a cumulative error distribution function of the positioning errors.

도 5 내지 도 7은 IMU 기반의 측위와, 카메라 기반의 측위, 본 발명의 하이브리드 측위 방식의 RMSE 결과를 나타낸 것이다.5 to 7 show IMU-based positioning, camera-based positioning, and RMSE results of the hybrid positioning method of the present invention.

도 5는 IMU 기반의 측위 접근 방식의 RMSE를 보여준다. IMU 기반의 측위 접근 방식의 최대 오차는 0.7467m이다.5 shows an RMSE of an IMU-based positioning approach. The maximum error of the IMU-based positioning approach is 0.7467m.

도 6은 카메라 기반의 측위 접근 방식에서 측위 에러를 보여준다. 카메라 기반의 측위 접근 방식은 실제 위치값에 비해 최대 1m의 측위 오류가 있다.6 shows a positioning error in a camera-based positioning approach. The camera-based positioning approach has a positioning error of up to 1m compared to the actual position value.

도 7은 본 발명의 하이브리드 측위 접근 방식에 대한 RMSE를 나타낸다. 본 발명의 하이브리드 측위 접근 방식의 최대 위치 오류는 실제 위치와 비교하여 0.4924m이다. 측위 오류 결과에서 제안된 하이브리드 측위 접근 방식은 IMU 기반 및 카메라 기반의 측위 접근 방식보다 더 나은 결과를 나타낸다.7 shows the RMSE for the hybrid positioning approach of the present invention. The maximum positional error of the hybrid positioning approach of the present invention is 0.4924m compared to the actual position. In the positioning error results, the proposed hybrid positioning approach shows better results than the IMU-based and camera-based positioning approaches.

다음의 표 2는 서로 다른 측위 접근 방식의 성능 분석을 보여준다. Table 2 below shows the performance analysis of different positioning approaches.

Figure 112019090064744-pat00042
Figure 112019090064744-pat00042

표 2에서 본 발명의 하이브리드 측위 방식은 IMU 및 카메라 기반 측위 방식에 비해 측위 오류가 적다. 하이브리드 측위 방식은 다른 측위 접근 방식에 비해 높은 위치 정확도를 제공한다. 본 발명의 하이브리드 접근 방식의 정확도는 측위 오류의 누적 분포 함수(Cumulative Distribution Functions, CDF)에 의해 분석된다. 도 8은 IMU 기반의 측위와, 카메라 기반의 측위 및 본 발명의 하이브리드 측위의 CDF를 보여준다.In Table 2, the hybrid positioning method of the present invention has fewer positioning errors compared to the IMU and camera-based positioning method. The hybrid positioning method provides higher positioning accuracy compared to other positioning approaches. The accuracy of the hybrid approach of the present invention is analyzed by Cumulative Distribution Functions (CDF) of positioning errors. 8 shows IMU-based positioning, camera-based positioning, and a CDF of hybrid positioning of the present invention.

CDF 그래프를 보면, 본 발명의 하이브리드 측위 방식은 위치 오류를 줄이고 IMU 및 카메라 기반 측위 방식과 비교하여 더 나은 성능을 얻을 수 있다.Looking at the CDF graph, the hybrid positioning method of the present invention can reduce the positional error and obtain better performance compared to the IMU and camera-based positioning method.

IMU 기반의 측위 방식은 카메라 기반의 측위 방식에 비해 성능이 우수하다. The IMU-based positioning method is superior to the camera-based positioning method.

오류 분석 결과, 카메라 기반의 측위 방식은 카메라 포즈 오류의 영향을 받아 실내 위치 정확도가 저하된다. 모든 실험 결과 분석에서 본 발명의 하이브리드 측위 접근 방식은 실내 어플리케이션에 대한 합당한 위치 정확도를 제공한다.As a result of error analysis, the camera-based positioning method is affected by camera pose errors and the indoor positioning accuracy is degraded. In all experimental results analysis, the hybrid positioning approach of the present invention provides reasonable positioning accuracy for indoor applications.

본 발명은 IMU 센서와 스마트폰 카메라(121)를 이용한 하이브리드 실내 측위를 제안했다. IMU 센서 기반의 측위에서 발생하는 IMU 센서 오차는 카메라 측위 결과인 카메라 포즈에 의해 감소시키고, 카메라 기반의 측위에서 발생하는 방위각 오차는 IMU 측위 결과로 줄이는 효과가 있다.The present invention proposes a hybrid indoor positioning using an IMU sensor and a smartphone camera 121. The IMU sensor error occurring in the IMU sensor-based positioning is reduced by the camera pose, which is a camera positioning result, and the azimuth error occurring in the camera-based positioning is reduced by the IMU positioning result.

본 발명의 하이브리드 측위 방식은 개별적인 위치 결정 방법에 비해서 위치 결정 결과가 더 향상된다. 본 발명은 하이브리드 측위를 위한 칼만 필터 기반의 센서 퓨전 프레임 워크를 제안했다.The hybrid positioning method of the present invention further improves the positioning result compared to the individual positioning method. The present invention proposes a sensor fusion framework based on a Kalman filter for hybrid positioning.

이상에서 본 발명의 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다.Although the embodiments of the present invention have been described in detail above, the scope of the present invention is not limited thereto, and various modifications and improvements by those skilled in the art using the basic concept of the present invention defined in the following claims are also provided. It belongs to the scope of rights.

100: 하이브리드 실내 측위 시스템 110: 제1 실내 측위 장치
111: IMU 센서들 111a: 가속도계
111b: 자력계 111c: 자이로스코프
112: 자세 결정부 113: 스텝 검출부
114: 스텝 길이 추정부 115: 자력계 방위각 계산부
116: 자이로스코프 방위각 계산부 117: 방향 필터부
118: 현재 위치 계산부 120: 제2 실내 측위 장치
121: 스마트폰 카메라 122: 트래킹부
123: 위치 인식부 124: 지도 데이터베이스부
125: 로컬 매핑부 126: 루프 클로징부
130: 센서 융합부
100: hybrid indoor positioning system 110: first indoor positioning device
111: IMU sensors 111a: accelerometer
111b: magnetometer 111c: gyroscope
112: posture determination unit 113: step detection unit
114: step length estimation unit 115: magnetometer azimuth calculation unit
116: gyroscope azimuth calculation unit 117: direction filter unit
118: current position calculation unit 120: second indoor positioning device
121: smartphone camera 122: tracking unit
123: location recognition unit 124: map database unit
125: local mapping unit 126: loop closing unit
130: sensor fusion unit

Claims (16)

3축 가속도계와 3축 자력계 및 3축 자이로스코프를 포함하는 IMU(Inertia Measurement Unit) 센서들로부터 수신한 센서 신호를 이용하여 보행자의 스텝과 방향각 정보를 계산하며, 상기 스텝과 방향각 정보를 이용하여 제1 위치를 계산하는 제1 실내 측위 장치;
카메라에 의해 촬영된 복수의 영상 프레임에서 복수의 특징점을 검출하여 미리 저장된 키프레임의 매칭을 수행하고, 매칭 결과를 이용하여 상기 카메라의 자세 변화 정보를 추정하며, 상기 자세 변화 정보를 기초로 제2 위치를 측위하는 제2 실내 측위 장치; 및
상기 제1 실내 측위 장치로부터 계산된 제1 위치와, 상기 제2 실내 측위 장치로부터 계산된 제2 위치를 선형 칼만 필터를 이용하여 결합하여 보행자의 최종 위치를 계산하는 센서 융합부를 포함하는 것을 특징으로 하는 하이브리드 실내 측위 시스템.
By using sensor signals received from IMU (Inertia Measurement Unit) sensors including a 3-axis accelerometer, a 3-axis magnetometer, and a 3-axis gyroscope, the step and direction angle information of the pedestrian is calculated, and the step and direction angle information are used. A first indoor positioning device for calculating a first position;
Detects a plurality of feature points in a plurality of image frames photographed by a camera, performs matching of a pre-stored key frame, estimates posture change information of the camera using the matching result, and calculates a second posture change information based on the posture change information. A second indoor positioning device for positioning a position; And
And a sensor fusion unit for calculating a final position of a pedestrian by combining the first position calculated from the first indoor positioning device and the second position calculated from the second indoor positioning device using a linear Kalman filter. Hybrid indoor positioning system.
제1항에 있어서,
상기 제1 실내 측위 장치는 상기 3축 가속도계와 상기 3축 자이로스코프의 각 센서 신호를 이용하여 가속도와 각속도의 크기 변화를 분석하여 보행자의 스텝을 검출하고, 상기 검출한 스텝을 이용하여 상기 보행자의 스텝 길이를 추정하며, 상기 3축 자력계와 상기 3축 자이로스코프의 센서 신호를 융합하여 방향각 정보를 계산하며, 상기 계산된 방향각 정보와 상기 스텝 길이를 기초로 상기 보행자의 제1 위치를 계산하는 것을 특징으로 하는 하이브리드 실내 측위 시스템.
The method of claim 1,
The first indoor positioning device detects a pedestrian's step by analyzing a change in magnitude of acceleration and angular velocity using each sensor signal of the 3-axis accelerometer and the 3-axis gyroscope, and uses the detected step to detect the pedestrian's step. The step length is estimated, direction angle information is calculated by fusing the sensor signals of the 3-axis magnetometer and the 3-axis gyroscope, and the first position of the pedestrian is calculated based on the calculated direction angle information and the step length. Hybrid indoor positioning system, characterized in that.
제1항에 있어서,
상기 제2 실내 측위 장치는 상기 카메라로부터 촬영된 복수의 영상 프레임을 입력받아 프레임 단위로 복수의 특징점을 검출하고, 상기 검출된 복수의 특징점과 키프레임을 매칭하고, 상기 매칭된 각각의 특징점을 상기 키프레임에 누적하여 상기 키프레임을 갱신하고,상기 키프레임과 상기 갱신한 키프레임 간의 특징점 추적을 통해 상기 카메라의 자세 변화 정보를 계산하며, 상기 자세 변화 정보를 기초로 상기 제2 위치를 측위하는 것을 특징으로 하는 하이브리드 실내 측위 시스템.
The method of claim 1,
The second indoor positioning device receives a plurality of image frames photographed from the camera, detects a plurality of feature points in frame units, matches the detected plurality of feature points and key frames, and determines each of the matched feature points. Accumulating in a key frame to update the key frame, calculating posture change information of the camera through feature point tracking between the key frame and the updated key frame, and positioning the second position based on the posture change information Hybrid indoor positioning system, characterized in that.
제1항에 있어서,
상기 센서 융합부는 상기 제1 위치와 상기 제2 위치를 상기 선형 칼만 필터에 의해 결합하여 위치 보정을 수행한 후, 상기 보행자의 현재 위치를 지도에 정합시켜 상기 지도 상에 보행자의 위치를 계산하는 것을 특징으로 하는 하이브리드 실내 측위 시스템.
The method of claim 1,
The sensor fusion unit performs position correction by combining the first position and the second position by the linear Kalman filter, and then calculates the position of the pedestrian on the map by matching the current position of the pedestrian to the map. Hybrid indoor positioning system characterized by.
제1항에 있어서,
상기 제1 실내 측위 장치는 상기 가속도계로부터 3축 가속도 데이터를 수신하고, 상기 수신한 3축 가속도 데이터의 피치 각과 롤 각을 하기의 수학식 1에 의해 계산하고, 상기 자이로스코프로부터 3축 각속도 데이터를 수신하고, 상기 수신한 3축 각속도 데이터의 피치 각과 롤 각을 하기의 수학식 1에 의해 계산하며, 3축 가속도 데이터의 피치 각 및 롤 각과 3축 각속도 데이터의 피치 각 및 롤 각을 제1 칼만 필터를 이용하여 결합하여 융합 피치 각과 융합 롤 각을 계산하는 자세 결정부를 더 포함하는 것을 특징으로 하는 하이브리드 실내 측위 시스템.
[수학식 1]
Figure 112019090064744-pat00043

여기서,
Figure 112019090064744-pat00044
는 Pitch의 각,
Figure 112019090064744-pat00045
는 Roll의 각,
Figure 112019090064744-pat00046
는 IMU 센서의 3축 가속도 데이터, g는 중력 가속도임.
The method of claim 1,
The first indoor positioning device receives 3-axis acceleration data from the accelerometer, calculates a pitch angle and a roll angle of the received 3-axis acceleration data by Equation 1 below, and calculates 3-axis angular velocity data from the gyroscope. After receiving, calculate the pitch angle and roll angle of the received three-axis angular velocity data by the following equation (1), and the pitch angle and roll angle of the three-axis acceleration data and the pitch angle and roll angle of the three-axis angular velocity data are first Kalman Hybrid indoor positioning system, characterized in that it further comprises a posture determination unit for calculating the fusion pitch angle and the fusion roll angle by combining using a filter.
[Equation 1]
Figure 112019090064744-pat00043

here,
Figure 112019090064744-pat00044
Is the angle of the pitch,
Figure 112019090064744-pat00045
Is the angle of the roll,
Figure 112019090064744-pat00046
Is the 3-axis acceleration data of the IMU sensor, and g is the gravitational acceleration.
제5항에 있어서,
상기 제1 실내 측위 장치는 상기 자력계로부터 보행자의 좌표계에 대한 방향 정보를 수신하고, 상기 자세 결정부로부터 상기 융합 피치 각과, 상기 융합 롤 각을 수신하여 절대 방위각을 계산하는 자력계 방위각 계산부; 및
상기 자이로스코프로부터 3축 각속도 데이터를 수신하여 보행자가 위치한 방향을 3차원 공간에 표시하기 위하여 피치의 각과 롤의 각을 이용하여 하기의 수학식 2의 오일러의 각도를 계산하는 자이로스코프 방위각 계산부를 포함하는 것을 특징으로 하는 하이브리드 실내 측위 시스템.
[수학식 2]
Figure 112019090064744-pat00047

여기서,
Figure 112019090064744-pat00048
는 각 Roll, Pitch, Yaw,
Figure 112019090064744-pat00049
는 각 x, y,z 바디 프레임 축의 출력임.
The method of claim 5,
The first indoor positioning device includes: a magnetometer azimuth angle calculator configured to receive direction information on a coordinate system of a pedestrian from the magnetometer, and receive the fusion pitch angle and the fusion roll angle from the posture determination unit to calculate an absolute azimuth angle; And
In order to receive the 3-axis angular velocity data from the gyroscope and display the direction in which the pedestrian is located in a 3D space, a gyroscope azimuth calculation unit calculates the Euler angle of Equation 2 below using the pitch angle and the roll angle. Hybrid indoor positioning system, characterized in that.
[Equation 2]
Figure 112019090064744-pat00047

here,
Figure 112019090064744-pat00048
Is each Roll, Pitch, Yaw,
Figure 112019090064744-pat00049
Is the output of each x, y, z body frame axis.
제6항에 있어서,
상기 자이로스코프 방위각 계산부는 상기 계산한 오일러의 각도를 하기의 수학식 3에 의해 사원수의 값을 사용하여 오일러 각도에 의한 사원수(Quaternion)의 업데이트를 수행하는 것을 특징으로 하는 하이브리드 실내 측위 시스템.
[수학식 3]
Figure 112019090064744-pat00050

여기서,
Figure 112019090064744-pat00051
는 각 Roll, Pitch, Yaw의 오일러 각도,
Figure 112019090064744-pat00052
는 사원수의 값임.
The method of claim 6,
The gyroscope azimuth angle calculator performs an update of a quaternion according to the Euler angle by using the calculated Euler angle as a quatern value according to Equation 3 below.
[Equation 3]
Figure 112019090064744-pat00050

here,
Figure 112019090064744-pat00051
Is the Euler angle of each Roll, Pitch, Yaw,
Figure 112019090064744-pat00052
Is the value of the number of employees.
제6항에 있어서,
상기 제1 실내 측위 장치는 상기 자력계 방위각 계산부에서 계산된 절대 방위각과, 상기 자이로스코프 방위각 계산부에서 계산된 각속도 정보를 제2 칼만 필터에 의해 결합하여 보행자의 최종 방향 정보(Headinggyro)를 계산하는 방향 필터부를 더 포함하는 것을 특징으로 하는 하이브리드 실내 측위 시스템.
The method of claim 6,
The first indoor positioning device calculates the final direction information (Heading gyro ) of the pedestrian by combining the absolute azimuth angle calculated by the magnetometer azimuth angle calculation unit and the angular velocity information calculated by the gyroscope azimuth angle calculation unit by a second Kalman filter. Hybrid indoor positioning system, characterized in that it further comprises a directional filter unit.
제8항에 있어서,
상기 제1 실내 측위 장치는 상기 절대 방위각과 상기 각속도 정보를 하기의 수학식 4에 의해 결합하여 보행자의 최종 방향 정보(Headinggyro)를 계산하는 방향 필터부를 더 포함하는 것을 특징으로 하는 하이브리드 실내 측위 시스템.
[수학식 4]
Figure 112020107457831-pat00053

여기서,
Figure 112020107457831-pat00054
는 업데이트된 사원수의 값임.
The method of claim 8,
The first indoor positioning device further comprises a direction filter unit for calculating the final direction information (Heading gyro ) of the pedestrian by combining the absolute azimuth angle and the angular velocity information by Equation 4 below. .
[Equation 4]
Figure 112020107457831-pat00053

here,
Figure 112020107457831-pat00054
Is the value of the updated number of employees.
제5항에 있어서,
상기 제1 실내 측위 장치는 상기 가속도 데이터의 피치 각과 각속도 데이터의 피치 각을 결합한 융합 피치 각을 수신하고, 상기 수신한 융합 피치 각을 이용하여 하기의 수학식 5의 선형 회귀 모델을 기초로 스텝 길이(SL)를 추정하는 스텝 길이 추정부를 더 포함하는 것을 특징으로 하는 하이브리드 실내 측위 시스템.
[수학식 5]
Figure 112019090064744-pat00055

여기서,
Figure 112019090064744-pat00056
는 degree 단위의 피치 진폭이고, 상수 a와 b는 각 회귀선에 맞는 매개 변수임.
The method of claim 5,
The first indoor positioning device receives a fusion pitch angle obtained by combining a pitch angle of the acceleration data and a pitch angle of angular velocity data, and uses the received fusion pitch angle to step length based on the linear regression model of Equation 5 below. Hybrid indoor positioning system, characterized in that it further comprises a step length estimating unit for estimating (SL).
[Equation 5]
Figure 112019090064744-pat00055

here,
Figure 112019090064744-pat00056
Is the pitch amplitude in degrees, and the constants a and b are parameters for each regression line.
제5항에 있어서,
상기 제1 실내 측위 장치는 상기 자력계로부터 보행자의 좌표계에 대한 방향 정보를 수신하고, 자세 결정부로부터 상기 융합 피치 각과, 상기 융합 롤 각을 수신하여 절대 방위각을 계산하는 자력계 방위각 계산부;
상기 자이로스코프로부터 3축 각속도 데이터를 수신하여 보행자가 위치한 방향을 3차원 공간에 표시하는 각속도 정보를 계산하는 자이로스코프 방위각 계산부; 및
상기 자력계 방위각 계산부에서 계산된 절대 방위각과, 상기 자이로스코프 방위각 계산부에서 계산된 각속도 정보를 제2 칼만 필터에 의해 결합하여 보행자의 최종 방향 정보(Headinggyro)를 계산하는 방향 필터부를 더 포함하는 것을 특징으로 하는 하이브리드 실내 측위 시스템.
The method of claim 5,
The first indoor positioning device includes: a magnetometer azimuth angle calculator configured to receive direction information on a coordinate system of a pedestrian from the magnetometer and receive the fusion pitch angle and the fusion roll angle from the posture determination unit to calculate an absolute azimuth angle;
A gyroscope azimuth calculation unit for receiving 3-axis angular velocity data from the gyroscope and calculating angular velocity information indicating a direction in which a pedestrian is located in a 3D space; And
Further comprising a direction filter unit for calculating the final direction information (Heading gyro ) of the pedestrian by combining the absolute azimuth angle calculated by the magnetometer azimuth angle calculation unit and the angular velocity information calculated by the gyroscope azimuth angle calculation unit by a second Kalman filter. Hybrid indoor positioning system, characterized in that.
제11항에 있어서,
상기 제1 실내 측위 장치는 상기 가속도 데이터의 피치 각과 각속도 데이터의 피치 각을 결합한 융합 피치 각을 수신하고, 상기 수신한 융합 피치 각을 이용하여 스텝 길이(SL)를 추정하는 스텝 길이 추정부; 및
상기 방향 필터부로부터 보행자의 최종 방향 정보를 수신하고, 상기 스텝 길이 추정부로부터 추정한 스텝 길이(SL)를 수신하고, 하기의 수학식 6에 의해 상기 보행자의 최종 방향 정보와 상기 스텝 길이, 초기 위치값을 이용하여 보행자의 현재 위치를 계산하는 현재 위치 계산부를 더 포함하는 것을 특징으로 하는 하이브리드 실내 측위 시스템.
[수학식 6]
Figure 112019090064744-pat00057

여기서, Xt-1, Yt-1은 초기 위치값, Xt, Yt는 보행자의 위치값, SL은 스텝 길이, Headingfusion은 자력계와 자이로스코프의 융합한 방위각임.
The method of claim 11,
The first indoor positioning device includes: a step length estimating unit receiving a fusion pitch angle obtained by combining a pitch angle of the acceleration data and a pitch angle of angular velocity data, and estimating a step length SL using the received fusion pitch angle; And
The final direction information of the pedestrian is received from the direction filter unit, the step length (SL) estimated from the step length estimation unit is received, and the final direction information of the pedestrian, the step length, and initial stage by Equation 6 below. Hybrid indoor positioning system, characterized in that it further comprises a current position calculator for calculating the current position of the pedestrian using the position value.
[Equation 6]
Figure 112019090064744-pat00057

Here, Xt-1, Yt-1 are the initial position values, Xt, Yt are the pedestrian's position values, SL is the step length, and Heading fusion is the azimuth angle of the fusion of the magnetometer and the gyroscope.
제1항에 있어서,
상기 제2 실내 측위 장치는 이전의 키프레임들과 현재의 키프레임을 비교하여 유사도 정도가 소정의 문턱값보다 큰 키프레임이 있는지를 검색한다. 루프 클로징부는 유사도가 소정의 문턱값보다 큰 키프레임이 검출되는 경우, 이들을 루프 클로져로 설정하며, 설정된 루프 클로져(Loop Closer)의 자세 변화 정보를 바탕으로 카메라 포즈의 그래프를 최적화하며, 최적화된 그래프를 토대로 위치 인식 및 지도 작성을 수행하는 것을 특징으로 하는 하이브리드 실내 측위 시스템.
The method of claim 1,
The second indoor positioning device compares the previous keyframes with the current keyframes and searches for a keyframe having a degree of similarity greater than a predetermined threshold value. When a key frame with a similarity greater than a predetermined threshold is detected, the loop closing unit sets them as loop closures, optimizes the camera pose graph based on the posture change information of the set loop closure, and optimizes the graph. Hybrid indoor positioning system, characterized in that to perform location recognition and map creation based on.
제1항에 있어서,
상기 센서 융합부는 센서 융합의 전이 상태 함수인 하기의 수학식 7의 이동 모델과 수학식 8의 관측 모델을 갖는 칼만 필터 알고리즘을 이용하여 상기 제1 위치와 상기 제2 위치를 결합하는 것을 특징으로 하는 하이브리드 실내 측위 시스템.
[수학식 7]
Figure 112019090064744-pat00058

여기서,
Figure 112019090064744-pat00059
는 보행자 위치의 2차원 좌표,
Figure 112019090064744-pat00060
는 시스템에 입력되는 IMU 센서의 x,y값(보행자의 2차원 좌표 정보), A와 B는 단위 행렬, W는 zero mean을 갖는 동작 모델이고, 공분산 행렬 Q의 가우시안 잡음을 나타냄.
[수학식 8]
Figure 112019090064744-pat00061

수학식 8은 상기 제1 실내 측위 장치의 위치 측정 결과를 통해 얻을 수 있으며,
Figure 112019090064744-pat00062
는 zero mean과 공분산 행렬 R을 갖는 상기 제1 실내 측위 장치의 위치 측정 결과의 가우시안 잡음, H는 항등 행렬임.
The method of claim 1,
The sensor fusion unit combines the first position and the second position using a Kalman filter algorithm having a movement model of Equation 7 below and an observation model of Equation 8, which is a transition state function of sensor fusion. Hybrid indoor positioning system.
[Equation 7]
Figure 112019090064744-pat00058

here,
Figure 112019090064744-pat00059
Is the two-dimensional coordinate of the pedestrian's position,
Figure 112019090064744-pat00060
Is the x,y value (two-dimensional coordinate information of the pedestrian) of the IMU sensor input to the system, A and B are the identity matrices, W is the motion model with zero mean, and represents the Gaussian noise of the covariance matrix Q.
[Equation 8]
Figure 112019090064744-pat00061

Equation 8 can be obtained through the position measurement result of the first indoor positioning device,
Figure 112019090064744-pat00062
Is Gaussian noise of the position measurement result of the first indoor positioning device having a zero mean and a covariance matrix R, and H is an identity matrix.
제14항에 있어서,
상기 칼만 필터 알고리즘은 시간에 앞서 미리 현재 상태를 예측하는 칼만 필터의 예측 단계(Predict)로 순방향으로 현재 상태 추정 결과를 전달하는 것으로 하기의 수학식 9의 선형 추정 방정식과, 하기의 수학식 10의 Prior 추적 에러 공분산 방정식으로 이루어진 예측을 위한 시간 갱신 방정식인 것을 특징으로 하는 하이브리드 실내 측위 시스템.
[수학식 9]
Figure 112019090064744-pat00063

여기서, A와 B는 단위 행렬,
Figure 112019090064744-pat00064
는 시스템의 입력,
Figure 112019090064744-pat00065
는 예측값임.
[수학식 10]
Figure 112019090064744-pat00066

여기서,
Figure 112019090064744-pat00067
는 공분산 행렬, T는 전치행렬,
Figure 112019090064744-pat00068
는 에러 공분산 값임.
The method of claim 14,
The Kalman filter algorithm transfers the current state estimation result in the forward direction to a prediction step (Predict) of the Kalman filter that predicts the current state in advance of time. A hybrid indoor positioning system, characterized in that it is a time update equation for prediction consisting of a prior tracking error covariance equation.
[Equation 9]
Figure 112019090064744-pat00063

Where A and B are identity matrices,
Figure 112019090064744-pat00064
Is the input of the system,
Figure 112019090064744-pat00065
Is the predicted value.
[Equation 10]
Figure 112019090064744-pat00066

here,
Figure 112019090064744-pat00067
Is the covariance matrix, T is the transposed matrix,
Figure 112019090064744-pat00068
Is the error covariance value.
제15항에 있어서,
상기 칼만 필터 알고리즘은 시간에 실제 측정에 의해 전달된 추정 상태값들을 보정하는 것으로 하기의 수학식 11의 칼만 이득 생성 방정식과 하기의 수학식 12의 갱신된 추정값 생성 방정식 및 하기의 수학식 13의 Posteriori 추적 에러 공분산 방정식으로 이루어진 측정 갱신 방정식인 것을 특징으로 하는 하이브리드 실내 측위 시스템.
[수학식 11]
Figure 112019090064744-pat00069

여기서, H는 항등 행렬, R은 공분산 행렬임.
[수학식 12]
Figure 112019090064744-pat00070

여기서,
Figure 112019090064744-pat00071
는 관찰 함수임.
[수학식 13]
Figure 112019090064744-pat00072
The method of claim 15,
The Kalman filter algorithm corrects the estimated state values transmitted by actual measurement over time, and the Kalman gain generation equation of Equation 11 below, the updated estimation value generation equation of Equation 12 below, and Posteriori of Equation 13 below. A hybrid indoor positioning system, characterized in that it is a measurement update equation consisting of a tracking error covariance equation.
[Equation 11]
Figure 112019090064744-pat00069

Here, H is the identity matrix and R is the covariance matrix.
[Equation 12]
Figure 112019090064744-pat00070

here,
Figure 112019090064744-pat00071
Is an observation function.
[Equation 13]
Figure 112019090064744-pat00072
KR1020190108082A 2019-09-02 2019-09-02 System for Positioning Hybrid Indoor Localization Using Inertia Measurement Unit Sensor and Camera KR102226846B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190108082A KR102226846B1 (en) 2019-09-02 2019-09-02 System for Positioning Hybrid Indoor Localization Using Inertia Measurement Unit Sensor and Camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190108082A KR102226846B1 (en) 2019-09-02 2019-09-02 System for Positioning Hybrid Indoor Localization Using Inertia Measurement Unit Sensor and Camera

Publications (2)

Publication Number Publication Date
KR20210026795A KR20210026795A (en) 2021-03-10
KR102226846B1 true KR102226846B1 (en) 2021-03-11

Family

ID=75142829

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190108082A KR102226846B1 (en) 2019-09-02 2019-09-02 System for Positioning Hybrid Indoor Localization Using Inertia Measurement Unit Sensor and Camera

Country Status (1)

Country Link
KR (1) KR102226846B1 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112884840A (en) * 2021-03-29 2021-06-01 湖南国科微电子股份有限公司 Visual positioning method, device, equipment and storage medium
CN113566827A (en) * 2021-07-09 2021-10-29 中国能源建设集团安徽省电力设计院有限公司 Transformer substation inspection robot indoor positioning method based on information fusion
KR102456872B1 (en) * 2021-12-30 2022-10-21 서울대학교산학협력단 System and method for tracking hand motion using strong coupling fusion of image sensor and inertial sensor
CN114440892B (en) * 2022-01-27 2023-11-03 中国人民解放军军事科学院国防科技创新研究院 Self-positioning method based on topological map and odometer
CN115103437B (en) * 2022-04-27 2024-03-15 电子科技大学 Tightly-coupled indoor positioning method of Bluetooth and inertial measurement unit
CN117629204A (en) * 2022-08-16 2024-03-01 北京三快在线科技有限公司 Positioning method and device
CN115355905A (en) * 2022-08-17 2022-11-18 腾讯科技(深圳)有限公司 State estimation method and device for foot type robot and computer equipment

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020001257A (en) * 2000-06-27 2002-01-09 지규인 Positioning module and navigation method for personal navigation system using gps and inertial sensors
KR100886340B1 (en) * 2007-04-04 2009-03-03 삼성전자주식회사 Apparatus and method for calibrating gyro-sensor of mobile robot
KR101394984B1 (en) * 2009-12-16 2014-05-14 에스케이플래닛 주식회사 In-door positioning apparatus and method based on inertial sensor
KR101160132B1 (en) 2011-12-07 2012-06-27 인하대학교 산학협력단 Calibration system of the inertia measurement units
KR101831891B1 (en) * 2014-10-02 2018-02-26 네이버 주식회사 Apparatus and method for position calculation, and computer program for executing the method

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
IEEE Access

Also Published As

Publication number Publication date
KR20210026795A (en) 2021-03-10

Similar Documents

Publication Publication Date Title
KR102226846B1 (en) System for Positioning Hybrid Indoor Localization Using Inertia Measurement Unit Sensor and Camera
Poulose et al. An indoor position-estimation algorithm using smartphone IMU sensor data
CN108051002B (en) Transport vehicle space positioning method and system based on inertial measurement auxiliary vision
CN106017463B (en) A kind of Aerial vehicle position method based on orientation sensing device
US9377310B2 (en) Mapping and positioning system
EP2434256B1 (en) Camera and inertial measurement unit integration with navigation data feedback for feature tracking
US9734414B2 (en) Unified framework for precise vision-aided navigation
Chen et al. A data-driven inertial navigation/Bluetooth fusion algorithm for indoor localization
WO2018068771A1 (en) Target tracking method and system, electronic device, and computer storage medium
KR101193638B1 (en) Inertial measurement with an imaging sensor and a digitized map
WO2017088196A1 (en) Fusion navigation device and method based on wireless fingerprints and mems sensor
CN112639502A (en) Robot pose estimation
CN109059907B (en) Trajectory data processing method and device, computer equipment and storage medium
Zhu et al. A novel particle filter approach for indoor positioning by fusing WiFi and inertial sensors
Li et al. Estimating position of mobile robots from omnidirectional vision using an adaptive algorithm
CN112815939B (en) Pose estimation method of mobile robot and computer readable storage medium
Cai et al. Mobile robot localization using gps, imu and visual odometry
KR101737950B1 (en) Vision-based navigation solution estimation system and method in terrain referenced navigation
CN114636414A (en) High definition city map drawing
Shu et al. Accurate indoor 3d location based on mems/vision by using a smartphone
CN115540854A (en) Active positioning method, equipment and medium based on UWB assistance
Ross et al. Uncertainty estimation for stereo visual odometry
CN113115214A (en) Indoor human body orientation recognition system based on non-reversible positioning tag
Ronen et al. Development challenges and performance analysis of drone visual/inertial slam in a global reference system
JP6653151B2 (en) Heading direction estimation system

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant