KR101376536B1 - Position Recognition Method for mobile object using convergence of sensors and Apparatus thereof - Google Patents

Position Recognition Method for mobile object using convergence of sensors and Apparatus thereof Download PDF

Info

Publication number
KR101376536B1
KR101376536B1 KR1020120097774A KR20120097774A KR101376536B1 KR 101376536 B1 KR101376536 B1 KR 101376536B1 KR 1020120097774 A KR1020120097774 A KR 1020120097774A KR 20120097774 A KR20120097774 A KR 20120097774A KR 101376536 B1 KR101376536 B1 KR 101376536B1
Authority
KR
South Korea
Prior art keywords
mobile device
inertial sensor
angular velocity
acceleration
output
Prior art date
Application number
KR1020120097774A
Other languages
Korean (ko)
Other versions
KR20140030955A (en
Inventor
류영선
한재원
Original Assignee
한국생산기술연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국생산기술연구원 filed Critical 한국생산기술연구원
Priority to KR1020120097774A priority Critical patent/KR101376536B1/en
Publication of KR20140030955A publication Critical patent/KR20140030955A/en
Application granted granted Critical
Publication of KR101376536B1 publication Critical patent/KR101376536B1/en

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0083Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot to help an aircraft pilot in the rolling phase
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01PMEASURING LINEAR OR ANGULAR SPEED, ACCELERATION, DECELERATION, OR SHOCK; INDICATING PRESENCE, ABSENCE, OR DIRECTION, OF MOVEMENT
    • G01P15/00Measuring acceleration; Measuring deceleration; Measuring shock, i.e. sudden change of acceleration
    • G01P15/02Measuring acceleration; Measuring deceleration; Measuring shock, i.e. sudden change of acceleration by making use of inertia forces using solid seismic masses
    • G01P15/08Measuring acceleration; Measuring deceleration; Measuring shock, i.e. sudden change of acceleration by making use of inertia forces using solid seismic masses with conversion into electric or magnetic values
    • G01P15/09Measuring acceleration; Measuring deceleration; Measuring shock, i.e. sudden change of acceleration by making use of inertia forces using solid seismic masses with conversion into electric or magnetic values by piezoelectric pick-up
    • G01P15/0907Measuring acceleration; Measuring deceleration; Measuring shock, i.e. sudden change of acceleration by making use of inertia forces using solid seismic masses with conversion into electric or magnetic values by piezoelectric pick-up of the compression mode type
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01PMEASURING LINEAR OR ANGULAR SPEED, ACCELERATION, DECELERATION, OR SHOCK; INDICATING PRESENCE, ABSENCE, OR DIRECTION, OF MOVEMENT
    • G01P15/00Measuring acceleration; Measuring deceleration; Measuring shock, i.e. sudden change of acceleration
    • G01P15/14Measuring acceleration; Measuring deceleration; Measuring shock, i.e. sudden change of acceleration by making use of gyroscopes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/04Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
    • G06Q10/047Optimisation of routes or paths, e.g. travelling salesman problem

Abstract

본 발명은 모바일 객체의 위치 인식 기술에 관한 것으로서, 보다 상세하게는 관성 센서와 비전 센서의 출력을 융합한 데이터를 이용하여 모바일 객체의 위치 추정 시 발생하는 오차를 최소화할 수 있는 위치 인식 기술에 관한 것이다.
본 발명에 따른 모바일 객체의 위치 인식은 비전 센서에서 계산된 위치 및 방위각 데이터와 관성 센서에서 계산된 속도, 방위각 데이터를 융합 필터를 이용하여 융합하기 때문에 위치 추정 시 발생하는 오차를 최소화할 수 있다.
The present invention relates to a location recognition technology of a mobile object, and more particularly, to a location recognition technology that can minimize the error occurring when estimating the location of a mobile object using data integrating the output of an inertial sensor and a vision sensor. will be.
In the position recognition of the mobile object according to the present invention, since the position and azimuth data calculated by the vision sensor and the velocity and azimuth data calculated by the inertial sensor are fused using a fusion filter, an error occurring when estimating the position can be minimized.

Description

센서 융합을 이용한 모바일 객체의 위치 인식방법 및 그 장치{Position Recognition Method for mobile object using convergence of sensors and Apparatus thereof}Position Recognition Method for mobile object using convergence of sensors and Apparatus

본 발명은 모바일 객체의 위치 인식 기술에 관한 것으로서, 보다 상세하게는 관성 센서와 비전 센서의 출력을 융합한 데이터를 이용하여 모바일 객체의 위치 추정 시 발생하는 오차를 최소화할 수 있는 위치 인식 기술에 관한 것이다.The present invention relates to a location recognition technology of a mobile object, and more particularly, to a location recognition technology that can minimize the error occurring when estimating the location of a mobile object using data integrating the output of an inertial sensor and a vision sensor. will be.

최근 로봇 기술의 발전에 따라 스스로 경로를 설정하고 이동하는 이동 로봇이 활용되고 있다. 이동 로봇의 대표적인 예로는 주택이나 건물 내부를 청소하는 청소용 로봇, 위치를 안내하는 안내 로봇 등을 들 수 있다. 특히 청소 로봇의 경우에는 각종 센서와 주행 수단을 구비하여 주행하면서 내부에 구비된 진공 청소 유닛을 이용하여 실내 바닥을 청소하며 현재 다수의 실제 제품이 사용되고 있다.Recently, according to the development of robot technology, a mobile robot that sets and moves itself is used. Representative examples of the mobile robot include a cleaning robot for cleaning the inside of a house or building, a guide robot for guiding a location, and the like. In particular, the cleaning robot is equipped with various sensors and traveling means while cleaning the indoor floor using a vacuum cleaning unit provided therein, a number of actual products are currently used.

이들 이동 로봇이 공간에서 효과적으로 위치를 판단하며 이동하기 위해서 이동하고 있는 공간에 대한 지도를 생성하고 공간상의 자신의 위치를 인식하는 것이 요구된다. 이동 로봇이 주변 공간에 대하여 스스로 위치를 인식하고 지도를 형성하는 것을 동시 위치인식 및 지도형성(SLAM : Simultaneous Localization And Mapping)이라고 한다.In order for these mobile robots to effectively locate and move in space, it is required to generate a map of the moving space and to recognize their position in space. It is called Simultaneous Localization And Mapping (SLAM) that a mobile robot recognizes its position and forms a map with respect to the surrounding space.

SLAM 기법 중에서 영상 기반의 SLAM은 영상에서 추출한 시각 특징점을 이용하여 주변 환경에 대한 지도를 생성하고, 로봇의 자세를 추정한다. 통상적으로 이동 로봇은 자이로스코프와 구동 모터에 구비된 엔코더를 이용하여 추측 항법(dead reckoning)으로 주행하며, 상부에 설치된 카메라를 이용하여 영상을 분석하고 지도를 생성한다. 이 때 자이로스코프와 엔코더로부터의 주행 정보에 의한 오차가 발생하는 경우 카메라로부터 획득된 영상 정보를 활용하여 누적되는 오차가 보정된다.Among the SLAM techniques, image-based SLAM generates a map of the surrounding environment using the visual feature points extracted from the image and estimates the robot's pose. In general, a mobile robot travels in dead reckoning using an encoder provided in a gyroscope and a driving motor, and analyzes an image and generates a map using a camera installed on the top. In this case, when an error due to driving information from the gyroscope and the encoder occurs, the accumulated error is corrected by using image information obtained from the camera.

그 동안 이동 로봇의 주행 제어 방법 및 그에 따른 이동 로봇에 대하여 여러 가지 선행기술이 제시된 바 있으나 다음과 같은 문제점이 해결되지 못하였다. 일반적으로 엔코더를 이용한 방법, 비전을 이용한 방법 등이 이동 로봇의 위치를 인식하는 방법으로 사용된다. 엔코더를 이용하는 방법은 슬립 등의 오차를 유발할 수 있는 환경적인 영향을 많이 받으며, 비전 센서는 보다 정확한 위치인식 기술이 개발되어 있지만 저장되어 있는 영상을 획득하지 못한 경우, 위치를 계산하지 못한다는 단점이 있다.In the meantime, various prior arts have been proposed with respect to the traveling control method of the mobile robot and the mobile robot, but the following problems have not been solved. Generally, a method using an encoder or a method using a vision is used as a method of recognizing a position of a mobile robot. The method of using the encoder is subject to many environmental influences that can cause errors such as slip, and the vision sensor has developed a more accurate position recognition technology, but the disadvantage that the position cannot be calculated if the stored image is not acquired. have.

본 발명은 상술한 종래 기술의 문제점을 해결하기 위하여, 관성 센서와 비전 센서의 출력을 융합한 데이터를 이용하여 모바일 객체의 위치 추정 시 발생하는 오차를 최소화할 수 있는 센서 융합을 이용한 모바일 객체의 위치 인식방법 및 그 장치를 제공하는 것을 목적으로 한다.The present invention, in order to solve the above-mentioned problems of the prior art, the position of the mobile object using a sensor fusion that can minimize the error generated when the position of the mobile object using the data fused the output of the inertial sensor and the vision sensor An object of the present invention is to provide a recognition method and an apparatus thereof.

본 발명의 목적은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The objects of the present invention are not limited to the above-mentioned objects, and other objects not mentioned can be clearly understood by those skilled in the art from the following description.

상술한 본 발명의 목적을 달성하기 위한 본 발명의 일 면에 따른 모바일 장치는 각속도계와 가속도계를 구비하며, 모바일 장치에 탑재되어 상기 모바일 장치의 이동에 따른 각속도 및 가속도를 측정하는 관성 센서와, 상기 모바일 장치 주변에 관한 영상 데이터를 생성하는 비전 센서와, 상기 각속도 및 가속도를 적분하여 상기 모바일 장치에 대한 속도 및 방위각 정보를 출력하는 관성 센서 데이터 처리부와, 상기 영상 데이터에 기초하여 주행 영역의 공간 지도를 생성하고 상기 모바일 장치의 위치 및 방위각 정보를 출력하는 비전 센서 데이터 처리부와, 상기 관성 센서 데이터 처리부의 출력과, 상기 비전 센서 데이터 처리부의 출력을 융합하여 상기 모바일 정보의 위치 정보를 생성하는 주제어부를 포함한다.According to an aspect of the present invention for achieving the above object of the present invention, a mobile device includes an angometer and an accelerometer, and is mounted on the mobile device and measures an angular velocity and acceleration according to the movement of the mobile device, A vision sensor for generating image data about the surroundings of the mobile device, an inertial sensor data processor for integrating the angular velocity and acceleration and outputting speed and azimuth information for the mobile device, and a space of a driving area based on the image data A keyword for generating location information of the mobile information by fusing a vision sensor data processing unit for generating a map and outputting position and azimuth information of the mobile device, an output of the inertial sensor data processing unit, and an output of the vision sensor data processing unit. Contains wealth.

상기 관성 센서 데이터 처리부는 상기 가속도계에서 출력되는 3축 가속도 성분을 이용하여 상기 모바일 장치의 주행 상태를 파악하고, 상기 모바일 장치가 주행 중인 경우에만 상기 각속도 및 가속도를 적분한 값을 출력한다.The inertial sensor data processor detects the driving state of the mobile device by using the 3-axis acceleration component output from the accelerometer, and outputs an integrated value of the angular velocity and acceleration only when the mobile device is running.

또한, 상기 관성 센서 데이터 처리부는 상기 기 설정된 시간 동안, 상기 관성 센서에서 측정된 각속도 및 가속도 성분의 데이터를 수집하고, 수집된 각속도 및 가속도 성분의 평균 값을 바이어스 보정한다.The inertial sensor data processor collects data of the angular velocity and acceleration component measured by the inertial sensor for the preset time and bias-compensates the average value of the collected angular velocity and acceleration component.

또한, 상기 관성 센서 데이터 처리부는 상기 모바일 장치의 주행 상태 판단 결과, 상기 모바일 장치가 정지 상태인 경우, 정지 상태 동안 상기 관성 센서에서 측정된 각속도 및 가속도 성분의 데이터를 수집하고, 수집된 각속도 및 가속도 성분의 평균 값을 바이어스 보정한다.The inertial sensor data processor may collect data of the angular velocity and acceleration component measured by the inertial sensor during the stationary state when the driving state of the mobile device is in the stationary state. Bias correction of the mean value of the components.

상기 주제어부는 상기 영상 데이터의 사용 가능여부에 따라 상기 모바일 장치의 위치를 인식 시에 상기 영상 데이터와 상기 각속도 및 가속도를 동시에 이용하는 제1 주행 모드와 상기 상기 각속도 및 가속도만을 이용하는 제2 주행모드를 선택적으로 적용한다.The main control unit selects a first driving mode that simultaneously uses the image data and the angular velocity and acceleration and a second driving mode that uses only the angular velocity and acceleration upon recognizing the location of the mobile device according to whether the image data is available. To apply.

또한, 상기 주제어부는 칼만 필터 또는 상보 필터 중 적어도 하나를 사용하여 상기 비전 센서 데이터 처리부에서 출력된 상기 위치 및 방위각 정보의 신뢰성을 평가하고, 상기 위치 및 방위각 정보에 대하여 상기 관성 센서 데이터 처리부에서의 출력을 이용하여 보상한다.The main control unit may evaluate reliability of the position and azimuth information output from the vision sensor data processor using at least one of a Kalman filter or a complementary filter, and output the output from the inertial sensor data processor with respect to the position and azimuth information. To compensate.

본 발명의 목적을 달성하기 위한 본 발명의 다른 면에 따른 관성 센서와 비전 센서의 융합을 이용한 모바일 장치의 위치 인식방법은 상기 모바일 장치 주변에 관한 영상 데이터에 기초하여 주행 영역의 공간 지도를 생성하고 상기 모바일 장치에 대한 제1 위치정보를 출력하는 단계와, 상기 모바일 장치의 각속도 및 가속도를 적분하여 상기 모바일 장치에 대한 제2 위치정보를 출력하는 단계와, 상기 제1 위치정보 및 상기 제2 위치정보에 기초하여 상기 모바일 장치의 위치를 인식하는 단계를 포함한다.According to another aspect of the present invention, a method for recognizing a location of a mobile device using a convergence of an inertial sensor and a vision sensor may be performed. Outputting first location information about the mobile device, outputting second location information on the mobile device by integrating the angular velocity and acceleration of the mobile device, the first location information and the second location Recognizing the location of the mobile device based on the information.

상기 제2 위치정보를 출력하는 단계는 상기 모바일 장치의 주행 상태를 파악하고, 상기 모바일 장치가 주행 중인 경우에만 상기 각속도 및 가속도를 적분하는 단계를 포함한다.The outputting of the second location information may include identifying a driving state of the mobile device and integrating the angular velocity and acceleration only when the mobile device is driving.

상기 제2 위치정보를 출력하는 단계는 상기 모바일 장치에 전원이 인가된 이후 기 설정된 시간 동안 상기 관성 센서에서 측정된 각속도 및 가속도 성분의 오차를 보정하는 단계와, 상기 모바일 장치의 주행 상태 판단 결과, 상기 모바일 장치가 정지 상태인 경우, 정지 상태 동안 상기 관성 센서에서 측정된 각속도 및 가속도 성분의 오차를 보정하는 단계를 더 포함한다.The outputting of the second position information may include correcting an error of an angular velocity and an acceleration component measured by the inertial sensor for a preset time after power is applied to the mobile device, and as a result of determining the driving state of the mobile device, If the mobile device is in a stationary state, correcting the error of the angular velocity and acceleration component measured by the inertial sensor during the stationary state.

상기 오차를 보정하는 단계는 상기 관성 센서에서 측정된 각속도 및 가속도 성분의 데이터를 수집하고, 수집된 각속도 및 가속도 성분의 평균 값을 바이어스 보정하는 단계를 포함한다.Correcting the error includes collecting data of the angular velocity and acceleration component measured by the inertial sensor and bias correcting the average value of the collected angular velocity and acceleration component.

상기 모바일 장치의 위치를 인식하는 단계는 칼만 필터 또는 상보 필터 중 적어도 하나를 사용하여 상기 제1 위치정보의 신뢰성을 평가하는 단계와, 상기 제1 위치정보에 대하여 상기 제2 위치정보를 이용하여 보상하는 단계를 포함한다.Recognizing a location of the mobile device may include evaluating the reliability of the first location information using at least one of a Kalman filter or a complementary filter, and compensating the first location information using the second location information. It includes a step.

한편, 본 발명의 일 면에 따른 모바일 장치 인식방법은 컴퓨터에서 실행시키기 위한 프로그램으로 구현되어 컴퓨터로 판독 가능한 기록매체에 저장될 수 있다.Meanwhile, the method for recognizing a mobile device according to an aspect of the present invention may be implemented as a program for executing in a computer and stored in a computer-readable recording medium.

이상 상술한 바와 같이, 본 발명에 따른 위치 인식 기술은 비전 센서에서 계산된 위치 및 방위각 데이터와 관성 센서에서 계산된 속도, 방위각 데이터를 융합 필터를 이용하여 융합하기 때문에 위치 추정 시 발생하는 오차를 최소화할 수 있다.As described above, the position recognition technology according to the present invention minimizes the error occurring in the position estimation because the position and azimuth data calculated by the vision sensor and the velocity and azimuth data calculated by the inertial sensor are fused using a fusion filter. can do.

도 1은 본 발명의 일 실시예에 따른 모바일 장치의 개략적인 구성을 도시한 블록 구성도.
도 2는 본 발명의 다른 실시예에 따른 모바일 장치의 위치 인식방법 알고리즘의 순서도이다.
1 is a block diagram showing a schematic configuration of a mobile device according to an embodiment of the present invention.
2 is a flowchart of a location recognition algorithm of a mobile device according to another embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 한편, 본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다.Advantages and features of the present invention and methods for achieving them will be apparent with reference to the embodiments described below in detail with the accompanying drawings. The present invention may, however, be embodied in many different forms and should not be construed as being limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the scope of the invention to those skilled in the art. Is provided to fully convey the scope of the invention to those skilled in the art, and the invention is only defined by the scope of the claims. It is to be understood that the terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention. In the present specification, the singular form includes plural forms unless otherwise specified in the specification.

이하, 본 발명의 바람직한 실시예를 첨부된 도면들을 참조하여 상세히 설명한다. 우선 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the drawings, the same reference numerals are used to designate the same or similar components throughout the drawings. In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear.

도 1은 본 발명의 일 실시예에 따른 모바일 장치의 개략적인 구성을 도시한 블록 구성도이다. 도 1을 참조하면, 본 발명의 일 실시예에 따른 모바일 장치는 비전 센서(10), 비전 센서 데이터 처리부(20), 관성 센서(30), 관성 센서 데이터 처리부(40), 주제어부(50)를 포함한다.1 is a block diagram showing a schematic configuration of a mobile device according to an embodiment of the present invention. Referring to FIG. 1, a mobile device according to an embodiment of the present invention includes a vision sensor 10, a vision sensor data processor 20, an inertial sensor 30, an inertial sensor data processor 40, and a main controller 50. It includes.

비전 센서(10)는 모바일 장치가 위치한 주변 환경에 대한 영상을 취득하는 장치로서, 일 실시예로서 CCD(Charge Coupled Device), CMOS(Complementary Metal Oxide Semiconductor) 등과 같은 이미지 센서를 포함하여 구성될 수 있다. 또한, 비전 센서(10)는 모바일 장치에서 상향을 향하도록 배치되어 천장 영상을 획득하도록 배치될 수 있으며, 어안 렌즈(fisheye lens)와 같은 광각(wide angle) 렌즈를 구비하여 넓은 범위의 천장 영상을 획득할 수 있도록 할 수 있다.The vision sensor 10 is an apparatus for acquiring an image of a surrounding environment in which a mobile device is located. The vision sensor 10 may include an image sensor such as a charge coupled device (CCD), a complementary metal oxide semiconductor (CMOS), or the like as an embodiment. . In addition, the vision sensor 10 may be disposed to face upward in the mobile device to acquire a ceiling image. The vision sensor 10 may include a wide angle lens such as a fisheye lens to display a wide range of ceiling images. Can be obtained.

비전 센서 데이터 처리부(20)는 비전 센서(10)가 취득한 주변 환경에 대한 영상 데이터에 기초하여 주행 영역의 공간 지도를 생성하고 모바일 장치의 위치 및 방위각 정보를 출력한다.The vision sensor data processor 20 generates a spatial map of the driving area based on the image data of the surrounding environment acquired by the vision sensor 10, and outputs the position and azimuth information of the mobile device.

일 실시예로서, 비전 센서 데이터 처리부(20)는 취득한 주변 환경에 대한 영상 데이터를 처리하여 영상 내의 특징점을 추출하여 특징점에 대한 기술자(descriptor)를 생성하고, 신규로 획득된 특징점에 대한 정보를 특징점 데이터베이스(미도시)에 등록하는 기능을 수행하는 한편, 획득된 영상에서 추출된 특징점을 특징점 데이터베이스에 기 등록된 특징점과 매칭하여 일치하는 특징점을 검출하는 기능을 수행한다. 이때, 특징점 매칭은 특징점을 표상하는 표상하는 기술자 간의 유클리드 거리(Euclidian Distance)를 계산하여 판별할 수 있다.In one embodiment, the vision sensor data processing unit 20 processes the image data of the acquired surrounding environment to extract feature points in the image to generate a descriptor for the feature points, and the information on the newly acquired feature points While performing a function of registering in a database (not shown), a feature point extracted from the acquired image is matched with a feature point previously registered in the feature point database to detect a matching feature point. At this time, the feature point matching may be determined by calculating an Euclidian distance between descriptors representing the feature points.

또한, 비전 센서 데이터 처리부(20)는 비전 센서(10)에서 획득된 영상, 모바일 장치의 이동 방향과 거리 등의 주행 정보, 특징점의 위치 등을 바탕으로 모바일 장치가 위치한 공간에 대한 지도를 생성하고 갱신하는 기능을 수행할 수 있다.In addition, the vision sensor data processing unit 20 generates a map of the space where the mobile device is located based on the image acquired by the vision sensor 10, driving information such as the moving direction and distance of the mobile device, and the location of the feature point. You can perform the function of updating.

경우에 따라서는 상기 공간에 대한 지도가 모바일 장치에 미리 제공될 수 있으며, 이 경우에는 공간에 위치한 장애물 등의 정보와 특징점 정보를 바탕으로 지도를 계속적으로 갱신하도록 할 수 있다.In some cases, a map of the space may be provided to the mobile device in advance, and in this case, the map may be continuously updated based on information such as obstacles located in the space and feature point information.

상술한 방법에 의해 생성된 지도 상에서 영상 데이터 처리 결과 추출된 특징점 정보를 이용하여 모바일 장치의 현재 위치 및 방위각 정보가 출력된다. 비전 센서를 이용한 위치 인식 기술은 상술한 실시예 이외에도 많은 기술들이 공지되어 있으므로 이에 대한 구체적인 설명은 생략하도록 한다. The current position and azimuth information of the mobile device are output using the feature point information extracted as a result of image data processing on the map generated by the above-described method. The position recognition technology using the vision sensor is known in addition to the above-described embodiment, so a detailed description thereof will be omitted.

본 발명에서 기술된 비전 센서를 이용한 위치 및 방위각 정보 출력방법은 하나의 예시에 불과한 것으로서, 이외에 공지된 기술을 본 발명에 적용할 수 있음은 물론이다. Position and azimuth information output method using the vision sensor described in the present invention is just one example, it is a matter of course that a known technique can be applied to the present invention.

관성 센서(30)는 각속도계와 가속도계를 구비하며, 모바일 장치에 탑재되어 모바일 장치의 이동에 따른 각속도 및 가속도를 측정한다. 관성 센서(30)는 운동의 관성력을 검출하여 측정 대상인 움직이는 물체의 가속도, 속도, 방향, 거리 등 다양한 항법 관련 정보를 제공하는 부품으로서, 인가되는 가속도에 의해 관성체에 작용하는 관성력을 검출하는 것이 기본 원리이며, 가속도계와 각속도계(Gyroscope)로 분류될 수 있다.The inertial sensor 30 includes an angular speedometer and an accelerometer and is mounted on the mobile device to measure the angular velocity and acceleration according to the movement of the mobile device. The inertial sensor 30 detects an inertial force of a motion and provides various navigation-related information such as acceleration, speed, direction, and distance of a moving object to be measured. It is a basic principle and can be classified into an accelerometer and a gyrograph.

관성 센서 데이터 처리부(40)는 관성 센서(30)로부터 측정된 각속도 및 가속도 데이터를 획득한다. 이때, 케이블 연결을 통해 측정된 각속도 및 가속도 데이터가 관성 센서 데이터 처리부(40)에 전달될 수 있다.The inertial sensor data processor 40 acquires the angular velocity and acceleration data measured from the inertial sensor 30. In this case, the angular velocity and acceleration data measured through the cable connection may be transmitted to the inertial sensor data processor 40.

관성 센서 데이터 처리부(40)는 상기 각속도 및 가속도 데이터를 이용하여 모바일 장치의 속도 및 헤딩(heading) 방향(방위각)을 획득할 수 있는데, 예컨대 모바일 장치의 속도를 V라고 하고, 방위각을 α라 한다면, 아래의 수학식 1에 의해 북쪽 방향의 속도(VNorth) 및 동쪽 방향의 속도(VEast)를 각각 구할 수 있다.The inertial sensor data processor 40 may obtain the speed and heading direction (azimuth angle) of the mobile device using the angular velocity and acceleration data. For example, if the speed of the mobile device is V and the azimuth is α, By using Equation 1 below, the speed V North in the north direction and the speed V East in the east direction can be obtained, respectively.

[수학식 1][Equation 1]

VNorth = cos α V North = cos α

VEast = sin α V East = sin α

관성 센서 데이터 처리부(40)는 수학식 1에서 연산된 각 방향 별 속도를 시간에 따라 적분함으로써, 각 방향(북, 동쪽으로 기재하였지만, 일반적으로 X, Y 방향을 의미함)의 위치를 계산할 수 있다.The inertial sensor data processing unit 40 may calculate the position of each direction (described as north, east, but generally meaning the X and Y directions) by integrating the velocity for each direction calculated in Equation 1 with time. have.

관성 센서는 데이터 출력 속도가 빠르고 주변 환경에 크게 영향을 받지 않는다는 장점이 있지만, 전술한 바와 같이 위치를 연산하기 위하여 관성 센서에서 측정된 각속도 및 가속도를 시간에 따라 적분하는 경우, 관성 센서에 내재된 오차(예컨대, 제조 오차 등)가 발산해버릴 수 있다는 단점이 있다. 본 발명은 이와 같은 문제점을 해결하기 위해, 모바일 장치가 실제 주행 중인 상태에서만 가속도 신호를 적분하여 적분으로 인해 발생하는 오차를 최소화하는 것에 특징이 있다.The inertial sensor has the advantage that the data output speed is fast and is not greatly influenced by the surrounding environment.However, when integrating the angular velocity and acceleration measured by the inertial sensor over time to calculate a position as described above, The disadvantage is that errors (eg manufacturing errors, etc.) can diverge. In order to solve this problem, the present invention is characterized by minimizing the error caused by the integration by integrating the acceleration signal only when the mobile device is actually driving.

이를 위해, 관성 센서 데이터 처리부(40)는 관성 센서(30)의 가속도계에서 출력되는 3축 가속도 성분을 이용하여 모바일 장치의 주행 상태를 파악하고, 모바일 장치가 주행 중인 경우에만 각속도 및 가속도를 적분하여 모바일 장치의 위치를 연산한다.  To this end, the inertial sensor data processing unit 40 determines the driving state of the mobile device by using the 3-axis acceleration component output from the accelerometer of the inertial sensor 30, and integrates the angular velocity and acceleration only when the mobile device is running. Compute the location of the mobile device.

또한, 관성 센서 데이터 처리부(40)는 모바일 장치에 전원이 인가된 이후, 초기화 단계에서 기 설정된 시간 동안 관성 센서에서 측정된 각속도 및 가속도 성분의 오차를 보정한다. 일 실시예로서, 관성 센서의 오차 보정은 레퍼런스 테이블(ex, rate table)을 이용하여 편차(bias), 스케일 요인(scale factor) 등을 측정하고, 이를 이용하여 프로그램 보정하는 방법을 사용할 수 있다.In addition, after power is applied to the mobile device, the inertial sensor data processor 40 corrects an error of the angular velocity and acceleration component measured by the inertial sensor for a preset time in the initialization step. In an embodiment, the error correction of the inertial sensor may use a method of measuring a bias, a scale factor, etc. using a reference table (ex, rate table), and program correcting using the same.

전원을 인가한 후, 모바일 장치가 움직임이 없는 상태에서 관성 센서에서 출력되는 값은 0이거나, 일정해야 하는데 관성 센서 내부 오차 또는 외부 환경적 요인으로 인해 그렇지 못한 경우가 발생한다. 이 경우, 오차의 보정이 필요한데, 본 실시예에서 관성 센서 데이터 처리부(40)는 관성 센서의 편차를 구한 후, 이를 빼주는 바이어스 보정 방법을 이용한다. 구체적으로, 관성 센서 데이터 처리부(40)는 기 설정된 시간 동안, 관성 센서에서 측정된 각속도 및 가속도 성분의 데이터를 수집하고, 수집된 각속도 및 가속도 성분의 평균 값을 바이어스 보정한다.After the power is applied, the value output from the inertial sensor while the mobile device is in a motionless state should be zero or constant, but not because of internal error or external environmental factors. In this case, error correction is required. In this embodiment, the inertial sensor data processing unit 40 uses a bias correction method that obtains a deviation of the inertial sensor and then subtracts it. In detail, the inertial sensor data processor 40 collects data of the angular velocity and acceleration component measured by the inertial sensor for a preset time and bias-compensates the average value of the collected angular velocity and acceleration component.

또한, 관성 센서 데이터 처리부(40)는 전원이 인가된 직후의 초기화 단계뿐만 아니라, 실제 모바일 장치가 계속적으로 동작 중인 상태에서도 관성 센서에 대한 오차 보정을 수행한다. In addition, the inertial sensor data processor 40 not only initializes the power supply immediately after the power is applied, but also corrects an error of the inertial sensor even when the mobile device is continuously operating.

예컨대, 모바일 장치가 동작 중인 경우, 실시간 또는 주기적으로 관성 센서데이터 처리부(40)는 모바일 장치가 현재 주행 중인지 아니면 정지 상태인지 여부를 모니터링한다. 이는 전술한 관성 센서의 가속도계에서 출력되는 3축 가속도 성분을 이용할 수 있으며, 모니터링 결과, 모바일 장치가 정지 상태인 경우에는 정지 상태가 유지된 시간 동안 관성 센서에서 측정된 각속도 및 가속도 성분의 데이터를 수집한다. 이후, 관성 센서 데이터 처리부(40)는 수집된 각속도 및 가속도 성분의 평균 값을 바이어스 보정하게 된다.For example, when the mobile device is in operation, the inertial sensor data processing unit 40 monitors whether the mobile device is currently running or in a stopped state in real time or periodically. It can use the 3-axis acceleration component output from the accelerometer of the inertial sensor described above, and when the mobile device is in a stationary state as a result of monitoring, it collects data of the angular velocity and acceleration component measured by the inertial sensor during the time the stationary state is maintained. do. Thereafter, the inertial sensor data processor 40 bias-compensates the average value of the collected angular velocity and acceleration components.

주제어부는(50)는 관성 센서 데이터 처리부(40)의 출력과, 비전 센서 데이터 처리부(20)의 출력을 융합하여 모바일 정보의 위치 정보를 최종적으로 생성한다.The main controller 50 merges the output of the inertial sensor data processor 40 and the output of the vision sensor data processor 20 to finally generate location information of the mobile information.

일 실시예로, 주제어부(50)는 칼만 필터 또는 상보 필터 중 적어도 하나를 사용하여 비전 센서 데이터 처리부(20)에서 출력된 모바일 장치의 위치 및 방위각 정보의 신뢰성을 평가하고, 평가된 위치 및 방위각 정보에 대하여 관성 센서 데이터 처리부(40)에서의 출력을 이용하여 보상을 수행할 수 있다.In one embodiment, the main controller 50 evaluates the reliability of the position and azimuth information of the mobile device output from the vision sensor data processing unit 20 using at least one of a Kalman filter or a complementary filter, and evaluates the evaluated position and azimuth angle. The information may be compensated by using the output from the inertial sensor data processor 40.

또한, 주제어부(50)는 비전 센서(10)에서의 영상 데이터의 사용 가능여부에 따라 모바일 장치의 위치를 인식 시에 영상 데이터와 관성 센서(30)에서 측정된 각속도 및 가속도를 동시에 이용하는 제1 주행 모드와, 관성 센서(30)에서 측정된 각속도 및 가속도만을 이용하는 제2 주행모드를 선택적으로 적용할 수 있다. In addition, the main controller 50 may simultaneously use the angular velocity and acceleration measured by the inertial sensor 30 at the time of recognizing the position of the mobile device according to the availability of the image data in the vision sensor 10. The driving mode and the second driving mode using only the angular velocity and acceleration measured by the inertial sensor 30 may be selectively applied.

한편, 도 2는 본 발명의 다른 실시예에 따른 모바일 장치의 위치 인식방법 알고리즘의 순서도이다. 이하, 도 2를 참조하여 모바일 장치의 위치 인식방법을 구체적으로 설명한다.2 is a flowchart of a location recognition algorithm of a mobile device according to another embodiment of the present invention. Hereinafter, a method of recognizing a location of a mobile device will be described in detail with reference to FIG. 2.

먼저, 모바일 장치의 전원이 온(On)되면, 모바일 장치에 설치된 전자기기에 대한 초기화가 수행된다. 예를 들어, 모바일 장치에는 비전 센서 및 관성 센서가 장착되어 있는데, 모바일 장치가 주행을 개시하기 전에 기 설정된 시간 동안 관성 센서의 오차를 보정한다(S210).First, when the power of the mobile device is turned on, initialization of the electronic device installed in the mobile device is performed. For example, the mobile device is equipped with a vision sensor and an inertial sensor, and corrects the error of the inertial sensor for a preset time before the mobile device starts driving (S210).

일 실시예로서, 관성 센서의 오차 보정은 레퍼런스 테이블(ex, rate table)을 이용하여 편차(bias), 스케일 요인(scale factor) 등을 측정하고, 이를 이용하여 프로그램 보정하는 방법을 사용할 수 있다. In an embodiment, the error correction of the inertial sensor may use a method of measuring a bias, a scale factor, etc. using a reference table (ex, rate table), and program correcting using the same.

전원을 인가한 후, 모바일 장치가 움직임이 없는 상태에서 관성 센서에서 출력되는 값은 0이거나, 일정해야 하는데 관성 센서 내부 오차 또는 외부 환경적 요인으로 인해 그렇지 못한 경우가 발생한다. 이 경우, 기 설정된 시간 동안 관성 센서의 편차를 구한 후, 이를 빼주는 바이어스 보정 방법을 이용한다. After the power is applied, the value output from the inertial sensor while the mobile device is in a motionless state should be zero or constant, but not because of internal error or external environmental factors. In this case, after the deviation of the inertial sensor is obtained for a predetermined time, a bias correction method is used to subtract it.

다음으로, 비전 센서는 모바일 장치가 위치한 주변 환경에 대한 영상을 취득하고(S221), 취득한 주변 환경에 대한 영상 데이터에 기초하여 주행 영역의 공간 지도를 생성하고 모바일 장치의 위치 및 방위각 정보를 출력한다(S230).Next, the vision sensor acquires an image of the surrounding environment in which the mobile device is located (S221), generates a spatial map of the driving area based on the acquired image data of the surrounding environment, and outputs the position and azimuth information of the mobile device. (S230).

한편, 관성 센서는 모바일 장치의 이동에 따른 각속도 및 가속도를 측정하고(S223), 관성 센서의 가속도계에서 출력되는 3축 가속도 성분을 이용하여 모바일 장치의 주행 상태를 모니터링 한다(S241). 모니터링 결과, 모바일 장치가 주행 중인 경우에만 각속도 및 가속도를 적분하여 모바일 장치의 속도 및 헤딩(heading) 방향(방위각)을 획득한다(S245).On the other hand, the inertial sensor measures the angular velocity and acceleration according to the movement of the mobile device (S223), and monitors the driving state of the mobile device using the three-axis acceleration component output from the accelerometer of the inertial sensor (S241). As a result of the monitoring, the speed and heading direction (azimuth angle) of the mobile device is obtained by integrating the angular velocity and acceleration only when the mobile device is driving (S245).

만약, 모니터링 결과, 모바일 장치가 정지 상태인 경우에는 정지 상태가 유지된 시간 동안 관성 센서에서 측정된 각속도 및 가속도 성분의 데이터를 수집한다. 이후, 수집된 각속도 및 가속도 성분의 평균 값은 관성 센서의 바이어스 보정에 이용된다(S243). 바이어스 보정된 각속도 및 가속도 성분이 모바일 장치의 속도 및 방위각 정보를 획득하는 단계(S245)에 사용됨은 물론이다.If, as a result of the monitoring, the mobile device is in a stationary state, data of the angular velocity and acceleration component measured by the inertial sensor is collected during the stationary state. Thereafter, the average values of the collected angular velocity and acceleration components are used for bias correction of the inertial sensor (S243). Of course, the bias-corrected angular velocity and acceleration components are used in the step S245 of obtaining the velocity and azimuth information of the mobile device.

이후, S230 단계에서 출력된 모바일 장치의 데이터 및 S245 단계에서 출력된 모바일 장치의 데이터를 융합하여 모바일 장치의 최종 위치정보를 생성한다(S250). 데이터 융합의 일 실시예로서 칼만 필터 또는 상보 필터 중 적어도 하나가 사용될 수 있으며, S230 단계에서 출력된 모바일 장치의 위치 및 방위각 정보의 신뢰성을 평가하고, 평가된 위치 및 방위각 정보에 대하여 S245 단계에서의 출력을 이용하여 보상을 수행할 수 있다.Thereafter, data of the mobile device output in step S230 and data of the mobile device output in step S245 are merged to generate final position information of the mobile device (S250). At least one of a Kalman filter or a complementary filter may be used as an embodiment of data fusion, and the reliability of the position and azimuth information of the mobile device output in step S230 may be evaluated, and the evaluated position and azimuth information may be evaluated in step S245. The output can be used to perform compensation.

한편, 상술한 본 발명에 따른 모바일 장치의 위치 인식방법은 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현되는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록 매체로는 컴퓨터 시스템에 의하여 해독될 수 있는 데이터가 저장된 모든 종류의 기록 매체를 포함한다. 예를 들어, ROM(Read Only Memory), RAM(Random Access Memory), 자기 테이프, 자기 디스크, 플래시 메모리, 광 데이터 저장장치 등이 있을 수 있다. 또한, 컴퓨터로 판독 가능한 기록매체는 컴퓨터 통신망으로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 읽을 수 있는 코드로서 저장되고 실행될 수 있다.Meanwhile, the above-described method for recognizing a location of a mobile device according to the present invention may be embodied as computer readable code on a computer readable recording medium. The computer-readable recording medium includes all kinds of recording media storing data that can be decoded by a computer system. For example, there may be a ROM (Read Only Memory), a RAM (Random Access Memory), a magnetic tape, a magnetic disk, a flash memory, an optical data storage device and the like. The computer-readable recording medium may also be distributed and executed in a computer system connected to a computer network and stored and executed as a code that can be read in a distributed manner.

본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 본 발명의 보호범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구의 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
It will be understood by those skilled in the art that the present invention may be embodied in other specific forms without departing from the spirit or essential characteristics thereof. It is therefore to be understood that the above-described embodiments are illustrative in all aspects and not restrictive. The scope of the present invention is defined by the appended claims rather than the detailed description, and all changes or modifications derived from the scope of the claims and their equivalents should be construed as being included within the scope of the present invention.

Claims (11)

각속도계와 가속도계를 구비하며, 모바일 장치에 탑재되어 상기 모바일 장치의 이동에 따른 각속도 및 가속도를 측정하는 관성 센서;
상기 모바일 장치 주변에 관한 영상 데이터를 생성하는 비전 센서;
상기 각속도 및 가속도를 적분하여 상기 모바일 장치에 대한 속도 및 방위각 정보를 출력하는 관성 센서 데이터 처리부;
상기 영상 데이터에 기초하여 주행 영역의 공간 지도를 생성하고 상기 모바일 장치의 위치 및 방위각 정보를 출력하는 비전 센서 데이터 처리부;
상기 관성 센서 데이터 처리부의 출력과, 상기 비전 센서 데이터 처리부의 출력을 융합하여 상기 모바일 정보의 위치 정보를 생성하는 주제어부를 포함하되,
상기 관성 센서 데이터 처리부는,
상기 가속도계에서 출력되는 3축 가속도 성분을 이용하여 상기 모바일 장치의 주행 상태를 파악하고, 상기 모바일 장치가 주행 중인 경우에만 상기 각속도 및 가속도를 적분하여 상기 모바일 장치에 대한 속도 및 방위각 정보를 출력하는 것이고,
상기 모바일 장치가 정지 상태인 경우, 정지 상태 동안 상기 관성 센서에서 측정된 각속도 및 가속도 성분의 데이터를 수집하고, 수집된 각속도 및 가속도 성분의 평균 값을 바이어스 보정하는 것
인 모바일 장치.
An inertial sensor having an angometer and an accelerometer, the inertial sensor mounted on the mobile device to measure angular velocity and acceleration according to the movement of the mobile device;
A vision sensor for generating image data about the periphery of the mobile device;
An inertial sensor data processor for integrating the angular velocity and acceleration to output velocity and azimuth information for the mobile device;
A vision sensor data processor configured to generate a spatial map of the driving area based on the image data and output position and azimuth information of the mobile device;
A main control unit for generating location information of the mobile information by fusing the output of the inertial sensor data processor and the output of the vision sensor data processor;
The inertial sensor data processing unit,
The driving state of the mobile device is determined by using the 3-axis acceleration component output from the accelerometer, and the speed and azimuth information of the mobile device are output by integrating the angular velocity and acceleration only when the mobile device is driving. ,
When the mobile device is stationary, collecting data of the angular velocity and acceleration components measured by the inertial sensor during the stationary state and bias correcting the average value of the collected angular velocity and acceleration components
Mobile device.
제1항에 있어서, 상기 관성 센서 데이터 처리부는,
상기 모바일 장치에 전원이 인가된 이후, 기 설정된 시간 동안 상기 관성 센서에서 측정된 각속도 및 가속도 성분의 오차를 보정하는 것
인 모바일 장치.
The method of claim 1, wherein the inertial sensor data processing unit,
After the power is applied to the mobile device, correcting the error of the angular velocity and acceleration component measured by the inertial sensor for a predetermined time
Mobile device.
삭제delete 제1항에 있어서, 상기 관성 센서 데이터 처리부는,
상기 모바일 장치의 주행 상태 판단 결과, 상기 모바일 장치가 정지 상태인 경우, 정지 상태 동안 상기 관성 센서에서 측정된 각속도 및 가속도 성분의 데이터를 수집하고, 수집된 각속도 및 가속도 성분의 평균 값을 바이어스 보정하는 것
인 모바일 장치.
The method of claim 1, wherein the inertial sensor data processing unit,
As a result of determining the driving state of the mobile device, when the mobile device is in the stationary state, data of the angular velocity and acceleration component measured by the inertial sensor during the stationary state are collected, and the average value of the collected angular velocity and acceleration component is bias corrected. that
Mobile device.
제1항에 있어서, 상기 주제어부는,
상기 영상 데이터의 사용 가능여부에 따라 상기 모바일 장치의 위치를 인식 시에 상기 영상 데이터와 상기 각속도 및 가속도를 동시에 이용하는 제1 주행 모드와 상기 각속도 및 가속도만을 이용하는 제2 주행모드를 선택적으로 적용하는 것
인 모바일 장치.
2. The apparatus according to claim 1,
Selectively applying a first driving mode using both the image data and the angular velocity and acceleration and a second driving mode using only the angular velocity and acceleration, upon recognizing the location of the mobile device according to the availability of the image data;
Mobile device.
제1항에 있어서, 상기 주제어부는,
칼만 필터 또는 상보 필터 중 적어도 하나를 사용하여 상기 비전 센서 데이터 처리부에서 출력된 상기 위치 및 방위각 정보의 신뢰성을 평가하고, 상기 위치 및 방위각 정보에 대하여 상기 관성 센서 데이터 처리부에서의 출력을 이용하여 보상하는 것
인 모바일 장치.
2. The apparatus according to claim 1,
Evaluating the reliability of the position and azimuth information output from the vision sensor data processor using at least one of a Kalman filter or a complementary filter, and compensating for the position and azimuth information using the output from the inertial sensor data processor. that
Mobile device.
관성 센서와 비전 센서의 융합을 이용한 모바일 장치의 위치 인식방법에 있어서,
상기 모바일 장치 주변에 관한 영상 데이터에 기초하여 주행 영역의 공간 지도를 생성하고 상기 모바일 장치에 대한 제1 위치정보를 출력하는 단계;
상기 모바일 장치의 각속도 및 가속도를 적분하여 상기 모바일 장치에 대한 제2 위치정보를 출력하는 단계;
상기 제1 위치정보 및 상기 제2 위치정보에 기초하여 상기 모바일 장치의 위치를 인식하는 단계를 포함하되,
상기 제2 위치정보를 출력하는 단계는,
상기 모바일 장치의 주행 상태를 파악하고, 상기 모바일 장치가 주행 중인 경우에만 상기 각속도 및 가속도를 적분하여 상기 모바일 장치에 대한 속도 및 방위각 정보를 출력하고,
상기 모바일 장치가 정지 상태인 경우, 정지 상태 동안 상기 관성 센서에서 측정된 각속도 및 가속도 성분의 데이터를 수집하고, 수집된 각속도 및 가속도 성분의 평균 값을 바이어스 보정하는 단계를 포함하는 것
인 모바일 장치의 위치 인식방법.
In the position recognition method of a mobile device using the fusion of an inertial sensor and a vision sensor,
Generating a spatial map of a driving area based on image data about the surroundings of the mobile device and outputting first location information about the mobile device;
Integrating the angular velocity and acceleration of the mobile device to output second position information for the mobile device;
Recognizing a location of the mobile device based on the first location information and the second location information,
The outputting of the second location information may include:
Grasp the driving state of the mobile device, integrate the angular velocity and acceleration only when the mobile device is driving, and output speed and azimuth information for the mobile device;
When the mobile device is stationary, collecting data of angular velocity and acceleration components measured at the inertial sensor during the stationary state and bias correcting the average values of the collected angular velocity and acceleration components
Location recognition method of a mobile device.
삭제delete 삭제delete 제7항에 있어서, 상기 모바일 장치의 위치를 인식하는 단계는,
칼만 필터 또는 상보 필터 중 적어도 하나를 사용하여 상기 제1 위치정보의 신뢰성을 평가하는 단계와,
상기 제1 위치정보에 대하여 상기 제2 위치정보를 이용하여 보상하는 단계를 포함하는 것
인 모바일 장치의 위치 인식방법.

The method of claim 7, wherein the step of recognizing the location of the mobile device,
Evaluating the reliability of the first location information using at least one of a Kalman filter or a complementary filter;
Compensating for the first location information by using the second location information.
Location recognition method of a mobile device.

삭제delete
KR1020120097774A 2012-09-04 2012-09-04 Position Recognition Method for mobile object using convergence of sensors and Apparatus thereof KR101376536B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120097774A KR101376536B1 (en) 2012-09-04 2012-09-04 Position Recognition Method for mobile object using convergence of sensors and Apparatus thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120097774A KR101376536B1 (en) 2012-09-04 2012-09-04 Position Recognition Method for mobile object using convergence of sensors and Apparatus thereof

Publications (2)

Publication Number Publication Date
KR20140030955A KR20140030955A (en) 2014-03-12
KR101376536B1 true KR101376536B1 (en) 2014-03-19

Family

ID=50643298

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120097774A KR101376536B1 (en) 2012-09-04 2012-09-04 Position Recognition Method for mobile object using convergence of sensors and Apparatus thereof

Country Status (1)

Country Link
KR (1) KR101376536B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104121928B (en) * 2014-05-29 2016-09-28 湖北航天技术研究院总体设计所 A kind of it be applicable to low precision and have the Inertial Measurement Unit scaling method of azimuth reference single shaft indexing apparatus
US11898873B2 (en) 2021-08-31 2024-02-13 Zoox, Inc. Calibrating multiple inertial measurement units

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009123061A (en) * 2007-11-16 2009-06-04 Topy Ind Ltd System for detecting robot position
KR20110011424A (en) * 2009-07-28 2011-02-08 주식회사 유진로봇 Method for recognizing position and controlling movement of a mobile robot, and the mobile robot using the same
KR20120003578A (en) * 2010-07-05 2012-01-11 아주대학교산학협력단 Indoor localization system and method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009123061A (en) * 2007-11-16 2009-06-04 Topy Ind Ltd System for detecting robot position
KR20110011424A (en) * 2009-07-28 2011-02-08 주식회사 유진로봇 Method for recognizing position and controlling movement of a mobile robot, and the mobile robot using the same
KR20120003578A (en) * 2010-07-05 2012-01-11 아주대학교산학협력단 Indoor localization system and method

Also Published As

Publication number Publication date
KR20140030955A (en) 2014-03-12

Similar Documents

Publication Publication Date Title
KR101725060B1 (en) Apparatus for recognizing location mobile robot using key point based on gradient and method thereof
KR101782057B1 (en) Apparatus for building map and method thereof
EP2495632B1 (en) Map generating and updating method for mobile robot position recognition
KR101776622B1 (en) Apparatus for recognizing location mobile robot using edge based refinement and method thereof
KR101439921B1 (en) Slam system for mobile robot based on vision sensor data and motion sensor data fusion
EP2495079B1 (en) Slip detection apparatus and method for a mobile robot
KR101776621B1 (en) Apparatus for recognizing location mobile robot using edge based refinement and method thereof
KR101072876B1 (en) Method and apparatus for estimating position in a mobile robot
KR101784183B1 (en) APPARATUS FOR RECOGNIZING LOCATION MOBILE ROBOT USING KEY POINT BASED ON ADoG AND METHOD THEREOF
CN107567412A (en) Measured using vehicle camera using the object's position of vehicle motion data
US20180075614A1 (en) Method of Depth Estimation Using a Camera and Inertial Sensor
JP2012006587A (en) Method for evaluating horizontal speed of drone, particularly of drone capable of performing hovering flight under autopilot
KR101115012B1 (en) Apparatus and Method for Compenating Angular Velocity Error for Robot
CN111947644B (en) Outdoor mobile robot positioning method and system and electronic equipment thereof
Zhang et al. Vision-aided localization for ground robots
US11874666B2 (en) Self-location estimation method
US20190331496A1 (en) Locating a vehicle
CN110751123A (en) Monocular vision inertial odometer system and method
CN111238490B (en) Visual positioning method and device and electronic equipment
KR101376536B1 (en) Position Recognition Method for mobile object using convergence of sensors and Apparatus thereof
CN113701750A (en) Fusion positioning system of underground multi-sensor
CN112731503A (en) Pose estimation method and system based on front-end tight coupling
Ling et al. RGB-D inertial odometry for indoor robot via keyframe-based nonlinear optimization
CN111862146A (en) Target object positioning method and device
JPH1139464A (en) Image processor for vehicle

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20170208

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20180102

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20190102

Year of fee payment: 6