KR101454824B1 - System and Method for estimating positions of an autonomous mobile vehicle - Google Patents

System and Method for estimating positions of an autonomous mobile vehicle Download PDF

Info

Publication number
KR101454824B1
KR101454824B1 KR1020130036178A KR20130036178A KR101454824B1 KR 101454824 B1 KR101454824 B1 KR 101454824B1 KR 1020130036178 A KR1020130036178 A KR 1020130036178A KR 20130036178 A KR20130036178 A KR 20130036178A KR 101454824 B1 KR101454824 B1 KR 101454824B1
Authority
KR
South Korea
Prior art keywords
navigation
mode
layer
unit
ins
Prior art date
Application number
KR1020130036178A
Other languages
Korean (ko)
Other versions
KR20140120466A (en
Inventor
박용운
최지훈
이용우
민지홍
오상헌
Original Assignee
국방과학연구소
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 국방과학연구소 filed Critical 국방과학연구소
Priority to KR1020130036178A priority Critical patent/KR101454824B1/en
Publication of KR20140120466A publication Critical patent/KR20140120466A/en
Application granted granted Critical
Publication of KR101454824B1 publication Critical patent/KR101454824B1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]

Abstract

본 발명은 차량의 위치 추정 시스템에 관한 것으로서, 더 상세하게는 다수의 센서를 이용하여 자율이동차량의 위치를 추정하더라도 각 센서의 신뢰성을 실시간 판단하여 최적의 센서융합을 수행함으로써 알고리즘 계산량을 줄이고 위치추정 정확도를 보다 향상시키는 자율 이동 차량의 위치 추정 시스템에 대한 것이다.
본 발명에 의하면, 다수의 센서를 이용하여 자율이동차량의 위치를 추정하더라도 각 센서의 신뢰성을 실시간 판단하여 최적의 센서융합을 수행함으로써 알고리즘 계산량을 줄이고 위치추정 정확도를 보다 향상시킬 수 있다.
The present invention relates to a vehicle position estimation system, and more particularly, to a vehicle position estimation system that estimates the position of an autonomous vehicle using a plurality of sensors, estimates the reliability of each sensor in real time, And more particularly to an autonomous moving vehicle position estimation system that further improves estimation accuracy.
According to the present invention, even if the position of the autonomous mobile vehicle is estimated using a plurality of sensors, the reliability of each sensor can be determined in real time, and optimal sensor fusion can be performed, thereby reducing the calculation amount of the algorithm and improving the accuracy of the position estimation.

Description

자율 이동 차량의 위치 추정 시스템 및 방법{System and Method for estimating positions of an autonomous mobile vehicle}BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a system and method for estimating an autonomous moving vehicle,

본 발명은 차량의 위치 추정 시스템에 관한 것으로서, 더 상세하게는 다수의 센서를 이용하여 자율이동차량의 위치를 추정하더라도 각 센서의 신뢰성을 실시간 판단하여 최적의 센서융합을 수행함으로써 알고리즘 계산량을 줄이고 위치추정 정확도를 보다 향상시키는 자율 이동 차량의 위치 추정 시스템에 대한 것이다.The present invention relates to a vehicle position estimation system, and more particularly, to a vehicle position estimation system that estimates the position of an autonomous vehicle using a plurality of sensors, estimates the reliability of each sensor in real time, And more particularly to an autonomous moving vehicle position estimation system that further improves estimation accuracy.

또한, 본 발명은 다수의 센서를 이용하여 자율이동차량의 위치를 추정하더라도 각 센서의 신뢰성을 실시간 판단하여 최적의 센서융합을 수행함으로써 알고리즘 계산량을 줄이고 위치추정 정확도를 보다 향상시키는 자율 이동 차량의 위치 추정 방법에 대한 것이다.In addition, even if the position of the autonomous moving vehicle is estimated using a plurality of sensors, it is possible to estimate the position of the autonomous moving vehicle, which realizes the reliability of each sensor in real time and performs optimal sensor fusion, Estimation method.

일반적으로 지상환경에서 자율이동차량의 위치추정은 GPS(Global Positioning System)/INS(Inertial Navigation System)를 사용하고 있다.  In general, GPS (Global Positioning System) / INS (Inertial Navigation System) is used for location estimation of autonomous vehicles in ground environment.

하지만, 지상환경에서 GPS는 주변환경(나무, 건물 등)에 의해 신호가 쉽게 단절되어 INS의 오차를 보정하기 위해 다양한 센서(Compass, 속도계, 영상센서, 등) 들의 활용을 연구하고 있으며 이를 활용한 다중센서 융합은 주로 중앙 집중식 /분산식/연합식 방법 등을 기반으로 연구되고 있다. However, in the ground environment, GPS is studying the use of various sensors (Compass, speedometer, image sensor, etc.) to compensate the INS error because the signal is easily disconnected by the surrounding environment (trees, buildings, etc.) Multi-sensor fusion is mainly based on centralized / distributed / federated methods.

이를 보여주는 기술로는, Q. T. Gu and J. Fang, "Global optimality for generalized federated filter", ACTA AUTOMATICA SINICA, vol. 35, no. 10, pp. 1310-1316, 2009., X. B. Gao, J. G. Chen, D. C. Tao, and X. L. Li, "Multi-Sensor Centralized Fusion without Measurement Noise Covariance by Variational Bayesian Approximation,"IEEE Transactions on Aerospace and Electronic Systems, vol.47, no. 1, pp. 718-272, 2011., L. Cong, H. L. Qin, and Z. H. Tan, "Intelligent fault-tolerant algorithm with two-stage and feedback for integrated navigation federated filtering," Journal of Systems Engineering and Electronics, vol. 22, no. 2, pp. 274-282, 2011. 등을 들 수 있다.Techniques for demonstrating this include QT Gu and J. Fang, "Global optimality for generalized federated filter", ACTA AUTOMATICA SINICA , vol. 35, no. 10, pp. 1310-1316, 2009., XB Gao, JG Chen, DC Tao, and XL Li, "Multi-Sensor Centralized Fusion without Measurement Noise Covariance by Variational Bayesian Approximation," IEEE Transactions on Aerospace and Electronic Systems , vol. 1, pp. 718-272, 2011. L. Cong, HL Qin, and ZH Tan, "Intelligent fault-tolerant algorithm with two-stage and feedback for integrated navigation federated filtering," Journal of Systems Engineering and Electronics , vol. 22, no. 2, pp. 274-282, 2011. < / RTI >

하지만, 이러한 다중센서 융합방법은 사용하는 센서의 수가 증가함에 따라 이를 처리하기 위한 컴퓨터 계산량이 증가하고 또한 주변환경 변화에 따라 변화하는 센서들의 성능을 고려하지 않는 경우 다수의 다중센서를 융합함으로써 위치추정 정확도가 오히려 감소 할 수 있다.However, in the multi-sensor fusion method, as the number of used sensors increases, the computational complexity to process the sensors increases. In addition, when the performance of sensors that change according to changes in the surrounding environment is not considered, Accuracy can be rather reduced.

또한, 일반적으로 자율 이동 차량의 위치 추정 시스템은 차량의 초기 위치를 INS 정렬시에 GPS를 이용하여 초기위치를 설정한다. 하지만 GPS 신호가 단절되는 경우 자율이동차량의 초기위치 설정이 불가능 하게 되어 자율주행 등이 원활하지 않게 된다. 이를 해결하기 위해서는 다중센서 정보를 이용하여 초기위치를 계층적으로 설정하는 방법 등이 고려되어야 한다.Also, in general, the autonomous moving vehicle position estimation system sets the initial position of the vehicle using the GPS when the INS is aligned. However, if the GPS signal is disconnected, it is impossible to set the initial position of the autonomous moving vehicle, and the autonomous driving is not smooth. In order to solve this problem, a method of hierarchically setting an initial position using multiple sensor information should be considered.

또한, 위치추정을 포함한 자율이동차량의 일반적인 항법운용은 항법에 필요한 변수들을 라이브러리 등에 포함되어 외부에서 접근이 불가능하게 설계되어 항법설계 및 센서 융합에 많은 한계를 가지고 있다. In addition, the general navigation operation of the autonomous mobile vehicle including the position estimation has many limitations in the navigation design and the sensor fusion because the parameters necessary for the navigation are included in the library and the access is impossible from the outside.

따라서, 이를 해결하기 위해 자율 이동 차량의 위치 추정을 포함하는 항법과 관련된 모든 변수 들을 외부 I/F(interface) 등을 통해 쉽게 접근가능하게 하는 개방형 항법 구조 등이 요구되고 있는 상태이다. Therefore, in order to solve this problem, an open navigation system which makes all parameters related to the navigation including the position estimation of the autonomous mobile vehicle easily accessible through an external I / F is required.

1. 한국등록특허번호 제10-1061066호1. Korean Patent No. 10-1061066 2. 한국등록특허번호 제10-1116033호2. Korean Patent No. 10-1116033 3. 한국등록특허번호 제10-0912927호3. Korean Patent No. 10-0912927

1. Q. T. Gu and J. Fang, "Global optimality for generalized federated filter", ACTA AUTOMATICA SINICA, vol. 35, no. 10, pp. 1310-1316, 20091. Q. T. Gu and J. Fang, "Global optimality for generalized federated filter ", ACTA AUTOMATICA SINICA, vol. 35, no. 10, pp. 1310-1316, 2009 2. X. B. Gao, J. G. Chen, D. C. Tao, and X. L. Li, "Multi-Sensor Centralized Fusion without Measurement Noise Covariance by Variational Bayesian Approximation,"IEEE Transactions on Aerospace and Electronic Systems, vol.47, no. 1, pp. 718-272, 20112. X. B. Gao, J. G. Chen, D. C. Tao, and X. L. Li, "Multi-Sensor Centralized Fusion without Measurement Noise Covariance by Variational Bayesian Approximation," IEEE Transactions on Aerospace and Electronic Systems, vol. 1, pp. 718-272, 2011 3. L. Cong, H. L. Qin, and Z. H. Tan, "Intelligent fault-tolerant algorithm with two-stage and feedback for integrated navigation federated filtering," Journal of Systems Engineering and Electronics, vol. 22, no. 2, pp. 274-282, 2011.3. L. Cong, H. L. Qin, and Z. H. Tan, "Intelligent fault-tolerant algorithm with two-stage and feedback for integrated navigation federated filtering," Journal of Systems Engineering and Electronics, vol. 22, no. 2, pp. 274-282, 2011.

본 발명은 위 배경기술에 따른 문제점을 해소하기 위해 제안된 것으로서, 자율 이동 차량의 위치 추정을 포함하는 항법과 관련된 모든 변수 들을 외부 I/F(interface) 등을 통해 쉽게 접근가능하게 하는 개방형 항법 구조가 가능한 자율 이동 차량의 위치 추정 시스템을 제공하는데, 그 목적이 있다.The present invention has been proposed in order to solve the problem according to the above background art, and it is an object of the present invention to provide an open navigation method for easily accessing all parameters related to the navigation including the position estimation of an autonomous moving vehicle through an external I / The present invention provides a position estimation system for an autonomous mobile vehicle capable of realizing an autonomous mobile vehicle.

또한, 본 발명은 자율 이동 차량의 위치 추정을 포함하는 항법과 관련된 모든 변수 들을 외부 I/F(interface) 등을 통해 쉽게 접근가능하게 하는 개방형 항법 구조가 가능한 자율 이동 차량의 위치 추정 방법을 제공하는데, 다른 목적이 있다.In addition, the present invention provides a position estimation method of an autonomous mobile vehicle capable of an open navigation structure that makes all variables related to the navigation including the position estimation of the autonomous mobile vehicle easily accessible through an external I / F , There are other purposes.

본 발명은 위에서 제기된 과제를 달성하기 위해, 자율 이동 차량의 위치 추정을 포함하는 항법과 관련된 모든 변수 들을 외부 I/F(interface) 등을 통해 쉽게 접근가능하게 하는 개방형 항법 구조가 가능한 자율 이동 차량의 위치 추정 시스템을 제공한다.In order to accomplish the above-mentioned object, the present invention provides an autonomous moving vehicle capable of providing an open navigation structure allowing easy access to all the parameters related to the navigation including the position estimation of the autonomous moving vehicle through an external I / Of the position estimation system.

상기 위치 추정 시스템은, The position estimation system comprises:

자율 이동 차량에 설치된 센서들을 이용하여 센서 데이터를 생성하는 단위 센서 계층;A unit sensor layer for generating sensor data using sensors installed in the autonomous moving vehicle;

상기 센서 데이터를 이용하여 센서 기반 항법, 영상 기반 항법, 지형 기반 항법 및 SLAM(Simultaneous Localization And Mapping) 항법 중 어느 하나에 해당하는 항법 정보를 생성하는 단위 항법 계층;A unit navigation layer for generating navigation information corresponding to one of sensor-based navigation, image-based navigation, terrain-based navigation, and SLAM (Simultaneous Localization And Mapping) navigation using the sensor data;

상기 항법 정보를 이용하여 항법 모드를 결정하고 융합하는 통합 항법 계층; 및An integrated navigation layer for determining and fusing the navigation mode using the navigation information; And

융합된 항법 결과에 따라 상기 자율 이동 차량의 유저 인터페이스상에 항법 서비스 정보를 제공하는 항법 서비스 계층; 을 포함하는 것을 특징으로 할 수 있다.A navigation service layer for providing navigation service information on a user interface of the autonomous moving vehicle according to a fused navigation result; And a control unit.

여기서, 상기 단위 센서 계층, 단위 항법 계층, 통합 항법 계층 및 항법 서비스 계층간 데이터 통신은 분산 개체 지향 미들웨어에 기반한 것을 특징으로 할 수 있다.The data communication between the unit sensor layer, the unit navigation layer, the integrated navigation layer, and the navigation service layer may be based on a distributed object-oriented middleware.

또한, 상기 단위 센서 계층은 (D)GPS(Differential Global Positioning System), 관성측정장치(IMU: Inertial Measurement Unit), 나침반, 주행계, 스테레오 카메라, 파노라마 카메라, 2D 레이더, 3D 레이더 및 FMCW(Frequency Modulated Continuous Wave) 레이더의 조합인 것을 특징으로 할 수 있다.The unit sensor layer may include at least one of (D) a differential global positioning system (GPS), an inertial measurement unit (IMU), a compass, a traveling system, a stereo camera, a panoramic camera, a 2D radar, a 3D radar, Continuous Wave) radar.

또한, 상기 통합 항법 계층은 상기 항법 모드를 결정하는 항법 매니저; 및 결정된 항법 모드를 융합하는 통합 필터를 포함하는 것을 특징으로 할 수 있다.The integrated navigation layer may further include a navigation manager for determining the navigation mode; And an integrated filter for fusing the determined navigation mode.

또한, 상기 항법 매니저는 상기 단위 항법 계층에 구성된 센서들에서 실시간으로 QoS 정보를 수신하여 추정된 항법 신뢰도를 기반으로 상기 항법 모드를 지역화 모드와 SLAM 모드로 구분하는 것을 특징으로 할 수 있다.In addition, the navigation manager may receive the QoS information in real time from the sensors configured in the unit navigation layer, and divide the navigation mode into the localization mode and the SLAM mode based on the estimated navigation reliability.

또한, 상기 항법 매니저는 상기 자율 이동 차량의 현재 위치를 추정할 수 없으면 지역화 모드를 SLAM 모드로 전환하는 것을 특징으로 할 수 있다.The navigation manager may switch the localization mode to the SLAM mode if the current position of the autonomous vehicle can not be estimated.

또한, 상기 지역화 모드는 DGPS/INS(Inertial Navigation System), GPS/INS, 및 융합 모드로 이루어지며, 상기 융합 모드는, GPS/INS, 영상/INS, 레이더/INS, 주행계/INS, 나침반/INS의 융합인 것을 특징으로 할 수 있다.The convergence mode includes a GPS / INS, a video / INS, a radar / INS, a traveling system / INS, a compass / INS. ≪ / RTI >

또한, 상기 유저 인터페이스는 상기 자율 이동 차량의 항법의 환경 설정을 위한 환경설정화면, 상기 단위 항법 계층의 항법 정보를 보여주는 데이터리스트, 상기 단위 항법 계층의 항법 정보를 실시간으로 그림으로 보여주는 지도를 디스플레이하는 것을 특징으로 할 수 있다.In addition, the user interface may include a configuration screen for setting navigation of the autonomous mobile vehicle, a data list showing navigation information of the unit navigation layer, and a map showing a real-time map of the navigation information of the unit navigation layer . ≪ / RTI >

또한, 상기 유저 인터페이스는 성능분석을 하기 위한 후처리 항법 모드를 더 포함하는 것을 특징으로 할 수 있다.In addition, the user interface may further include a post-processing navigation mode for performing performance analysis.

다른 한편으로 본 발명의 다른 실시예는, Another embodiment of the present invention, on the other hand,

단위 센서 계층에서 자율 이동 차량에 대한 센서 데이터를 생성하는 센서 데이터 생성 단계;A sensor data generation step of generating sensor data for the autonomous moving vehicle in the unit sensor layer;

상기 센서 데이터를 이용하여 추정된 상기 자율 이동 차량의 초기 위치에 대한 신뢰성을 판단하는 신뢰성 판단 단계; A reliability determination step of determining reliability of an initial position of the autonomous mobile vehicle estimated using the sensor data;

신뢰성 판단을 기반으로 항법 매니저가 항법 모드를 판단하는 항법 모드 판단 단계; A navigation mode determination step in which the navigation manager determines a navigation mode based on reliability judgment;

통합필터가 항법 모드를 기반으로 센서융합을 수행하는 센서 융합 단계; 및A sensor fusion step in which the integrated filter performs sensor fusion based on the navigation mode; And

센서융합된 결과에 따라 상기 자율 이동 차량의 유저 인터페이스상에 항법 서비스 정보를 제공하는 항법 서비스 정보 제공 단계;를 포함하는 것을 특징으로 하는 자율 이동 차량의 위치 추정 방법을 제공한다.And providing navigation service information on the user interface of the autonomous mobile vehicle according to the sensor fusion result.

여기서, 상기 신뢰성 판단 단계는, 단위 항법 계층에 순차적으로 상기 초기 위치를 요청하는 단계; 상기 단위 항법 계층에서 상기 초기 위치를 설정하지 못하면, 상기 자율 이동 차량의 이전 최종위치를 현재 초기 위치로 설정하고 항법을 수행하는 단계; 및 상기 단위 항법 계층에서 상기 초기 위치를 설정하였다면, 이전 마지막 위치 주변을 기반으로 현재 위치를 추정하고 이후 전체 영역을 조사하는 단계;를 포함하는 것을 특징으로 할 수 있다.The reliability determination step may include sequentially requesting the initial position to the unit navigation layer; Setting a previous end position of the autonomous moving vehicle as a current initial position and performing a navigation if the initial position is not set in the unit navigation layer; And if the initial position is set in the unit navigation layer, estimating the current position based on the previous last position and examining the entire area thereafter.

또한, 상기 센서 융합 단계는, GPS가 가용하게 되면 현재 위치와 GPS와의 오차를 비교하여 위치 오차가 임계값보다 크게 되면 항법 위치오차를 보정하는 단계를 더 포함하는 것을 특징으로 할 수 있다.In addition, the sensor fusion step may further include a step of comparing the error between the current position and the GPS when the GPS is available, and correcting the navigation position error when the position error becomes larger than the threshold value.

본 발명에 의하면, 다수의 센서를 이용하여 자율이동차량의 위치를 추정하더라도 각 센서의 신뢰성을 실시간 판단하여 최적의 센서융합을 수행함으로써 알고리즘 계산량을 줄이고 위치추정 정확도를 보다 향상시킬 수 있다. According to the present invention, even if the position of the autonomous mobile vehicle is estimated using a plurality of sensors, the reliability of each sensor can be determined in real time, and optimal sensor fusion can be performed, thereby reducing the calculation amount of the algorithm and improving the accuracy of the position estimation.

또한, 본 발명의 다른 효과로서는 GPS가 단절된 상황에서도 자율 이동 차량의 초기 위치를 항법 매니저가 다중센서 정보를 이용하여 계층적으로 자동설정 가능하며, 외부 I/F를 통해 항법변수에 접근 가능하여 항법설계/분석 및 센서융합 등을 매우 효율적으로 수행할 수 있다는 점을 들 수 있다. As another effect of the present invention, the navigation manager can automatically set the initial position of the autonomous moving vehicle in a hierarchical manner using the multiple sensor information even when the GPS is disconnected, and the navigation variable can be accessed through the external I / F, Design / analysis and sensor fusion can be performed very efficiently.

도 1은 본 발명의 일실시예에 따른 자율 이동 차량의 위치 추정 시스템의 다중센서 융합을 보다 효과적으로 수행하기 위한 계층화된 개방형 항법구조의 예이다.
도 2는 도 1에 도시된 항법 매니저(121)가 단위 항법들의 QoS 정보를 이용하여 데이터 융합을 수행하는 예이다.
도 3은 본 발명의 일실시예에 따른 자율 이동 차량의 위치 추정 방법으로서, 자율 이동 차량의 초기 위치를 항법 정렬시 자동으로 설정하는 과정을 보여주는 순서도이다.
도 4는 본 발명의 일실시예에 따른 자율 이동 차량의 위치 추정 시스템 운용에 필요한 변수들을 외부에서 접근가능하게 하는 항법 운용 GUI(Graphic User Interface)의 예이다.
도 5는 도 4에 도시된 항법 운용 GUI에서 환경 설정의 화면예이다.
도 6은 도 4에 도시된 항법 운용 GUI에서 실시간으로 사용자에게 디스플레이되는 데이터리스트의 화면예이다.
도 7은 도 4에 도시된 항법 운용 GUI에서 단위 항법들의 정보를 실시간 그림으로 보여주는 지도의 화면예이다.
도 8은 도 4에 도시된 항법 운용 GUI에서 위치 추정 시스템의 성능 분석을 보다 용이하게 하도록 후처리를 위한 선택 화면예이다.
도 9는 도 1에 도시된 계층화된 개방형 항법구조에서 적응 연합형 센서 융합 구조를 도시한 회록 블럭도이다.
1 is an example of a layered open navigation structure for more effectively performing multi-sensor fusion in an autonomous mobile vehicle position estimation system according to an embodiment of the present invention.
FIG. 2 is an example in which the navigation manager 121 shown in FIG. 1 performs data fusion using QoS information of unit navigation methods.
FIG. 3 is a flowchart illustrating a process of automatically setting an initial position of an autonomous moving vehicle when the navigation system is aligned, according to an embodiment of the present invention.
FIG. 4 is an example of a GUI (Graphic User Interface) for making variables necessary for operating a position estimation system of an autonomous mobile vehicle accessible from the outside according to an embodiment of the present invention.
FIG. 5 is an example of a screen for setting environment in the navigation operation GUI shown in FIG.
6 is an example of a screen of a data list displayed to the user in real time in the navigation operation GUI shown in FIG.
FIG. 7 is an example of a map showing a real-time image of unit navigation information in the navigation operation GUI shown in FIG.
FIG. 8 is an example of a selection screen for post-processing to further facilitate performance analysis of the position estimation system in the navigation operation GUI shown in FIG.
9 is a block diagram illustrating an adaptive federated sensor fusion architecture in the layered open navigation architecture shown in FIG.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는바, 특정 실시예들을 도면에 예시하고 상세한 설명에 구체적으로 설명하고자 한다. 그러나 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.While the invention is susceptible to various modifications and alternative forms, specific embodiments thereof are shown by way of example in the drawings and will herein be described in detail. It is to be understood, however, that the invention is not to be limited to the specific embodiments, but includes all modifications, equivalents, and alternatives falling within the spirit and scope of the invention.

각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용한다.Like reference numerals are used for similar elements in describing each drawing.

제 1, 제 2등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.The terms first, second, etc. may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another.

예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제 1 구성요소는 제 2 구성요소로 명명될 수 있고, 유사하게 제 2 구성요소도 제 1 구성요소로 명명될 수 있다. "및/또는" 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.For example, without departing from the scope of the present invention, the first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component. The term "and / or" includes any combination of a plurality of related listed items or any of a plurality of related listed items.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미가 있다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs.

일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않아야 한다.
Terms such as those defined in commonly used dictionaries are to be interpreted as having a meaning consistent with the contextual meaning of the related art and are to be interpreted as either ideal or overly formal in the sense of the present application Should not.

이하 첨부된 도면을 참조하여 본 발명의 일실시예에 따른 자율 이동 차량의 위치 추정 시스템 및 방법을 상세하게 설명하기로 한다.
Hereinafter, a system and method for estimating an autonomous moving vehicle according to an embodiment of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일실시예에 따른 자율 이동 차량의 위치 추정 시스템(100)의 다중센서 융합을 보다 효과적으로 수행하기 위한 계층화된 개방형 항법구조의 예이다. 1 is an example of a layered open navigation structure for more effectively performing multi-sensor fusion of an autonomous mobile vehicle position estimation system 100 according to an embodiment of the present invention.

도 1을 참조하면, 위치 추정 시스템(100)은 다중 센서 융합 계층 구조로서, 항법센서 및 알고리즘 특성에 따라 다음과 같이 4개의 계층(단위센서 계층, 단위항법 계층, 통합항법 계층, 항법서비스 계층)으로 분류하였으며 시스템의 성격에 따라 계층구조는 확장/축소가 가능하다. Referring to FIG. 1, the position estimation system 100 is a multi-sensor fusion hierarchical structure, and has four layers (unit sensor layer, unit navigation layer, integrated navigation layer, and navigation service layer) And the hierarchical structure can be expanded / reduced according to the nature of the system.

이중 단위센서 계층(140)은 자율이동차량에 사용된 센서들로 구성되어 있고 다른 계층은 항법 알고리즘 처리를 위한 S/W(software) 및/또는 H/W(hardware) 컴포넌트(component)로 구성되어 있다. 각 계층에서의 데이터 처리는 개략적으로 다음과 같다.The dual unit sensor layer 140 is composed of sensors used in an autonomous moving vehicle and the other layer is composed of software and / or hardware components for processing a navigation algorithm have. The data processing in each layer is roughly as follows.

1) 단위 센서 계층(140): 센서 데이터들은 데이터 융합을 위해 시간을 붙이고 단위 항법 계층(130)으로 전달된다. 이를 위해 단위 센서 계층(140)에는, 센서 기반 항법을 위한 센서 데이터를 생성하는 (D)GPS(Differential Global Positioning System),IMU(Inertial Measurement Unit: 관성측정장치), compass(나침반), 주행계 등과, 영상기반항법을 위한 영상 데이터를 생성하는 스테레오 카메라(stereo camera), 파노라마 카메라(panoramic camera) 등과, 지형 기반 항법을 위한 측정 데이터를 생성하는 2D 레이더, 3D 레이더 등과, SLAM(Simultaneous Localization and Mapping) 항법을 위한 측정 데이터를 생성하는 FMCW(Frequency Modulated Continuous Wave) 레이더 등이 구성된다.1) Unit Sensor Layer 140: The sensor data is time-stamped for data fusion and passed to the unit navigation layer 130. To this end, the unit sensor layer 140 is provided with (D) a GPS (Differential Global Positioning System), an IMU (Inertial Measurement Unit), a compass, a traveling system and the like for generating sensor data for sensor- A stereo camera for generating image data for image-based navigation, a panoramic camera and the like, a 2D radar and a 3D radar for generating measurement data for terrain-based navigation, a SLAM (Simultaneous Localization and Mapping) And a frequency modulated continuous wave (FMCW) radar that generates measurement data for navigation.

2) 단위 항법 계층(130): 단위 센서 계층(140)에 속하는 구성들로부터 획득된 센서 특성 및 알고리즘 계산량 등을 고려하여 센서 기반 항법 컴포넌트(131), 영상 기반 항법 컴포넌트(133), 지형 기반 항법 컴포넌트(135), SLAM(simultaneous localization and mapping) 항법 컴포넌트(137) 등의 다양한 컴포넌트로 구성된다. 2) Unit Navigation Layer 130: A sensor-based navigation component 131, an image-based navigation component 133, a terrain-based navigation module 130, Component 135, a simultaneous localization and mapping (SLAM) navigation component 137, and the like.

센서 기반 항법 컴포넌트(131)는 GPS 기반 위치이고, 영상 기반 항법 컴포넌트(133)는 영상 DB와 매칭기반 위치이고, 지형 기반 항법 컴포넌트(135)는 항공지도(DEM: digital elevation model, 등)등과의 3차원 정합기반 위치가 된다.Based navigation component 133 is a GPS-based location, the image-based navigation component 133 is an image DB and a matching-based location, and the terrain-based navigation component 135 is an image- Dimensional matching-based position.

각 컴포넌트는 필요시 환경 DB(database) 및 상위 컴포넌트의 항법정보 등을 이용하여 해당 알고리즘을 처리한다. 단위 항법 계층(130)에서 추정된 각각의 위치 등 항법정보 및 각종 정보들은 상위 컴포넌트의 항법 매니저에 전달된다. 여기서, 항법정보 및/또는 각종 정보들로서는 예를 들면 QoS(quality of service) 등을 들 수 있다.Each component processes the corresponding algorithm using the environment database (DB) and navigation information of the upper component, if necessary. Each position and navigation information and various information estimated in the unit navigation layer 130 are transmitted to the navigation manager of the upper component. Here, the navigation information and / or various types of information may include quality of service (QoS), for example.

3) 통합 항법 계층(120): 항법 매니저(121) 및 통합필터(123) 등으로 구성되며, 단위 항법 계층(130)에서 생성된 정보를 받아 정보를 필터링하고 필터링된 정보를 바탕으로 항법 모드를 결정한다. 3) Integrated Navigation Layer 120: It is composed of a navigation manager 121 and an integration filter 123, receives information generated in the unit navigation layer 130, and filters information. Based on the filtered information, .

부연하면 단위 항법 계층(130)의 센서 기반 항법(131), 영상 기반 항법(133), 지형 기반 항법(135) 및 SLAM 항법(137)들의 QoS 정보 등을 기반으로 항법모드를 결정한다. 여기서, 통합필터(123)는 항법모드 기반 데이터 융합을 수행한다.The navigation mode is determined based on the QoS information of the sensor navigation unit 131, the image-based navigation unit 133, the terrain-based navigation 135, and the SLAM navigation 137 of the unit navigation layer 130. Here, the integration filter 123 performs navigation mode-based data fusion.

4) 항법 서비스 계층(110): 통합 항법 계층(120)에 의해 융합된 항법 결과는 항법 서비스(111)에 전달되며, 항법 서비스(111)는 전달된 항법 결과에 따라 자율 이동 차량(미도시)의 자율주행 컴포넌트(113)에 각각의 컴포넌트가 요구하는 형식으로 항법결과를 전송한다. 이들 자율 주행 컴포넌트(113)로서는 월드모델, 경로계획, 통합제어, 등을 들 수 있다.4) Navigation service layer 110: The navigation result fused by the integrated navigation layer 120 is transmitted to the navigation service 111. The navigation service 111 transmits the navigation result to the autonomous moving vehicle (not shown) The navigation result is transmitted to the autonomous running component 113 in the format requested by each component. Examples of the autonomous travel component 113 include a world model, a route plan, and an integrated control.

각 계층 및 컴포넌트간 데이터 통신은 네트워크상의 분산 컴퓨터 환경에서 운용 시스템과 어플리케이션 사이의 소프트웨어 계층인 분산 개체 지향 미들웨어에 기반을 두었다. Data communication between layers and components is based on distributed object oriented middleware, which is a software layer between the operating system and applications in a distributed computer environment on the network.

도 2는 도 1에 도시된 항법 매니저(121)가 단위 항법들의 QoS 정보를 이용하여 데이터 융합을 수행하는 예이다. 도 2를 참조하면, 일반적으로 야지환경에서 단위항법의 QoS는 주변 환경조건 및 DB의 정확성 등에 따라 크게 달라지므로 외부 I/F를 통해 자율 이동 시스템에 사용된 센서들의 QoS 임계치를 필요시 수정 가능하도록 설계한다. FIG. 2 is an example in which the navigation manager 121 shown in FIG. 1 performs data fusion using QoS information of unit navigation methods. Referring to FIG. 2, in general, the QoS of the unit navigation in the field environment greatly changes according to the surrounding conditions and the accuracy of the DB, so that the QoS threshold of the sensors used in the autonomous mobile system can be corrected through the external I / Design.

단위항법들의 실제 QoS를 판단하기 위해서 (D)GPS의 DOP(dilution of precision)과 같이 센서 자체가 제공하는 값뿐만 아니라, 아래식과 같이 카이스쿼어(χ2) 검정을 사용한다. In order to determine the actual QoS of the unit navigation, we use the value of the sensor itself, such as the DOP (dilution of precision) of the GPS, as well as the Kaiser quadrature (χ 2 ) test.

[수학식 1][Equation 1]

Figure 112013028912112-pat00001
Figure 112013028912112-pat00001

여기서 ,

Figure 112013028912112-pat00002
here ,
Figure 112013028912112-pat00002

Figure 112013028912112-pat00003
Figure 112013028912112-pat00003

항법 매니저(121)는 단위 항법 계층(도 1의 140)에 구성된 센서(200)에서 실시간으로 QoS 정보(210)를 수신하여 추정된 항법 신뢰도(QoS condition)(220) 들을 기반으로 항법모드(230)를 크게 2가지 모드(231,233)로 먼저 구분하여 해당 센서(200)를 융합하여 항법을 수행하여 자율 이동 차량(미도시)의 위치를 추정한다. The navigation manager 121 receives the QoS information 210 in real time from the sensor 200 configured in the unit navigation layer 140 in FIG. 1 and generates the navigation mode 230 based on the estimated QoS conditions 220 ) Are classified into two modes 231 and 233, and the navigation is performed by fusing the sensors 200 to estimate the position of the autonomous moving vehicle (not shown).

부연하면, 센서(200)는 (D)GPS, 나침반(compass), 주행계(Odometer), 스테레오 카메라(stereo camera), 파노라마 카메라(panoramic camera), 2D 레이더, 3D 레이더FMCW(Frequency Modulated Continuous Wave) 레이더 등이 된다. In addition, the sensor 200 includes (D) a GPS, a compass, an odometer, a stereo camera, a panoramic camera, a 2D radar, a 3D radar, a Frequency Modulated Continuous Wave (FMCW) Radar, and so on.

따라서, 센서(200)의 이들 컴포넌트들로부터 QoS 정보(210)가 생성된다. QoS 정보(210)로는, RTCM, HDOP, QoSGPS, QoSS.C., 등이 된다. 여기서 RTCM은 GPS가 DGPS 모드인지 GPS 모드인지를 판단하는 메시지 포맷이고, HDOP는 (D)GPS의 DOP(dilution of precision)이고, QoSGPS는 GPS의 QoS값 등이 된다.Thus, the QoS information 210 is generated from these components of the sensor 200. The QoS information 210 includes RTCM, HDOP, QoS GPS , QoS SC , and the like. Here, RTCM is a message format for determining whether the GPS is a DGPS mode or a GPS mode, HDOP is (D) DOP (dilution of precision) of GPS , QoS GPS is a QoS value of GPS, and the like.

항법 신뢰도(220)에서는 QoS 정보(210)로부터 생성된 값이 기준값(예를 들면, εHDOP, εGPS, εS.C. 등과 비교하여 항법 모드(230)를 지역화 모드(localization mode)(231) 또는 SLAM 모드(233) 중 어느 하나가 선택되도록 한다.In the navigation reliability 220, the value generated from the QoS information 210 is compared with a reference value (for example, ε HDOP , ε GPS , ε SC, and the like to convert the navigation mode 230 into a localization mode 231 or a SLAM Mode 233 is selected.

GPS가 단절된 상황에서 영상항법 및 지형항법 등의 컴포넌트는 환경 DB와의 매칭을 통해 자율이동차량의 현재위치를 추정할 수 있지만, 환경 DB가 없거나 부정확한 경우에는 위치오차가 크게 증가하여 자율이동차량의 현재 위치를 정확히 추정할 수 없게 된다. In the situation where GPS is disconnected, components such as image navigation and terrain navigation can estimate the current position of the autonomous moving vehicle by matching with the environment DB. However, when there is no environment DB or inaccurate, the position error greatly increases, The current position can not be accurately estimated.

이러한 상황에서는 항법 매니저(121)는 지역화(localization) 모드(231)를 SLAM 모드(233)로 전환하여 상대위치 기반으로 자율이동차량의 위치를 추정하도록 한다. 아래는 항법 매니저(121)가 항법모드를 결정하기 위한 하나의 예를 보여준다.
In this situation, the navigation manager 121 changes the localization mode 231 to the SLAM mode 233 to estimate the position of the autonomous moving vehicle based on the relative position. Below is an example of how the navigation manager 121 determines the navigation mode.

Figure 112013028912112-pat00004
Figure 112013028912112-pat00004

Figure 112013028912112-pat00005
Figure 112013028912112-pat00005

여기서 RTCM은 GPS가 DGPS 모드인지 GPS 모드인지를 판단하는 메시지 포맷이다.Here, the RTCM is a message format for determining whether the GPS is in the DGPS mode or the GPS mode.

또한, 지역화 모드(localization mode)(231)는 DGPS/INS(Inertial Navigation System), GPS/INS, 및 융합 모드(231-1)로 분화된다. 여기서, 융합 모드(fusion mode)(231-1)는 GPS/INS, 영상/INS, LADAR/INS, 주행계/INS, 나침반/INS 등이 융합된다.In addition, the localization mode 231 is differentiated into a DGPS / INS (Inertial Navigation System), a GPS / INS, and a fusion mode 231-1. Here, the fusion mode 231-1 is fused with GPS / INS, video / INS, LADAR / INS, traveling system / INS, compass / INS,

또한, RDF(Resource Description Framework)(201) 및/또는 사용자 입력(203)에 의해 항법 매니저(121)에 대한 동작 환경이 설정될 수 있다.In addition, the operation environment for the navigation manager 121 can be set by RDF (Resource Description Framework) 201 and / or user input 203. [

도 3은 본 발명의 일실시예에 따른 자율 이동 차량의 위치 추정 방법으로서, 자율 이동 차량의 초기 위치를 항법 정렬시 자동으로 설정하는 과정을 보여주는 순서도이다. 즉, 도 3은 자율이동차량의 초기위치를 항법정렬시 자동으로 설정하는 예로 본 발명의 일실시예에서 자율이동차량은 아래와 같은 방법으로 초기위치들을 설정할 수 있다. FIG. 3 is a flowchart illustrating a process of automatically setting an initial position of an autonomous moving vehicle when the navigation system is aligned, according to an embodiment of the present invention. That is, FIG. 3 is an example in which the initial position of the autonomous moving vehicle is automatically set upon navigation sorting. In the embodiment of the present invention, the autonomous moving vehicle can set initial positions as follows.

도 3을 참조하면, INS 정렬 시간 동안 항법 매니저(도 1의 121)는 단위 항법계층(도 1의 130)에 순차적으로 자율 이동 차량의 초기 위치를 요청한다(단계 S300,S310). Referring to FIG. 3, the navigation manager (121 in FIG. 1) requests the initial position of the autonomous moving vehicle sequentially in the unit navigation layer (130 in FIG. 1) during the INS alignment time (steps S300 and S310).

예를 들면, 센서항법 → 영상항법 → 지형항법, 등의 순서를 들 수 있다(단계 S320,S330,S340).For example, a sensor navigation method, a video navigation method, a terrain navigation method, and the like can be used (steps S320, S330, S340).

만일 이들 센서항법, 영상항법 및 지형항법 중 어느 하나에 해당하면, 영상 항법 및 지형 항법 등은 자율 이동 차량의 이전 마지막 위치 주변을 기반으로 먼저 현재위치를 추정하고 그 다음으로 전체 영역을 조사한다. If one of these sensor navigation, image navigation, and terrain navigation is used, the image navigation method and the terrain navigation method first estimate the current position based on the vicinity of the previous position of the autonomous moving vehicle, and then search the entire area.

만약, 단위항법계층(도 1의 130)에서 초기위치를 설정하지 못하는 경우에는 자율이동차량의 이전 최종위치를 자동으로 현재 초기위치로 설정하고 항법을 수행한다(단계 S350,S360,S370).If the initial position can not be set in the unit navigation layer (130 in FIG. 1), the previous final position of the autonomous moving vehicle is automatically set as the current initial position and the navigation is performed (steps S350, S360, and S370).

이때, GPS가 가용하게 되면 현재위치와 GPS와의 오차를 비교하여 위치오차가 임계값보다 크게 되면 다음식과 같이 항법 위치오차를 보정한다.At this time, if the GPS is available, the error between the current position and GPS is compared. If the position error is larger than the threshold value, the navigation position error is corrected as in the following equation.

[수학식 2]&Quot; (2) "

If

Figure 112013028912112-pat00006
,
Figure 112013028912112-pat00007
If
Figure 112013028912112-pat00006
,
Figure 112013028912112-pat00007

여기서

Figure 112013028912112-pat00008
는 항법에서 추정한 위치이고
Figure 112013028912112-pat00009
는 GPS가 수신되었을 때 위치이다. here
Figure 112013028912112-pat00008
Is the estimated position in navigation
Figure 112013028912112-pat00009
Is the position when GPS is received.

다음으로, 도 4 내지 도 8에는 자율이동차량 위치추정시스템 운용에 필요한 변수들을 외부에서 접근가능하게 하는 개방형 항법구조의 운영예를 보여준다. 즉,도 4는 본 발명의 일실시예에 따른 자율 이동 차량의 위치 추정 시스템 운용에 필요한 변수들을 외부에서 접근가능하게 하는 항법 운용 GUI(Graphic User Interface)의 예이다. Next, FIGS. 4 to 8 show an example of the operation of the open navigation system that makes the variables necessary for operating the autonomous moving vehicle position estimation system accessible from the outside. That is, FIG. 4 shows an example of a GUI (Graphic User Interface) for making variables necessary for operating a position estimation system of an autonomous mobile vehicle accessible from the outside according to an embodiment of the present invention.

도 5는 도 4에 도시된 항법 운용 GUI에서 환경 설정의 화면예이다.FIG. 5 is an example of a screen for setting environment in the navigation operation GUI shown in FIG.

도 6은 도 4에 도시된 항법 운용 GUI에서 실시간으로 사용자에게 디스플레이되는 데이터리스트의 화면예이다.6 is an example of a screen of a data list displayed to the user in real time in the navigation operation GUI shown in FIG.

도 7은 도 4에 도시된 항법 운용 GUI에서 단위 항법들의 정보를 실시간 그림으로 보여주는 지도의 화면예이다.FIG. 7 is an example of a map showing a real-time image of unit navigation information in the navigation operation GUI shown in FIG.

도 8은 도 4에 도시된 항법 운용 GUI에서 위치 추정 시스템의 성능 분석을 보다 용이하게 하도록 후처리를 위한 선택 화면예이다.FIG. 8 is an example of a selection screen for post-processing to further facilitate performance analysis of the position estimation system in the navigation operation GUI shown in FIG.

따라서, 운용자는 도 4와 같이 UI(user interface)기반으로 실시간 항법 운용이 가능하다. 이러한 유저 인터페이스(UI: User Interface)는 크게 환경설정화면예를 보여주는 도 5, 데이터리스트를 보여주는 도 6, 지도를 보여주는 도 7로 구성된다.Accordingly, the operator can operate real-time navigation based on a UI (user interface) as shown in FIG. Such a user interface (UI) is largely composed of FIG. 5 showing an example of an environment setting screen, FIG. 6 showing a data list, and FIG. 7 showing a map.

도 5에 도시되는 환경설정의 화면예를 위치 추정 시스템 운용에 필요한 모든 변수들을 외부 I/F를 통해 접근 가능하도록 하는 부분으로 환경설정에 있는 모든 입력 변수들이 통합필터 등의 항법운용 변수들과 연동되도록 설계/구현된다.FIG. 5 is a diagram showing an example of the environment setting screen in which all the parameters necessary for operating the position estimation system are accessible through the external I / F. All the input parameters in the environment setting are interlocked with the navigation operation parameters such as the integration filter / RTI >

도 6에 도시되는 데이터리스트의 화면예는 단위항법들의 항법 데이터(예를 들면, 위치, 속도, QoS 등을 들 수 있음)를 실시간으로 사용자에게 보여주는 부분이다.An example of the screen of the data list shown in FIG. 6 is a part showing the navigation data of the unit navigation methods (for example, location, speed, QoS, etc.) to the user in real time.

도 7에 도시되는 지도의 화면예는 단위항법들의 위치, 속도, 방향 등을 실시간으로 그림으로 보여주는 부분이다. The screen example of the map shown in FIG. 7 is a part showing in real time the position, speed, and direction of the unit navigation methods.

또한, 위치 추정 시스템의 성능분석을 보다 용이하게 하기 위해 도 8과 같이 후처리 항법을 4개의 모드(1배속, 5배속, fast, step)로 구분하여 분석이 가능하도록 구성된다. 여기서 step은 사용자가 입력한 시간 단위로 항법 데이터를 처리하는 부분이다. Also, in order to facilitate the performance analysis of the position estimation system, the post-processing navigation can be divided into four modes (1x, 5x, fast, step) as shown in FIG. Here, step is a part for processing the navigation data in the time unit inputted by the user.

도 4 내지 도 8에 도시된 바와 같이 위치 추정 시스템을 UI기반으로 설계/구현함으로써 사용자의 항법 운용 편의성을 크게 향상시킬 수 있다. As shown in FIGS. 4 to 8, the position estimation system can be designed / implemented based on the UI, thereby greatly improving the user's navigational operational convenience.

도 9는 도 1에 도시된 계층화된 개방형 항법구조에서 적응 연합형 센서 융합 구조를 도시한 회록 블럭도이다. 도 9를 참조하면, 단위 센서 계층(140)으로부터 센서 데이터 등이 단위 항법 계층(130)에 전송되고, 합산부(920)는 단위 항법 계층(130)에서 생성된 항법 정보와 INS(Inertial Navigation System)에서 생성된 정보를 가감산하고, 합산부(920)에 의해 생성된 정보는 로컬 필터(930)에 의해 필터링되며, 검정부(940)는 필터링된 정보를 검정하여 항법 매니저(121)에 전송하고, 항법 매니저(212)는 검정된 정보보 등을 기반으로 항법모드를 결정하고 통합필터(123)는 항법모드 기반 데이터 융합을 수행한다.
9 is a block diagram illustrating an adaptive federated sensor fusion architecture in the layered open navigation architecture shown in FIG. 9, the sensor data and the like are transmitted from the unit sensor layer 140 to the unit navigation layer 130 and the summation unit 920 compares the navigation information generated in the unit navigation layer 130 with the INS The information generated by the summation unit 920 is filtered by the local filter 930 and the verification unit 940 verifies the filtered information and transmits the information to the navigation manager 121 The navigation manager 212 determines the navigation mode based on the verified information and the like, and the integration filter 123 performs the navigation mode based data fusion.

특히, 본 발명의 일실시예에 따른 자율 이동 차량의 위치 추정 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 코드 형태로 구현되어 컴퓨터 판독 가능 저장 매체에 기록될 수 있다. In particular, the method of estimating an autonomous mobile vehicle according to an embodiment of the present invention may be implemented in the form of a program command code that can be executed through various computer means and recorded in a computer-readable storage medium.

상기 컴퓨터 판독 가능 저장 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. The computer-readable storage medium may include program instructions, data files, data structures, and the like, alone or in combination.

상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. The program instructions recorded on the medium may be those specially designed and constructed for the present invention or may be available to those skilled in the art of computer software.

컴퓨터 판독 가능 저장 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. Examples of computer-readable storage media include magnetic media such as hard disks, floppy disks and magnetic tape; optical media such as CD-ROMs and DVDs; magneto-optical media such as floppy disks; Magneto-optical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like.

상기 매체는 프로그램 명령, 데이터 구조 등을 지정하는 신호를 전송하는 반송파를 포함하는 광 또는 금속선, 도파관등의 전송 매체일 수도 있다. The medium may be a transmission medium such as an optical or metal line, a wave guide, or the like, including a carrier wave for transmitting a signal designating a program command, a data structure, or the like.

프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.

또한, 본 발명의 일실시예는 하드웨어, 소프트웨어 또는 이들의 조합으로 구현될 수 있다. 하드웨어 구현에 있어, 상술한 기능을 수행하기 위해 디자인된 ASIC(application specific integrated circuit), DSP(digital signal processing), PLD(programmable logic device), FPGA(field programmable gate array), 프로세서, 제어기, 마이크로프로세서, 다른 전자 유닛 또는 이들의 조합으로 구현될 수 있다.In addition, one embodiment of the present invention may be implemented in hardware, software, or a combination thereof. (DSP), a programmable logic device (PLD), a field programmable gate array (FPGA), a processor, a controller, a microprocessor, and the like, which are designed to perform the above- , Other electronic units, or a combination thereof.

소프트웨어적인 구현에 있어, 상술한 기능을 수행하는 모듈로 구현될 수 있다. 소프트웨어는 메모리 유닛에 저장될 수 있고, 프로세서에 의해 실행된다. 메모리 유닛이나 프로세서는 당업자에게 잘 알려진 다양한 수단을 채용할 수 있다.In a software implementation, it may be implemented as a module that performs the functions described above. The software may be stored in a memory unit and executed by a processor. The memory unit or processor may employ various means well known to those skilled in the art.

100: 위치 추정 시스템
110: 항법 서비스 계층
111: 항법 서비스
113: 자율 주행 컴포넌트
120: 통합 항법 계층
121: 항법 매니저
123: 통합 필터
130: 단위 항법 계층
131: 센서 기반 항법 컴포넌트
133: 영상 기반 항법 컴포넌트
135: 지형 기반 항법 컴포넌트
137: SLAM(Simultaneous Localization And Mapping) 항법 컴포넌트
140: 단위 센서 계층
141: 센서 143: 카메라 145: 레이더
201: RDF(Resource Description Framework) 203: 사용자 입력
210: QoS 정보
220: 항법 신뢰도
230: 항법 모드
231: 지역화 모드
231-1: 융합 모드
233: SLAM 모드
920: 합산부
930: 로컬 필터
940: 검정부
100: Position estimation system
110: Navigation service layer
111: Navigation services
113: Self-running component
120: Integrated Navigation Layer
121: Navigation Manager
123: Integrated Filter
130: Unit Navigation Layer
131: Sensor based navigation component
133: Image-based navigation component
135: Terrain based navigation component
137: SLAM (Simultaneous Localization And Mapping) navigation component
140: Unit sensor layer
141: sensor 143: camera 145: radar
201: RDF (Resource Description Framework) 203: user input
210: QoS information
220: Navigation reliability
230: Navigation mode
231: Localization mode
231-1: Fusion mode
233: SLAM mode
920:
930: Local filter
940:

Claims (14)

자율 이동 차량에 설치된 센서들을 이용하여 센서 데이터를 생성하는 단위 센서 계층;
상기 센서 데이터를 이용하여 센서 기반 항법, 영상 기반 항법, 지형 기반 항법 및 SLAM(Simultaneous Localization And Mapping) 항법 중 어느 하나에 해당하는 항법 정보를 생성하는 단위 항법 계층;
상기 항법 정보를 이용하여 항법 모드를 결정하고 융합하는 통합 항법 계층; 및
융합된 항법 결과에 따라 상기 자율 이동 차량의 유저 인터페이스상에 항법 서비스 정보를 제공하는 항법 서비스 계층;을 포함하되,
상기 통합 항법 계층은 상기 항법 모드를 결정하는 항법 매니저; 및 결정된 항법 모드를 융합하는 통합 필터를 포함하고,
상기 항법 매니저는 상기 단위 항법 계층에 구성된 센서들에서 실시간으로 QoS 정보를 수신하여 추정된 항법 신뢰도를 기반으로 상기 항법 모드를 지역화 모드와 SLAM 모드로 구분하며,
상기 항법 매니저는 상기 자율 이동 차량의 현재 위치를 추정할 수 없으면 지역화 모드를 SLAM 모드로 전환하는 것을 특징으로 하는 자율 이동 차량의 위치 추정 시스템.
A unit sensor layer for generating sensor data using sensors installed in the autonomous moving vehicle;
A unit navigation layer for generating navigation information corresponding to one of sensor-based navigation, image-based navigation, terrain-based navigation, and SLAM (Simultaneous Localization And Mapping) navigation using the sensor data;
An integrated navigation layer for determining and fusing the navigation mode using the navigation information; And
And a navigation service layer for providing navigation service information on the user interface of the autonomous moving vehicle according to the fused navigation result,
Wherein the integrated navigation layer comprises: a navigation manager for determining the navigation mode; And an integrated filter that fuses the determined navigation mode,
Wherein the navigation manager receives QoS information in real time from sensors configured in the unit navigation layer and divides the navigation mode into a localization mode and a SLAM mode based on the estimated navigation reliability,
Wherein the navigation manager switches the localization mode to the SLAM mode if the current position of the autonomous mobile vehicle can not be estimated.
제 1 항에 있어서,
상기 단위 센서 계층, 단위 항법 계층, 통합 항법 계층 및 항법 서비스 계층간 데이터 통신은 분산 개체 지향 미들웨어에 기반한 것을 특징으로 하는 자율 이동 차량의 위치 추정 시스템.
The method according to claim 1,
Wherein the data communication between the unit sensor layer, the unit navigation layer, the integrated navigation layer, and the navigation service layer is based on a distributed object-oriented middleware.
제 1 항에 있어서,
상기 단위 센서 계층은 (D)GPS(Differential Global Positioning System), 관성측정장치(IMU: Inertial Measurement Unit), 나침반, 주행계, 스테레오 카메라, 파노라마 카메라, 2D 레이더, 3D 레이더 및 FMCW(Frequency Modulated Continuous Wave) 레이더의 조합인 것을 특징으로 하는 자율 이동 차량의 위치 추정 시스템.
The method according to claim 1,
The unit sensor layer includes at least one of (D) a differential global positioning system (GPS), an inertial measurement unit (IMU), a compass, a traveling system, a stereo camera, a panoramic camera, a 2D radar, a 3D radar, and a Frequency Modulated Continuous Wave ) Radar. ≪ / RTI >
삭제delete 삭제delete 삭제delete 제 1 항에 있어서,
상기 지역화 모드는 DGPS/INS(Inertial Navigation System), GPS/INS, 및 융합 모드로 이루어지며, 상기 융합 모드는, GPS/INS, 영상/INS, 레이더/INS, 주행계/INS, 나침반/INS의 융합인 것을 특징으로 하는 자율 이동 차량의 위치 추정 시스템.
The method according to claim 1,
The localization mode is composed of a DGPS / INS (Inertial Navigation System), a GPS / INS, and a fusion mode. The fusion mode includes a GPS / INS, a video / INS, a radar / INS, a traveling system / INS, a compass / INS Wherein the autonomous moving vehicle is located at a center of the vehicle.
제 1 항에 있어서,
상기 유저 인터페이스는 상기 자율 이동 차량의 항법의 환경 설정을 위한 환경설정화면, 상기 단위 항법 계층의 항법 정보를 보여주는 데이터리스트, 상기 단위 항법 계층의 항법 정보를 실시간으로 그림으로 보여주는 지도를 디스플레이하는 것을 특징으로 하는 자율 이동 차량의 위치 추정 시스템.
The method according to claim 1,
The user interface may display a configuration screen for setting the navigation of the autonomous mobile vehicle, a data list showing navigation information of the unit navigation layer, and a map showing the navigation information of the unit navigation layer in a real- Of the vehicle.
제 8 항에 있어서,
상기 유저 인터페이스는 성능분석을 하기 위한 후처리 항법 모드를 더 포함하는 것을 특징으로 하는 자율 이동 차량의 위치 추정 시스템.
9. The method of claim 8,
Wherein the user interface further comprises a post-processing navigation mode for performing performance analysis.
단위 센서 계층에서 자율 이동 차량에 대한 센서 데이터를 생성하는 센서 데이터 생성 단계;
상기 센서 데이터를 이용하여 추정된 상기 자율 이동 차량의 초기 위치에 대한 신뢰성을 판단하는 신뢰성 판단 단계;
신뢰성 판단을 기반으로 항법 매니저가 항법 모드를 판단하는 항법 모드 판단 단계;
통합필터가 항법 모드를 기반으로 센서융합을 수행하는 센서 융합 단계; 및
센서융합된 결과에 따라 상기 자율 이동 차량의 유저 인터페이스상에 항법 서비스 정보를 제공하는 항법 서비스 정보 제공 단계;를 포함하되,
상기 신뢰성 판단 단계는,
단위 항법 계층에 순차적으로 상기 초기 위치를 요청하는 단계;
상기 단위 항법 계층에서 상기 초기 위치를 설정하지 못하면, 상기 자율 이동 차량의 이전 최종위치를 현재 초기 위치로 설정하고 항법을 수행하는 단계; 및
상기 단위 항법 계층에서 상기 초기 위치를 설정하였다면, 이전 마지막 위치 주변을 기반으로 현재 위치를 추정하고 이후 전체 영역을 조사하는 단계;를 포함하는 것을 특징으로 하는 자율 이동 차량의 위치 추정 방법.
A sensor data generation step of generating sensor data for the autonomous moving vehicle in the unit sensor layer;
A reliability determination step of determining reliability of an initial position of the autonomous mobile vehicle estimated using the sensor data;
A navigation mode determination step in which the navigation manager determines a navigation mode based on reliability judgment;
A sensor fusion step in which the integrated filter performs sensor fusion based on the navigation mode; And
And providing navigation service information on a user interface of the autonomous moving vehicle according to a sensor fusion result,
The reliability determination step may include:
Requesting the initial position sequentially to the unit navigation layer;
Setting a previous end position of the autonomous moving vehicle as a current initial position and performing a navigation if the initial position is not set in the unit navigation layer; And
And estimating a current position based on a vicinity of a previous last position and then examining an entire region if the initial position is set in the unit navigation layer.
삭제delete 제 10 항에 있어서,
상기 센서 융합 단계는, GPS가 가용하게 되면 현재 위치와 GPS와의 오차를 비교하여 위치 오차가 임계값보다 크게 되면 항법 위치오차를 보정하는 단계를 더 포함하는 것을 특징으로 하는 자율 이동 차량의 위치 추정 방법.
11. The method of claim 10,
Wherein the sensor fusion step further comprises the step of comparing the error between the current position and the GPS when the GPS is available and correcting the navigation position error when the position error is greater than the threshold value .
제 10 항에 있어서,
상기 항법 매니저는 상기 단위 항법 계층에 구성된 센서들에서 실시간으로 QoS 정보를 수신하여 추정된 항법 신뢰도를 기반으로 상기 항법 모드를 지역화 모드와 SLAM 모드로 구분하는 것을 특징으로 하는 자율 이동 차량의 위치 추정 방법.
11. The method of claim 10,
Wherein the navigation manager receives the QoS information in real time from the sensors configured in the unit navigation layer and divides the navigation mode into the localization mode and the SLAM mode based on the estimated navigation reliability. .
제 13 항에 있어서,
상기 지역화 모드는 DGPS/INS(Inertial Navigation System), GPS/INS, 및 융합 모드로 이루어지며, 상기 융합 모드는, GPS/INS, 영상/INS, 레이더/INS, 주행계/INS, 나침반/INS의 융합인 것을 특징으로 하는 자율 이동 차량의 위치 추정 방법.
14. The method of claim 13,
The localization mode is composed of a DGPS / INS (Inertial Navigation System), a GPS / INS, and a fusion mode. The fusion mode includes a GPS / INS, a video / INS, a radar / INS, a traveling system / INS, a compass / INS Wherein the autonomous moving vehicle is located at a center of the vehicle.
KR1020130036178A 2013-04-03 2013-04-03 System and Method for estimating positions of an autonomous mobile vehicle KR101454824B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130036178A KR101454824B1 (en) 2013-04-03 2013-04-03 System and Method for estimating positions of an autonomous mobile vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130036178A KR101454824B1 (en) 2013-04-03 2013-04-03 System and Method for estimating positions of an autonomous mobile vehicle

Publications (2)

Publication Number Publication Date
KR20140120466A KR20140120466A (en) 2014-10-14
KR101454824B1 true KR101454824B1 (en) 2014-11-03

Family

ID=51992327

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130036178A KR101454824B1 (en) 2013-04-03 2013-04-03 System and Method for estimating positions of an autonomous mobile vehicle

Country Status (1)

Country Link
KR (1) KR101454824B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10444752B2 (en) 2016-08-16 2019-10-15 Samsung Electronics Co., Ltd. Stereo camera-based autonomous driving method and apparatus
WO2020159157A1 (en) * 2019-01-31 2020-08-06 Samsung Electronics Co., Ltd. Server and controlling method of server
CN111708372A (en) * 2020-08-24 2020-09-25 广州赛特智能科技有限公司 Self-adaptive safe driving method and system for bumpy road surface of unmanned sweeper
US10921460B2 (en) 2017-10-16 2021-02-16 Samsung Electronics Co., Ltd. Position estimating apparatus and method

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI711804B (en) * 2019-05-15 2020-12-01 宜陞有限公司 Vehicle navigation device for self-driving cars
TR201915907A2 (en) * 2019-10-15 2021-05-21 Istanbul Okan Ueniversitesi Autonomous vehicle optimum sensor system with communication systems and cloud technology.
CN111811502B (en) * 2020-07-10 2022-07-22 北京航空航天大学 Motion carrier multi-source information fusion navigation method and system
CN112577526B (en) * 2020-12-29 2023-10-13 武汉中海庭数据技术有限公司 Confidence calculating method and system for multi-sensor fusion positioning
CN113359167A (en) * 2021-04-16 2021-09-07 电子科技大学 Method for fusing and positioning GPS and laser radar through inertial measurement parameters

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020080829A (en) * 2001-04-18 2002-10-26 주식회사 네비콤 IMU-GPS Integrated System including error correction system, Method for reducing search space of integer ambiguity, Method for detecting Cycle slip, and position, velocity, attitude determination Method using the same
KR20090066776A (en) * 2007-12-20 2009-06-24 한국전자통신연구원 Localization service framework for estimatiing robot position and its method
JP2011209203A (en) * 2010-03-30 2011-10-20 Sony Corp Self-position estimating device and self-position estimating method
JP2012248032A (en) * 2011-05-27 2012-12-13 Fujitsu Ltd Map processing method, program and robot system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020080829A (en) * 2001-04-18 2002-10-26 주식회사 네비콤 IMU-GPS Integrated System including error correction system, Method for reducing search space of integer ambiguity, Method for detecting Cycle slip, and position, velocity, attitude determination Method using the same
KR20090066776A (en) * 2007-12-20 2009-06-24 한국전자통신연구원 Localization service framework for estimatiing robot position and its method
JP2011209203A (en) * 2010-03-30 2011-10-20 Sony Corp Self-position estimating device and self-position estimating method
JP2012248032A (en) * 2011-05-27 2012-12-13 Fujitsu Ltd Map processing method, program and robot system

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10444752B2 (en) 2016-08-16 2019-10-15 Samsung Electronics Co., Ltd. Stereo camera-based autonomous driving method and apparatus
US10921460B2 (en) 2017-10-16 2021-02-16 Samsung Electronics Co., Ltd. Position estimating apparatus and method
WO2020159157A1 (en) * 2019-01-31 2020-08-06 Samsung Electronics Co., Ltd. Server and controlling method of server
US11295620B2 (en) 2019-01-31 2022-04-05 Samsung Electronics Co., Ltd. Server and controlling method of server
CN111708372A (en) * 2020-08-24 2020-09-25 广州赛特智能科技有限公司 Self-adaptive safe driving method and system for bumpy road surface of unmanned sweeper

Also Published As

Publication number Publication date
KR20140120466A (en) 2014-10-14

Similar Documents

Publication Publication Date Title
KR101454824B1 (en) System and Method for estimating positions of an autonomous mobile vehicle
US10074270B2 (en) Clustering observations of objects along roads for navigation-related operations
US10802494B2 (en) Method for motion planning for autonomous moving objects
CN110103984A (en) Use the automatic Pilot complexity of perception systematic measures management progress path
CN111417871A (en) Iterative closest point processing for integrated motion estimation using high definition maps based on lidar
EP3009798B1 (en) Providing alternative road navigation instructions for drivers on unfamiliar roads
WO2020232648A1 (en) Lane line detection method, electronic device and storage medium
CN109690434A (en) For manipulating the control system of autonomous vehicle
JP2018176879A (en) Course setting device and course setting method
KR101909953B1 (en) Method for vehicle pose estimation using LiDAR
KR102565482B1 (en) Apparatus for determining position of vehicle and method thereof
US11578991B2 (en) Method and system for generating and updating digital maps
US10796571B2 (en) Method and device for detecting emergency vehicles in real time and planning driving routes to cope with situations to be expected to be occurred by the emergency vehicles
US20220412755A1 (en) Autonomous vehicle routing with local and general routes
CN115585816B (en) Lane-level map matching method and device
US20200166936A1 (en) Tuning autonomous vehicle dispatch using autonomous vehicle performance
Singh et al. Evaluating the performance of map matching algorithms for navigation systems: an empirical study
CN114018269B (en) Positioning method, positioning device, electronic equipment, storage medium and automatic driving vehicle
CN113706857A (en) Method, device and equipment for determining road trafficability and storage medium
CN114689074A (en) Information processing method and navigation method
CN114264301A (en) Vehicle-mounted multi-sensor fusion positioning method and device, chip and terminal
CN114616158A (en) Automatic driving method, device and storage medium
Kreibich et al. Lane-level matching algorithm based on GNSS, IMU and map data
CN114111774B (en) Vehicle positioning method, system, equipment and computer readable storage medium
CN112393723B (en) Positioning method, positioning device, medium and unmanned equipment

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
FPAY Annual fee payment

Payment date: 20170904

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20181002

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20191002

Year of fee payment: 6