KR101454824B1 - System and Method for estimating positions of an autonomous mobile vehicle - Google Patents
System and Method for estimating positions of an autonomous mobile vehicle Download PDFInfo
- Publication number
- KR101454824B1 KR101454824B1 KR1020130036178A KR20130036178A KR101454824B1 KR 101454824 B1 KR101454824 B1 KR 101454824B1 KR 1020130036178 A KR1020130036178 A KR 1020130036178A KR 20130036178 A KR20130036178 A KR 20130036178A KR 101454824 B1 KR101454824 B1 KR 101454824B1
- Authority
- KR
- South Korea
- Prior art keywords
- navigation
- mode
- layer
- unit
- ins
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 30
- 230000004927 fusion Effects 0.000 claims abstract description 32
- 230000004807 localization Effects 0.000 claims description 16
- 238000005259 measurement Methods 0.000 claims description 6
- 238000013507 mapping Methods 0.000 claims description 5
- 238000012805 post-processing Methods 0.000 claims description 5
- 238000004891 communication Methods 0.000 claims description 3
- 238000004364 calculation method Methods 0.000 abstract description 2
- 230000010354 integration Effects 0.000 description 4
- 238000013461 design Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000003044 adaptive effect Effects 0.000 description 2
- 238000010790 dilution Methods 0.000 description 2
- 239000012895 dilution Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 238000007500 overflow downdraw method Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
Abstract
본 발명은 차량의 위치 추정 시스템에 관한 것으로서, 더 상세하게는 다수의 센서를 이용하여 자율이동차량의 위치를 추정하더라도 각 센서의 신뢰성을 실시간 판단하여 최적의 센서융합을 수행함으로써 알고리즘 계산량을 줄이고 위치추정 정확도를 보다 향상시키는 자율 이동 차량의 위치 추정 시스템에 대한 것이다.
본 발명에 의하면, 다수의 센서를 이용하여 자율이동차량의 위치를 추정하더라도 각 센서의 신뢰성을 실시간 판단하여 최적의 센서융합을 수행함으로써 알고리즘 계산량을 줄이고 위치추정 정확도를 보다 향상시킬 수 있다. The present invention relates to a vehicle position estimation system, and more particularly, to a vehicle position estimation system that estimates the position of an autonomous vehicle using a plurality of sensors, estimates the reliability of each sensor in real time, And more particularly to an autonomous moving vehicle position estimation system that further improves estimation accuracy.
According to the present invention, even if the position of the autonomous mobile vehicle is estimated using a plurality of sensors, the reliability of each sensor can be determined in real time, and optimal sensor fusion can be performed, thereby reducing the calculation amount of the algorithm and improving the accuracy of the position estimation.
Description
본 발명은 차량의 위치 추정 시스템에 관한 것으로서, 더 상세하게는 다수의 센서를 이용하여 자율이동차량의 위치를 추정하더라도 각 센서의 신뢰성을 실시간 판단하여 최적의 센서융합을 수행함으로써 알고리즘 계산량을 줄이고 위치추정 정확도를 보다 향상시키는 자율 이동 차량의 위치 추정 시스템에 대한 것이다.The present invention relates to a vehicle position estimation system, and more particularly, to a vehicle position estimation system that estimates the position of an autonomous vehicle using a plurality of sensors, estimates the reliability of each sensor in real time, And more particularly to an autonomous moving vehicle position estimation system that further improves estimation accuracy.
또한, 본 발명은 다수의 센서를 이용하여 자율이동차량의 위치를 추정하더라도 각 센서의 신뢰성을 실시간 판단하여 최적의 센서융합을 수행함으로써 알고리즘 계산량을 줄이고 위치추정 정확도를 보다 향상시키는 자율 이동 차량의 위치 추정 방법에 대한 것이다.In addition, even if the position of the autonomous moving vehicle is estimated using a plurality of sensors, it is possible to estimate the position of the autonomous moving vehicle, which realizes the reliability of each sensor in real time and performs optimal sensor fusion, Estimation method.
일반적으로 지상환경에서 자율이동차량의 위치추정은 GPS(Global Positioning System)/INS(Inertial Navigation System)를 사용하고 있다. In general, GPS (Global Positioning System) / INS (Inertial Navigation System) is used for location estimation of autonomous vehicles in ground environment.
하지만, 지상환경에서 GPS는 주변환경(나무, 건물 등)에 의해 신호가 쉽게 단절되어 INS의 오차를 보정하기 위해 다양한 센서(Compass, 속도계, 영상센서, 등) 들의 활용을 연구하고 있으며 이를 활용한 다중센서 융합은 주로 중앙 집중식 /분산식/연합식 방법 등을 기반으로 연구되고 있다. However, in the ground environment, GPS is studying the use of various sensors (Compass, speedometer, image sensor, etc.) to compensate the INS error because the signal is easily disconnected by the surrounding environment (trees, buildings, etc.) Multi-sensor fusion is mainly based on centralized / distributed / federated methods.
이를 보여주는 기술로는, Q. T. Gu and J. Fang, "Global optimality for generalized federated filter", ACTA AUTOMATICA SINICA, vol. 35, no. 10, pp. 1310-1316, 2009., X. B. Gao, J. G. Chen, D. C. Tao, and X. L. Li, "Multi-Sensor Centralized Fusion without Measurement Noise Covariance by Variational Bayesian Approximation,"IEEE Transactions on Aerospace and Electronic Systems, vol.47, no. 1, pp. 718-272, 2011., L. Cong, H. L. Qin, and Z. H. Tan, "Intelligent fault-tolerant algorithm with two-stage and feedback for integrated navigation federated filtering," Journal of Systems Engineering and Electronics, vol. 22, no. 2, pp. 274-282, 2011. 등을 들 수 있다.Techniques for demonstrating this include QT Gu and J. Fang, "Global optimality for generalized federated filter", ACTA AUTOMATICA SINICA , vol. 35, no. 10, pp. 1310-1316, 2009., XB Gao, JG Chen, DC Tao, and XL Li, "Multi-Sensor Centralized Fusion without Measurement Noise Covariance by Variational Bayesian Approximation," IEEE Transactions on Aerospace and Electronic Systems , vol. 1, pp. 718-272, 2011. L. Cong, HL Qin, and ZH Tan, "Intelligent fault-tolerant algorithm with two-stage and feedback for integrated navigation federated filtering," Journal of Systems Engineering and Electronics , vol. 22, no. 2, pp. 274-282, 2011. < / RTI >
하지만, 이러한 다중센서 융합방법은 사용하는 센서의 수가 증가함에 따라 이를 처리하기 위한 컴퓨터 계산량이 증가하고 또한 주변환경 변화에 따라 변화하는 센서들의 성능을 고려하지 않는 경우 다수의 다중센서를 융합함으로써 위치추정 정확도가 오히려 감소 할 수 있다.However, in the multi-sensor fusion method, as the number of used sensors increases, the computational complexity to process the sensors increases. In addition, when the performance of sensors that change according to changes in the surrounding environment is not considered, Accuracy can be rather reduced.
또한, 일반적으로 자율 이동 차량의 위치 추정 시스템은 차량의 초기 위치를 INS 정렬시에 GPS를 이용하여 초기위치를 설정한다. 하지만 GPS 신호가 단절되는 경우 자율이동차량의 초기위치 설정이 불가능 하게 되어 자율주행 등이 원활하지 않게 된다. 이를 해결하기 위해서는 다중센서 정보를 이용하여 초기위치를 계층적으로 설정하는 방법 등이 고려되어야 한다.Also, in general, the autonomous moving vehicle position estimation system sets the initial position of the vehicle using the GPS when the INS is aligned. However, if the GPS signal is disconnected, it is impossible to set the initial position of the autonomous moving vehicle, and the autonomous driving is not smooth. In order to solve this problem, a method of hierarchically setting an initial position using multiple sensor information should be considered.
또한, 위치추정을 포함한 자율이동차량의 일반적인 항법운용은 항법에 필요한 변수들을 라이브러리 등에 포함되어 외부에서 접근이 불가능하게 설계되어 항법설계 및 센서 융합에 많은 한계를 가지고 있다. In addition, the general navigation operation of the autonomous mobile vehicle including the position estimation has many limitations in the navigation design and the sensor fusion because the parameters necessary for the navigation are included in the library and the access is impossible from the outside.
따라서, 이를 해결하기 위해 자율 이동 차량의 위치 추정을 포함하는 항법과 관련된 모든 변수 들을 외부 I/F(interface) 등을 통해 쉽게 접근가능하게 하는 개방형 항법 구조 등이 요구되고 있는 상태이다. Therefore, in order to solve this problem, an open navigation system which makes all parameters related to the navigation including the position estimation of the autonomous mobile vehicle easily accessible through an external I / F is required.
본 발명은 위 배경기술에 따른 문제점을 해소하기 위해 제안된 것으로서, 자율 이동 차량의 위치 추정을 포함하는 항법과 관련된 모든 변수 들을 외부 I/F(interface) 등을 통해 쉽게 접근가능하게 하는 개방형 항법 구조가 가능한 자율 이동 차량의 위치 추정 시스템을 제공하는데, 그 목적이 있다.The present invention has been proposed in order to solve the problem according to the above background art, and it is an object of the present invention to provide an open navigation method for easily accessing all parameters related to the navigation including the position estimation of an autonomous moving vehicle through an external I / The present invention provides a position estimation system for an autonomous mobile vehicle capable of realizing an autonomous mobile vehicle.
또한, 본 발명은 자율 이동 차량의 위치 추정을 포함하는 항법과 관련된 모든 변수 들을 외부 I/F(interface) 등을 통해 쉽게 접근가능하게 하는 개방형 항법 구조가 가능한 자율 이동 차량의 위치 추정 방법을 제공하는데, 다른 목적이 있다.In addition, the present invention provides a position estimation method of an autonomous mobile vehicle capable of an open navigation structure that makes all variables related to the navigation including the position estimation of the autonomous mobile vehicle easily accessible through an external I / F , There are other purposes.
본 발명은 위에서 제기된 과제를 달성하기 위해, 자율 이동 차량의 위치 추정을 포함하는 항법과 관련된 모든 변수 들을 외부 I/F(interface) 등을 통해 쉽게 접근가능하게 하는 개방형 항법 구조가 가능한 자율 이동 차량의 위치 추정 시스템을 제공한다.In order to accomplish the above-mentioned object, the present invention provides an autonomous moving vehicle capable of providing an open navigation structure allowing easy access to all the parameters related to the navigation including the position estimation of the autonomous moving vehicle through an external I / Of the position estimation system.
상기 위치 추정 시스템은, The position estimation system comprises:
자율 이동 차량에 설치된 센서들을 이용하여 센서 데이터를 생성하는 단위 센서 계층;A unit sensor layer for generating sensor data using sensors installed in the autonomous moving vehicle;
상기 센서 데이터를 이용하여 센서 기반 항법, 영상 기반 항법, 지형 기반 항법 및 SLAM(Simultaneous Localization And Mapping) 항법 중 어느 하나에 해당하는 항법 정보를 생성하는 단위 항법 계층;A unit navigation layer for generating navigation information corresponding to one of sensor-based navigation, image-based navigation, terrain-based navigation, and SLAM (Simultaneous Localization And Mapping) navigation using the sensor data;
상기 항법 정보를 이용하여 항법 모드를 결정하고 융합하는 통합 항법 계층; 및An integrated navigation layer for determining and fusing the navigation mode using the navigation information; And
융합된 항법 결과에 따라 상기 자율 이동 차량의 유저 인터페이스상에 항법 서비스 정보를 제공하는 항법 서비스 계층; 을 포함하는 것을 특징으로 할 수 있다.A navigation service layer for providing navigation service information on a user interface of the autonomous moving vehicle according to a fused navigation result; And a control unit.
여기서, 상기 단위 센서 계층, 단위 항법 계층, 통합 항법 계층 및 항법 서비스 계층간 데이터 통신은 분산 개체 지향 미들웨어에 기반한 것을 특징으로 할 수 있다.The data communication between the unit sensor layer, the unit navigation layer, the integrated navigation layer, and the navigation service layer may be based on a distributed object-oriented middleware.
또한, 상기 단위 센서 계층은 (D)GPS(Differential Global Positioning System), 관성측정장치(IMU: Inertial Measurement Unit), 나침반, 주행계, 스테레오 카메라, 파노라마 카메라, 2D 레이더, 3D 레이더 및 FMCW(Frequency Modulated Continuous Wave) 레이더의 조합인 것을 특징으로 할 수 있다.The unit sensor layer may include at least one of (D) a differential global positioning system (GPS), an inertial measurement unit (IMU), a compass, a traveling system, a stereo camera, a panoramic camera, a 2D radar, a 3D radar, Continuous Wave) radar.
또한, 상기 통합 항법 계층은 상기 항법 모드를 결정하는 항법 매니저; 및 결정된 항법 모드를 융합하는 통합 필터를 포함하는 것을 특징으로 할 수 있다.The integrated navigation layer may further include a navigation manager for determining the navigation mode; And an integrated filter for fusing the determined navigation mode.
또한, 상기 항법 매니저는 상기 단위 항법 계층에 구성된 센서들에서 실시간으로 QoS 정보를 수신하여 추정된 항법 신뢰도를 기반으로 상기 항법 모드를 지역화 모드와 SLAM 모드로 구분하는 것을 특징으로 할 수 있다.In addition, the navigation manager may receive the QoS information in real time from the sensors configured in the unit navigation layer, and divide the navigation mode into the localization mode and the SLAM mode based on the estimated navigation reliability.
또한, 상기 항법 매니저는 상기 자율 이동 차량의 현재 위치를 추정할 수 없으면 지역화 모드를 SLAM 모드로 전환하는 것을 특징으로 할 수 있다.The navigation manager may switch the localization mode to the SLAM mode if the current position of the autonomous vehicle can not be estimated.
또한, 상기 지역화 모드는 DGPS/INS(Inertial Navigation System), GPS/INS, 및 융합 모드로 이루어지며, 상기 융합 모드는, GPS/INS, 영상/INS, 레이더/INS, 주행계/INS, 나침반/INS의 융합인 것을 특징으로 할 수 있다.The convergence mode includes a GPS / INS, a video / INS, a radar / INS, a traveling system / INS, a compass / INS. ≪ / RTI >
또한, 상기 유저 인터페이스는 상기 자율 이동 차량의 항법의 환경 설정을 위한 환경설정화면, 상기 단위 항법 계층의 항법 정보를 보여주는 데이터리스트, 상기 단위 항법 계층의 항법 정보를 실시간으로 그림으로 보여주는 지도를 디스플레이하는 것을 특징으로 할 수 있다.In addition, the user interface may include a configuration screen for setting navigation of the autonomous mobile vehicle, a data list showing navigation information of the unit navigation layer, and a map showing a real-time map of the navigation information of the unit navigation layer . ≪ / RTI >
또한, 상기 유저 인터페이스는 성능분석을 하기 위한 후처리 항법 모드를 더 포함하는 것을 특징으로 할 수 있다.In addition, the user interface may further include a post-processing navigation mode for performing performance analysis.
다른 한편으로 본 발명의 다른 실시예는, Another embodiment of the present invention, on the other hand,
단위 센서 계층에서 자율 이동 차량에 대한 센서 데이터를 생성하는 센서 데이터 생성 단계;A sensor data generation step of generating sensor data for the autonomous moving vehicle in the unit sensor layer;
상기 센서 데이터를 이용하여 추정된 상기 자율 이동 차량의 초기 위치에 대한 신뢰성을 판단하는 신뢰성 판단 단계; A reliability determination step of determining reliability of an initial position of the autonomous mobile vehicle estimated using the sensor data;
신뢰성 판단을 기반으로 항법 매니저가 항법 모드를 판단하는 항법 모드 판단 단계; A navigation mode determination step in which the navigation manager determines a navigation mode based on reliability judgment;
통합필터가 항법 모드를 기반으로 센서융합을 수행하는 센서 융합 단계; 및A sensor fusion step in which the integrated filter performs sensor fusion based on the navigation mode; And
센서융합된 결과에 따라 상기 자율 이동 차량의 유저 인터페이스상에 항법 서비스 정보를 제공하는 항법 서비스 정보 제공 단계;를 포함하는 것을 특징으로 하는 자율 이동 차량의 위치 추정 방법을 제공한다.And providing navigation service information on the user interface of the autonomous mobile vehicle according to the sensor fusion result.
여기서, 상기 신뢰성 판단 단계는, 단위 항법 계층에 순차적으로 상기 초기 위치를 요청하는 단계; 상기 단위 항법 계층에서 상기 초기 위치를 설정하지 못하면, 상기 자율 이동 차량의 이전 최종위치를 현재 초기 위치로 설정하고 항법을 수행하는 단계; 및 상기 단위 항법 계층에서 상기 초기 위치를 설정하였다면, 이전 마지막 위치 주변을 기반으로 현재 위치를 추정하고 이후 전체 영역을 조사하는 단계;를 포함하는 것을 특징으로 할 수 있다.The reliability determination step may include sequentially requesting the initial position to the unit navigation layer; Setting a previous end position of the autonomous moving vehicle as a current initial position and performing a navigation if the initial position is not set in the unit navigation layer; And if the initial position is set in the unit navigation layer, estimating the current position based on the previous last position and examining the entire area thereafter.
또한, 상기 센서 융합 단계는, GPS가 가용하게 되면 현재 위치와 GPS와의 오차를 비교하여 위치 오차가 임계값보다 크게 되면 항법 위치오차를 보정하는 단계를 더 포함하는 것을 특징으로 할 수 있다.In addition, the sensor fusion step may further include a step of comparing the error between the current position and the GPS when the GPS is available, and correcting the navigation position error when the position error becomes larger than the threshold value.
본 발명에 의하면, 다수의 센서를 이용하여 자율이동차량의 위치를 추정하더라도 각 센서의 신뢰성을 실시간 판단하여 최적의 센서융합을 수행함으로써 알고리즘 계산량을 줄이고 위치추정 정확도를 보다 향상시킬 수 있다. According to the present invention, even if the position of the autonomous mobile vehicle is estimated using a plurality of sensors, the reliability of each sensor can be determined in real time, and optimal sensor fusion can be performed, thereby reducing the calculation amount of the algorithm and improving the accuracy of the position estimation.
또한, 본 발명의 다른 효과로서는 GPS가 단절된 상황에서도 자율 이동 차량의 초기 위치를 항법 매니저가 다중센서 정보를 이용하여 계층적으로 자동설정 가능하며, 외부 I/F를 통해 항법변수에 접근 가능하여 항법설계/분석 및 센서융합 등을 매우 효율적으로 수행할 수 있다는 점을 들 수 있다. As another effect of the present invention, the navigation manager can automatically set the initial position of the autonomous moving vehicle in a hierarchical manner using the multiple sensor information even when the GPS is disconnected, and the navigation variable can be accessed through the external I / F, Design / analysis and sensor fusion can be performed very efficiently.
도 1은 본 발명의 일실시예에 따른 자율 이동 차량의 위치 추정 시스템의 다중센서 융합을 보다 효과적으로 수행하기 위한 계층화된 개방형 항법구조의 예이다.
도 2는 도 1에 도시된 항법 매니저(121)가 단위 항법들의 QoS 정보를 이용하여 데이터 융합을 수행하는 예이다.
도 3은 본 발명의 일실시예에 따른 자율 이동 차량의 위치 추정 방법으로서, 자율 이동 차량의 초기 위치를 항법 정렬시 자동으로 설정하는 과정을 보여주는 순서도이다.
도 4는 본 발명의 일실시예에 따른 자율 이동 차량의 위치 추정 시스템 운용에 필요한 변수들을 외부에서 접근가능하게 하는 항법 운용 GUI(Graphic User Interface)의 예이다.
도 5는 도 4에 도시된 항법 운용 GUI에서 환경 설정의 화면예이다.
도 6은 도 4에 도시된 항법 운용 GUI에서 실시간으로 사용자에게 디스플레이되는 데이터리스트의 화면예이다.
도 7은 도 4에 도시된 항법 운용 GUI에서 단위 항법들의 정보를 실시간 그림으로 보여주는 지도의 화면예이다.
도 8은 도 4에 도시된 항법 운용 GUI에서 위치 추정 시스템의 성능 분석을 보다 용이하게 하도록 후처리를 위한 선택 화면예이다.
도 9는 도 1에 도시된 계층화된 개방형 항법구조에서 적응 연합형 센서 융합 구조를 도시한 회록 블럭도이다. 1 is an example of a layered open navigation structure for more effectively performing multi-sensor fusion in an autonomous mobile vehicle position estimation system according to an embodiment of the present invention.
FIG. 2 is an example in which the
FIG. 3 is a flowchart illustrating a process of automatically setting an initial position of an autonomous moving vehicle when the navigation system is aligned, according to an embodiment of the present invention.
FIG. 4 is an example of a GUI (Graphic User Interface) for making variables necessary for operating a position estimation system of an autonomous mobile vehicle accessible from the outside according to an embodiment of the present invention.
FIG. 5 is an example of a screen for setting environment in the navigation operation GUI shown in FIG.
6 is an example of a screen of a data list displayed to the user in real time in the navigation operation GUI shown in FIG.
FIG. 7 is an example of a map showing a real-time image of unit navigation information in the navigation operation GUI shown in FIG.
FIG. 8 is an example of a selection screen for post-processing to further facilitate performance analysis of the position estimation system in the navigation operation GUI shown in FIG.
9 is a block diagram illustrating an adaptive federated sensor fusion architecture in the layered open navigation architecture shown in FIG.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는바, 특정 실시예들을 도면에 예시하고 상세한 설명에 구체적으로 설명하고자 한다. 그러나 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.While the invention is susceptible to various modifications and alternative forms, specific embodiments thereof are shown by way of example in the drawings and will herein be described in detail. It is to be understood, however, that the invention is not to be limited to the specific embodiments, but includes all modifications, equivalents, and alternatives falling within the spirit and scope of the invention.
각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용한다.Like reference numerals are used for similar elements in describing each drawing.
제 1, 제 2등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.The terms first, second, etc. may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another.
예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제 1 구성요소는 제 2 구성요소로 명명될 수 있고, 유사하게 제 2 구성요소도 제 1 구성요소로 명명될 수 있다. "및/또는" 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.For example, without departing from the scope of the present invention, the first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component. The term "and / or" includes any combination of a plurality of related listed items or any of a plurality of related listed items.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미가 있다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs.
일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않아야 한다.
Terms such as those defined in commonly used dictionaries are to be interpreted as having a meaning consistent with the contextual meaning of the related art and are to be interpreted as either ideal or overly formal in the sense of the present application Should not.
이하 첨부된 도면을 참조하여 본 발명의 일실시예에 따른 자율 이동 차량의 위치 추정 시스템 및 방법을 상세하게 설명하기로 한다.
Hereinafter, a system and method for estimating an autonomous moving vehicle according to an embodiment of the present invention will be described in detail with reference to the accompanying drawings.
도 1은 본 발명의 일실시예에 따른 자율 이동 차량의 위치 추정 시스템(100)의 다중센서 융합을 보다 효과적으로 수행하기 위한 계층화된 개방형 항법구조의 예이다. 1 is an example of a layered open navigation structure for more effectively performing multi-sensor fusion of an autonomous mobile vehicle
도 1을 참조하면, 위치 추정 시스템(100)은 다중 센서 융합 계층 구조로서, 항법센서 및 알고리즘 특성에 따라 다음과 같이 4개의 계층(단위센서 계층, 단위항법 계층, 통합항법 계층, 항법서비스 계층)으로 분류하였으며 시스템의 성격에 따라 계층구조는 확장/축소가 가능하다. Referring to FIG. 1, the
이중 단위센서 계층(140)은 자율이동차량에 사용된 센서들로 구성되어 있고 다른 계층은 항법 알고리즘 처리를 위한 S/W(software) 및/또는 H/W(hardware) 컴포넌트(component)로 구성되어 있다. 각 계층에서의 데이터 처리는 개략적으로 다음과 같다.The dual
1) 단위 센서 계층(140): 센서 데이터들은 데이터 융합을 위해 시간을 붙이고 단위 항법 계층(130)으로 전달된다. 이를 위해 단위 센서 계층(140)에는, 센서 기반 항법을 위한 센서 데이터를 생성하는 (D)GPS(Differential Global Positioning System),IMU(Inertial Measurement Unit: 관성측정장치), compass(나침반), 주행계 등과, 영상기반항법을 위한 영상 데이터를 생성하는 스테레오 카메라(stereo camera), 파노라마 카메라(panoramic camera) 등과, 지형 기반 항법을 위한 측정 데이터를 생성하는 2D 레이더, 3D 레이더 등과, SLAM(Simultaneous Localization and Mapping) 항법을 위한 측정 데이터를 생성하는 FMCW(Frequency Modulated Continuous Wave) 레이더 등이 구성된다.1) Unit Sensor Layer 140: The sensor data is time-stamped for data fusion and passed to the
2) 단위 항법 계층(130): 단위 센서 계층(140)에 속하는 구성들로부터 획득된 센서 특성 및 알고리즘 계산량 등을 고려하여 센서 기반 항법 컴포넌트(131), 영상 기반 항법 컴포넌트(133), 지형 기반 항법 컴포넌트(135), SLAM(simultaneous localization and mapping) 항법 컴포넌트(137) 등의 다양한 컴포넌트로 구성된다. 2) Unit Navigation Layer 130: A sensor-based
센서 기반 항법 컴포넌트(131)는 GPS 기반 위치이고, 영상 기반 항법 컴포넌트(133)는 영상 DB와 매칭기반 위치이고, 지형 기반 항법 컴포넌트(135)는 항공지도(DEM: digital elevation model, 등)등과의 3차원 정합기반 위치가 된다.Based
각 컴포넌트는 필요시 환경 DB(database) 및 상위 컴포넌트의 항법정보 등을 이용하여 해당 알고리즘을 처리한다. 단위 항법 계층(130)에서 추정된 각각의 위치 등 항법정보 및 각종 정보들은 상위 컴포넌트의 항법 매니저에 전달된다. 여기서, 항법정보 및/또는 각종 정보들로서는 예를 들면 QoS(quality of service) 등을 들 수 있다.Each component processes the corresponding algorithm using the environment database (DB) and navigation information of the upper component, if necessary. Each position and navigation information and various information estimated in the
3) 통합 항법 계층(120): 항법 매니저(121) 및 통합필터(123) 등으로 구성되며, 단위 항법 계층(130)에서 생성된 정보를 받아 정보를 필터링하고 필터링된 정보를 바탕으로 항법 모드를 결정한다. 3) Integrated Navigation Layer 120: It is composed of a
부연하면 단위 항법 계층(130)의 센서 기반 항법(131), 영상 기반 항법(133), 지형 기반 항법(135) 및 SLAM 항법(137)들의 QoS 정보 등을 기반으로 항법모드를 결정한다. 여기서, 통합필터(123)는 항법모드 기반 데이터 융합을 수행한다.The navigation mode is determined based on the QoS information of the
4) 항법 서비스 계층(110): 통합 항법 계층(120)에 의해 융합된 항법 결과는 항법 서비스(111)에 전달되며, 항법 서비스(111)는 전달된 항법 결과에 따라 자율 이동 차량(미도시)의 자율주행 컴포넌트(113)에 각각의 컴포넌트가 요구하는 형식으로 항법결과를 전송한다. 이들 자율 주행 컴포넌트(113)로서는 월드모델, 경로계획, 통합제어, 등을 들 수 있다.4) Navigation service layer 110: The navigation result fused by the
각 계층 및 컴포넌트간 데이터 통신은 네트워크상의 분산 컴퓨터 환경에서 운용 시스템과 어플리케이션 사이의 소프트웨어 계층인 분산 개체 지향 미들웨어에 기반을 두었다. Data communication between layers and components is based on distributed object oriented middleware, which is a software layer between the operating system and applications in a distributed computer environment on the network.
도 2는 도 1에 도시된 항법 매니저(121)가 단위 항법들의 QoS 정보를 이용하여 데이터 융합을 수행하는 예이다. 도 2를 참조하면, 일반적으로 야지환경에서 단위항법의 QoS는 주변 환경조건 및 DB의 정확성 등에 따라 크게 달라지므로 외부 I/F를 통해 자율 이동 시스템에 사용된 센서들의 QoS 임계치를 필요시 수정 가능하도록 설계한다. FIG. 2 is an example in which the
단위항법들의 실제 QoS를 판단하기 위해서 (D)GPS의 DOP(dilution of precision)과 같이 센서 자체가 제공하는 값뿐만 아니라, 아래식과 같이 카이스쿼어(χ2) 검정을 사용한다. In order to determine the actual QoS of the unit navigation, we use the value of the sensor itself, such as the DOP (dilution of precision) of the GPS, as well as the Kaiser quadrature (χ 2 ) test.
[수학식 1][Equation 1]
여기서 , here ,
항법 매니저(121)는 단위 항법 계층(도 1의 140)에 구성된 센서(200)에서 실시간으로 QoS 정보(210)를 수신하여 추정된 항법 신뢰도(QoS condition)(220) 들을 기반으로 항법모드(230)를 크게 2가지 모드(231,233)로 먼저 구분하여 해당 센서(200)를 융합하여 항법을 수행하여 자율 이동 차량(미도시)의 위치를 추정한다. The
부연하면, 센서(200)는 (D)GPS, 나침반(compass), 주행계(Odometer), 스테레오 카메라(stereo camera), 파노라마 카메라(panoramic camera), 2D 레이더, 3D 레이더FMCW(Frequency Modulated Continuous Wave) 레이더 등이 된다. In addition, the
따라서, 센서(200)의 이들 컴포넌트들로부터 QoS 정보(210)가 생성된다. QoS 정보(210)로는, RTCM, HDOP, QoSGPS, QoSS.C., 등이 된다. 여기서 RTCM은 GPS가 DGPS 모드인지 GPS 모드인지를 판단하는 메시지 포맷이고, HDOP는 (D)GPS의 DOP(dilution of precision)이고, QoSGPS는 GPS의 QoS값 등이 된다.Thus, the QoS information 210 is generated from these components of the
항법 신뢰도(220)에서는 QoS 정보(210)로부터 생성된 값이 기준값(예를 들면, εHDOP, εGPS, εS.C. 등과 비교하여 항법 모드(230)를 지역화 모드(localization mode)(231) 또는 SLAM 모드(233) 중 어느 하나가 선택되도록 한다.In the navigation reliability 220, the value generated from the QoS information 210 is compared with a reference value (for example, ε HDOP , ε GPS , ε SC, and the like to convert the navigation mode 230 into a
GPS가 단절된 상황에서 영상항법 및 지형항법 등의 컴포넌트는 환경 DB와의 매칭을 통해 자율이동차량의 현재위치를 추정할 수 있지만, 환경 DB가 없거나 부정확한 경우에는 위치오차가 크게 증가하여 자율이동차량의 현재 위치를 정확히 추정할 수 없게 된다. In the situation where GPS is disconnected, components such as image navigation and terrain navigation can estimate the current position of the autonomous moving vehicle by matching with the environment DB. However, when there is no environment DB or inaccurate, the position error greatly increases, The current position can not be accurately estimated.
이러한 상황에서는 항법 매니저(121)는 지역화(localization) 모드(231)를 SLAM 모드(233)로 전환하여 상대위치 기반으로 자율이동차량의 위치를 추정하도록 한다. 아래는 항법 매니저(121)가 항법모드를 결정하기 위한 하나의 예를 보여준다.
In this situation, the
여기서 RTCM은 GPS가 DGPS 모드인지 GPS 모드인지를 판단하는 메시지 포맷이다.Here, the RTCM is a message format for determining whether the GPS is in the DGPS mode or the GPS mode.
또한, 지역화 모드(localization mode)(231)는 DGPS/INS(Inertial Navigation System), GPS/INS, 및 융합 모드(231-1)로 분화된다. 여기서, 융합 모드(fusion mode)(231-1)는 GPS/INS, 영상/INS, LADAR/INS, 주행계/INS, 나침반/INS 등이 융합된다.In addition, the
또한, RDF(Resource Description Framework)(201) 및/또는 사용자 입력(203)에 의해 항법 매니저(121)에 대한 동작 환경이 설정될 수 있다.In addition, the operation environment for the
도 3은 본 발명의 일실시예에 따른 자율 이동 차량의 위치 추정 방법으로서, 자율 이동 차량의 초기 위치를 항법 정렬시 자동으로 설정하는 과정을 보여주는 순서도이다. 즉, 도 3은 자율이동차량의 초기위치를 항법정렬시 자동으로 설정하는 예로 본 발명의 일실시예에서 자율이동차량은 아래와 같은 방법으로 초기위치들을 설정할 수 있다. FIG. 3 is a flowchart illustrating a process of automatically setting an initial position of an autonomous moving vehicle when the navigation system is aligned, according to an embodiment of the present invention. That is, FIG. 3 is an example in which the initial position of the autonomous moving vehicle is automatically set upon navigation sorting. In the embodiment of the present invention, the autonomous moving vehicle can set initial positions as follows.
도 3을 참조하면, INS 정렬 시간 동안 항법 매니저(도 1의 121)는 단위 항법계층(도 1의 130)에 순차적으로 자율 이동 차량의 초기 위치를 요청한다(단계 S300,S310). Referring to FIG. 3, the navigation manager (121 in FIG. 1) requests the initial position of the autonomous moving vehicle sequentially in the unit navigation layer (130 in FIG. 1) during the INS alignment time (steps S300 and S310).
예를 들면, 센서항법 → 영상항법 → 지형항법, 등의 순서를 들 수 있다(단계 S320,S330,S340).For example, a sensor navigation method, a video navigation method, a terrain navigation method, and the like can be used (steps S320, S330, S340).
만일 이들 센서항법, 영상항법 및 지형항법 중 어느 하나에 해당하면, 영상 항법 및 지형 항법 등은 자율 이동 차량의 이전 마지막 위치 주변을 기반으로 먼저 현재위치를 추정하고 그 다음으로 전체 영역을 조사한다. If one of these sensor navigation, image navigation, and terrain navigation is used, the image navigation method and the terrain navigation method first estimate the current position based on the vicinity of the previous position of the autonomous moving vehicle, and then search the entire area.
만약, 단위항법계층(도 1의 130)에서 초기위치를 설정하지 못하는 경우에는 자율이동차량의 이전 최종위치를 자동으로 현재 초기위치로 설정하고 항법을 수행한다(단계 S350,S360,S370).If the initial position can not be set in the unit navigation layer (130 in FIG. 1), the previous final position of the autonomous moving vehicle is automatically set as the current initial position and the navigation is performed (steps S350, S360, and S370).
이때, GPS가 가용하게 되면 현재위치와 GPS와의 오차를 비교하여 위치오차가 임계값보다 크게 되면 다음식과 같이 항법 위치오차를 보정한다.At this time, if the GPS is available, the error between the current position and GPS is compared. If the position error is larger than the threshold value, the navigation position error is corrected as in the following equation.
[수학식 2]&Quot; (2) "
If , If ,
여기서 는 항법에서 추정한 위치이고 는 GPS가 수신되었을 때 위치이다. here Is the estimated position in navigation Is the position when GPS is received.
다음으로, 도 4 내지 도 8에는 자율이동차량 위치추정시스템 운용에 필요한 변수들을 외부에서 접근가능하게 하는 개방형 항법구조의 운영예를 보여준다. 즉,도 4는 본 발명의 일실시예에 따른 자율 이동 차량의 위치 추정 시스템 운용에 필요한 변수들을 외부에서 접근가능하게 하는 항법 운용 GUI(Graphic User Interface)의 예이다. Next, FIGS. 4 to 8 show an example of the operation of the open navigation system that makes the variables necessary for operating the autonomous moving vehicle position estimation system accessible from the outside. That is, FIG. 4 shows an example of a GUI (Graphic User Interface) for making variables necessary for operating a position estimation system of an autonomous mobile vehicle accessible from the outside according to an embodiment of the present invention.
도 5는 도 4에 도시된 항법 운용 GUI에서 환경 설정의 화면예이다.FIG. 5 is an example of a screen for setting environment in the navigation operation GUI shown in FIG.
도 6은 도 4에 도시된 항법 운용 GUI에서 실시간으로 사용자에게 디스플레이되는 데이터리스트의 화면예이다.6 is an example of a screen of a data list displayed to the user in real time in the navigation operation GUI shown in FIG.
도 7은 도 4에 도시된 항법 운용 GUI에서 단위 항법들의 정보를 실시간 그림으로 보여주는 지도의 화면예이다.FIG. 7 is an example of a map showing a real-time image of unit navigation information in the navigation operation GUI shown in FIG.
도 8은 도 4에 도시된 항법 운용 GUI에서 위치 추정 시스템의 성능 분석을 보다 용이하게 하도록 후처리를 위한 선택 화면예이다.FIG. 8 is an example of a selection screen for post-processing to further facilitate performance analysis of the position estimation system in the navigation operation GUI shown in FIG.
따라서, 운용자는 도 4와 같이 UI(user interface)기반으로 실시간 항법 운용이 가능하다. 이러한 유저 인터페이스(UI: User Interface)는 크게 환경설정화면예를 보여주는 도 5, 데이터리스트를 보여주는 도 6, 지도를 보여주는 도 7로 구성된다.Accordingly, the operator can operate real-time navigation based on a UI (user interface) as shown in FIG. Such a user interface (UI) is largely composed of FIG. 5 showing an example of an environment setting screen, FIG. 6 showing a data list, and FIG. 7 showing a map.
도 5에 도시되는 환경설정의 화면예를 위치 추정 시스템 운용에 필요한 모든 변수들을 외부 I/F를 통해 접근 가능하도록 하는 부분으로 환경설정에 있는 모든 입력 변수들이 통합필터 등의 항법운용 변수들과 연동되도록 설계/구현된다.FIG. 5 is a diagram showing an example of the environment setting screen in which all the parameters necessary for operating the position estimation system are accessible through the external I / F. All the input parameters in the environment setting are interlocked with the navigation operation parameters such as the integration filter / RTI >
도 6에 도시되는 데이터리스트의 화면예는 단위항법들의 항법 데이터(예를 들면, 위치, 속도, QoS 등을 들 수 있음)를 실시간으로 사용자에게 보여주는 부분이다.An example of the screen of the data list shown in FIG. 6 is a part showing the navigation data of the unit navigation methods (for example, location, speed, QoS, etc.) to the user in real time.
도 7에 도시되는 지도의 화면예는 단위항법들의 위치, 속도, 방향 등을 실시간으로 그림으로 보여주는 부분이다. The screen example of the map shown in FIG. 7 is a part showing in real time the position, speed, and direction of the unit navigation methods.
또한, 위치 추정 시스템의 성능분석을 보다 용이하게 하기 위해 도 8과 같이 후처리 항법을 4개의 모드(1배속, 5배속, fast, step)로 구분하여 분석이 가능하도록 구성된다. 여기서 step은 사용자가 입력한 시간 단위로 항법 데이터를 처리하는 부분이다. Also, in order to facilitate the performance analysis of the position estimation system, the post-processing navigation can be divided into four modes (1x, 5x, fast, step) as shown in FIG. Here, step is a part for processing the navigation data in the time unit inputted by the user.
도 4 내지 도 8에 도시된 바와 같이 위치 추정 시스템을 UI기반으로 설계/구현함으로써 사용자의 항법 운용 편의성을 크게 향상시킬 수 있다. As shown in FIGS. 4 to 8, the position estimation system can be designed / implemented based on the UI, thereby greatly improving the user's navigational operational convenience.
도 9는 도 1에 도시된 계층화된 개방형 항법구조에서 적응 연합형 센서 융합 구조를 도시한 회록 블럭도이다. 도 9를 참조하면, 단위 센서 계층(140)으로부터 센서 데이터 등이 단위 항법 계층(130)에 전송되고, 합산부(920)는 단위 항법 계층(130)에서 생성된 항법 정보와 INS(Inertial Navigation System)에서 생성된 정보를 가감산하고, 합산부(920)에 의해 생성된 정보는 로컬 필터(930)에 의해 필터링되며, 검정부(940)는 필터링된 정보를 검정하여 항법 매니저(121)에 전송하고, 항법 매니저(212)는 검정된 정보보 등을 기반으로 항법모드를 결정하고 통합필터(123)는 항법모드 기반 데이터 융합을 수행한다.
9 is a block diagram illustrating an adaptive federated sensor fusion architecture in the layered open navigation architecture shown in FIG. 9, the sensor data and the like are transmitted from the
특히, 본 발명의 일실시예에 따른 자율 이동 차량의 위치 추정 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 코드 형태로 구현되어 컴퓨터 판독 가능 저장 매체에 기록될 수 있다. In particular, the method of estimating an autonomous mobile vehicle according to an embodiment of the present invention may be implemented in the form of a program command code that can be executed through various computer means and recorded in a computer-readable storage medium.
상기 컴퓨터 판독 가능 저장 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. The computer-readable storage medium may include program instructions, data files, data structures, and the like, alone or in combination.
상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. The program instructions recorded on the medium may be those specially designed and constructed for the present invention or may be available to those skilled in the art of computer software.
컴퓨터 판독 가능 저장 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. Examples of computer-readable storage media include magnetic media such as hard disks, floppy disks and magnetic tape; optical media such as CD-ROMs and DVDs; magneto-optical media such as floppy disks; Magneto-optical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like.
상기 매체는 프로그램 명령, 데이터 구조 등을 지정하는 신호를 전송하는 반송파를 포함하는 광 또는 금속선, 도파관등의 전송 매체일 수도 있다. The medium may be a transmission medium such as an optical or metal line, a wave guide, or the like, including a carrier wave for transmitting a signal designating a program command, a data structure, or the like.
프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.
또한, 본 발명의 일실시예는 하드웨어, 소프트웨어 또는 이들의 조합으로 구현될 수 있다. 하드웨어 구현에 있어, 상술한 기능을 수행하기 위해 디자인된 ASIC(application specific integrated circuit), DSP(digital signal processing), PLD(programmable logic device), FPGA(field programmable gate array), 프로세서, 제어기, 마이크로프로세서, 다른 전자 유닛 또는 이들의 조합으로 구현될 수 있다.In addition, one embodiment of the present invention may be implemented in hardware, software, or a combination thereof. (DSP), a programmable logic device (PLD), a field programmable gate array (FPGA), a processor, a controller, a microprocessor, and the like, which are designed to perform the above- , Other electronic units, or a combination thereof.
소프트웨어적인 구현에 있어, 상술한 기능을 수행하는 모듈로 구현될 수 있다. 소프트웨어는 메모리 유닛에 저장될 수 있고, 프로세서에 의해 실행된다. 메모리 유닛이나 프로세서는 당업자에게 잘 알려진 다양한 수단을 채용할 수 있다.In a software implementation, it may be implemented as a module that performs the functions described above. The software may be stored in a memory unit and executed by a processor. The memory unit or processor may employ various means well known to those skilled in the art.
100: 위치 추정 시스템
110: 항법 서비스 계층
111: 항법 서비스
113: 자율 주행 컴포넌트
120: 통합 항법 계층
121: 항법 매니저
123: 통합 필터
130: 단위 항법 계층
131: 센서 기반 항법 컴포넌트
133: 영상 기반 항법 컴포넌트
135: 지형 기반 항법 컴포넌트
137: SLAM(Simultaneous Localization And Mapping) 항법 컴포넌트
140: 단위 센서 계층
141: 센서 143: 카메라 145: 레이더
201: RDF(Resource Description Framework) 203: 사용자 입력
210: QoS 정보
220: 항법 신뢰도
230: 항법 모드
231: 지역화 모드
231-1: 융합 모드
233: SLAM 모드
920: 합산부
930: 로컬 필터
940: 검정부100: Position estimation system
110: Navigation service layer
111: Navigation services
113: Self-running component
120: Integrated Navigation Layer
121: Navigation Manager
123: Integrated Filter
130: Unit Navigation Layer
131: Sensor based navigation component
133: Image-based navigation component
135: Terrain based navigation component
137: SLAM (Simultaneous Localization And Mapping) navigation component
140: Unit sensor layer
141: sensor 143: camera 145: radar
201: RDF (Resource Description Framework) 203: user input
210: QoS information
220: Navigation reliability
230: Navigation mode
231: Localization mode
231-1: Fusion mode
233: SLAM mode
920:
930: Local filter
940:
Claims (14)
상기 센서 데이터를 이용하여 센서 기반 항법, 영상 기반 항법, 지형 기반 항법 및 SLAM(Simultaneous Localization And Mapping) 항법 중 어느 하나에 해당하는 항법 정보를 생성하는 단위 항법 계층;
상기 항법 정보를 이용하여 항법 모드를 결정하고 융합하는 통합 항법 계층; 및
융합된 항법 결과에 따라 상기 자율 이동 차량의 유저 인터페이스상에 항법 서비스 정보를 제공하는 항법 서비스 계층;을 포함하되,
상기 통합 항법 계층은 상기 항법 모드를 결정하는 항법 매니저; 및 결정된 항법 모드를 융합하는 통합 필터를 포함하고,
상기 항법 매니저는 상기 단위 항법 계층에 구성된 센서들에서 실시간으로 QoS 정보를 수신하여 추정된 항법 신뢰도를 기반으로 상기 항법 모드를 지역화 모드와 SLAM 모드로 구분하며,
상기 항법 매니저는 상기 자율 이동 차량의 현재 위치를 추정할 수 없으면 지역화 모드를 SLAM 모드로 전환하는 것을 특징으로 하는 자율 이동 차량의 위치 추정 시스템.
A unit sensor layer for generating sensor data using sensors installed in the autonomous moving vehicle;
A unit navigation layer for generating navigation information corresponding to one of sensor-based navigation, image-based navigation, terrain-based navigation, and SLAM (Simultaneous Localization And Mapping) navigation using the sensor data;
An integrated navigation layer for determining and fusing the navigation mode using the navigation information; And
And a navigation service layer for providing navigation service information on the user interface of the autonomous moving vehicle according to the fused navigation result,
Wherein the integrated navigation layer comprises: a navigation manager for determining the navigation mode; And an integrated filter that fuses the determined navigation mode,
Wherein the navigation manager receives QoS information in real time from sensors configured in the unit navigation layer and divides the navigation mode into a localization mode and a SLAM mode based on the estimated navigation reliability,
Wherein the navigation manager switches the localization mode to the SLAM mode if the current position of the autonomous mobile vehicle can not be estimated.
상기 단위 센서 계층, 단위 항법 계층, 통합 항법 계층 및 항법 서비스 계층간 데이터 통신은 분산 개체 지향 미들웨어에 기반한 것을 특징으로 하는 자율 이동 차량의 위치 추정 시스템.
The method according to claim 1,
Wherein the data communication between the unit sensor layer, the unit navigation layer, the integrated navigation layer, and the navigation service layer is based on a distributed object-oriented middleware.
상기 단위 센서 계층은 (D)GPS(Differential Global Positioning System), 관성측정장치(IMU: Inertial Measurement Unit), 나침반, 주행계, 스테레오 카메라, 파노라마 카메라, 2D 레이더, 3D 레이더 및 FMCW(Frequency Modulated Continuous Wave) 레이더의 조합인 것을 특징으로 하는 자율 이동 차량의 위치 추정 시스템.
The method according to claim 1,
The unit sensor layer includes at least one of (D) a differential global positioning system (GPS), an inertial measurement unit (IMU), a compass, a traveling system, a stereo camera, a panoramic camera, a 2D radar, a 3D radar, and a Frequency Modulated Continuous Wave ) Radar. ≪ / RTI >
상기 지역화 모드는 DGPS/INS(Inertial Navigation System), GPS/INS, 및 융합 모드로 이루어지며, 상기 융합 모드는, GPS/INS, 영상/INS, 레이더/INS, 주행계/INS, 나침반/INS의 융합인 것을 특징으로 하는 자율 이동 차량의 위치 추정 시스템.
The method according to claim 1,
The localization mode is composed of a DGPS / INS (Inertial Navigation System), a GPS / INS, and a fusion mode. The fusion mode includes a GPS / INS, a video / INS, a radar / INS, a traveling system / INS, a compass / INS Wherein the autonomous moving vehicle is located at a center of the vehicle.
상기 유저 인터페이스는 상기 자율 이동 차량의 항법의 환경 설정을 위한 환경설정화면, 상기 단위 항법 계층의 항법 정보를 보여주는 데이터리스트, 상기 단위 항법 계층의 항법 정보를 실시간으로 그림으로 보여주는 지도를 디스플레이하는 것을 특징으로 하는 자율 이동 차량의 위치 추정 시스템.
The method according to claim 1,
The user interface may display a configuration screen for setting the navigation of the autonomous mobile vehicle, a data list showing navigation information of the unit navigation layer, and a map showing the navigation information of the unit navigation layer in a real- Of the vehicle.
상기 유저 인터페이스는 성능분석을 하기 위한 후처리 항법 모드를 더 포함하는 것을 특징으로 하는 자율 이동 차량의 위치 추정 시스템.
9. The method of claim 8,
Wherein the user interface further comprises a post-processing navigation mode for performing performance analysis.
상기 센서 데이터를 이용하여 추정된 상기 자율 이동 차량의 초기 위치에 대한 신뢰성을 판단하는 신뢰성 판단 단계;
신뢰성 판단을 기반으로 항법 매니저가 항법 모드를 판단하는 항법 모드 판단 단계;
통합필터가 항법 모드를 기반으로 센서융합을 수행하는 센서 융합 단계; 및
센서융합된 결과에 따라 상기 자율 이동 차량의 유저 인터페이스상에 항법 서비스 정보를 제공하는 항법 서비스 정보 제공 단계;를 포함하되,
상기 신뢰성 판단 단계는,
단위 항법 계층에 순차적으로 상기 초기 위치를 요청하는 단계;
상기 단위 항법 계층에서 상기 초기 위치를 설정하지 못하면, 상기 자율 이동 차량의 이전 최종위치를 현재 초기 위치로 설정하고 항법을 수행하는 단계; 및
상기 단위 항법 계층에서 상기 초기 위치를 설정하였다면, 이전 마지막 위치 주변을 기반으로 현재 위치를 추정하고 이후 전체 영역을 조사하는 단계;를 포함하는 것을 특징으로 하는 자율 이동 차량의 위치 추정 방법.
A sensor data generation step of generating sensor data for the autonomous moving vehicle in the unit sensor layer;
A reliability determination step of determining reliability of an initial position of the autonomous mobile vehicle estimated using the sensor data;
A navigation mode determination step in which the navigation manager determines a navigation mode based on reliability judgment;
A sensor fusion step in which the integrated filter performs sensor fusion based on the navigation mode; And
And providing navigation service information on a user interface of the autonomous moving vehicle according to a sensor fusion result,
The reliability determination step may include:
Requesting the initial position sequentially to the unit navigation layer;
Setting a previous end position of the autonomous moving vehicle as a current initial position and performing a navigation if the initial position is not set in the unit navigation layer; And
And estimating a current position based on a vicinity of a previous last position and then examining an entire region if the initial position is set in the unit navigation layer.
상기 센서 융합 단계는, GPS가 가용하게 되면 현재 위치와 GPS와의 오차를 비교하여 위치 오차가 임계값보다 크게 되면 항법 위치오차를 보정하는 단계를 더 포함하는 것을 특징으로 하는 자율 이동 차량의 위치 추정 방법.
11. The method of claim 10,
Wherein the sensor fusion step further comprises the step of comparing the error between the current position and the GPS when the GPS is available and correcting the navigation position error when the position error is greater than the threshold value .
상기 항법 매니저는 상기 단위 항법 계층에 구성된 센서들에서 실시간으로 QoS 정보를 수신하여 추정된 항법 신뢰도를 기반으로 상기 항법 모드를 지역화 모드와 SLAM 모드로 구분하는 것을 특징으로 하는 자율 이동 차량의 위치 추정 방법.
11. The method of claim 10,
Wherein the navigation manager receives the QoS information in real time from the sensors configured in the unit navigation layer and divides the navigation mode into the localization mode and the SLAM mode based on the estimated navigation reliability. .
상기 지역화 모드는 DGPS/INS(Inertial Navigation System), GPS/INS, 및 융합 모드로 이루어지며, 상기 융합 모드는, GPS/INS, 영상/INS, 레이더/INS, 주행계/INS, 나침반/INS의 융합인 것을 특징으로 하는 자율 이동 차량의 위치 추정 방법.14. The method of claim 13,
The localization mode is composed of a DGPS / INS (Inertial Navigation System), a GPS / INS, and a fusion mode. The fusion mode includes a GPS / INS, a video / INS, a radar / INS, a traveling system / INS, a compass / INS Wherein the autonomous moving vehicle is located at a center of the vehicle.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020130036178A KR101454824B1 (en) | 2013-04-03 | 2013-04-03 | System and Method for estimating positions of an autonomous mobile vehicle |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020130036178A KR101454824B1 (en) | 2013-04-03 | 2013-04-03 | System and Method for estimating positions of an autonomous mobile vehicle |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20140120466A KR20140120466A (en) | 2014-10-14 |
KR101454824B1 true KR101454824B1 (en) | 2014-11-03 |
Family
ID=51992327
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020130036178A KR101454824B1 (en) | 2013-04-03 | 2013-04-03 | System and Method for estimating positions of an autonomous mobile vehicle |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101454824B1 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10444752B2 (en) | 2016-08-16 | 2019-10-15 | Samsung Electronics Co., Ltd. | Stereo camera-based autonomous driving method and apparatus |
WO2020159157A1 (en) * | 2019-01-31 | 2020-08-06 | Samsung Electronics Co., Ltd. | Server and controlling method of server |
CN111708372A (en) * | 2020-08-24 | 2020-09-25 | 广州赛特智能科技有限公司 | Self-adaptive safe driving method and system for bumpy road surface of unmanned sweeper |
US10921460B2 (en) | 2017-10-16 | 2021-02-16 | Samsung Electronics Co., Ltd. | Position estimating apparatus and method |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI711804B (en) * | 2019-05-15 | 2020-12-01 | 宜陞有限公司 | Vehicle navigation device for self-driving cars |
TR201915907A2 (en) * | 2019-10-15 | 2021-05-21 | Istanbul Okan Ueniversitesi | Autonomous vehicle optimum sensor system with communication systems and cloud technology. |
CN111811502B (en) * | 2020-07-10 | 2022-07-22 | 北京航空航天大学 | Motion carrier multi-source information fusion navigation method and system |
CN112577526B (en) * | 2020-12-29 | 2023-10-13 | 武汉中海庭数据技术有限公司 | Confidence calculating method and system for multi-sensor fusion positioning |
CN113359167A (en) * | 2021-04-16 | 2021-09-07 | 电子科技大学 | Method for fusing and positioning GPS and laser radar through inertial measurement parameters |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20020080829A (en) * | 2001-04-18 | 2002-10-26 | 주식회사 네비콤 | IMU-GPS Integrated System including error correction system, Method for reducing search space of integer ambiguity, Method for detecting Cycle slip, and position, velocity, attitude determination Method using the same |
KR20090066776A (en) * | 2007-12-20 | 2009-06-24 | 한국전자통신연구원 | Localization service framework for estimatiing robot position and its method |
JP2011209203A (en) * | 2010-03-30 | 2011-10-20 | Sony Corp | Self-position estimating device and self-position estimating method |
JP2012248032A (en) * | 2011-05-27 | 2012-12-13 | Fujitsu Ltd | Map processing method, program and robot system |
-
2013
- 2013-04-03 KR KR1020130036178A patent/KR101454824B1/en active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20020080829A (en) * | 2001-04-18 | 2002-10-26 | 주식회사 네비콤 | IMU-GPS Integrated System including error correction system, Method for reducing search space of integer ambiguity, Method for detecting Cycle slip, and position, velocity, attitude determination Method using the same |
KR20090066776A (en) * | 2007-12-20 | 2009-06-24 | 한국전자통신연구원 | Localization service framework for estimatiing robot position and its method |
JP2011209203A (en) * | 2010-03-30 | 2011-10-20 | Sony Corp | Self-position estimating device and self-position estimating method |
JP2012248032A (en) * | 2011-05-27 | 2012-12-13 | Fujitsu Ltd | Map processing method, program and robot system |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10444752B2 (en) | 2016-08-16 | 2019-10-15 | Samsung Electronics Co., Ltd. | Stereo camera-based autonomous driving method and apparatus |
US10921460B2 (en) | 2017-10-16 | 2021-02-16 | Samsung Electronics Co., Ltd. | Position estimating apparatus and method |
WO2020159157A1 (en) * | 2019-01-31 | 2020-08-06 | Samsung Electronics Co., Ltd. | Server and controlling method of server |
US11295620B2 (en) | 2019-01-31 | 2022-04-05 | Samsung Electronics Co., Ltd. | Server and controlling method of server |
CN111708372A (en) * | 2020-08-24 | 2020-09-25 | 广州赛特智能科技有限公司 | Self-adaptive safe driving method and system for bumpy road surface of unmanned sweeper |
Also Published As
Publication number | Publication date |
---|---|
KR20140120466A (en) | 2014-10-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101454824B1 (en) | System and Method for estimating positions of an autonomous mobile vehicle | |
US10074270B2 (en) | Clustering observations of objects along roads for navigation-related operations | |
US10802494B2 (en) | Method for motion planning for autonomous moving objects | |
CN110103984A (en) | Use the automatic Pilot complexity of perception systematic measures management progress path | |
CN111417871A (en) | Iterative closest point processing for integrated motion estimation using high definition maps based on lidar | |
EP3009798B1 (en) | Providing alternative road navigation instructions for drivers on unfamiliar roads | |
WO2020232648A1 (en) | Lane line detection method, electronic device and storage medium | |
CN109690434A (en) | For manipulating the control system of autonomous vehicle | |
JP2018176879A (en) | Course setting device and course setting method | |
KR101909953B1 (en) | Method for vehicle pose estimation using LiDAR | |
KR102565482B1 (en) | Apparatus for determining position of vehicle and method thereof | |
US11578991B2 (en) | Method and system for generating and updating digital maps | |
US10796571B2 (en) | Method and device for detecting emergency vehicles in real time and planning driving routes to cope with situations to be expected to be occurred by the emergency vehicles | |
US20220412755A1 (en) | Autonomous vehicle routing with local and general routes | |
CN115585816B (en) | Lane-level map matching method and device | |
US20200166936A1 (en) | Tuning autonomous vehicle dispatch using autonomous vehicle performance | |
Singh et al. | Evaluating the performance of map matching algorithms for navigation systems: an empirical study | |
CN114018269B (en) | Positioning method, positioning device, electronic equipment, storage medium and automatic driving vehicle | |
CN113706857A (en) | Method, device and equipment for determining road trafficability and storage medium | |
CN114689074A (en) | Information processing method and navigation method | |
CN114264301A (en) | Vehicle-mounted multi-sensor fusion positioning method and device, chip and terminal | |
CN114616158A (en) | Automatic driving method, device and storage medium | |
Kreibich et al. | Lane-level matching algorithm based on GNSS, IMU and map data | |
CN114111774B (en) | Vehicle positioning method, system, equipment and computer readable storage medium | |
CN112393723B (en) | Positioning method, positioning device, medium and unmanned equipment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
FPAY | Annual fee payment |
Payment date: 20170904 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20181002 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20191002 Year of fee payment: 6 |