KR20160006898A - 레이저 거리 센서를 이용한 도로의 연석 추출 방법 및 도로의 연석 정보를 이용한 이동 로봇의 위치 측정 방법 - Google Patents
레이저 거리 센서를 이용한 도로의 연석 추출 방법 및 도로의 연석 정보를 이용한 이동 로봇의 위치 측정 방법 Download PDFInfo
- Publication number
- KR20160006898A KR20160006898A KR1020140086346A KR20140086346A KR20160006898A KR 20160006898 A KR20160006898 A KR 20160006898A KR 1020140086346 A KR1020140086346 A KR 1020140086346A KR 20140086346 A KR20140086346 A KR 20140086346A KR 20160006898 A KR20160006898 A KR 20160006898A
- Authority
- KR
- South Korea
- Prior art keywords
- curb
- mobile robot
- road
- information
- candidate
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 68
- 238000004458 analytical method Methods 0.000 claims abstract description 11
- 239000011159 matrix material Substances 0.000 claims description 21
- 238000005259 measurement Methods 0.000 claims description 20
- 238000012549 training Methods 0.000 claims description 14
- 238000000605 extraction Methods 0.000 claims description 11
- 239000013598 vector Substances 0.000 claims description 11
- 238000010790 dilution Methods 0.000 claims description 4
- 239000012895 dilution Substances 0.000 claims description 4
- 238000000691 measurement method Methods 0.000 claims description 3
- 230000007613 environmental effect Effects 0.000 abstract description 4
- 238000012937 correction Methods 0.000 description 16
- 241000408659 Darpa Species 0.000 description 5
- 238000011156 evaluation Methods 0.000 description 4
- 238000005070 sampling Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 239000000243 solution Substances 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 230000004807 localization Effects 0.000 description 2
- 230000000903 blocking effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/42—Simultaneous measurement of distance and other co-ordinates
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
- B60W40/06—Road conditions
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C3/00—Measuring distances in line of sight; Optical rangefinders
- G01C3/02—Details
- G01C3/06—Use of electric means to obtain final indication
- G01C3/08—Use of electric radiation detectors
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C7/00—Tracing profiles
- G01C7/02—Tracing profiles of land surfaces
- G01C7/04—Tracing profiles of land surfaces involving a vehicle which moves along the profile to be traced
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/4802—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0238—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
- G05D1/024—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
- G05D1/0274—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
- G06F18/2132—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on discrimination criteria, e.g. discriminant analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S901/00—Robots
- Y10S901/01—Mobile robot
Abstract
본 발명은 레이저 거리 센서를 이용한 도로의 연석 추출 방법 및 도로의 연석 정보를 이용한 이동 로봇의 위치 측정 방법에 관한 것이다. 본 발명에 따른 도로의 연석 추출 방법은 (a) 상기 레이저 거리 센서의 스캔 데이터로부터 도로 표면과 라인 세그먼트를 추출하는 단계와; (b) 상기 라인 세그먼트 중 상기 도로 표면과의 각도에 기초하여 복수의 연석 후보 라인 세그먼트를 추출하는 단계와; (c) 상기 복수의 연석 후보 라인 세그먼트의 한 쌍씩의 조합을 복수의 연석 특성을 갖는 복수의 연석 후보로 추출하는 단계와; (d) 상기 복수의 연석 후보를 커널 피셔 판별 분석(Kernel Fisher Discriminant Analysis) 기법에 적용하여, 최종 연석을 추출하는 단계를 포함하는 것을 특징으로 한다. 이에 따라, 환경적 불확실성을 갖는 준정형화된(semi-structured) 도로 환경에서 하나의 레이저 거리 센서를 이용하여 연석을 보다 효과적으로 추출할 수 있다.
Description
본 발명은 레이저 거리 센서를 이용한 도로의 연석 추출 방법 및 도로의 연석 정보를 이용한 이동 로봇의 위치 측정 방법에 관한 것으로서, 보다 상세하게는 주변 지형의 형상 변화가 적은 준정형화된(semi-structured) 도로 환경에서 연석을 추출하고, 추출된 연석과 DGPS(Differential Global Positioning System) 및 관성 센서(Inertial Measurement Unit : IMU)를 이용하여 이동 로봇의 위치를 측정하는 레이저 거리 센서를 이용한 도로의 연석 추출 방법 및 도로의 연석 정보를 이용한 이동 로봇의 위치 측정 방법에 관한 것이다.
도로에서의 순찰이나 서비스와 같은 특화된 임무를 수행하는 실외 이동 로봇에 있어 도시 도로 환경 상에서의 실외 이동 로봇의 주변 환경 인식과 위치 추정은 중요한 이슈로 작용된다. 이와 같은 임무를 수행하는 실외 이동 로봇은 미리 제공된 맵 정보에 기초하여 동일한 경로를 반복적으로 주행하게 된다. 이동 로봇의 주변 환경 인식과 위치 추정은 맵에 기초한 실외 이동 로봇의 안전한 주행에 있어 매우 중요한 요소로 작용된다.
실외 환경은 전통적으로 두 가지 특징을 갖는다. 하나는 주변 지형이 일률적이지 못하다는 것이다. 다른 하나는 날씨나 계절에 의해 많은 변화가 있다는 점이다. 따라서, 많은 연구들이 이와 같은 환경적인 불확실성을 극복하기 위해 진행되어 왔다.
일 예로, Sebastian Thrun 등의 논문 "Stanley: The Robot That Won the DARPA Grand Challenge(Journal of Field Robotics, vol.23 no.9, pp.661-692, 2006)"와 Martin Buehler, Karl lagnemma, 및 Sanjiv Singh의 논문 "The DARPA Urban Challenge : Autonomous Vehicles in City Traffic(Springer, 2010.)"에 개시된 "DARPA Challenge"는 실외 환경에서 이동 로봇의 자율 주행의 성공적인 예를 제시하고 있다.
"DARPA Challenge"는 실외 환경에서의 불확실성에도 불구하고, 성공적인 주행을 위한 다양한 위치 추정 기술과 주행 전략을 제안하고 있다. 그러나, "DARPA Challenge"는 몇 가지 단점이 있다. 첫 번째는 많은 개수의 비싼 장비를 사용해야 하는 점에 있다. 두 번째는 복잡한 시스템 구조를 요구하는데 있다.
실외 환경에서의 이동 로봇의 주행을 위해, 일반적으로 위치 추정은 다중 센서로부터의 정보를 조합해서 이루어진다. 위치 추정에 사용되는 센서 중에, GPS와 관성 센서(Inertial Measurement Unit : IMU)의 조합이 널리 사용되고 있다. Solovev, A.의 논문 "Tight Coupling of GPS, Laser Scanner, and Inertial Measurements for Navigation in urban Environments(Position, Location and Navigation Symposium, 2008.)과 S. Panzieri, F.Pascucci, 및 G.Ulivi의 논문 "An outdoor navigation system using GPS and inertial platform(IEEE/ASME Trans. Mechatronics, vol.7, no.2, pp.134-142, Jun, 2002.)가 두 센서의 조합을 이용하는 대표적인 예이다.
그러나, GPS 측정은 다중 경로 오차와 위성 시야의 차단 등의 이유로 높은 빌딩에 의해 둘러싸인 도시 환경에서는 그 성능이 저하되는 문제점이 있는데, 이는 부정확한 측정을 야기한다.
상기와 같은 도시 환경에서의 GPS 측정 오차의 문제점을 해결하기 위해, 이동 로봇의 주행 환경을 인식하고 이를 위치 추정에 이용하는 방법이 M Joerger 및 B Pervan의 논문 "Range-Domain Integration of GPS and Laser-scanner Measurements for Outdoor Navigation(Proceedings of the ION GNSS, 2006.) 등에서 제시되고 있다.
이와 같은 방법 중, 근래에는 비전 센서를 사용하는 기술이 폭 넓게 이용되고 있다. Georgiev, A. 및 Allen, P.K.의 논문 "Localization Methods for a Mobile Robot in Urban Environments(IEEE Transactions on Robotics, Vol. 20, Issue 5, 2004.)에서는 카메라에 의해 빌딩 이미지를 추출하고, 이동 로봇의 위치가 미리 등록된 이미지 맵과 매칭되어 보정된다.
그러나, 상기 논문에서 제시하고 있는 비전 센서는 몇 가지 단점을 갖고 있다. 밤과 같은 어두운 환경에서는 동작하기 어렵고, 낮은 조명에서는 강인하지 않기 때문에 날씨의 변화에 많은 영향을 받게 된다.
따라서, 낮은 조명의 주행 환경과 날씨 변화에 강인한 환경 인식 기술은 레이저 거리 센서(Laser Range Finder : LRF)를 사용하고 있다. Daniel Maier 및 Alexander Kleiner의 논문 "Improved GPS Sensor Model for Mobile Robots in Urban Terrain(IEEE International Conference on Robotics and Automation, pp. 4385-4390, May, 2010.)"에서 제시한 레이저 거리 센서를 이용한 3D 환경의 인식은 고층 빌딩에 의해 야기되는 가려진 GPS 위성들을 고려하기 위해 적용되었다. 그러나, 넓은 영역과 대비할 때 적은 양의 기하학적인 정보만이 존재하기 때문에 위치 추정이 함께 수행되어야 한다.
일반적으로 도시의 도로 환경은 포장되어 있고, 연석(Curb)이 도로의 경계에 존재하고 있다. 이와 같은 도시 도로의 환경은 준정형화된(Semi-structured) 도로 환경으로 정의된다. 이와 같은 준정형화된 도로 환경에서의 도로의 형상의 변화는 적다.
따라서, 이 같은 기하학적 특성을 이용하여 연석과 같은 도로 특성을 추출하는 것은 상대적으로 용이하다. 이러한 이유로 연석은 도로 환경에서 주행 계획과 위치 측정 기술에 폭넓게 사용되고 있다. Wijesoma W. S., Kodagoda K. R. S., 및 Balasuriya A. P.의 논문 " Road-Boundary Detection and Tracking Using Ladar Sensing(IEEE Trans. Robot. Automat. vol. 20, pp.456-464, June 2004.)에서는 도로 환경에서 레이저 거리 센서를 이용한 연석을 추출하는 기술이 제안되었고, M. Jabbour 및 P. Bonnifait의 논문 "Global localization robust to gps outages using a vertical ladar,(9th International Conference on Control, Automation, Robotics and Vision, vol.1, no.5, pp. 1013-1018, 2006.)에서는 차량의 위치 추정을 위해 연석의 일측을 수직 레이더를 이용하여 추출하는 기술이 개시되어 있다. 그러나 이 기술은 추출된 연석 포인트와 맵의 매칭을 통해 차량의 측면 에러를 감소시키고 있으나, 이동 로봇의 방향은 보정하지 못하는 단점이 있다.
이에 본 발명은 상기와 같은 문제점을 해결하기 위해 안출된 것으로서, 환경적 불확실성을 갖는 준정형화된(semi-structured) 도로 환경에서 하나의 레이저 거리 센서(Laser Range Finder : LRF)를 이용하여 연석을 보다 효과적으로 추출할 수 있는 레이저 거리 센서를 이용한 도로의 연석 추출 방법을 제공하는데 그 목적이 있다.
또한, 본 발명은 추출된 연석 정보와, DGPS(Differential Global Positioning System) 및 관성 센서(Inertial Measurement Unit : IMU)를 이용하여 이동 로봇의 위치를 보다 정확히 측정할 수 있는 도로의 연석 정보를 이용한 이동 로봇의 위치 측정 방법을 제공하는데 또 다른 목적이 있다.
상기 목적은 본 발명에 따라, 레이저 거리 센서를 이용한 도로의 연석 추출 방법에 있어서, (a) 상기 레이저 거리 센서의 스캔 데이터로부터 도로 표면과 라인 세그먼트를 추출하는 단계와; (b) 상기 라인 세그먼트 중 상기 도로 표면과의 각도에 기초하여 복수의 연석 후보 라인 세그먼트를 추출하는 단계와; (c) 상기 복수의 연석 후보 라인 세그먼트의 한 쌍씩의 조합을 복수의 연석 특성을 갖는 복수의 연석 후보로 추출하는 단계와; (d) 상기 복수의 연석 후보를 커널 피셔 판별 분석(Kernel Fisher Discriminant Analysis) 기법에 적용하여, 최종 연석을 추출하는 단계를 포함하는 것을 특징으로 하는 레이저 거리 센서를 이용한 도로의 연석 추출 방법에 의해서 달성된다.
여기서, 상기 (c) 단계는, (c1) 상기 복수의 연석 후보 라인 세그먼트로부터 우측 연석 후보 라인 세그먼트와 좌측 연석 후보 라인 세그먼트를 추출하는 단계와; (c2) 상기 추출된 도로 표면까지의 거리와, 상기 우측 연석 후보 라인 세그먼트 및/또는 상기 좌측 연석 후보 라인 세그먼트까지의 거리 간의 편차를 산출하는 단계와; (c3) 상기 우측 연석 후보 라인 세그먼트와 상기 좌측 연석 후보 라인 세그먼트 간의 각도차를 산출하는 단계와; (c4) 상기 우측 연석 후보 라인 세그먼트와 상기 좌측 연석 후보 라인 세그먼트 간의 거리와, 도로 폭 간의 편차를 산출하는 단계와; (c5) 상기 (c2) 단계, 상기 (c3) 단계 및 상기 (c4) 단계에서 산출된 값을 상기 연석 특성으로 하는 상기 연석 후보로 추출하는 단계를 포함할 수 있다.
그리고, 상기 연석 후보는 상기 (c2) 단계, 상기 (c3) 단계 및 상기 (c4) 단계에서 산출된 값을 요소로 하는 벡터 데이터로 추출될 수 있다.
또한, 상기 (d) 단계는, (d1) 연석 집단과 비 연석 집단으로 구분된 다수의 트레이닝 데이터를 상기 커널 피셔 판별 분석(Kernel Fisher Discriminant Analysis) 기법에 적용하여 판별 함수를 설정하는 단계와; (d2) 상기 연석 후보를 상기 판별 함수에 적용하여, 상기 연석 후보를 상기 연석 집단과 상기 비 연석 집단 중 어느 하나로 분류하는 단계와; (d3) 상기 (d2) 단계에서 상기 연석 집단으로 분류된 연석 후보를 상기 최종 연석으로 추출하는 단계를 포함할 수 있다.
또한, 상기 (d1) 단계에서 상기 판별 함수는 수학식
(여기서, J(α)는 목적 함수이고, 는 집단간 분산 행렬이고, 는 집단내 분산 행렬이고, α는 아이겐 벡터이다)에서 상기 목적 함수를 최대화하는 상기 아이겐 벡터로 생성될 수 있다.
그리고, 상기 (d2) 단계에서는 상기 연석 후보와, 상기 연석 집단 및 상기 비 연석 집단 간 각각의 마할라노비스 거리(Mahalanobis distance) 중 작은 어느 일측으로 분류될 수 있다.
여기서, 상기 마할라노비스 거리(Mahalanobis distance)는 수학식
한현, 상기 목적은 본 발명의 다른 실시 형태에 따라, 도로의 연석 정보를 이용한 이동 로봇의 위치 측정 방법에 있어서, (A) 상기 이동 로봇의 오도메트리 정보가 확장 칼만 필터(Extended Kalman Filter)에 적용되어, 상기 이동 로봇의 위치가 예측되는 단계와; (B) 상기 이동 로봇에 설치된 DGPS 모듈 및 관성 센서에 의해 측정된 측정값과 상기 (A) 단계에서 예측된 상기 이동 로봇의 위치가 상기 확장 칼만 필터 기법에 적용되어, 상기 (A) 단계에서 예측된 상기 이동 로봇의 위치가 보정하는 단계와; (C) 상기 이동 로봇에 설치된 레이저 거리 센서의 스캔 데이터에 기초하여 도로의 연석 정보가 추출되는 단계와; (D) 상기 추출된 연석 정보와 상기 (B) 단계에서 보정된 상기 이동 로봇의 위치가 상기 확장 칼만 필터 기법에 적용되어, 상기 (B) 단계에서 보정된 상기 이동 로봇의 위치가 보정되는 단계를 포함하는 것을 특징으로 하는 도로의 연석 정보를 이용한 이동 로봇의 위치 측정 방법에 의해서도 달성될 수 있다.
여기서, 상기 (C) 단계에서 상기 연석 정보는 제1항 내지 제7항 중 어느 한 항에 따른 레이저 거리 센서를 이용한 도로의 연석 추출 방법에 의해 추출될 수 있다.
그리고, 상기 (B) 단계에서 상기 DGPS 모듈의 측정값에 대한 오차는 시계 위성의 배치에 따른 기하학적 오차인 HDOP(Horizontal Dilution of Precision) 오차와 의사거리(Pseudo-range) 오차를 포함하고; 상기 관성 센서의 측정값에 대한 오차는 방향각 오차를 포함하며; 상기 확장 칼만 필터 기법에 적용되는 오차 공분산은 상기 DGPS 모듈의 측정값에 대한 오차 공분산과 상기 관성 센서의 측정값에 대한 오차 공분산이 반영될 수 있다.
그리고, 상기 (D) 단계에서 상기 연석 정보는 상기 이동 로봇과 추출된 연석까지의 거리 정보와, 상기 이동 로봇과 상기 연석 간의 각도 정보를 포함하고; 상기 거리 정보 및 상기 각도 정보와 기 등록된 라인 맵 간의 오차에 기초하여, 상기 확장 칼만 필터에 적용되는 상기 연석 정보에 대한 오차 공분산이 산출될 수 있다.
본 발명에 따르면, 환경적 불확실성을 갖는 준정형화된(semi-structured) 도로 환경에서 하나의 레이저 거리 센서(Laser Range Finder : LRF)를 이용하여 연석을 보다 효과적으로 추출할 수 있는 레이저 거리 센서를 이용한 도로의 연석 추출 방법이 제공된다.
또한, 본 발명에 따르면, 추출된 연석 정보와, DGPS(Differential Global Positioning System) 및 관성 센서(Inertial Measurement Unit : IMU)를 이용하여 이동 로봇의 위치를 보다 정확히 측정할 수 있는 도로의 연석 정보를 이용한 이동 로봇의 위치 측정 방법이 제공된다.
도 1 및 도 2는 준정형화된 도로 환경에서 이동 로봇과 레이저 거리 센서의 좌표 프레임의 구조를 나타낸 도면이고,
도 3은 본 발명에 따른 레이저 거리 센서를 이용한 도로의 연석 추출 방법을 설명하기 위한 도면이고,
도 4는 연석을 포함하는 준정형적 도로 환경의 이상적인 모델을 나타낸 도면이고,
도 5 내지 도 8은 본 발명에 따른 연석 추출 방법에서 커널 피셔 판별 분석(Kernel Fisher Discriminant Analysis) 기법을 적용하여 최종 연석을 추출하는 과정을 설명하기 위한 도면이고,
도 9 내지 도 12는 본 발명에 따른 도로의 연석 정보를 이용한 이동 로봇의 위치 측정 방법을 설명하기 위한 도면이다.
도 3은 본 발명에 따른 레이저 거리 센서를 이용한 도로의 연석 추출 방법을 설명하기 위한 도면이고,
도 4는 연석을 포함하는 준정형적 도로 환경의 이상적인 모델을 나타낸 도면이고,
도 5 내지 도 8은 본 발명에 따른 연석 추출 방법에서 커널 피셔 판별 분석(Kernel Fisher Discriminant Analysis) 기법을 적용하여 최종 연석을 추출하는 과정을 설명하기 위한 도면이고,
도 9 내지 도 12는 본 발명에 따른 도로의 연석 정보를 이용한 이동 로봇의 위치 측정 방법을 설명하기 위한 도면이다.
이하에서는 첨부된 도면들을 참조하여 본 발명에 따른 실시예에 대해 상세히 설명한다.
본 발명에 따른 레이저 거리 센서를 이용한 도로의 연석 추출 방법의 설명에 앞서, 본 발명에 따른 이동 로봇이 주행하는 도로 환경과 이동 로봇에 대해 설명한다.
도 1 및 도 2는 준정형화된 도로 환경에서 이동 로봇과 레이저 거리 센서의 좌표 프레임의 구조를 나타낸 도면이다. αt의 틸딩 각을 갖는 하나의 레이저 거리 센서가 도로 표면, 연석 및 장매물과 같은 도로 특성을 추출하기 위해 사용된다.
평평한 도로 상태에서 레이저 거리 센서의 주시 방향 거리는 df이다. 주시 방향 거리는 레이저 거리 센서의 틸팅 각에 의해 결정된다. 그러나, 이동 로봇의 피치 각이 평평하지 않은 도로 표면에 의해 영향을 받는다. 따라서, 레이저 거리 센서의 주시 방향 거리는 이동 로봇의 주시 방향에서 변하게 된다.
여기서, 피치 각 공차는 피치 각의 변화를 고려하여 사전에 설정된다. 도로 표면의 변화는 본 발명에서 레이저 거리 센서의 스캔 데이터를 누적하여 분석되며, 피치 각 공차 εp는 미리 가정하여 설정된다. 도로 표면의 예상 관측 영역 Ry는, 도 2에 도시된 바와 같이, 공차 εp에 의해 결정된다. 아래 [표 1]은 각 변수가 갖는 의미를 나타내고 있으며, 변수는 이동 로봇의 좌표 프레임에 대응하여 표시된다.
[표 1]
이하에서는, 도 3을 참조하여 본 발명에 따른 레이저 거리 센서를 이용한 도로의 연석 추출 방법에 대해 설명한다.
이동 로봇에 설치된 레이저 거리 센서의 스캔에 따라 스캔 데이터가 획득된다(S10). 그런 다음, 스캔 데이터로부터 도로 표면과, 라인 세그먼트가 추출된다(S11). 도로 표면의 추출 방법은 기 공지된 다양한 방법을 통해 추출될 수 있다.
일 예로, 도로 표면은 예상 관측 영역 Ry로부터 레이저 거리 센서에 의해 추출된다. 3개의 인접한 스캔 데이터의 경사가 기준치 이내인 경우, 3개의 스캔 데이터는 도로 표면의 일부로 인식될 수 있다. 그리고, 도로 표면의 일부분에 대해, 해당 도로 표면의 일부는 최소자승법을 통해 라인 세그먼트로 추출될 수 있다. 각도 θf와 이동 로봇으로부터의 거리 df는 검출된 라인 세그먼트에 의해 추출될 수 있다.
도 4는 연석을 포함하는 준정형적 도로 환경의 이상적인 모델을 나타낸 도면이다. 도 4에 도시된 바와 같이, 준정형적 도로의 기하학적 특성은 후술할 최종 연석을 추출하는데 적용된다.
도 3 및 도 4를 참조하여 보다 구체적으로 설명하면, S11 단계에서 추출된 도로 표면과 라인 세그먼트를 이용하여 라인 세그먼트 중 복수의 연석 후보 라인 세그먼트를 추출한다(S12). 본 발명에서는 해당 라인 세그먼트와 도로 표면과의 각도에 기초하여 추출하는 것을 예로 한다.
도 4를 참조하여 설명하면, 연석 방향(AB,CD)와, 도로 표면 연결선(BC) 사이의 각도차는 이상적인 도로 환경에서 90°의 각도 차이를 갖는다. 따라서, 스캔 데이터를 통해 검출된 도로 표면과, 연석 후보로 가능한 라인 세그먼트인 연석 후보 라인 세그먼트의 연석 후보 라인 세그먼트의 각도는 대략 90°이다. 이에 따라, 라인 세그먼트 중 도로 표면과의 각도 차이가 대략 90°인 라인 세그먼트를 연석 후보 라인 세그먼트로 추출한다. [수학식 1]은 이를 수학적으로 표현한 것이다.
[수학식 1]
[수학식 1]에서 이고, εc는 공차이다. 그리고, θf와 θc는 이동 로봇의 좌표에서 각각 도로 표면의 각도와 각 라인 세그먼트의 각도이다. 이 두 각도의 차가 90°±εc의 범주 내에 포함되면 해당 라인 세그먼트가 연석 후보 라인 세그먼트로 추출된다.
상기와 같이 연석 후보 라인 세그먼트가 추출되면, 복수의 연석 후보 라인 세그먼트의 한 쌍씩의 조합을 복수의 연석 특성을 갖는 복수의 연석 후보로 추출한다(S13). 도 3을 참조하여 보다 구체적으로 설명하면, 복수의 연석 후보 라인 세그먼트로부터 좌측 연석 후보 라인 세그먼트 및 우측 연석 후보 라인 세그먼트를 추출하고(S131), 추출된 좌측 연석 후보 라인 세그먼트 및 우측 연석 후보 라인 세그먼트에 대한 복수의 연석 특성을 S132 단계 내지 S134 단계를 통해 추출한다.
본 발명에서는 연석 후보의 복수의 연석 특성으로 3개의 연석 특징을 적용하는 것을 예로 하는데, 3개의 연석 특성은 좌측 연석과 우측 연석 상호간의 관계에서 도출되는 특성인 것을 예로 한다.
첫 번째 연석 특성을 도 4를 참조하여 설명하면, 이동 로봇으로부터 도로 표면의 거리(df)와, 이동 로봇으로부터 우측 연석 및/또는 좌측까지의 거리의 편차는 대략 0이다. 이에, 추출된 도로 표면까지의 거리와, 우측 연석 후보 라인 세그먼트 및/또는 좌측 연석 후보 라인 세그먼트까지의 거리 사이의 편차(α2)를 산출하여(S132), 해당 좌측 연석 후보 라인 세그먼트 및 우측 연석 후보 라인 세그먼트의 연석 특성으로 등록한다.
두 번째 연석 특성을 도 4를 참조하여 설명하면, 좌측 연석(AB)와 우측 연석(CD) 간의 각도차는 대략 0°이다. 이에, 우측 연석 후보 라인 세그먼트와 좌측 연석 후보 라인 세그먼트 간의 각도차(α3)를 산출하고(S133), 해당 좌측 연석 후보 라인 세그먼트 및 우측 연석 후보 라인 세그먼트의 연석 특성으로 등록한다.
세번째 연석 특성을 도 4를 참조하여 설명하면, 도로의 폭과 두 연석 간의 거리의 편차는 대략 0이다. 이에, 우측 연석 후보 라인 세그먼트와 좌측 연석 후보 세그먼트 간의 거리와, 현재 도로의 도로 폭 간의 편차(α4)를 산출하고(S134),해당 좌측 연석 후보 라인 세그먼트 및 우측 연석 후보 라인 세그먼트의 연석 특성으로 등록한다.
상기와 같은 연석 특성은 [수학식 2]와 같이 표현될 수 있다.
[수학식 2]
여기서, wr은 실도 도로 폭을 나타낸 것으로 후술할 라인 맵을 통해 미리 등록된 상태이고, wc는 우측 연석 후보 라인 세그먼트와 좌측 연석 라인 세그먼트 사이의 거리이다. 그리고, 첫 번째 연석 특성에서는 이동 로봇과 우측 연석 후보 라인 세그먼트 사이의 거리와, 이동 로봇과 좌측 연석 후보 라인 세그먼트 사이의 거리의 평균을 이용하여 산출하는 것을 예로 하고 있다.
여기서, 좌측 또는 우측에서 연석이 검출되지 않은 경우, 즉 좌측 연석 후보 라인 세그먼트와 우측 연석 후보 라인 세그먼트 중 어느 하나만이 검출되는 경우, 첫 번째 및 두 번째 연석 특성은 일측의 연석 후보 라인 세그먼트만을 이용하여 산출하고, 세 번째 연석 특성은 0으로 가정한다.
상기와 같은 과정을 통해, 연석 특성을 갖는 좌측 연석 후보 라인 세그먼트 및 우측 연석 후보 라인 세그먼트를 [수학식 2]와 같은 연석 특성을 갖는 연석 후보로 추출한다(S135).
그리고, 모든 연석 후보 라인 세그먼트의 한 쌍씩에 조합에 대해 연석 특성을 추출하면(S137), 연석 후보들의 추출이 완료된다. 여기서, 상기 과정은 연석 후보 라인 세그먼트를 좌측 연석 후보 라인 세그먼트와 우측 연석 후보 라인 세그먼트로 분류한 상태에서, 좌측과 우측의 모든 조합에 대해 수행되는 것을 예로 한다.
여기서, 연석 후보는 상술한 연석 특성을 위해 산출된 값을 요소로 하는 벡터 데이터로 추출되는 것을 예로 한다. 연석 후보의 벡터 데이터는 [수학식 3]과 같이 나타낼 수 있다.
[수학식 3]
상기와 같이 연석 후보들이 추출되면, 최종 연석을 추출하게 되는데(S14), 본 발명에서는 복수의 연석 후보를 커널 피셔 판별 분석(Kernel Fisher Discriminant Analysis) 기법에 적용하여, 최종 연석을 추출하는 것을 예로 한다.
이하에서는, 도 5 내지 도 8을 참조하여, 본 발명에 따른 연석 추출 방법에서 커널 피셔 판별 분석(Kernel Fisher Discriminant Analysis) 기법을 적용하여 최종 연석을 추출하는 과정에 대해 상세히 설명한다.
도 5를 참조하여 설명하면, 다수의 트레이닝 데이터를 커널 피셔 판별 분석(Kernel Fisher Discriminant Analysis) 기법에 적용하여(S50) 판별 함수를 설정한다(S51). 여기서, 다수의 트레이닝 데이터는 집단 정보를 갖는 데이터로 구성되는데, 연석 집단과 비 연석 집단으로 구분된다. 이 때, 집단 정보는 연석의 특성 정보와 비 연석의 특성을 각각 가지되, 두 집단이 명확히 구분 가능하게 분류된다. 도 6의 (a)는 [수학식 3]과 같이 3개의 요소를 갖는 데이터 벡터 형태의 연석 후보에 대응하는 연석 집단과 비 연석 집단을 3차원 공간 상에 나타낸 도면으로 연석 후보와 비 연석 후보의 특성이 명확히 구분되는 것을 나타내고 있다.
커널 피셔 판별 분석(Kernel Fisher Discriminant Analysis) 기법은 커널 특성 공간(Kernel feature space) F에서 최적의 분류와 차원의 감소를 위한 판별 함수를 제공한다. 본 발명에서는 판별 함수의 설정에 의해 임의의 데이터 집단을 예측할 수 있다.
여기서, 이 트레이닝 데이터의 세트라고 가정하면, 집단 특성의 수학적인 값으로 구성되는 각각의 샘플은 로 정의될 수 있다. 그리고, 정확한 분류를 위해, 모든 집단 특성에 대해 동등한 효과를 얻을 수 있도록 각각의 샘플의 요소들은 [수학식 4]와 같이, 정규화된다.
[수학식 4]
[수학식 4]에서 μ(j)와 σ(j)는 각 집단 특성의 평균과 표준 편차이다.
본 발명에서는 커널 피셔 판별 분석(Kernel Fisher Discriminant Analysis) 기법으로 통해 커널 특성 공간 F 에서 [수학식 5]에 나타난 목적 함수를 최대화시키는 판별 함수 α를 결정한다.
[수학식 5]
여기서, 는 집단간 분산 행렬(Between-class variance matrix)이고, 는 집단내 분산 행렬(Within-class variance matrix)이며, [수학식 6] 및 [수학식 7]과 같이 정의된다.
[수학식 6]
[수학식 7]
그리고, N은 전체 트레이닝 데이터 샘플의 개수이고, Nc는 집단 샘플들의 개수이다. 커널 특성 공간 F로 맵핑되는 트레이닝 데이터는 N×N 행렬 K로 표현된다. [수학식 8]에서 가우시안 커널은 데이터를 커널 특성 공간 F로 맵핑하기 위해 사용된다.
[수학식 8]
[수학식 8]에서 목적 함수를 최대화하는 판별 함수는 [수학식 9]에서 아이겐벨류 문제(Eigenvalue problem)로부터 파생된다. 트레이닝 데이터를 1차원 해공간(Solution space)으로 투영하기 위해, 최대 고유값에 대응하는 아이겐 벡터가 분류를 위해 판별 함수로 정의된다. 판별 함수 α는 N×1의 벡터에 의해 주어진다.
[수학식 9]
분류는 [수학식 10]에 나타난 바와 같이, 트레이닝 데이터 행렬 K와 판별 함수 α의 내적을 구하는 것에 의해 수행된다. 트레이닝 데이터 행렬 K는, 도 6의 (b)에 도시된 바와 같이, 1차원 해공간으로 투영되고, 분류 결과는 이와 같은 1차원 해공간에서 표현된다. 도 7은 두 개의 집단, 즉 연석 집단과 비 연석 집단이 상기 과정을 통해 1차원 해공간으로 투영되어 분류되는 것을 도식적으로 설명하고 있다.
[수학식 10]
상기와 같이, 트레이닝 데이터를 이용하여 판별 함수가 설정되면, 연석 후보를 판별 함수에 적용한다(S52). 그리고, 연석 후보의 판별 함수로의 적용에 의해 연석 후보가 연석 집단 또는 비 연석 집단으로 분류되고(S53), 최종적으로 연석 집단으로 분류된 연석 후보가 최종 연석으로 추출된다(S54).
보다 구체적으로 설명하면, 집단 정보가 주어지지 않은 연석 후보는 트레이닝 데이터를 이용한 판별 함수 α에 의해 예측 가능하게 된다. 된다. 트레이닝 데이터를 이용하는 것에 의해, 연석 후보는 1차원 해공간으로 투영된다. 연석 후보는 가우시안 커널과 테스트 데이터에 의해 특성 공간으로 맵핑된다. 연석 후보의 1차원 해공간으로의 투영은 [수학식 11]에 의해 계산된다.
[수학식 11]
1차원 해공간에서 트레이닝 데이터의 집단 특성은 연석 후보가 속하는 집단, 즉 연석 집단과 비 연석 집단을 예측하는데 적용된다. 여기서, 연석 후보가 속하는 집단의 예측은 연석 후보와, 연석 집단 및 비 연석 집단 간 각각의 마할라노비스 거리(Mahalanobis distance)에 의해 산출된다. [수학식 12]는 마할라노비스 거리(Mahalanobis distance)를 나타내고 있다.
[수학식 12]
도 8은 연석 집단 및 비 연석 집단과, 연석 후보 간의 마할라노비스 거리(Mahalanobis distance)를 도식적으로 나타내고 있다. 연석 후보는 보다 작은 마할라노비스 거리(Mahalanobis distance)를 갖는 어느 하나가 최종 연석으로 추출된다. 즉 연석 집단의 마할라노비스 거리(Mahalanobis distance)가 비 연석 집단의 마할라노비스 거리(Mahalanobis distance)보다 작으면, 연석 후보연석 집단으로 분류된다.
이하에서는, 도 9 내지 도 12를 참조하여 본 발명에 따른 도로의 연석 정보를 이용한 이동 로봇의 위치 측정 방법에 대해 상세히 설명한다. 본 발명에서는 상술한 연석 추출 방법이 본 발명에 따른 위치 측정 방법에 적용되는 것을 예로 한다.
도 9는 본 발명에 따른 이동 로봇의 위치 측정 방법을 설명하기 위한 도면이다. 도 9를 참조하여 설명하면, 본 발명에 따른 이동 로봇은 DGPS(Differential Global Positioning System) 모듈, 관성 센서(Inertial Measurement Unit : IMU), 오도메트리 정보의 검출을 위한 휠 엔코더(Wheel Encoder), 그리고, 레이저 거리 센서를 포함한다.
이동 로봇의 위치는 휠 엔코더에 의해 측정된 측정값의 증분 거리(Incremental Displacement)에 의해 예측(Prediction)되는데, 본 발명에서는 이동 로봇의 오도메트리 정보가 확장 칼만 필터(Extended Kalman Filter)에 적용되어 이동 로봇의 위치가 예측되는 것을 예로 한다.
*확장 칼만 필터(Extended Kalman Filter)에 의핸 예측 단계에서 이동 로봇의 상태와, 오도메트리 정보의 오차 공분산 행렬이 제공된다. [수학식 13]은 오도메트리 정보에 의한 이동 로봇의 상태를 나타낸 것이고, [수학식 14]는 오차 공분산 행렬을 나타낸 것이다.
[수학식 13]
[수학식 14]
여기서, 확장 칼만 필터(Extended Kalman Filter)에서 센서로부터 유효한 측정값이 제공되면, 확장 칼만 필터(Extended Kalman Filter)의 평가 단계, 즉 본 발명에 따른 위치 측정 방법에서 이동 로봇의 위치 보정 단계가 동작한다.
확장 칼만 필터(Extended Kalman Filter)의 평가 단계에서의 칼만 이득, 보정된 상태 및 보정된 오차 공분산은 [수학식 15] 내지 [수학식 17]로 나타낼 수 있으며, [수학식 15] 내지 [수학식 17]을 이용하여 이동 로봇의 위치가 보정되는데 이에 대한 상세한 설명은 후술한다.
[수학식 15]
[수학식 16]
[수학식 17]
다시, 이동 로봇의 위치를 예측하는 과정에 대해 보다 구체적으로 설명하면, 휠 엔코더의 측정값으로부터 얻어지는 오도메트리 정보는 이동 로봇의 위치를 예측하는 단계에서 이동 로봇의 자세를 예측하게 된다. 여기서, 이동 로봇의 자세는 이동 로봇의 위치와, 이동 로봇의 방향각, 즉 이동 로봇의 주시 방향을 포함한다.
휠 엔코더에 의해 산출되는 증분 거리Δsk-1와 Δθk-1에 대해, 샘플링 시간 k에서의 예측된 이동 로봇의 포즈는 [수학식 18]와 같이 나타낼 수 있다.
[수학식 18]
상태 벡터 는 샘플링 시간 k에서의 이동 로봇에 대해 예측된 포즈이다. 초기 포즈가 제공되면, 이동 로봇의 포즈는 전역 좌표 프레임에서 x, y, θ에 의해 표현된다. 그리고, 예측되는 이동 로봇의 포즈에 대한 불확실성은 오도메트리 정보의 누적 오차에 의해 지속적으로 증가하게 된다. 여기서, 불확실성은 [수학식 14]에 나타낸 바와 같이, 오차 공분산 행렬에 의해 표현될 수 있으며, 샘플링 시간 k-1에서의 오도메트리 정보의 불확실성 Qk-1은 [수학식 19]와 같이 나타낼 수 있다.
[수학식 19]
여기서, kr과 kl은 각 휠의 오차 상수로 이동 로봇의 환경에 의존하는 값으로 본 발명에서는 미리 설정된 상태이다.
상기와 같이, 오도메트리 정보가 확장 칼만 필터에 적용되어, 이동 로봇의 위치가 예측되면, 도 9에 도시된 바와 같이, DGPS 모듈과 관성 센서에 의해 측정된 측정값이 확장 칼만 필터(Extended Kalman Filter)의 평가 단계에 적용되어, 이동 로봇의 위치가 보정된다. 본 발명에서는 DGPS 모듈 및 관성 센서에 의해 측정된 측정값과 오도메트리 정보에 기초하여 예측된 이동 로봇의 위치가 확장 칼만 필터의 평가 단계에 적용되어 이동 로봇의 위치가 예측된다.
보다 구체적으로 설명하면, DPGS 모듈의 측정값에 대한 오차는 시계 위성의 배치에 따른 기하학적 오차인 HDOP(Horizontal Dilution of Precision) 오차와 의사거리(Pseudo-range) 오차를 포함한다. 따라서, DGPS 모듈의 오차 공분산은 [수학식 20]과 같이 표현할 수 있다.
[수학식 20]
[수학식 20]에서 좌측 항목은 HDOP(Horizontal Dilution of Precision) 오차에 대한 오차 공분산이고, 우측 항목은 의사거리 오차에 대한 오차 공분산이다.
그리고, DGPS 모듈의 오차 공분산과 관성 센서의 오차 공분산을 반영한 오차 공분산(이하, '1차 보정용 오차 공분산'이라 함)은 [수학식 21]와 같이 표현될 수 있다.
[수학식 21]
그리고, DGPS 모듈의 측정값과 관성 센서의 측정값은 전역 좌표 프레임에서 [수학식 22]과 같은 측정 벡터로 나타낼 수 있다.
[수학식 22]
[수학식 15] 및 [수학식 17]의 측정 공분산 행렬 Rk는 [수학식 21]에 의해 정의되는 바, 관측 모델은 [수학식 23]과 같이 표현될 수 있다.
[수학식 23]
그리고, 측정 조코비안 행렬 Hk는 [수학식 24]와 같이 주어진다.
[수학식 24]
상기 과정을 통해 얻어진 관측 모델 및 측정 조코비안 행렬 등을 [수학식 15] 내지 [수학식 17]에 적용하여, [수학식 16]에 나타난 바와 같은 보정된 이동 로봇의 위치를 얻을 수 있게 된다.
상기와 같이 DGPS 모듈 및 관성 센서의 측정값에 기초한 이동 로봇의 위치 보정이 완료되면, 레이저 거리 센서의 스캔 데이터를 이용한 보정 과정이 진행된다.
먼저, 이동 로봇에 설치된 레이저 거리 센서의 스캔 데이터에 기초하여 도로의 연석 정보가 추출된다. 본 발명에서는 상술한 도로의 연석 추출 방법을 통해 연석 정보가 추출되는 것을 예로 한다.
그리고, 추출된 연석 정보와 상술한 보정 과정을 통해 보정된 이동 로봇의 위치가 확장 칼만 필터 기법의 평가 단계에 적용되어, 이동 로봇의 위치가 보정된다. 여기서, 연석 정보는 상술한 바와 같이, 이동 로봇과 추출된 연석까지의 거리 정보와, 이동 로봇과 연석 간의 각도 정보를 포함하게 된다.
그리고, 거리 정보 및 각도 정보와, 기 등록된 라인 맵 간의 오차에 기초하여, 확장 칼만 필터에 정용되는 연석 정보의 오차 공분산(이하, '2차 보정용 오차 공분산'이라 함)이 산출되어 위치 오차의 보정에 적용된다.
도 10 내지 도 12를 참조하여 보다 구체적으로 설명하면, 라인 맵 상의 실제 연석과 대비되는 연석 정보의 기하학적 구조는, 도 10에 도시된 바와 같다. 연석 정보의 오차는 라인 맵 상의 실제 연석과의 오차로 추출되며, [수학식 25] 및 [수학식 26]과 같이 연석 각도 오차와 연석 거리 오차로 나타낼 수 있다.
[수학식 25]
[수학식 26]
추정 오차 εαi 및 εri는 실제 연석으로부터 연석 정보의 분산으로 나타낸다. 따라서, 추정 오차 εαi 및 εri가 다수의 연석 정보로부터 제공될 때, 추출된 연석 정보(α, r)의 공분산 행렬, 즉 2차 보정용 오차 공분산 행렬은 [수학식 27]과 같이 표현된다.
[수학식 27]
연석 정보의 2차 보정용 오차 공분산 행렬을 이용하여, 연석 정보와 연석 분산은 도 11에 도시된 바와 같다. 거리 방향에 대한 연석 정보의 불확실성은 파란색 굵은 선으로 표시된 연석 정보와 평행한 붉은색 점선으로 나타난다. 도 11에서 붉은색 쇄선은 연석 정보의 각도 불확실성을 나타낸다. 연석 정보에 대한 전체 불확실성의 경계는 거리 불확실성과 각도 불확실성에 의해 녹색 곡선으로 나타낼 수 있다.
연석 정보를 이용한 이동 로봇의 위치 보정에 대해 보다 구체적으로 설명하면, 연석 정보는 상술한 바와 같이, 각도 정보와 거리 정보를 포함하며, 연석 정보는 [수학식 28]과 같이 측정 벡터로 나타낼 수 있다. 연석이 도로의 양측에서 추출된 경우, 좌측 연석과 우측 연석에 대한 두 개의 측정 벡터가 존재하게 된다.
[수학식 28]
양측 연석에 대한 2차 보정용 오차 공분산 행렬은 [수학식 29]와 같이 표현되며, 연석이 도로의 양측에서 추출되면 2차 보정용 오차 공분산 행렬은 양측에 제공된다.
[수학식 29]
이동 로봇의 포즈는 연석 정보, 즉 [수학식 28]의 측정 벡터와 라인 맵 간의 비교를 통해 보정된다. 도 12는 연석 정보와 라인 맵 상의 연석 간의 관계를 나타낸 도면이다. 도 12를 참조하여 설명하면, 연석 정보는 라인 맵 상의 연석에 해당하는 I번째 라인에 매칭된다. 샘플링 시간 k에서의 i 번째 라인 에 대한 관측 모델과 이동 로봇의 포즈는 [수학식 30]과 같이 정의된다.
[수학식 30]
그리고, 측정 조코비안 행렬 Hk는 [수학식 31]과 같이 정의된다.
[수학식 31]
상기 과정을 통해 얻어진 연석 정보에 대한 관측 모델 및 측정 조코비안 행렬 등을 [수학식 15] 내지 [수학식 17]에 적용하여, [수학식 16]에 나타난 바와 같은 보정된 이동 로봇의 위치, 즉 연석 정보를 이용한 이동 로봇의 보정된 위치를 산출하게 된다.
이상에서 본 발명의 바람직한 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다.
Claims (11)
- 레이저 거리 센서를 이용한 도로의 연석 추출 방법에 있어서,
(a) 상기 레이저 거리 센서의 스캔 데이터로부터 도로 표면과 라인 세그먼트를 추출하는 단계와;
(b) 상기 라인 세그먼트 중 상기 도로 표면과의 각도에 기초하여 복수의 연석 후보 라인 세그먼트를 추출하는 단계와;
(c) 상기 복수의 연석 후보 라인 세그먼트의 한 쌍씩의 조합을 복수의 연석 특성을 갖는 복수의 연석 후보로 추출하는 단계와;
(d) 상기 복수의 연석 후보를 커널 피셔 판별 분석(Kernel Fisher Discriminant Analysis) 기법에 적용하여, 최종 연석을 추출하는 단계를 포함하는 것을 특징으로 하는 레이저 거리 센서를 이용한 도로의 연석 추출 방법. - 제1항에 있어서,
상기 (c) 단계는,
(c1) 상기 복수의 연석 후보 라인 세그먼트로부터 우측 연석 후보 라인 세그먼트와 좌측 연석 후보 라인 세그먼트를 추출하는 단계와;
(c2) 상기 추출된 도로 표면까지의 거리와, 상기 우측 연석 후보 라인 세그먼트 및/또는 상기 좌측 연석 후보 라인 세그먼트까지의 거리 간의 편차를 산출하는 단계와;
(c3) 상기 우측 연석 후보 라인 세그먼트와 상기 좌측 연석 후보 라인 세그먼트 간의 각도차를 산출하는 단계와;
(c4) 상기 우측 연석 후보 라인 세그먼트와 상기 좌측 연석 후보 라인 세그먼트 간의 거리와, 도로 폭 간의 편차를 산출하는 단계와;
(c5) 상기 (c2) 단계, 상기 (c3) 단계 및 상기 (c4) 단계에서 산출된 값을 상기 연석 특성으로 하는 상기 연석 후보로 추출하는 단계를 포함하는 것을 특징으로 하는 레이저 거리 센서를 이용한 도로의 연석 추출 방법. - 제2항에 있어서,
상기 연석 후보는 상기 (c2) 단계, 상기 (c3) 단계 및 상기 (c4) 단계에서 산출된 값을 요소로 하는 벡터 데이터로 추출되는 것을 특징으로 하는 레이저 거리 센서를 이용한 도로의 연석 추출 방법. - 제3항에 있어서,
상기 (d) 단계는,
(d1) 연석 집단과 비 연석 집단으로 구분된 다수의 트레이닝 데이터를 상기 커널 피셔 판별 분석(Kernel Fisher Discriminant Analysis) 기법에 적용하여 판별 함수를 설정하는 단계와;
(d2) 상기 연석 후보를 상기 판별 함수에 적용하여, 상기 연석 후보를 상기 연석 집단과 상기 비 연석 집단 중 어느 하나로 분류하는 단계와;
(d3) 상기 (d2) 단계에서 상기 연석 집단으로 분류된 연석 후보를 상기 최종 연석으로 추출하는 단계를 포함하는 것을 특징으로 하는 레이저 거리 센서를 이용한 도로의 연석 추출 방법. - 제5항에 있어서,
상기 (d2) 단계에서는 상기 연석 후보와, 상기 연석 집단 및 상기 비 연석 집단 간 각각의 마할라노비스 거리(Mahalanobis distance) 중 작은 어느 일측으로 분류되는 것을 특징으로 하는 레이저 거리 센서를 이용한 도로의 연석 추출 방법. - 도로의 연석 정보를 이용한 이동 로봇의 위치 측정 방법에 있어서,
(A) 상기 이동 로봇의 오도메트리 정보가 확장 칼만 필터(Extended Kalman Filter)에 적용되어, 상기 이동 로봇의 위치가 예측되는 단계와;
(B) 상기 이동 로봇에 설치된 DGPS 모듈 및 관성 센서에 의해 측정된 측정값과 상기 (A) 단계에서 예측된 상기 이동 로봇의 위치가 상기 확장 칼만 필터 기법에 적용되어, 상기 (A) 단계에서 예측된 상기 이동 로봇의 위치가 보정하는 단계와;
(C) 상기 이동 로봇에 설치된 레이저 거리 센서의 스캔 데이터에 기초하여 도로의 연석 정보가 추출되는 단계와;
(D) 상기 추출된 연석 정보와 상기 (B) 단계에서 보정된 상기 이동 로봇의 위치가 상기 확장 칼만 필터 기법에 적용되어, 상기 (B) 단계에서 보정된 상기 이동 로봇의 위치가 보정되는 단계를 포함하는 것을 특징으로 하는 도로의 연석 정보를 이용한 이동 로봇의 위치 측정 방법. - 제8항에 있어서,
상기 (C) 단계에서 상기 연석 정보는 제1항 내지 제7항 중 어느 한 항에 따른 레이저 거리 센서를 이용한 도로의 연석 추출 방법에 의해 추출되는 것을 특징으로 하는 도로의 연석 정보를 이용한 이동 로봇의 위치 측정 방법. - 제9항에 있어서,
상기 (B) 단계에서
상기 DGPS 모듈의 측정값에 대한 오차는 시계 위성의 배치에 따른 기하학적 오차인 HDOP(Horizontal Dilution of Precision) 오차와 의사거리(Pseudo-range) 오차를 포함하고;
상기 관성 센서의 측정값에 대한 오차는 방향각 오차를 포함하며;
상기 확장 칼만 필터 기법에 적용되는 오차 공분산은 상기 DGPS 모듈의 측정값에 대한 오차 공분산과 상기 관성 센서의 측정값에 대한 오차 공분산이 반영되는 것을 특징으로 하는 도로의 연석 정보를 이용한 이동 로봇의 위치 측정 방법. - 제9항에 있어서,
상기 (D) 단계에서
상기 연석 정보는 상기 이동 로봇과 추출된 연석까지의 거리 정보와, 상기 이동 로봇과 상기 연석 간의 각도 정보를 포함하고;
상기 거리 정보 및 상기 각도 정보와 기 등록된 라인 맵 간의 오치에 기초하여, 상기 확장 칼만 필터에 적용되는 상기 연석 정보에 대한 오차 공분산이 산출되는 것을 특징으로 하는 도로의 연석 정보를 이용한 이동 로봇의 위치 측정 방법.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020140086346A KR101632486B1 (ko) | 2014-07-09 | 2014-07-09 | 레이저 거리 센서를 이용한 도로의 연석 추출 방법 및 도로의 연석 정보를 이용한 이동 로봇의 위치 측정 방법 |
US14/521,699 US9454156B2 (en) | 2014-07-09 | 2014-10-23 | Method for extracting curb of road using laser range finder and method for localizing of mobile robot using curb information of road |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020140086346A KR101632486B1 (ko) | 2014-07-09 | 2014-07-09 | 레이저 거리 센서를 이용한 도로의 연석 추출 방법 및 도로의 연석 정보를 이용한 이동 로봇의 위치 측정 방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20160006898A true KR20160006898A (ko) | 2016-01-20 |
KR101632486B1 KR101632486B1 (ko) | 2016-06-22 |
Family
ID=55067517
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020140086346A KR101632486B1 (ko) | 2014-07-09 | 2014-07-09 | 레이저 거리 센서를 이용한 도로의 연석 추출 방법 및 도로의 연석 정보를 이용한 이동 로봇의 위치 측정 방법 |
Country Status (2)
Country | Link |
---|---|
US (1) | US9454156B2 (ko) |
KR (1) | KR101632486B1 (ko) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190062689A (ko) * | 2017-11-29 | 2019-06-07 | 현대자동차주식회사 | 차량 및 그 제어 방법 |
Families Citing this family (32)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
USD731383S1 (en) | 2014-05-23 | 2015-06-09 | Google Inc. | Vehicle door |
DE102016201304A1 (de) * | 2016-01-28 | 2017-08-03 | Robert Bosch Gmbh | Vorrichtung und Verfahren zum Erfassen eines Randsteins in einer Umgebung eines Fahrzeugs sowie System zur Randsteinkontrolle für ein Fahrzeug |
CN106225785B (zh) * | 2016-07-05 | 2018-11-13 | 黄景德 | 一种基于光学瞄准的渔船用辅助导航装置及其导航方法 |
WO2018077619A1 (en) | 2016-10-24 | 2018-05-03 | Starship Technologies Oü | Sidewalk edge finder system and method |
USD871412S1 (en) * | 2016-11-21 | 2019-12-31 | Datalogic Ip Tech S.R.L. | Optical scanner |
KR101888295B1 (ko) * | 2017-01-24 | 2018-08-14 | 고려대학교 산학협력단 | 레이저 거리 센서의 측정 거리에 대해 추정된 거리 유형의 신뢰성을 평가하는 방법 및 이를 이용한 이동 로봇의 위치 추정 방법 |
USD835028S1 (en) * | 2017-04-28 | 2018-12-04 | Waymo Llc | Roof sensor housing |
USD858381S1 (en) | 2017-04-28 | 2019-09-03 | Waymo Llc | Fender sensor housing |
USD834971S1 (en) | 2017-04-28 | 2018-12-04 | Waymo Llc | Front sensor housing |
DE102018101388A1 (de) * | 2018-01-23 | 2019-07-25 | Valeo Schalter Und Sensoren Gmbh | Korrigieren einer Position eines Fahrzeugs mit SLAM |
USD866368S1 (en) | 2018-03-15 | 2019-11-12 | Waymo Llc | Roof sensor housing |
EP3582043B1 (de) * | 2018-06-12 | 2022-07-20 | Siemens Aktiengesellschaft | Verfahren, numerische steuereinrichtung sowie werkzeugmaschine zur bearbeitung eines werkstücks |
CN108957475A (zh) | 2018-06-26 | 2018-12-07 | 东软集团股份有限公司 | 一种道路边界检测方法及装置 |
US10976747B2 (en) * | 2018-10-29 | 2021-04-13 | Here Global B.V. | Method and apparatus for generating a representation of an environment |
USD950404S1 (en) | 2019-05-01 | 2022-05-03 | Waymo Llc | Roof pod housing |
USD915913S1 (en) | 2019-05-01 | 2021-04-13 | Waymo Llc | Roof pod housing |
USD902756S1 (en) | 2019-02-20 | 2020-11-24 | Waymo Llc | Sensor assembly |
USD957968S1 (en) | 2019-02-20 | 2022-07-19 | Waymo Llc | Sensor housing |
USD964249S1 (en) | 2019-04-25 | 2022-09-20 | Waymo Llc | Perimeter sensor housing |
USD964908S1 (en) | 2019-04-25 | 2022-09-27 | Waymo Llc | Perimeter sensor housing |
USD965498S1 (en) | 2019-04-25 | 2022-10-04 | Waymo Llc | Perimeter sensor housing |
USD927998S1 (en) | 2019-04-25 | 2021-08-17 | Waymo Llc | Front sensor housing |
USD956585S1 (en) | 2019-04-25 | 2022-07-05 | Waymo Llc | Rear sensor housing |
USD964909S1 (en) | 2019-04-25 | 2022-09-27 | Waymo Llc | Perimeter sensor housing |
USD928639S1 (en) | 2019-04-25 | 2021-08-24 | Waymo Llc | Rear sensor housing |
USD954571S1 (en) | 2019-04-25 | 2022-06-14 | Waymo Llc | Front sensor housing |
US11964616B2 (en) | 2019-05-01 | 2024-04-23 | Waymo Llc | Autonomous vehicle roof pod |
US11603048B2 (en) | 2019-05-01 | 2023-03-14 | Waymo Llc | Autonomous vehicle roof pod |
DE102019126631A1 (de) * | 2019-10-02 | 2021-04-08 | Valeo Schalter Und Sensoren Gmbh | Verbesserte Trajektorienschätzung basierend auf Ground Truth |
US11802948B2 (en) * | 2020-04-24 | 2023-10-31 | Crown Equipment Corporation | Industrial vehicle distance and range measurement device calibration |
CN116203941A (zh) * | 2021-11-30 | 2023-06-02 | 株式会社理光 | 移动体、存储介质以及计算机装置 |
USD1001654S1 (en) | 2021-12-08 | 2023-10-17 | Waymo Llc | Sensor assembly |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20140074343A (ko) * | 2011-09-12 | 2014-06-17 | 콘티넨탈 테베스 아게 운트 코. 오하게 | 차량의 포지션 데이터의 결정 방법 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050149251A1 (en) * | 2000-07-18 | 2005-07-07 | University Of Minnesota | Real time high accuracy geospatial database for onboard intelligent vehicle applications |
US8099213B2 (en) * | 2008-07-18 | 2012-01-17 | GM Global Technology Operations LLC | Road-edge detection |
US8755997B2 (en) * | 2008-07-30 | 2014-06-17 | Honeywell International Inc. | Laser ranging process for road and obstacle detection in navigating an autonomous vehicle |
US20120050198A1 (en) * | 2010-03-22 | 2012-03-01 | Bruce Cannon | Electronic Device and the Input and Output of Data |
US8996228B1 (en) * | 2012-09-05 | 2015-03-31 | Google Inc. | Construction zone object detection using light detection and ranging |
US9221461B2 (en) * | 2012-09-05 | 2015-12-29 | Google Inc. | Construction zone detection using a plurality of information sources |
US9171213B2 (en) * | 2013-03-15 | 2015-10-27 | Xerox Corporation | Two-dimensional and three-dimensional sliding window-based methods and systems for detecting vehicles |
US20150097412A1 (en) * | 2013-10-09 | 2015-04-09 | Caterpillar Inc. | Determing an activity of a mobile machine |
-
2014
- 2014-07-09 KR KR1020140086346A patent/KR101632486B1/ko active IP Right Grant
- 2014-10-23 US US14/521,699 patent/US9454156B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20140074343A (ko) * | 2011-09-12 | 2014-06-17 | 콘티넨탈 테베스 아게 운트 코. 오하게 | 차량의 포지션 데이터의 결정 방법 |
Non-Patent Citations (1)
Title |
---|
제어자동화시스템공학 논문지 제13권 제2호 140-146 (2007.2.)* * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190062689A (ko) * | 2017-11-29 | 2019-06-07 | 현대자동차주식회사 | 차량 및 그 제어 방법 |
Also Published As
Publication number | Publication date |
---|---|
KR101632486B1 (ko) | 2016-06-22 |
US9454156B2 (en) | 2016-09-27 |
US20160011594A1 (en) | 2016-01-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101632486B1 (ko) | 레이저 거리 센서를 이용한 도로의 연석 추출 방법 및 도로의 연석 정보를 이용한 이동 로봇의 위치 측정 방법 | |
US10989560B2 (en) | Map data correcting method and device | |
EP3825807A1 (en) | Method, device and assembly for map generation | |
US20170023659A1 (en) | Adaptive positioning system | |
JP2024050990A (ja) | 判定装置 | |
EP3640681B1 (en) | Method and apparatus for estimating position | |
KR20200044420A (ko) | 위치 추정 방법 및 장치 | |
RU2720140C1 (ru) | Способ оценки собственной позиции и устройство оценки собственной позиции | |
EP3617749B1 (en) | Method and arrangement for sourcing of location information, generating and updating maps representing the location | |
KR20190064311A (ko) | 라이다를 이용한 지도 생성 방법 및 장치 | |
US20220113139A1 (en) | Object recognition device, object recognition method and program | |
US20210278217A1 (en) | Measurement accuracy calculation device, self-position estimation device, control method, program and storage medium | |
US20230010175A1 (en) | Information processing device, control method, program and storage medium | |
Hassani et al. | Experimental integrity evaluation of tightly-integrated IMU/LiDAR including return-light intensity data | |
Suganuma et al. | Localization for autonomous vehicle on urban roads | |
CN112455502B (zh) | 基于激光雷达的列车定位方法及装置 | |
Wang et al. | UGV‐UAV robust cooperative positioning algorithm with object detection | |
Patruno et al. | An embedded vision system for real-time autonomous localization using laser profilometry | |
US20220136832A1 (en) | Method and system for magnetic-based collaborative positioning | |
WO2016196717A2 (en) | Mobile localization using sparse time-of-flight ranges and dead reckoning | |
Wang et al. | UAV navigation in large-scale GPS-denied bridge environments using fiducial marker-corrected stereo visual-inertial localisation | |
Jabbour et al. | Backing up GPS in urban areas using a scanning laser | |
Inoue et al. | A study on Position Measurement System Using Laser Range Finder and Its Application fo r Construction Work | |
CN112050830A (zh) | 一种运动状态估计方法及装置 | |
WO2023017624A1 (en) | Drive device, vehicle, and method for automated driving and/or assisted driving |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |