KR20160006898A - 레이저 거리 센서를 이용한 도로의 연석 추출 방법 및 도로의 연석 정보를 이용한 이동 로봇의 위치 측정 방법 - Google Patents

레이저 거리 센서를 이용한 도로의 연석 추출 방법 및 도로의 연석 정보를 이용한 이동 로봇의 위치 측정 방법 Download PDF

Info

Publication number
KR20160006898A
KR20160006898A KR1020140086346A KR20140086346A KR20160006898A KR 20160006898 A KR20160006898 A KR 20160006898A KR 1020140086346 A KR1020140086346 A KR 1020140086346A KR 20140086346 A KR20140086346 A KR 20140086346A KR 20160006898 A KR20160006898 A KR 20160006898A
Authority
KR
South Korea
Prior art keywords
curb
mobile robot
road
information
candidate
Prior art date
Application number
KR1020140086346A
Other languages
English (en)
Other versions
KR101632486B1 (ko
Inventor
정우진
이현석
Original Assignee
고려대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 고려대학교 산학협력단 filed Critical 고려대학교 산학협력단
Priority to KR1020140086346A priority Critical patent/KR101632486B1/ko
Priority to US14/521,699 priority patent/US9454156B2/en
Publication of KR20160006898A publication Critical patent/KR20160006898A/ko
Application granted granted Critical
Publication of KR101632486B1 publication Critical patent/KR101632486B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • G01C3/08Use of electric radiation detectors
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C7/00Tracing profiles
    • G01C7/02Tracing profiles of land surfaces
    • G01C7/04Tracing profiles of land surfaces involving a vehicle which moves along the profile to be traced
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4802Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • G05D1/024Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • G06F18/2132Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on discrimination criteria, e.g. discriminant analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/01Mobile robot

Abstract

본 발명은 레이저 거리 센서를 이용한 도로의 연석 추출 방법 및 도로의 연석 정보를 이용한 이동 로봇의 위치 측정 방법에 관한 것이다. 본 발명에 따른 도로의 연석 추출 방법은 (a) 상기 레이저 거리 센서의 스캔 데이터로부터 도로 표면과 라인 세그먼트를 추출하는 단계와; (b) 상기 라인 세그먼트 중 상기 도로 표면과의 각도에 기초하여 복수의 연석 후보 라인 세그먼트를 추출하는 단계와; (c) 상기 복수의 연석 후보 라인 세그먼트의 한 쌍씩의 조합을 복수의 연석 특성을 갖는 복수의 연석 후보로 추출하는 단계와; (d) 상기 복수의 연석 후보를 커널 피셔 판별 분석(Kernel Fisher Discriminant Analysis) 기법에 적용하여, 최종 연석을 추출하는 단계를 포함하는 것을 특징으로 한다. 이에 따라, 환경적 불확실성을 갖는 준정형화된(semi-structured) 도로 환경에서 하나의 레이저 거리 센서를 이용하여 연석을 보다 효과적으로 추출할 수 있다.

Description

레이저 거리 센서를 이용한 도로의 연석 추출 방법 및 도로의 연석 정보를 이용한 이동 로봇의 위치 측정 방법{METHOD FOR EXTRACTING CURB OF ROAD USING LASER RANGE FINDER AND METHOD FOR LOCALIZING OF MOBILE ROBOT USING CURB INFORMATION OF ROAD}
본 발명은 레이저 거리 센서를 이용한 도로의 연석 추출 방법 및 도로의 연석 정보를 이용한 이동 로봇의 위치 측정 방법에 관한 것으로서, 보다 상세하게는 주변 지형의 형상 변화가 적은 준정형화된(semi-structured) 도로 환경에서 연석을 추출하고, 추출된 연석과 DGPS(Differential Global Positioning System) 및 관성 센서(Inertial Measurement Unit : IMU)를 이용하여 이동 로봇의 위치를 측정하는 레이저 거리 센서를 이용한 도로의 연석 추출 방법 및 도로의 연석 정보를 이용한 이동 로봇의 위치 측정 방법에 관한 것이다.
도로에서의 순찰이나 서비스와 같은 특화된 임무를 수행하는 실외 이동 로봇에 있어 도시 도로 환경 상에서의 실외 이동 로봇의 주변 환경 인식과 위치 추정은 중요한 이슈로 작용된다. 이와 같은 임무를 수행하는 실외 이동 로봇은 미리 제공된 맵 정보에 기초하여 동일한 경로를 반복적으로 주행하게 된다. 이동 로봇의 주변 환경 인식과 위치 추정은 맵에 기초한 실외 이동 로봇의 안전한 주행에 있어 매우 중요한 요소로 작용된다.
실외 환경은 전통적으로 두 가지 특징을 갖는다. 하나는 주변 지형이 일률적이지 못하다는 것이다. 다른 하나는 날씨나 계절에 의해 많은 변화가 있다는 점이다. 따라서, 많은 연구들이 이와 같은 환경적인 불확실성을 극복하기 위해 진행되어 왔다.
일 예로, Sebastian Thrun 등의 논문 "Stanley: The Robot That Won the DARPA Grand Challenge(Journal of Field Robotics, vol.23 no.9, pp.661-692, 2006)"와 Martin Buehler, Karl lagnemma, 및 Sanjiv Singh의 논문 "The DARPA Urban Challenge : Autonomous Vehicles in City Traffic(Springer, 2010.)"에 개시된 "DARPA Challenge"는 실외 환경에서 이동 로봇의 자율 주행의 성공적인 예를 제시하고 있다.
"DARPA Challenge"는 실외 환경에서의 불확실성에도 불구하고, 성공적인 주행을 위한 다양한 위치 추정 기술과 주행 전략을 제안하고 있다. 그러나, "DARPA Challenge"는 몇 가지 단점이 있다. 첫 번째는 많은 개수의 비싼 장비를 사용해야 하는 점에 있다. 두 번째는 복잡한 시스템 구조를 요구하는데 있다.
실외 환경에서의 이동 로봇의 주행을 위해, 일반적으로 위치 추정은 다중 센서로부터의 정보를 조합해서 이루어진다. 위치 추정에 사용되는 센서 중에, GPS와 관성 센서(Inertial Measurement Unit : IMU)의 조합이 널리 사용되고 있다. Solovev, A.의 논문 "Tight Coupling of GPS, Laser Scanner, and Inertial Measurements for Navigation in urban Environments(Position, Location and Navigation Symposium, 2008.)과 S. Panzieri, F.Pascucci, 및 G.Ulivi의 논문 "An outdoor navigation system using GPS and inertial platform(IEEE/ASME Trans. Mechatronics, vol.7, no.2, pp.134-142, Jun, 2002.)가 두 센서의 조합을 이용하는 대표적인 예이다.
그러나, GPS 측정은 다중 경로 오차와 위성 시야의 차단 등의 이유로 높은 빌딩에 의해 둘러싸인 도시 환경에서는 그 성능이 저하되는 문제점이 있는데, 이는 부정확한 측정을 야기한다.
상기와 같은 도시 환경에서의 GPS 측정 오차의 문제점을 해결하기 위해, 이동 로봇의 주행 환경을 인식하고 이를 위치 추정에 이용하는 방법이 M Joerger 및 B Pervan의 논문 "Range-Domain Integration of GPS and Laser-scanner Measurements for Outdoor Navigation(Proceedings of the ION GNSS, 2006.) 등에서 제시되고 있다.
이와 같은 방법 중, 근래에는 비전 센서를 사용하는 기술이 폭 넓게 이용되고 있다. Georgiev, A. 및 Allen, P.K.의 논문 "Localization Methods for a Mobile Robot in Urban Environments(IEEE Transactions on Robotics, Vol. 20, Issue 5, 2004.)에서는 카메라에 의해 빌딩 이미지를 추출하고, 이동 로봇의 위치가 미리 등록된 이미지 맵과 매칭되어 보정된다.
그러나, 상기 논문에서 제시하고 있는 비전 센서는 몇 가지 단점을 갖고 있다. 밤과 같은 어두운 환경에서는 동작하기 어렵고, 낮은 조명에서는 강인하지 않기 때문에 날씨의 변화에 많은 영향을 받게 된다.
따라서, 낮은 조명의 주행 환경과 날씨 변화에 강인한 환경 인식 기술은 레이저 거리 센서(Laser Range Finder : LRF)를 사용하고 있다. Daniel Maier 및 Alexander Kleiner의 논문 "Improved GPS Sensor Model for Mobile Robots in Urban Terrain(IEEE International Conference on Robotics and Automation, pp. 4385-4390, May, 2010.)"에서 제시한 레이저 거리 센서를 이용한 3D 환경의 인식은 고층 빌딩에 의해 야기되는 가려진 GPS 위성들을 고려하기 위해 적용되었다. 그러나, 넓은 영역과 대비할 때 적은 양의 기하학적인 정보만이 존재하기 때문에 위치 추정이 함께 수행되어야 한다.
일반적으로 도시의 도로 환경은 포장되어 있고, 연석(Curb)이 도로의 경계에 존재하고 있다. 이와 같은 도시 도로의 환경은 준정형화된(Semi-structured) 도로 환경으로 정의된다. 이와 같은 준정형화된 도로 환경에서의 도로의 형상의 변화는 적다.
따라서, 이 같은 기하학적 특성을 이용하여 연석과 같은 도로 특성을 추출하는 것은 상대적으로 용이하다. 이러한 이유로 연석은 도로 환경에서 주행 계획과 위치 측정 기술에 폭넓게 사용되고 있다. Wijesoma W. S., Kodagoda K. R. S., 및 Balasuriya A. P.의 논문 " Road-Boundary Detection and Tracking Using Ladar Sensing(IEEE Trans. Robot. Automat. vol. 20, pp.456-464, June 2004.)에서는 도로 환경에서 레이저 거리 센서를 이용한 연석을 추출하는 기술이 제안되었고, M. Jabbour 및 P. Bonnifait의 논문 "Global localization robust to gps outages using a vertical ladar,(9th International Conference on Control, Automation, Robotics and Vision, vol.1, no.5, pp. 1013-1018, 2006.)에서는 차량의 위치 추정을 위해 연석의 일측을 수직 레이더를 이용하여 추출하는 기술이 개시되어 있다. 그러나 이 기술은 추출된 연석 포인트와 맵의 매칭을 통해 차량의 측면 에러를 감소시키고 있으나, 이동 로봇의 방향은 보정하지 못하는 단점이 있다.
이에 본 발명은 상기와 같은 문제점을 해결하기 위해 안출된 것으로서, 환경적 불확실성을 갖는 준정형화된(semi-structured) 도로 환경에서 하나의 레이저 거리 센서(Laser Range Finder : LRF)를 이용하여 연석을 보다 효과적으로 추출할 수 있는 레이저 거리 센서를 이용한 도로의 연석 추출 방법을 제공하는데 그 목적이 있다.
또한, 본 발명은 추출된 연석 정보와, DGPS(Differential Global Positioning System) 및 관성 센서(Inertial Measurement Unit : IMU)를 이용하여 이동 로봇의 위치를 보다 정확히 측정할 수 있는 도로의 연석 정보를 이용한 이동 로봇의 위치 측정 방법을 제공하는데 또 다른 목적이 있다.
상기 목적은 본 발명에 따라, 레이저 거리 센서를 이용한 도로의 연석 추출 방법에 있어서, (a) 상기 레이저 거리 센서의 스캔 데이터로부터 도로 표면과 라인 세그먼트를 추출하는 단계와; (b) 상기 라인 세그먼트 중 상기 도로 표면과의 각도에 기초하여 복수의 연석 후보 라인 세그먼트를 추출하는 단계와; (c) 상기 복수의 연석 후보 라인 세그먼트의 한 쌍씩의 조합을 복수의 연석 특성을 갖는 복수의 연석 후보로 추출하는 단계와; (d) 상기 복수의 연석 후보를 커널 피셔 판별 분석(Kernel Fisher Discriminant Analysis) 기법에 적용하여, 최종 연석을 추출하는 단계를 포함하는 것을 특징으로 하는 레이저 거리 센서를 이용한 도로의 연석 추출 방법에 의해서 달성된다.
여기서, 상기 (c) 단계는, (c1) 상기 복수의 연석 후보 라인 세그먼트로부터 우측 연석 후보 라인 세그먼트와 좌측 연석 후보 라인 세그먼트를 추출하는 단계와; (c2) 상기 추출된 도로 표면까지의 거리와, 상기 우측 연석 후보 라인 세그먼트 및/또는 상기 좌측 연석 후보 라인 세그먼트까지의 거리 간의 편차를 산출하는 단계와; (c3) 상기 우측 연석 후보 라인 세그먼트와 상기 좌측 연석 후보 라인 세그먼트 간의 각도차를 산출하는 단계와; (c4) 상기 우측 연석 후보 라인 세그먼트와 상기 좌측 연석 후보 라인 세그먼트 간의 거리와, 도로 폭 간의 편차를 산출하는 단계와; (c5) 상기 (c2) 단계, 상기 (c3) 단계 및 상기 (c4) 단계에서 산출된 값을 상기 연석 특성으로 하는 상기 연석 후보로 추출하는 단계를 포함할 수 있다.
그리고, 상기 연석 후보는 상기 (c2) 단계, 상기 (c3) 단계 및 상기 (c4) 단계에서 산출된 값을 요소로 하는 벡터 데이터로 추출될 수 있다.
또한, 상기 (d) 단계는, (d1) 연석 집단과 비 연석 집단으로 구분된 다수의 트레이닝 데이터를 상기 커널 피셔 판별 분석(Kernel Fisher Discriminant Analysis) 기법에 적용하여 판별 함수를 설정하는 단계와; (d2) 상기 연석 후보를 상기 판별 함수에 적용하여, 상기 연석 후보를 상기 연석 집단과 상기 비 연석 집단 중 어느 하나로 분류하는 단계와; (d3) 상기 (d2) 단계에서 상기 연석 집단으로 분류된 연석 후보를 상기 최종 연석으로 추출하는 단계를 포함할 수 있다.
또한, 상기 (d1) 단계에서 상기 판별 함수는 수학식
Figure pat00001
(여기서, J(α)는 목적 함수이고,
Figure pat00002
는 집단간 분산 행렬이고,
Figure pat00003
는 집단내 분산 행렬이고, α는 아이겐 벡터이다)에서 상기 목적 함수를 최대화하는 상기 아이겐 벡터로 생성될 수 있다.
그리고, 상기 (d2) 단계에서는 상기 연석 후보와, 상기 연석 집단 및 상기 비 연석 집단 간 각각의 마할라노비스 거리(Mahalanobis distance) 중 작은 어느 일측으로 분류될 수 있다.
여기서, 상기 마할라노비스 거리(Mahalanobis distance)는 수학식
Figure pat00004
(여기서,
Figure pat00005
Figure pat00006
는 1차원 해공간에서 상기 연석 후보, 상기 연석 집단 및 상기 비 연석 집단 각각의 평균 및 표준 편차이다)에 의해 산출될 수 있다.
한현, 상기 목적은 본 발명의 다른 실시 형태에 따라, 도로의 연석 정보를 이용한 이동 로봇의 위치 측정 방법에 있어서, (A) 상기 이동 로봇의 오도메트리 정보가 확장 칼만 필터(Extended Kalman Filter)에 적용되어, 상기 이동 로봇의 위치가 예측되는 단계와; (B) 상기 이동 로봇에 설치된 DGPS 모듈 및 관성 센서에 의해 측정된 측정값과 상기 (A) 단계에서 예측된 상기 이동 로봇의 위치가 상기 확장 칼만 필터 기법에 적용되어, 상기 (A) 단계에서 예측된 상기 이동 로봇의 위치가 보정하는 단계와; (C) 상기 이동 로봇에 설치된 레이저 거리 센서의 스캔 데이터에 기초하여 도로의 연석 정보가 추출되는 단계와; (D) 상기 추출된 연석 정보와 상기 (B) 단계에서 보정된 상기 이동 로봇의 위치가 상기 확장 칼만 필터 기법에 적용되어, 상기 (B) 단계에서 보정된 상기 이동 로봇의 위치가 보정되는 단계를 포함하는 것을 특징으로 하는 도로의 연석 정보를 이용한 이동 로봇의 위치 측정 방법에 의해서도 달성될 수 있다.
여기서, 상기 (C) 단계에서 상기 연석 정보는 제1항 내지 제7항 중 어느 한 항에 따른 레이저 거리 센서를 이용한 도로의 연석 추출 방법에 의해 추출될 수 있다.
그리고, 상기 (B) 단계에서 상기 DGPS 모듈의 측정값에 대한 오차는 시계 위성의 배치에 따른 기하학적 오차인 HDOP(Horizontal Dilution of Precision) 오차와 의사거리(Pseudo-range) 오차를 포함하고; 상기 관성 센서의 측정값에 대한 오차는 방향각 오차를 포함하며; 상기 확장 칼만 필터 기법에 적용되는 오차 공분산은 상기 DGPS 모듈의 측정값에 대한 오차 공분산과 상기 관성 센서의 측정값에 대한 오차 공분산이 반영될 수 있다.
그리고, 상기 (D) 단계에서 상기 연석 정보는 상기 이동 로봇과 추출된 연석까지의 거리 정보와, 상기 이동 로봇과 상기 연석 간의 각도 정보를 포함하고; 상기 거리 정보 및 상기 각도 정보와 기 등록된 라인 맵 간의 오차에 기초하여, 상기 확장 칼만 필터에 적용되는 상기 연석 정보에 대한 오차 공분산이 산출될 수 있다.
본 발명에 따르면, 환경적 불확실성을 갖는 준정형화된(semi-structured) 도로 환경에서 하나의 레이저 거리 센서(Laser Range Finder : LRF)를 이용하여 연석을 보다 효과적으로 추출할 수 있는 레이저 거리 센서를 이용한 도로의 연석 추출 방법이 제공된다.
또한, 본 발명에 따르면, 추출된 연석 정보와, DGPS(Differential Global Positioning System) 및 관성 센서(Inertial Measurement Unit : IMU)를 이용하여 이동 로봇의 위치를 보다 정확히 측정할 수 있는 도로의 연석 정보를 이용한 이동 로봇의 위치 측정 방법이 제공된다.
도 1 및 도 2는 준정형화된 도로 환경에서 이동 로봇과 레이저 거리 센서의 좌표 프레임의 구조를 나타낸 도면이고,
도 3은 본 발명에 따른 레이저 거리 센서를 이용한 도로의 연석 추출 방법을 설명하기 위한 도면이고,
도 4는 연석을 포함하는 준정형적 도로 환경의 이상적인 모델을 나타낸 도면이고,
도 5 내지 도 8은 본 발명에 따른 연석 추출 방법에서 커널 피셔 판별 분석(Kernel Fisher Discriminant Analysis) 기법을 적용하여 최종 연석을 추출하는 과정을 설명하기 위한 도면이고,
도 9 내지 도 12는 본 발명에 따른 도로의 연석 정보를 이용한 이동 로봇의 위치 측정 방법을 설명하기 위한 도면이다.
이하에서는 첨부된 도면들을 참조하여 본 발명에 따른 실시예에 대해 상세히 설명한다.
본 발명에 따른 레이저 거리 센서를 이용한 도로의 연석 추출 방법의 설명에 앞서, 본 발명에 따른 이동 로봇이 주행하는 도로 환경과 이동 로봇에 대해 설명한다.
도 1 및 도 2는 준정형화된 도로 환경에서 이동 로봇과 레이저 거리 센서의 좌표 프레임의 구조를 나타낸 도면이다. αt의 틸딩 각을 갖는 하나의 레이저 거리 센서가 도로 표면, 연석 및 장매물과 같은 도로 특성을 추출하기 위해 사용된다.
평평한 도로 상태에서 레이저 거리 센서의 주시 방향 거리는 df이다. 주시 방향 거리는 레이저 거리 센서의 틸팅 각에 의해 결정된다. 그러나, 이동 로봇의 피치 각이 평평하지 않은 도로 표면에 의해 영향을 받는다. 따라서, 레이저 거리 센서의 주시 방향 거리는 이동 로봇의 주시 방향에서 변하게 된다.
여기서, 피치 각 공차는 피치 각의 변화를 고려하여 사전에 설정된다. 도로 표면의 변화는 본 발명에서 레이저 거리 센서의 스캔 데이터를 누적하여 분석되며, 피치 각 공차 εp는 미리 가정하여 설정된다. 도로 표면의 예상 관측 영역 Ry는, 도 2에 도시된 바와 같이, 공차 εp에 의해 결정된다. 아래 [표 1]은 각 변수가 갖는 의미를 나타내고 있으며, 변수는 이동 로봇의 좌표 프레임에 대응하여 표시된다.
[표 1]
Figure pat00007

이하에서는, 도 3을 참조하여 본 발명에 따른 레이저 거리 센서를 이용한 도로의 연석 추출 방법에 대해 설명한다.
이동 로봇에 설치된 레이저 거리 센서의 스캔에 따라 스캔 데이터가 획득된다(S10). 그런 다음, 스캔 데이터로부터 도로 표면과, 라인 세그먼트가 추출된다(S11). 도로 표면의 추출 방법은 기 공지된 다양한 방법을 통해 추출될 수 있다.
일 예로, 도로 표면은 예상 관측 영역 Ry로부터 레이저 거리 센서에 의해 추출된다. 3개의 인접한 스캔 데이터의 경사가 기준치 이내인 경우, 3개의 스캔 데이터는 도로 표면의 일부로 인식될 수 있다. 그리고, 도로 표면의 일부분에 대해, 해당 도로 표면의 일부는 최소자승법을 통해 라인 세그먼트로 추출될 수 있다. 각도 θf와 이동 로봇으로부터의 거리 df는 검출된 라인 세그먼트에 의해 추출될 수 있다.
도 4는 연석을 포함하는 준정형적 도로 환경의 이상적인 모델을 나타낸 도면이다. 도 4에 도시된 바와 같이, 준정형적 도로의 기하학적 특성은 후술할 최종 연석을 추출하는데 적용된다.
도 3 및 도 4를 참조하여 보다 구체적으로 설명하면, S11 단계에서 추출된 도로 표면과 라인 세그먼트를 이용하여 라인 세그먼트 중 복수의 연석 후보 라인 세그먼트를 추출한다(S12). 본 발명에서는 해당 라인 세그먼트와 도로 표면과의 각도에 기초하여 추출하는 것을 예로 한다.
도 4를 참조하여 설명하면, 연석 방향(AB,CD)와, 도로 표면 연결선(BC) 사이의 각도차는 이상적인 도로 환경에서 90°의 각도 차이를 갖는다. 따라서, 스캔 데이터를 통해 검출된 도로 표면과, 연석 후보로 가능한 라인 세그먼트인 연석 후보 라인 세그먼트의 연석 후보 라인 세그먼트의 각도는 대략 90°이다. 이에 따라, 라인 세그먼트 중 도로 표면과의 각도 차이가 대략 90°인 라인 세그먼트를 연석 후보 라인 세그먼트로 추출한다. [수학식 1]은 이를 수학적으로 표현한 것이다.
[수학식 1]
Figure pat00008
[수학식 1]에서
Figure pat00009
이고, εc는 공차이다. 그리고, θf와 θc는 이동 로봇의 좌표에서 각각 도로 표면의 각도와 각 라인 세그먼트의 각도이다. 이 두 각도의 차가 90°±εc의 범주 내에 포함되면 해당 라인 세그먼트가 연석 후보 라인 세그먼트로 추출된다.
상기와 같이 연석 후보 라인 세그먼트가 추출되면, 복수의 연석 후보 라인 세그먼트의 한 쌍씩의 조합을 복수의 연석 특성을 갖는 복수의 연석 후보로 추출한다(S13). 도 3을 참조하여 보다 구체적으로 설명하면, 복수의 연석 후보 라인 세그먼트로부터 좌측 연석 후보 라인 세그먼트 및 우측 연석 후보 라인 세그먼트를 추출하고(S131), 추출된 좌측 연석 후보 라인 세그먼트 및 우측 연석 후보 라인 세그먼트에 대한 복수의 연석 특성을 S132 단계 내지 S134 단계를 통해 추출한다.
본 발명에서는 연석 후보의 복수의 연석 특성으로 3개의 연석 특징을 적용하는 것을 예로 하는데, 3개의 연석 특성은 좌측 연석과 우측 연석 상호간의 관계에서 도출되는 특성인 것을 예로 한다.
첫 번째 연석 특성을 도 4를 참조하여 설명하면, 이동 로봇으로부터 도로 표면의 거리(df)와, 이동 로봇으로부터 우측 연석 및/또는 좌측까지의 거리의 편차는 대략 0이다. 이에, 추출된 도로 표면까지의 거리와, 우측 연석 후보 라인 세그먼트 및/또는 좌측 연석 후보 라인 세그먼트까지의 거리 사이의 편차(α2)를 산출하여(S132), 해당 좌측 연석 후보 라인 세그먼트 및 우측 연석 후보 라인 세그먼트의 연석 특성으로 등록한다.
두 번째 연석 특성을 도 4를 참조하여 설명하면, 좌측 연석(AB)와 우측 연석(CD) 간의 각도차는 대략 0°이다. 이에, 우측 연석 후보 라인 세그먼트와 좌측 연석 후보 라인 세그먼트 간의 각도차(α3)를 산출하고(S133), 해당 좌측 연석 후보 라인 세그먼트 및 우측 연석 후보 라인 세그먼트의 연석 특성으로 등록한다.
세번째 연석 특성을 도 4를 참조하여 설명하면, 도로의 폭과 두 연석 간의 거리의 편차는 대략 0이다. 이에, 우측 연석 후보 라인 세그먼트와 좌측 연석 후보 세그먼트 간의 거리와, 현재 도로의 도로 폭 간의 편차(α4)를 산출하고(S134),해당 좌측 연석 후보 라인 세그먼트 및 우측 연석 후보 라인 세그먼트의 연석 특성으로 등록한다.
상기와 같은 연석 특성은 [수학식 2]와 같이 표현될 수 있다.
[수학식 2]
Figure pat00010

여기서, wr은 실도 도로 폭을 나타낸 것으로 후술할 라인 맵을 통해 미리 등록된 상태이고, wc는 우측 연석 후보 라인 세그먼트와 좌측 연석 라인 세그먼트 사이의 거리이다. 그리고, 첫 번째 연석 특성에서는 이동 로봇과 우측 연석 후보 라인 세그먼트 사이의 거리와, 이동 로봇과 좌측 연석 후보 라인 세그먼트 사이의 거리의 평균을 이용하여 산출하는 것을 예로 하고 있다.
여기서, 좌측 또는 우측에서 연석이 검출되지 않은 경우, 즉 좌측 연석 후보 라인 세그먼트와 우측 연석 후보 라인 세그먼트 중 어느 하나만이 검출되는 경우, 첫 번째 및 두 번째 연석 특성은 일측의 연석 후보 라인 세그먼트만을 이용하여 산출하고, 세 번째 연석 특성은 0으로 가정한다.
상기와 같은 과정을 통해, 연석 특성을 갖는 좌측 연석 후보 라인 세그먼트 및 우측 연석 후보 라인 세그먼트를 [수학식 2]와 같은 연석 특성을 갖는 연석 후보로 추출한다(S135).
그리고, 모든 연석 후보 라인 세그먼트의 한 쌍씩에 조합에 대해 연석 특성을 추출하면(S137), 연석 후보들의 추출이 완료된다. 여기서, 상기 과정은 연석 후보 라인 세그먼트를 좌측 연석 후보 라인 세그먼트와 우측 연석 후보 라인 세그먼트로 분류한 상태에서, 좌측과 우측의 모든 조합에 대해 수행되는 것을 예로 한다.
여기서, 연석 후보는 상술한 연석 특성을 위해 산출된 값을 요소로 하는 벡터 데이터로 추출되는 것을 예로 한다. 연석 후보의 벡터 데이터는 [수학식 3]과 같이 나타낼 수 있다.
[수학식 3]
Figure pat00011

상기와 같이 연석 후보들이 추출되면, 최종 연석을 추출하게 되는데(S14), 본 발명에서는 복수의 연석 후보를 커널 피셔 판별 분석(Kernel Fisher Discriminant Analysis) 기법에 적용하여, 최종 연석을 추출하는 것을 예로 한다.
이하에서는, 도 5 내지 도 8을 참조하여, 본 발명에 따른 연석 추출 방법에서 커널 피셔 판별 분석(Kernel Fisher Discriminant Analysis) 기법을 적용하여 최종 연석을 추출하는 과정에 대해 상세히 설명한다.
도 5를 참조하여 설명하면, 다수의 트레이닝 데이터를 커널 피셔 판별 분석(Kernel Fisher Discriminant Analysis) 기법에 적용하여(S50) 판별 함수를 설정한다(S51). 여기서, 다수의 트레이닝 데이터는 집단 정보를 갖는 데이터로 구성되는데, 연석 집단과 비 연석 집단으로 구분된다. 이 때, 집단 정보는 연석의 특성 정보와 비 연석의 특성을 각각 가지되, 두 집단이 명확히 구분 가능하게 분류된다. 도 6의 (a)는 [수학식 3]과 같이 3개의 요소를 갖는 데이터 벡터 형태의 연석 후보에 대응하는 연석 집단과 비 연석 집단을 3차원 공간 상에 나타낸 도면으로 연석 후보와 비 연석 후보의 특성이 명확히 구분되는 것을 나타내고 있다.
커널 피셔 판별 분석(Kernel Fisher Discriminant Analysis) 기법은 커널 특성 공간(Kernel feature space) F에서 최적의 분류와 차원의 감소를 위한 판별 함수를 제공한다. 본 발명에서는 판별 함수의 설정에 의해 임의의 데이터 집단을 예측할 수 있다.
여기서,
Figure pat00012
이 트레이닝 데이터의 세트라고 가정하면, 집단 특성의 수학적인 값으로 구성되는 각각의 샘플은
Figure pat00013
로 정의될 수 있다. 그리고, 정확한 분류를 위해, 모든 집단 특성에 대해 동등한 효과를 얻을 수 있도록 각각의 샘플의 요소들은 [수학식 4]와 같이, 정규화된다.
[수학식 4]
Figure pat00014

[수학식 4]에서 μ(j)와 σ(j)는 각 집단 특성의 평균과 표준 편차이다.
본 발명에서는 커널 피셔 판별 분석(Kernel Fisher Discriminant Analysis) 기법으로 통해 커널 특성 공간 F 에서 [수학식 5]에 나타난 목적 함수를 최대화시키는 판별 함수 α를 결정한다.
[수학식 5]
Figure pat00015

여기서,
Figure pat00016
는 집단간 분산 행렬(Between-class variance matrix)이고,
Figure pat00017
는 집단내 분산 행렬(Within-class variance matrix)이며, [수학식 6] 및 [수학식 7]과 같이 정의된다.
[수학식 6]
Figure pat00018

[수학식 7]
Figure pat00019

여기서,
Figure pat00020
이고,
Figure pat00021
이다.
그리고, N은 전체 트레이닝 데이터 샘플의 개수이고, Nc는 집단 샘플들의 개수이다. 커널 특성 공간 F로 맵핑되는 트레이닝 데이터는 N×N 행렬 K로 표현된다. [수학식 8]에서 가우시안 커널은 데이터를 커널 특성 공간 F로 맵핑하기 위해 사용된다.
[수학식 8]
Figure pat00022

[수학식 8]에서 목적 함수를 최대화하는 판별 함수는 [수학식 9]에서 아이겐벨류 문제(Eigenvalue problem)로부터 파생된다. 트레이닝 데이터를 1차원 해공간(Solution space)으로 투영하기 위해, 최대 고유값에 대응하는 아이겐 벡터가 분류를 위해 판별 함수로 정의된다. 판별 함수 α는 N×1의 벡터에 의해 주어진다.
[수학식 9]
Figure pat00023

분류는 [수학식 10]에 나타난 바와 같이, 트레이닝 데이터 행렬 K와 판별 함수 α의 내적을 구하는 것에 의해 수행된다. 트레이닝 데이터 행렬 K는, 도 6의 (b)에 도시된 바와 같이, 1차원 해공간으로 투영되고, 분류 결과는 이와 같은 1차원 해공간에서 표현된다. 도 7은 두 개의 집단, 즉 연석 집단과 비 연석 집단이 상기 과정을 통해 1차원 해공간으로 투영되어 분류되는 것을 도식적으로 설명하고 있다.
[수학식 10]
Figure pat00024

상기와 같이, 트레이닝 데이터를 이용하여 판별 함수가 설정되면, 연석 후보를 판별 함수에 적용한다(S52). 그리고, 연석 후보의 판별 함수로의 적용에 의해 연석 후보가 연석 집단 또는 비 연석 집단으로 분류되고(S53), 최종적으로 연석 집단으로 분류된 연석 후보가 최종 연석으로 추출된다(S54).
보다 구체적으로 설명하면, 집단 정보가 주어지지 않은 연석 후보는 트레이닝 데이터를 이용한 판별 함수 α에 의해 예측 가능하게 된다. 된다. 트레이닝 데이터를 이용하는 것에 의해, 연석 후보는 1차원 해공간으로 투영된다. 연석 후보는 가우시안 커널과 테스트 데이터에 의해 특성 공간으로 맵핑된다. 연석 후보의 1차원 해공간으로의 투영은 [수학식 11]에 의해 계산된다.
[수학식 11]
Figure pat00025

1차원 해공간에서 트레이닝 데이터의 집단 특성은 연석 후보가 속하는 집단, 즉 연석 집단과 비 연석 집단을 예측하는데 적용된다. 여기서, 연석 후보가 속하는 집단의 예측은 연석 후보와, 연석 집단 및 비 연석 집단 간 각각의 마할라노비스 거리(Mahalanobis distance)에 의해 산출된다. [수학식 12]는 마할라노비스 거리(Mahalanobis distance)를 나타내고 있다.
[수학식 12]
Figure pat00026

여기서,
Figure pat00027
Figure pat00028
는 1차원 해공간에서 연석 후보, 연석 집단 및 비 연석 집단 각각의 평균과 표준편차이다.
도 8은 연석 집단 및 비 연석 집단과, 연석 후보 간의 마할라노비스 거리(Mahalanobis distance)를 도식적으로 나타내고 있다. 연석 후보는 보다 작은 마할라노비스 거리(Mahalanobis distance)를 갖는 어느 하나가 최종 연석으로 추출된다. 즉 연석 집단의 마할라노비스 거리(Mahalanobis distance)가 비 연석 집단의 마할라노비스 거리(Mahalanobis distance)보다 작으면, 연석 후보연석 집단으로 분류된다.
이하에서는, 도 9 내지 도 12를 참조하여 본 발명에 따른 도로의 연석 정보를 이용한 이동 로봇의 위치 측정 방법에 대해 상세히 설명한다. 본 발명에서는 상술한 연석 추출 방법이 본 발명에 따른 위치 측정 방법에 적용되는 것을 예로 한다.
도 9는 본 발명에 따른 이동 로봇의 위치 측정 방법을 설명하기 위한 도면이다. 도 9를 참조하여 설명하면, 본 발명에 따른 이동 로봇은 DGPS(Differential Global Positioning System) 모듈, 관성 센서(Inertial Measurement Unit : IMU), 오도메트리 정보의 검출을 위한 휠 엔코더(Wheel Encoder), 그리고, 레이저 거리 센서를 포함한다.
이동 로봇의 위치는 휠 엔코더에 의해 측정된 측정값의 증분 거리(Incremental Displacement)에 의해 예측(Prediction)되는데, 본 발명에서는 이동 로봇의 오도메트리 정보가 확장 칼만 필터(Extended Kalman Filter)에 적용되어 이동 로봇의 위치가 예측되는 것을 예로 한다.
*확장 칼만 필터(Extended Kalman Filter)에 의핸 예측 단계에서 이동 로봇의 상태와, 오도메트리 정보의 오차 공분산 행렬이 제공된다. [수학식 13]은 오도메트리 정보에 의한 이동 로봇의 상태를 나타낸 것이고, [수학식 14]는 오차 공분산 행렬을 나타낸 것이다.
[수학식 13]
Figure pat00029
[수학식 14]
Figure pat00030

여기서, 확장 칼만 필터(Extended Kalman Filter)에서 센서로부터 유효한 측정값이 제공되면, 확장 칼만 필터(Extended Kalman Filter)의 평가 단계, 즉 본 발명에 따른 위치 측정 방법에서 이동 로봇의 위치 보정 단계가 동작한다.
확장 칼만 필터(Extended Kalman Filter)의 평가 단계에서의 칼만 이득, 보정된 상태 및 보정된 오차 공분산은 [수학식 15] 내지 [수학식 17]로 나타낼 수 있으며, [수학식 15] 내지 [수학식 17]을 이용하여 이동 로봇의 위치가 보정되는데 이에 대한 상세한 설명은 후술한다.
[수학식 15]
Figure pat00031
[수학식 16]
Figure pat00032
[수학식 17]
Figure pat00033

다시, 이동 로봇의 위치를 예측하는 과정에 대해 보다 구체적으로 설명하면, 휠 엔코더의 측정값으로부터 얻어지는 오도메트리 정보는 이동 로봇의 위치를 예측하는 단계에서 이동 로봇의 자세를 예측하게 된다. 여기서, 이동 로봇의 자세는 이동 로봇의 위치와, 이동 로봇의 방향각, 즉 이동 로봇의 주시 방향을 포함한다.
휠 엔코더에 의해 산출되는 증분 거리Δsk-1와 Δθk-1에 대해, 샘플링 시간 k에서의 예측된 이동 로봇의 포즈는 [수학식 18]와 같이 나타낼 수 있다.
[수학식 18]
Figure pat00034

상태 벡터
Figure pat00035
는 샘플링 시간 k에서의 이동 로봇에 대해 예측된 포즈이다. 초기 포즈가 제공되면, 이동 로봇의 포즈는 전역 좌표 프레임에서 x, y, θ에 의해 표현된다. 그리고, 예측되는 이동 로봇의 포즈에 대한 불확실성은 오도메트리 정보의 누적 오차에 의해 지속적으로 증가하게 된다. 여기서, 불확실성은 [수학식 14]에 나타낸 바와 같이, 오차 공분산 행렬에 의해 표현될 수 있으며, 샘플링 시간 k-1에서의 오도메트리 정보의 불확실성 Qk-1은 [수학식 19]와 같이 나타낼 수 있다.
[수학식 19]
Figure pat00036

여기서, kr과 kl은 각 휠의 오차 상수로 이동 로봇의 환경에 의존하는 값으로 본 발명에서는 미리 설정된 상태이다.
상기와 같이, 오도메트리 정보가 확장 칼만 필터에 적용되어, 이동 로봇의 위치가 예측되면, 도 9에 도시된 바와 같이, DGPS 모듈과 관성 센서에 의해 측정된 측정값이 확장 칼만 필터(Extended Kalman Filter)의 평가 단계에 적용되어, 이동 로봇의 위치가 보정된다. 본 발명에서는 DGPS 모듈 및 관성 센서에 의해 측정된 측정값과 오도메트리 정보에 기초하여 예측된 이동 로봇의 위치가 확장 칼만 필터의 평가 단계에 적용되어 이동 로봇의 위치가 예측된다.
보다 구체적으로 설명하면, DPGS 모듈의 측정값에 대한 오차는 시계 위성의 배치에 따른 기하학적 오차인 HDOP(Horizontal Dilution of Precision) 오차와 의사거리(Pseudo-range) 오차를 포함한다. 따라서, DGPS 모듈의 오차 공분산은 [수학식 20]과 같이 표현할 수 있다.
[수학식 20]
Figure pat00037

[수학식 20]에서 좌측 항목은 HDOP(Horizontal Dilution of Precision) 오차에 대한 오차 공분산이고, 우측 항목은 의사거리 오차에 대한 오차 공분산이다.
관성 센서의 측정값은 방향각으로, 관성 센서의 측정값에 대한 오차는 방향각 오차를 포함한다. 여기서, 관선 센서의 측정값에 대한 오차 공분산은
Figure pat00038
으로 표현할 수 있다.
그리고, DGPS 모듈의 오차 공분산과 관성 센서의 오차 공분산을 반영한 오차 공분산(이하, '1차 보정용 오차 공분산'이라 함)은 [수학식 21]와 같이 표현될 수 있다.
[수학식 21]
Figure pat00039

그리고, DGPS 모듈의 측정값과 관성 센서의 측정값은 전역 좌표 프레임에서 [수학식 22]과 같은 측정 벡터로 나타낼 수 있다.
[수학식 22]
Figure pat00040

[수학식 15] 및 [수학식 17]의 측정 공분산 행렬 Rk는 [수학식 21]에 의해 정의되는 바, 관측 모델은 [수학식 23]과 같이 표현될 수 있다.
[수학식 23]
Figure pat00041

그리고, 측정 조코비안 행렬 Hk는 [수학식 24]와 같이 주어진다.
[수학식 24]
Figure pat00042

상기 과정을 통해 얻어진 관측 모델 및 측정 조코비안 행렬 등을 [수학식 15] 내지 [수학식 17]에 적용하여, [수학식 16]에 나타난 바와 같은 보정된 이동 로봇의 위치를 얻을 수 있게 된다.
상기와 같이 DGPS 모듈 및 관성 센서의 측정값에 기초한 이동 로봇의 위치 보정이 완료되면, 레이저 거리 센서의 스캔 데이터를 이용한 보정 과정이 진행된다.
먼저, 이동 로봇에 설치된 레이저 거리 센서의 스캔 데이터에 기초하여 도로의 연석 정보가 추출된다. 본 발명에서는 상술한 도로의 연석 추출 방법을 통해 연석 정보가 추출되는 것을 예로 한다.
그리고, 추출된 연석 정보와 상술한 보정 과정을 통해 보정된 이동 로봇의 위치가 확장 칼만 필터 기법의 평가 단계에 적용되어, 이동 로봇의 위치가 보정된다. 여기서, 연석 정보는 상술한 바와 같이, 이동 로봇과 추출된 연석까지의 거리 정보와, 이동 로봇과 연석 간의 각도 정보를 포함하게 된다.
그리고, 거리 정보 및 각도 정보와, 기 등록된 라인 맵 간의 오차에 기초하여, 확장 칼만 필터에 정용되는 연석 정보의 오차 공분산(이하, '2차 보정용 오차 공분산'이라 함)이 산출되어 위치 오차의 보정에 적용된다.
도 10 내지 도 12를 참조하여 보다 구체적으로 설명하면, 라인 맵 상의 실제 연석과 대비되는 연석 정보의 기하학적 구조는, 도 10에 도시된 바와 같다. 연석 정보의 오차는 라인 맵 상의 실제 연석과의 오차로 추출되며, [수학식 25] 및 [수학식 26]과 같이 연석 각도 오차와 연석 거리 오차로 나타낼 수 있다.
[수학식 25]
Figure pat00043

[수학식 26]
Figure pat00044

추정 오차 εαi 및 εri는 실제 연석으로부터 연석 정보의 분산으로 나타낸다. 따라서, 추정 오차 εαi 및 εri가 다수의 연석 정보로부터 제공될 때, 추출된 연석 정보(α, r)의 공분산 행렬, 즉 2차 보정용 오차 공분산 행렬은 [수학식 27]과 같이 표현된다.
[수학식 27]
Figure pat00045

연석 정보의 2차 보정용 오차 공분산 행렬을 이용하여, 연석 정보와 연석 분산은 도 11에 도시된 바와 같다. 거리 방향에 대한 연석 정보의 불확실성은 파란색 굵은 선으로 표시된 연석 정보와 평행한 붉은색 점선으로 나타난다. 도 11에서 붉은색 쇄선은 연석 정보의 각도 불확실성을 나타낸다. 연석 정보에 대한 전체 불확실성의 경계는 거리 불확실성과 각도 불확실성에 의해 녹색 곡선으로 나타낼 수 있다.
연석 정보를 이용한 이동 로봇의 위치 보정에 대해 보다 구체적으로 설명하면, 연석 정보는 상술한 바와 같이, 각도 정보와 거리 정보를 포함하며, 연석 정보는 [수학식 28]과 같이 측정 벡터로 나타낼 수 있다. 연석이 도로의 양측에서 추출된 경우, 좌측 연석과 우측 연석에 대한 두 개의 측정 벡터가 존재하게 된다.
[수학식 28]
Figure pat00046

양측 연석에 대한 2차 보정용 오차 공분산 행렬은 [수학식 29]와 같이 표현되며, 연석이 도로의 양측에서 추출되면 2차 보정용 오차 공분산 행렬은 양측에 제공된다.
[수학식 29]
Figure pat00047

이동 로봇의 포즈는 연석 정보, 즉 [수학식 28]의 측정 벡터와 라인 맵 간의 비교를 통해 보정된다. 도 12는 연석 정보와 라인 맵 상의 연석 간의 관계를 나타낸 도면이다. 도 12를 참조하여 설명하면, 연석 정보는 라인 맵 상의 연석에 해당하는 I번째 라인에 매칭된다. 샘플링 시간 k에서의 i 번째 라인
Figure pat00048
에 대한 관측 모델과 이동 로봇의 포즈는 [수학식 30]과 같이 정의된다.
[수학식 30]
Figure pat00049

그리고, 측정 조코비안 행렬 Hk는 [수학식 31]과 같이 정의된다.
[수학식 31]
Figure pat00050

상기 과정을 통해 얻어진 연석 정보에 대한 관측 모델 및 측정 조코비안 행렬 등을 [수학식 15] 내지 [수학식 17]에 적용하여, [수학식 16]에 나타난 바와 같은 보정된 이동 로봇의 위치, 즉 연석 정보를 이용한 이동 로봇의 보정된 위치를 산출하게 된다.
이상에서 본 발명의 바람직한 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다.

Claims (11)

  1. 레이저 거리 센서를 이용한 도로의 연석 추출 방법에 있어서,
    (a) 상기 레이저 거리 센서의 스캔 데이터로부터 도로 표면과 라인 세그먼트를 추출하는 단계와;
    (b) 상기 라인 세그먼트 중 상기 도로 표면과의 각도에 기초하여 복수의 연석 후보 라인 세그먼트를 추출하는 단계와;
    (c) 상기 복수의 연석 후보 라인 세그먼트의 한 쌍씩의 조합을 복수의 연석 특성을 갖는 복수의 연석 후보로 추출하는 단계와;
    (d) 상기 복수의 연석 후보를 커널 피셔 판별 분석(Kernel Fisher Discriminant Analysis) 기법에 적용하여, 최종 연석을 추출하는 단계를 포함하는 것을 특징으로 하는 레이저 거리 센서를 이용한 도로의 연석 추출 방법.
  2. 제1항에 있어서,
    상기 (c) 단계는,
    (c1) 상기 복수의 연석 후보 라인 세그먼트로부터 우측 연석 후보 라인 세그먼트와 좌측 연석 후보 라인 세그먼트를 추출하는 단계와;
    (c2) 상기 추출된 도로 표면까지의 거리와, 상기 우측 연석 후보 라인 세그먼트 및/또는 상기 좌측 연석 후보 라인 세그먼트까지의 거리 간의 편차를 산출하는 단계와;
    (c3) 상기 우측 연석 후보 라인 세그먼트와 상기 좌측 연석 후보 라인 세그먼트 간의 각도차를 산출하는 단계와;
    (c4) 상기 우측 연석 후보 라인 세그먼트와 상기 좌측 연석 후보 라인 세그먼트 간의 거리와, 도로 폭 간의 편차를 산출하는 단계와;
    (c5) 상기 (c2) 단계, 상기 (c3) 단계 및 상기 (c4) 단계에서 산출된 값을 상기 연석 특성으로 하는 상기 연석 후보로 추출하는 단계를 포함하는 것을 특징으로 하는 레이저 거리 센서를 이용한 도로의 연석 추출 방법.
  3. 제2항에 있어서,
    상기 연석 후보는 상기 (c2) 단계, 상기 (c3) 단계 및 상기 (c4) 단계에서 산출된 값을 요소로 하는 벡터 데이터로 추출되는 것을 특징으로 하는 레이저 거리 센서를 이용한 도로의 연석 추출 방법.
  4. 제3항에 있어서,
    상기 (d) 단계는,
    (d1) 연석 집단과 비 연석 집단으로 구분된 다수의 트레이닝 데이터를 상기 커널 피셔 판별 분석(Kernel Fisher Discriminant Analysis) 기법에 적용하여 판별 함수를 설정하는 단계와;
    (d2) 상기 연석 후보를 상기 판별 함수에 적용하여, 상기 연석 후보를 상기 연석 집단과 상기 비 연석 집단 중 어느 하나로 분류하는 단계와;
    (d3) 상기 (d2) 단계에서 상기 연석 집단으로 분류된 연석 후보를 상기 최종 연석으로 추출하는 단계를 포함하는 것을 특징으로 하는 레이저 거리 센서를 이용한 도로의 연석 추출 방법.
  5. 제4항에 있어서,
    상기 (d1) 단계에서 상기 판별 함수는 수학식
    Figure pat00051

    (여기서, J(α)는 목적 함수이고,
    Figure pat00052
    는 집단간 분산 행렬이고,
    Figure pat00053
    는 집단내 분산 행렬이고, α는 아이겐 벡터이다)에서 상기 목적 함수를 최대화하는 상기 아이겐 벡터로 생성되는 것을 특징으로 하는 레이저 거리 센서를 이용한 도로의 연석 추출 방법.
  6. 제5항에 있어서,
    상기 (d2) 단계에서는 상기 연석 후보와, 상기 연석 집단 및 상기 비 연석 집단 간 각각의 마할라노비스 거리(Mahalanobis distance) 중 작은 어느 일측으로 분류되는 것을 특징으로 하는 레이저 거리 센서를 이용한 도로의 연석 추출 방법.
  7. 제6항에 있어서,
    상기 마할라노비스 거리(Mahalanobis distance)는 수학식
    Figure pat00054

    (여기서,
    Figure pat00055
    Figure pat00056
    는 1차원 해공간에서 상기 연석 후보, 상기 연석 집단 및 상기 비 연석 집단 각각의 평균 및 표준 편차이다)에 의해 산출되는 것을 특징으로 하는 레이저 거리 센서를 이용한 도로의 연석 추출 방법.
  8. 도로의 연석 정보를 이용한 이동 로봇의 위치 측정 방법에 있어서,
    (A) 상기 이동 로봇의 오도메트리 정보가 확장 칼만 필터(Extended Kalman Filter)에 적용되어, 상기 이동 로봇의 위치가 예측되는 단계와;
    (B) 상기 이동 로봇에 설치된 DGPS 모듈 및 관성 센서에 의해 측정된 측정값과 상기 (A) 단계에서 예측된 상기 이동 로봇의 위치가 상기 확장 칼만 필터 기법에 적용되어, 상기 (A) 단계에서 예측된 상기 이동 로봇의 위치가 보정하는 단계와;
    (C) 상기 이동 로봇에 설치된 레이저 거리 센서의 스캔 데이터에 기초하여 도로의 연석 정보가 추출되는 단계와;
    (D) 상기 추출된 연석 정보와 상기 (B) 단계에서 보정된 상기 이동 로봇의 위치가 상기 확장 칼만 필터 기법에 적용되어, 상기 (B) 단계에서 보정된 상기 이동 로봇의 위치가 보정되는 단계를 포함하는 것을 특징으로 하는 도로의 연석 정보를 이용한 이동 로봇의 위치 측정 방법.
  9. 제8항에 있어서,
    상기 (C) 단계에서 상기 연석 정보는 제1항 내지 제7항 중 어느 한 항에 따른 레이저 거리 센서를 이용한 도로의 연석 추출 방법에 의해 추출되는 것을 특징으로 하는 도로의 연석 정보를 이용한 이동 로봇의 위치 측정 방법.
  10. 제9항에 있어서,
    상기 (B) 단계에서
    상기 DGPS 모듈의 측정값에 대한 오차는 시계 위성의 배치에 따른 기하학적 오차인 HDOP(Horizontal Dilution of Precision) 오차와 의사거리(Pseudo-range) 오차를 포함하고;
    상기 관성 센서의 측정값에 대한 오차는 방향각 오차를 포함하며;
    상기 확장 칼만 필터 기법에 적용되는 오차 공분산은 상기 DGPS 모듈의 측정값에 대한 오차 공분산과 상기 관성 센서의 측정값에 대한 오차 공분산이 반영되는 것을 특징으로 하는 도로의 연석 정보를 이용한 이동 로봇의 위치 측정 방법.
  11. 제9항에 있어서,
    상기 (D) 단계에서
    상기 연석 정보는 상기 이동 로봇과 추출된 연석까지의 거리 정보와, 상기 이동 로봇과 상기 연석 간의 각도 정보를 포함하고;
    상기 거리 정보 및 상기 각도 정보와 기 등록된 라인 맵 간의 오치에 기초하여, 상기 확장 칼만 필터에 적용되는 상기 연석 정보에 대한 오차 공분산이 산출되는 것을 특징으로 하는 도로의 연석 정보를 이용한 이동 로봇의 위치 측정 방법.
KR1020140086346A 2014-07-09 2014-07-09 레이저 거리 센서를 이용한 도로의 연석 추출 방법 및 도로의 연석 정보를 이용한 이동 로봇의 위치 측정 방법 KR101632486B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020140086346A KR101632486B1 (ko) 2014-07-09 2014-07-09 레이저 거리 센서를 이용한 도로의 연석 추출 방법 및 도로의 연석 정보를 이용한 이동 로봇의 위치 측정 방법
US14/521,699 US9454156B2 (en) 2014-07-09 2014-10-23 Method for extracting curb of road using laser range finder and method for localizing of mobile robot using curb information of road

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140086346A KR101632486B1 (ko) 2014-07-09 2014-07-09 레이저 거리 센서를 이용한 도로의 연석 추출 방법 및 도로의 연석 정보를 이용한 이동 로봇의 위치 측정 방법

Publications (2)

Publication Number Publication Date
KR20160006898A true KR20160006898A (ko) 2016-01-20
KR101632486B1 KR101632486B1 (ko) 2016-06-22

Family

ID=55067517

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140086346A KR101632486B1 (ko) 2014-07-09 2014-07-09 레이저 거리 센서를 이용한 도로의 연석 추출 방법 및 도로의 연석 정보를 이용한 이동 로봇의 위치 측정 방법

Country Status (2)

Country Link
US (1) US9454156B2 (ko)
KR (1) KR101632486B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190062689A (ko) * 2017-11-29 2019-06-07 현대자동차주식회사 차량 및 그 제어 방법

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
USD731383S1 (en) 2014-05-23 2015-06-09 Google Inc. Vehicle door
DE102016201304A1 (de) * 2016-01-28 2017-08-03 Robert Bosch Gmbh Vorrichtung und Verfahren zum Erfassen eines Randsteins in einer Umgebung eines Fahrzeugs sowie System zur Randsteinkontrolle für ein Fahrzeug
CN106225785B (zh) * 2016-07-05 2018-11-13 黄景德 一种基于光学瞄准的渔船用辅助导航装置及其导航方法
WO2018077619A1 (en) 2016-10-24 2018-05-03 Starship Technologies Oü Sidewalk edge finder system and method
USD871412S1 (en) * 2016-11-21 2019-12-31 Datalogic Ip Tech S.R.L. Optical scanner
KR101888295B1 (ko) * 2017-01-24 2018-08-14 고려대학교 산학협력단 레이저 거리 센서의 측정 거리에 대해 추정된 거리 유형의 신뢰성을 평가하는 방법 및 이를 이용한 이동 로봇의 위치 추정 방법
USD835028S1 (en) * 2017-04-28 2018-12-04 Waymo Llc Roof sensor housing
USD858381S1 (en) 2017-04-28 2019-09-03 Waymo Llc Fender sensor housing
USD834971S1 (en) 2017-04-28 2018-12-04 Waymo Llc Front sensor housing
DE102018101388A1 (de) * 2018-01-23 2019-07-25 Valeo Schalter Und Sensoren Gmbh Korrigieren einer Position eines Fahrzeugs mit SLAM
USD866368S1 (en) 2018-03-15 2019-11-12 Waymo Llc Roof sensor housing
EP3582043B1 (de) * 2018-06-12 2022-07-20 Siemens Aktiengesellschaft Verfahren, numerische steuereinrichtung sowie werkzeugmaschine zur bearbeitung eines werkstücks
CN108957475A (zh) 2018-06-26 2018-12-07 东软集团股份有限公司 一种道路边界检测方法及装置
US10976747B2 (en) * 2018-10-29 2021-04-13 Here Global B.V. Method and apparatus for generating a representation of an environment
USD950404S1 (en) 2019-05-01 2022-05-03 Waymo Llc Roof pod housing
USD915913S1 (en) 2019-05-01 2021-04-13 Waymo Llc Roof pod housing
USD902756S1 (en) 2019-02-20 2020-11-24 Waymo Llc Sensor assembly
USD957968S1 (en) 2019-02-20 2022-07-19 Waymo Llc Sensor housing
USD964249S1 (en) 2019-04-25 2022-09-20 Waymo Llc Perimeter sensor housing
USD964908S1 (en) 2019-04-25 2022-09-27 Waymo Llc Perimeter sensor housing
USD965498S1 (en) 2019-04-25 2022-10-04 Waymo Llc Perimeter sensor housing
USD927998S1 (en) 2019-04-25 2021-08-17 Waymo Llc Front sensor housing
USD956585S1 (en) 2019-04-25 2022-07-05 Waymo Llc Rear sensor housing
USD964909S1 (en) 2019-04-25 2022-09-27 Waymo Llc Perimeter sensor housing
USD928639S1 (en) 2019-04-25 2021-08-24 Waymo Llc Rear sensor housing
USD954571S1 (en) 2019-04-25 2022-06-14 Waymo Llc Front sensor housing
US11964616B2 (en) 2019-05-01 2024-04-23 Waymo Llc Autonomous vehicle roof pod
US11603048B2 (en) 2019-05-01 2023-03-14 Waymo Llc Autonomous vehicle roof pod
DE102019126631A1 (de) * 2019-10-02 2021-04-08 Valeo Schalter Und Sensoren Gmbh Verbesserte Trajektorienschätzung basierend auf Ground Truth
US11802948B2 (en) * 2020-04-24 2023-10-31 Crown Equipment Corporation Industrial vehicle distance and range measurement device calibration
CN116203941A (zh) * 2021-11-30 2023-06-02 株式会社理光 移动体、存储介质以及计算机装置
USD1001654S1 (en) 2021-12-08 2023-10-17 Waymo Llc Sensor assembly

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140074343A (ko) * 2011-09-12 2014-06-17 콘티넨탈 테베스 아게 운트 코. 오하게 차량의 포지션 데이터의 결정 방법

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050149251A1 (en) * 2000-07-18 2005-07-07 University Of Minnesota Real time high accuracy geospatial database for onboard intelligent vehicle applications
US8099213B2 (en) * 2008-07-18 2012-01-17 GM Global Technology Operations LLC Road-edge detection
US8755997B2 (en) * 2008-07-30 2014-06-17 Honeywell International Inc. Laser ranging process for road and obstacle detection in navigating an autonomous vehicle
US20120050198A1 (en) * 2010-03-22 2012-03-01 Bruce Cannon Electronic Device and the Input and Output of Data
US8996228B1 (en) * 2012-09-05 2015-03-31 Google Inc. Construction zone object detection using light detection and ranging
US9221461B2 (en) * 2012-09-05 2015-12-29 Google Inc. Construction zone detection using a plurality of information sources
US9171213B2 (en) * 2013-03-15 2015-10-27 Xerox Corporation Two-dimensional and three-dimensional sliding window-based methods and systems for detecting vehicles
US20150097412A1 (en) * 2013-10-09 2015-04-09 Caterpillar Inc. Determing an activity of a mobile machine

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140074343A (ko) * 2011-09-12 2014-06-17 콘티넨탈 테베스 아게 운트 코. 오하게 차량의 포지션 데이터의 결정 방법

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
제어자동화시스템공학 논문지 제13권 제2호 140-146 (2007.2.)* *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190062689A (ko) * 2017-11-29 2019-06-07 현대자동차주식회사 차량 및 그 제어 방법

Also Published As

Publication number Publication date
KR101632486B1 (ko) 2016-06-22
US9454156B2 (en) 2016-09-27
US20160011594A1 (en) 2016-01-14

Similar Documents

Publication Publication Date Title
KR101632486B1 (ko) 레이저 거리 센서를 이용한 도로의 연석 추출 방법 및 도로의 연석 정보를 이용한 이동 로봇의 위치 측정 방법
US10989560B2 (en) Map data correcting method and device
EP3825807A1 (en) Method, device and assembly for map generation
US20170023659A1 (en) Adaptive positioning system
JP2024050990A (ja) 判定装置
EP3640681B1 (en) Method and apparatus for estimating position
KR20200044420A (ko) 위치 추정 방법 및 장치
RU2720140C1 (ru) Способ оценки собственной позиции и устройство оценки собственной позиции
EP3617749B1 (en) Method and arrangement for sourcing of location information, generating and updating maps representing the location
KR20190064311A (ko) 라이다를 이용한 지도 생성 방법 및 장치
US20220113139A1 (en) Object recognition device, object recognition method and program
US20210278217A1 (en) Measurement accuracy calculation device, self-position estimation device, control method, program and storage medium
US20230010175A1 (en) Information processing device, control method, program and storage medium
Hassani et al. Experimental integrity evaluation of tightly-integrated IMU/LiDAR including return-light intensity data
Suganuma et al. Localization for autonomous vehicle on urban roads
CN112455502B (zh) 基于激光雷达的列车定位方法及装置
Wang et al. UGV‐UAV robust cooperative positioning algorithm with object detection
Patruno et al. An embedded vision system for real-time autonomous localization using laser profilometry
US20220136832A1 (en) Method and system for magnetic-based collaborative positioning
WO2016196717A2 (en) Mobile localization using sparse time-of-flight ranges and dead reckoning
Wang et al. UAV navigation in large-scale GPS-denied bridge environments using fiducial marker-corrected stereo visual-inertial localisation
Jabbour et al. Backing up GPS in urban areas using a scanning laser
Inoue et al. A study on Position Measurement System Using Laser Range Finder and Its Application fo r Construction Work
CN112050830A (zh) 一种运动状态估计方法及装置
WO2023017624A1 (en) Drive device, vehicle, and method for automated driving and/or assisted driving

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant