KR20090061355A - 이동로봇의 주행 제어 방법 및 이를 이용한 이동 로봇 - Google Patents

이동로봇의 주행 제어 방법 및 이를 이용한 이동 로봇 Download PDF

Info

Publication number
KR20090061355A
KR20090061355A KR1020070128341A KR20070128341A KR20090061355A KR 20090061355 A KR20090061355 A KR 20090061355A KR 1020070128341 A KR1020070128341 A KR 1020070128341A KR 20070128341 A KR20070128341 A KR 20070128341A KR 20090061355 A KR20090061355 A KR 20090061355A
Authority
KR
South Korea
Prior art keywords
image
target point
mobile robot
obstacle
identification
Prior art date
Application number
KR1020070128341A
Other languages
English (en)
Other versions
KR100933539B1 (ko
Inventor
김종화
Original Assignee
포스데이타 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 포스데이타 주식회사 filed Critical 포스데이타 주식회사
Priority to KR1020070128341A priority Critical patent/KR100933539B1/ko
Publication of KR20090061355A publication Critical patent/KR20090061355A/ko
Application granted granted Critical
Publication of KR100933539B1 publication Critical patent/KR100933539B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0214Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device

Abstract

식별지의 인식을 통해 이동로봇의 이동경로에 관한 지도를 작성하거나, 이동로봇이 위치한 환경의 조도를 고려하여 특정 객체의 영상을 인식함으로써 목적지의 위치 판단이나 장애물을 판별할 수 있는 본 발명의 일 실시예에 따른 이동로봇의 주행 제어 방법은 영상 센서를 이용하여 이동로봇이 위치한 환경에 배치된 식별지들을 인식하는 단계 상기 인식된 식별지들을 이용하여 상기 이동로봇의 이동경로 및 하나 이상의 목표점을 결정하는 단계 및 상기 이동경로 및 상기 하나 이상의 목표점을 이용하여 지도를 작성하는 단계를 포함한다.
로봇, 영상, 이동, 위치, 지도, 장애물

Description

이동로봇의 주행 제어 방법 및 이를 이용한 이동 로봇{Method for Controlling Driving of Moving Robot and Moving Robot Using the Same}
본 발명은 이동 로봇에 관한 것으로서 보다 상세하게는 이동 로봇의 주행을 제어하는 방법 및 이를 이용한 이동 로봇에 관한 것이다.
로봇은 산업용으로 개발되어 공장 자동화의 일환으로 사용되거나, 인간이 견딜 수 없는 극한의 환경에서 인간을 대신하여 정보를 수집하거나 채집하는데 사용되어 왔다. 최근에는 이러한 로봇의 연구가 활발해 짐에 따라 최첨단 우주개발산업에 이용되는 로봇은 물론 일상 생활에서 이용되는 로봇이 개발되기에 이르렀다. 예컨대, 일상 생활에 이용되는 로봇으로는 주택 또는 사물과 같은 일정한 구역을 청소하는 청소로봇이나, 박물관이나 대형 건물 등에서 위치를 안내하는 위치 안내로봇 등이 있다.
이동로봇은 이동로봇의 이동경로에 관한 지도를 미리 작성하고, 작성된 지도에 따라 이동한다. 이러한 지도를 작성하는 방법으로 종래에는, 이동로봇이 랜덤하게 움직이다 벽이나 장애물이 감지되는 경우 벽이나 장애물의 위치를 시작점을 기준으로 하여 기록한 후 다시 랜덤하게 움직이면서 또 다른 장애물이나 벽의 위치 를 추가로 기록함으로써 지도를 작성하는 방법, 이동로봇이 벽을 따라가면서 장애물이 감지되는 경우 감지된 장애물의 위치를 기록함으로써 지도를 작성하는 방법, 및 사용자가 이동로봇이 주행해야 할 경로를 수동으로 끌고 가면서 주행해야 할 위치를 이동로봇에게 학습시키는 방법 등이 이용되었다.
그러나, 이동로봇이 랜덤하게 이동하면서 감지되는 장애물이나 벽의 위치를 기록함에 의해 지도를 작성하는 방법 및 이동로봇이 벽을 따라가면서 감지되는 장애물의 위치를 기록함에 의해 지도를 작성하는 방법은 정확성이 결여될 수 있다는 문제점이 있고, 사람이 이동로봇을 끌고 다니면서 이동로봇의 이동경로를 학습시키는 방법은 정확성은 향상시킬 수 있지만, 지도 작성이 불편할 뿐만 아니라 지도 작성에 많은 시간이 소요된다는 문제점이 있다.
한편, 이동로봇이 목적지의 위치를 인식하는 방법으로서, 종래에는 작성된 지도에 기록된 좌표를 이용하여 목적지의 위치를 인식하는 방법, 이동로봇이 위치한 공간의 천장이나 벽 등에 설치된 주행 유도기를 통해 이동로봇이 자신의 현재 위치를 인식함으로써 목적지의 위치를 인식하는 방법, 또는 목적지 영상을 통해 목적지의 위치를 인식하는 방법 등이 이용되었다.
이 중, 목적지의 영상을 통해 목적지의 위치를 인식하는 방법이 많이 이용되고 있는데, 이러한 목적지의 영상을 통해 목적지의 위치를 인식하는 방법의 경우, 종래에는 이동로봇이 위치하고 있는 공간의 조명 밝기를 고려하지 않고 영상의 동일여부를 판단하였으므로, 동일한 영상이라 하더라도 양 영상이 촬영된 시점의 조도가 다른 경우 이동로봇은 이를 다른 영상이라 판단할 수 있게 된다는 문제점이 있었다.
본 발명은 상술한 문제점을 해결하기 위한 것으로서, 식별지의 인식을 통해 이동로봇의 이동경로에 관한 지도를 작성할 수 있는 이동로봇의 주행 제어 방법 및 이를 이용한 이동로봇을 제공하는 것을 기술적 과제로 한다.
또한, 본 발명은 조도를 고려하여 특정 객체의 영상을 인식함으로써 목적지의 위치를 판단하거나 장애물을 판별할 수 있는 이동로봇의 주행 제어 방법 및 이를 이용한 이동로봇을 제공하는 것을 다른 기술적 과제로 한다.
상술한 목적을 달성하기 위한 본 발명의 일 측면에 따른 이동로봇의 주행 제어 방법은 영상 센서를 이용하여 이동로봇이 위치한 환경에 배치된 식별지들을 인식하는 단계 상기 인식된 식별지들을 이용하여 상기 이동로봇의 이동경로 및 하나 이상의 목표점을 결정하는 단계 및 상기 이동경로 및 상기 하나 이상의 목표점을 이용하여 지도를 작성하는 단계를 포함한다.
이때, 상기 이동로봇의 이동경로 및 상기 하나 이상의 목표점은 상기 인식된 식별지의 색상 및 모양 중 적어도 하나에 따라 결정되며, 상기 이동경로는 상기 인식된 식별지의 색상 및 모양 중 적어도 하나에 따라 전역 이동경로 및 지역 이동경로로 구분되고, 상기 목표점은 상기 인식된 식별지의 색상 및 모양 중 적어도 하나에 따라 전역 목표점 및 지역 목표점으로 구분된다.
한편, 상기 이동로봇의 주행 제어 방법은, 상기 목표점 확인을 위해 각 조도별로 촬영된 목표점 확인영상을 수집하여 상기 각 목표점과 매칭시켜 저장하는 단계를 더 포함하는 하고, 상기 목표점 확인영상 저장단계 이후에, 상기 목표점에 대한 이동명령이 수신되면, 상기 작성된 지도를 참조하여 상기 목표점으로 이동하는 단계 상기 목표점에서의 조도를 감지한 후 상기 목표점에서 영상을 촬영하는 단계 및 상기 목표점에서의 촬영영상과 상기 목표점에 매칭되어 있는 상기 감지된 조도에서의 목표점 확인영상을 비교하여 상기 이동로봇의 위치를 판단하는 단계를 더 포함할 수 있다.
일 실시예에 있어서, 상기 이동로봇의 위치 판단 단계는, 상기 목표점에서의 촬영영상 및 상기 목표점 확인영상을 전처리하는 단계를 더 포함함으로써, 상기 전처리된 목표점에서의 촬영영상과 상기 전처리된 목표점 확인영상의 차이가 기준치 이하인 경우 상기 목표점에서의 촬영영상과 상기 목표점 확인영상을 비교하는 할 수 있는데, 이때, 상기 전처리는 MCT(Modified Census Transform)를 이용하여 수행된다.
또한, 상기 이동로봇의 위치 확인 단계는, 상기 목표점에서의 촬영영상 및 상기 목표점 확인영상으로부터 특징점을 추출하고, 추출된 상기 목표점에서의 촬영영상의 특징점과 상기 목표점 확인영상의 특징점을 매칭함으로써 상기 목표점 확인영상과 목표점 촬영영상을 비교하는데, 이때, 상기 각 영상의 특징점은 SIFT(Scale Invariant Feature Transform)을 이용하여 추출된다.
이후, 상기 이동로봇의 위치 확인 단계에서 상기 목표점에서의 촬영 영상과 상기 목표점 확인영상에 차이가 있는 경우, 상기 목표점에서의 촬영영상이 상기 목표점 확인영상과 동일해지도록 상기 이동로봇의 위치를 보정하는 단계를 더 포함할 수 있다.
한편, 상기 이동로봇의 주행 제어 방법은, 장애물 확인을 위해 각 조도별로 촬영된 장애물 확인영상을 수집하여 저장하는 단계 상기 작성된 지도를 따라 이동 중에 장애물이 감지되면, 상기 장애물 감지 위치에서의 조도를 감지한 후 상기 장애물 감지 위치에서 영상을 촬영하는 단계 및 상기 장애물 감지 위치에서의 촬영상과 상기 감지된 조도에 매칭되어 있는 상기 장애물 확인영상을 비교하여 상기 장애물을 판별하는 단계를 더 포함할 수 있으며, 상기 장애물이 판별되면 판별된 장애물에 따라 장애물 회피 경로를 설정하는 단계 및 상기 설정된 회피 경로에 따라 이동하여 상기 장애물을 회피하는 단계를 더 포함할 수 있다.
상술한 목적을 달성하기 위한 이동로봇의 주행 제어 방법은, 영상센서를 통해 촬영된 확인영상을 각 조도별로 수집하는 단계 이동로봇의 이동 중 특정 위치에서 상기 영상센서를 통해 하나 이상의 촬영영상이 수신되면, 상기 특정위치에서 감지되는 조도와 매칭되어 있는 상기 확인영상을 추출하는 단계 상기 특정위치에서 수신된 상기 하나 이상의 촬영영상 및 상기 추출된 확인영상을 전처리하는 단계 상기 하나 이상의 촬영영상 중 상기 전처리된 촬영영상과 상기 전처리된 확인영상의 차이가 기준치 이하인 촬영영상을 결정하는 단계 및 상기 결정된 촬영영상과 상기 추출된 확인영상의 동일여부를 판단하는 단계를 포함한다.
상술한 목적을 달성하기 위한 본 발명의 또 다른 측면에 따른 이동로봇은 이 동로봇이 위치한 환경에 배치된 식별지들을 인식하거나, 이동로봇의 이동 중 영상을 촬영하는 영상 센서 상기 영상 센서에 의해 인식된 식별지들을 이용하여 상기 이동로봇의 이동경로 및 하나 이상의 목표점을 결정하거나, 이동로봇의 위치를 판단하는 위치 결정부 상기 위치 결정부에 의해 결정된 상기 이동경로 및 상기 하나 이상의 목표점을 이용하여 지도를 작성하는 지도 작성부 상기 지도 작성부에 의해 작성된 지도가 저장되는 메모리 상기 이동로봇을 이동시키는 구동부 및 상기 위치 결정부에 의해 결정된 이동경로 또는 상기 지도 작성부에 의해 작성된 지도에 따라 상기 이동로봇이 이동하도록 상기 구동부를 제어하는 주행 제어부를 포함한다.
상술한 바와 같이 본 발명에 따르면, 식별지의 인식을 통해 이동로봇의 이동경로에 관한 지도를 이동로봇이 스스로 작성함으로써 보다 정확한 지도의 작성은 물론, 지도 작성에 소요되는 시간을 줄일 수 있다는 효과가 있다.
또한, 본 발명은 지도 작성시 이동로봇의 이동경로를 전역 이동경로 및 지역 이동경로로 구분함으로써 이동로봇이 위치한 환경의 구조가 변경될 때마다 작성된 지도 전체를 변경할 필요 없이 변경된 영역에서의 이동경로만을 다시 결정하여 지도를 수정할 수 있어, 이동로봇의 지도를 효율적으로 작성할 수 있다는 효과가 있다.
또한, 본 발명은 목적지의 위치를 판단하거나 장애물을 판별함에 있어서, 이동로봇이 위치한 환경의 조도를 고려함으로써 목적지의 위치를 정확하게 판단하거나 장애물을 보다 정확하게 판별할 수 있다는 효과가 있다.
이하 첨부된 도면을 참조하여 본 발명의 실시예에 대해 상세히 설명한다.
도 1은 본 발명의 일 실시예에 따른 이동로봇의 개략적인 블록도이다. 도시된 바와 같이, 이동로봇(100)은 구동부(110), 영상센서(120), 제어부(130), 조도감지센서(140), 메모리(150), 장애물 감지부(160)를 포함한다.
구동부(110)는 이동로봇(100)의 좌륜(미도시)을 구동시키는 좌륜모터(112) 및 이동로봇(100)의 우륜(미도시)을 구동시키는 우륜모터(114)를 포함하는 것으로서, 후술할 주행 제어부(139)의 제어에 따라 좌륜모터(112) 및 우륜모터(114)를 독립적으로 역방향 또는 정방향으로 구동시킴으로써 이동로봇(100)이 직직 또는 회전하도록 한다.
또한, 구동부(110)는 좌륜모터(112) 및 우륜모터(114)의 회전수를 산출하여 후술할 위치 결정부(132)로 전달함으로써 위치 확인부(132)가 이동로봇(100)의 실제 이동거리를 산출함으로써 이동로봇의 현재 위치를 판단할 수 있도록 한다.
영상센서(120)는 이동로봇이 위치한 환경에 대한 지도 작성을 위해 이동로봇이 위치한 환경, 예컨대, 이동로봇이 주행하게 될 공간의 바닥, 벽, 천장 등과 같은 곳에 배치된 식별지들을 인식한다.
즉, 본 발명은, 이동로봇의 지도를 작성하기 위해, 이동로봇이 위치하는 환경에 미리 식별지를 배치하여 두고, 이동로봇의 영상센서(120)를 통해 인식된 식별지를 따라 이동로봇이 이동하도록 함으로써 이동로봇이 스스로 지도를 작성할 수 있도록 하는 것이다.
한편, 영상센서(120)는 이동로봇이 주행함에 있어서, 후술할 위치 결정부(132)에 의해 결정된 소정 목표점에 도달했는지를 확인하기 위한 목표점 확인영상을 미리 촬영한 후 각 목표점의 위치와 매칭시켜 영상 저장영역(152)에 저장한다. 이때, 목표점 확인영상은 하나의 목표점에 하나 이상의 목표점 확인영상이 매칭될 수 있다.
일 실시예에 있어서, 이동로봇이 위치한 환경의 조도가 변경되는 것을 고려하여, 영상센서(120)는 목표점 확인영상들을 이동로봇이 위치한 환경의 조도를 변경시켜가면서 각 조도별로 촬영하고, 촬영된 목표점 확인 영상들을 각 조도별로 저장할 수 있다.
또한, 영상센서(120)는 이동로봇의 주행 중 출현 가능한 장애물들을 미리 촬영한 후 이를 영상 저장영역(152)에 저장한다. 이때, 출현 가능한 장애물은 사람이나 동물등과 같이 움직이는 장애물일 수도 있고, 가구나 물건 등과 같이 고정된 장애물일 수도 있다.
장애물 확인영상을 촬영함에 있어서도, 영상센서(120)는 이동로봇이 위치한 환경의 조도가 변경되는 것을 고려하여, 장애물 확인영상들을 이동로봇이 위치한 환경의 조도를 변경시켜가면서 각 조도별로 촬영하고, 촬영된 장애물 확인 영상을 각 조도별로 저장할 수 있다.
또한, 영상센서(120)는 이동로봇이 이동을 개시한 이후, 소정 시간 단위로 영상을 촬영하고, 촬영된 영상을 후술할 영상 처리부(136)로 전달함으로써 이동로봇이 목표점에 도달했는지 여부나, 장애물이 감지 또는 감지된 장애물의 종류가 무 엇인지를 판별할 수 있게 해 준다. 이하에서는 설명의 편의를 위해 특정 목표점에서 영상센서(120)에 의해 촬영된 영상을 목표점 촬영영상이라 한다.
조도감지 센서(125)는 이동로봇이 위치한 환경의 조도를 감지하는 것으로서, 이러한 조도감지 센서(125)는 이동로봇이 위치한 환경의 조도가 변경되는 경우 현재 위치에서의 조도를 정확하게 감지함으로써 영상센서(120)에 의해 촬영되는 영상들을 보다 정확하게 인식하기 위한 것이다.
제어부(130)는 이동로봇(100)에 포함된 각 구성요소들을 제어함으로써 이동로봇(100)의 전반적인 동작을 제어하는 것으로서, 위치 결정부(132), 지도 작성부(134), 주행 제어부(136), 영상 처리부(136), 및 장애물 판별부(139)를 포함한다.
위치 결정부(132)는 지도 작성을 위해 영상센서(120)에 의해 인식된 식별지들을 이용하여 이동로봇의 이동경로 또는 하나 이상의 목표점을 결정하거나, 상술한 구동부(110)로부터 전달되는 정보를 이용하여 이동로봇의 실제 이동거리를 산출함으로써 이동로봇의 현재 위치를 판단한다.
여기서, 목표점이란 이동로봇이 도달해야 하는 지점을 의미하는 것으로서, 예컨대, 이동로봇이 위치 안내용 로봇인 경우, 안내 대상이 되는 객체가 존재하는 위치들이 목표점으로 설정될 수 있다.
일 실시예에 있어서, 위치 결정부(132)는 지도 작성에 이용될 이동로봇의 이동경로 또는 하나 이상의 목표점을 영상센서(120)에 의해 인식된 식별지의 색상 및 모양 중 적어도 하나를 이용하여 결정할 수 있다.
또한, 위치 결정부(132)는 영상센서(120)에 의해 인식된 식별지의 색상 또는 모양에 따라 이동로봇의 이동경로를 전역 이동경로(Global Path)와 지역 이동경로(Local Path)로 구분하고, 식별지의 색상 또는 모양에 따라 목표점을 전역 목표점(Global Target)과 지역 목표점(Local Target)으로 구분할 수 있다.
여기서, 전역 이동경로는 거실이나 홀과 같이 그 구조가 자주 변경되지 않는 영역에서의 이동경로를 의미하고, 지역 이동경로는 방과 같이 그 구조가 자주 변경될 수 있는 영역에서의 이동경로를 의미한다.
이렇게 위치 결정부(132)는 이동경로를 전역 이동경로와 지역 이동경로를 구분함으로써 이동로봇이 위치한 환경의 구조가 변경될 때마다 작성된 지도 전체를 변경할 필요 없이 변경된 영역에서의 이동경로만을 다시 결정하여 지도를 수정할 수 있어, 이동로봇의 지도를 효율적으로 작성할 수 있게 된다.
한편, 전역 목표점이란 전역 경로상에서 이동로봇이 도달해야 하는 목표점을 의미하는 것이고, 지역 목표점이란 지역 경로상에서 이동로봇이 도달해야 하는 목표점을 의미한다.
위치 결정부(132)가 영상센서(120)에 의해 인식된 식별지의 색상 또는 모양을 이용하여 전역 및 지역 이동경로와 전역 및 지역 목표점을 결정하는 방법을 도 2를 참조하여 구체적으로 설명한다.
도 2는 본 발명의 일 실시예에 따른 위치 결정부가(132)가 이동경로 및 목표점을 설정하는 방법을 보여주는 도면이다. 도 2에서, 이동로봇의 이동경로 및 목표점은 식별지의 색상에 따라 결정되며, 결정된 이동경로를 전역 및 지역 이동경로 의 구분하는 것과 결정된 목표점을 전역 및 지역 목표점으로 구분하는 것은 식별지의 모양을 통해 수행되는 것으로 가정한다.
도 2에 도시된 바와 같이, 시작점인 제1 위치에 있는 이동로봇(100)에 전원을 인가하거나, 지도 작성 명령이 수신되면 이동로봇(100)은 주행을 시작하고, 주행 중 이동로봇의 영상센서(120)는 제1 위치에 배치된 제1 식별지(200)를 인식하게 된다. 위치 결정부(132)는 인식된 제1 식별지(200)의 색상이 직진을 나타내는 색상이므로 이동로봇(100)이 직진하도록 이동경로를 설정한다. 이때, 위치 결정부(132)는 이동로봇(100)이 제1 위치로부터 실제 이동한 거리를 이용하여 제1 식별지(200)의 위치를 기록한다.
이후, 영상센서(120)를 통해 제2 식별지(210)가 인식되면, 위치 결정부(132)는 인식된 식별지(210)의 색상이 좌회전을 나타내는 색상이므로 이동로봇(100)이 좌회전하도록 이동경로를 설정하고, 제2 식별지(210)의 위치를 기록한다.
이후, 영상센서(120)를 통해 제3 식별지(220)가 인식되면, 위치 결정부(132)는 인식된 식별지(220)의 색상이 제1 목표점 및 좌회전을 나타내는 색상이므로, 제3 식별지(220)가 배치된 위치를 제1 목표점으로 결정함으로써 제1 목표점의 위치를 기록한 후 이동로봇이 좌회전하도록 이동경로를 설정한다.
이후, 영상센서(120)를 통해 제4 식별지(230)가 인식되면, 위치 결정부(132)는 인식된 식별지의 색상이 우회전을 나타내는 색상이므로 이동로봇(100)이 우회전하도록 이동경로를 설정하고, 제4 식별지(230)의 위치를 기록한다.
이후, 영상센서(120)를 통해 제5 식별지(240)가 인식되면, 위치 결정부(132) 는 인식된 식별지의 색상이 제2 목표점 및 180도 회전을 나타내는 색상이므로, 제5 식별지(240)가 배치된 위치를 제2 목표점으로 결정함으로써 제2 목표점의 위치를 기록한 후 이동로봇이 180도 회전하도록 이동경로를 설정한다.
이러한 과정을 통해 위치 결정부(132)는 시작점인 제1 위치로부터 제2 목표점까지의 이동경로 및 제1 목표점과 제2 목표점의 위치를 결정하게 된다.
한편, 위치 결정부(132)는 제1 내지 제3 식별지(200 내지 220)의 모양을 이용하여 제1 식별지(200)부터 제3 식별지(220)까지의 거리를 전역 이동경로(250)로 설정하고, 제3 식별지(220)가 배치된 위치인 제1 목표점을 전역 목표점으로 설정한다. 또한, 제4 및 제5 식별지(230, 240)의 모양을 이용하여 제3 식별지(220)부터 제5 식별지(240)가지의 거리를 지역 이동경로(260)로 설정하고, 제5 식별지가 배치된 위치인 제2 목표점을 지역 목표점으로 결정한다.
위치 결정부(132)는 이동로봇이 위치한 환경 전체에 대해 상술한 과정을 반복하여 수행함으로써 이동로봇의 모든 이동경로 및 목표점을 설정한다.
한편, 위치 결정부(132)는 엔코드와 같은 회전 감지 센서(미도시)를 이용하여 좌륜 모터(132) 및 우륜 모터(134)의 회전수를 검출함으로써 이동로봇의 실제 이동거리를 산출하고, 산출된 이동로봇의 실제 이동거리를 이용하여 현재 이동로봇의 위치를 판단한다.
또한, 위치 결정부(132)는 후술할 영상 처리부(138)에 의한 영상의 비교결과 특정 목표점 촬영영상이 해당 목표점에 매칭된 목표점 확인영상에 차이가 있는 경우, 이동로봇이 해당 목표점에 정확하게 위치하고 있지 않은 것으로 판단하여, 해 당 목표점에서 감지된 조도, 목표점 촬영영상, 및 현재 이동로봇의 위치에서 목표점 촬영영상에 포함된 객체까지의 거리 정보를 이용하여 이동로봇의 위치를 보정하기 위한 보정경로를 생성하여 주행 제어부(136)로 전달한다. 이때, 목표점 촬영영상에 포함된 객체와 현재 이동로봇이 위치 사이의 거리는 목표점 촬영영상을 이용하여 산출할 수 있다.
예컨대, 목표점 촬영영상과 목표점 확인영상을 비교한 결과, 목표점 촬영영상에 포함된 객체의 위치가 목표점 확인영상에 포함된 객체에 비해 좌측으로 치우쳐 있는 것으로 판단되는 경우, 이동로봇이 목표점으로부터 우측으로 치우쳐 있다는 것을 의미하므로, 위치 결정(132)는 목표점 촬영영상에 포함된 객체의 위치가 목표점 확인영상에 포함된 객체의 위치와 동일해 지도록 이동로봇의 보정경로를 생성한다.
또한, 목표점 촬영영상에 포함된 객체의 크기가 목표점 확인영상에 포함된 객체에 비해 작은 경우 이때, 이동로봇이 정확한 목표점에 아직 도달하지 않은 것을 의미하므로, 위치 결정부(132)는 목표점 촬영영상에 포함된 객체의 위치가 목표점 확인영상에 포함된 객체의 크기가 동일해 지도록 이동로봇의 보정경로를 생성한다.
지도 작성부(134)는 위치 결정부(132)에 의해 설정된 이동경로, 각 목표점의 위치, 각 식별지들의 위치, 및 각 식별지들 사이의 거리를 이용하여 이동로봇이 주행해야 할 지도를 작성하고, 작성된 지도를 메모리(150)의 지도 저장영역(154)에 저장한다.
지도 작성부(134)는 지도를 작성함에 있어서, 각 목표점의 좌표에 영상센서(120)에 의해 미리 촬영된 목표점 확인영상을 매칭시켜 저장한다. 이때, 지도 작성부(134)는 각 목표점에 상응하는 목표점 확인영상의 식별자와 각 목표점 좌표를 매칭시키는 방법으로 목표점과 목표점 확인 영상을 매칭시킬 수 있다.
주행 제어부(136)는 지도 작성 시에는 위치 결정부(132)에 의해 결정된 이동경로를 따라 이동로봇이 이동하도록 구동부(110)를 제어한다. 또한, 주행 제어부(136)는 지도가 작성된 후에는 이동로봇의 위치 보정을 위해 위치 결정부(132)에 의해 생성된 보정경로를 따라 이동로봇이 이동하거나, 외부로부터 특정 목표점으로의 이동명령이 수신되면 작성된 지도에 따라 이동로봇이 특정 목표점으로 이동하도록 구동부(110)를 제어한다. 또한, 주행 제어부(136)는 후술할 장애물 판별부(139)에 의해 생성된 장애물 회피 경로를 따라 이동로봇이 장애물을 회피하여 이동하도록 한다.
영상 처리부(138)는 주행 제어부(136)의 제어에 따라 이동로봇이 특정 목표점에 도달한 후, 영상센서(120)로부터 수신되는 목표점 촬영영상을 해당 목표점 좌표에 매칭되어 있는 목표점 확인영상과 비교한다.
이때, 해당 목표점 좌표에 매칭되어 있는 목표점 확인영상은 각 조도별로 저장되어 있기 때문에, 영상 처리부(138)는 해당 목표점 좌표에 매칭되어 있는 목표점 확인영상 중 조도감지 센서(125)에 의해 감지된 조도에 매칭되어 있는 목표점 확인영상을 목표점 촬영영상과 비교한다.
구체적으로, 영상 처리부(138)는 특정 목표점에서 영상센서(120)로부터 목표 점 촬영영상이 수신되면, 영상 저장영역(152)으로부터 해당 목표점에 상응하는 목표점 확인영상들 중 감지된 조도에 매칭된 목표점 확인영상을 추출하여 양 영상의 동일여부를 비교하는 것이다.
일 실시예에 있어서, 영상센서(120)는 소정 시간 주기 단위로 영상을 촬영하기 때문에, 특정 목표점 근처에서 촬영된 모든 목표점 촬영영상을 영상 저장영역(152)으로부터 추출된 목표점 확인영상과 비교하는 것은 이동로봇의 부하를 증가시킬 수 있으므로, 영상 처리부(138)는 전처리 과정을 거쳐 일정 조건을 만족하는 목표점 촬영영상들만을 영상 저장영역(152)에 저장된 목표점 확인영상과 비교할 수 있다.
이때, 영상 처리부(138)는 MCT(Modified Census Transform)기법을 이용하여 영상을 전처리 할 수 있다. MCT란 조도변화에 강인하도록 고안된 영상 처리 기법으로서, 픽셀의 밝기값 단위의 영상을 중심픽셀을 기준으로 중심픽셀의 주변 픽셀들의 밝기값을 이용하여 이진화 하는 방법이다.
구체적으로, 특정 픽셀 x에서의 주변 픽셀들의 집합을
Figure 112007089014159-PAT00001
라 할 때,
Figure 112007089014159-PAT00002
에 포함된 각 픽셀들의 밝기값들의 평균값인
Figure 112007089014159-PAT00003
를 산출하고, 각 픽셀의 밝기값
Figure 112007089014159-PAT00004
와 평균값
Figure 112007089014159-PAT00005
를 비교하여
Figure 112007089014159-PAT00006
면, 즉 각 픽셀의 밝기값이 평균값보다 크면 해당 픽셀의 밝기값을 1로 변환하고,
Figure 112007089014159-PAT00007
면, 즉, 각 픽셀의 밝기값이 평균값 이하이면 해당 픽셀의 밝기값을 0으로 변환한다. 이를 수식으로 표현하 면 다음의 수학식 1과 같다.
Figure 112007089014159-PAT00008
여기서,
Figure 112007089014159-PAT00009
는 연결 연산자를 의미하고, C는 비교함수로써 수학식 2와 같이 정의된다
Figure 112007089014159-PAT00010
이러한 MCT를 도 3을 참조하여 구체적으로 설명한다. 도 3a와 같이 주변 픽셀들의 밝기값이 주어졌을 때, 주변 픽셀들의 밝기값의 평균값
Figure 112007089014159-PAT00011
는 2.8이 되고, 밝기값이 평균값보다 큰 픽셀은 그 밝기값을 1로 변환하고, 밝기값이 평균값보다 작은 픽셀은 0으로 변환함으로써 주변 픽셀의 밝기값을 도 3b에 도시된 바와 같이 이진화한다.
영상 처리부(138)는 특정 목표점에서의 목표점 촬영영상 및 목표점 확인영상에 각각 MCT기법을 적용함으로써 목표점 촬영영상의 MCT값
Figure 112007089014159-PAT00012
와 목표점 확인영상의 MCT값
Figure 112007089014159-PAT00013
를 생성한다. 이때, 각 MCT값의 이진수들의 집합을 a라고 할 때 a에 포함된 1의 개수의 합을
Figure 112007089014159-PAT00014
로 정의하면 양 영상의 차이를 다음의 수학식 3과 같이 정의할 수 있다.
Figure 112007089014159-PAT00015
이때, 영상 처리부(138)는 수학식 3의 결과, 즉 각 MCT값의 이진수들의 집합 a에 포함된 1의 개수의 합의 차이가 기준치보다 작을 경우, 목표점 촬영영상이 목표점 확인영상과 비교 가능한 영상인 것으로 판단한다. 영상 처리부(138)는 이러한 MCT를 이용하여 전처리를 수행함으로써 목표점 근처에서 촬영된 모든 목표점 촬영영상 중 일부 영상만을 목표점 확인영상과 비교할 수 있게 된다.
일 실시예에 있어서, 영상 처리부(138)는 목표점 촬영영상이나 목표점 확인영상에 전경과 배경이 모두 포함되어 있는 경우, 배경 부분에 대해서만 MCT를 실행함으로써 정확도를 높일 수 있다.
한편, 영상 처리부(138)는 전처리가 완료되면, 목표점 촬영영상이 목표점 확인영상과 동일한지 여부를 판단하게 된다. 일 실시예에 있어서, 영상 처리부(138)는 각 영상으로부터 특징점들을 추출한 후 특징점을 매칭함으로써 양 영상의 동일여부를 판단할 수 있다. 이때, 영상 처리부(138)는 각 영상의 특징점을 추출하기 위해 영상의 크기 및 회전 변화에 강인한 영상처리 알고리즘인 SIFT(Scale-Invariant Feature Transform)기법을 이용할 수 있다.
이러한 SIFT 기법을 이용하여 특징점을 추출하는 방법을 도 4a 내지 도 4d를 참조하여 간략하게 설명한다. 먼저, 도 4a에 도시된 바와 같은 영상의 스케일을 변환하여 N개의 옥텟(Octave)을 형성하고, 각 옥텟의 영상에 가우시안 필 터(Gaussian Filter)를 적용함으로써 블러 영상(Blurr Image)을 생성한다. 이러한 블러 영상을 수학식으로 표현하면 다음의 수학식 4와 같다.
Figure 112007089014159-PAT00016
여기서,
Figure 112007089014159-PAT00017
는 블러 영상을 의미하고,
Figure 112007089014159-PAT00018
는 입력영상을 의미하며,
Figure 112007089014159-PAT00019
는 블러 영상의 생성에 이용된 가우시안 함수를 의미하는 것으로서 수학식 5와 같이 정의된다.
Figure 112007089014159-PAT00020
이때, 도 4b에 도시된 바와 같이 각 옥텟의 영상에 가우시안 필터를 적용함에 있어서, 시그마값을 일정하게 증가시켜 각 옥텟마다 복수개의 블러 영상을 생성한다. 이후, 도 4c에 도시된 바와 같이, 각 옥텟 별로 인접한 영상끼리의 차(DOG: Difference of Gaussian)를 산출한다. 이를 수학식으로 표현하면 다음의 수학식 6과 같다.
Figure 112007089014159-PAT00021
여기서,
Figure 112007089014159-PAT00022
는 DOG를 의미하고,
Figure 112007089014159-PAT00023
Figure 112007089014159-PAT00024
는 특정 스 케일에서의 블러 영상들을 의미한다.
이후, 각 옥텟에서 산출된 DOG 영상 중에서 기준영상을 결정한 후 기준영상에서 소정 단위 구역, 예컨대, 3 by 3 픽셀 매트릭스(Matrix) 내에서 최대 픽셀값(Maxima) 및/또는 최소 픽셀값(Minima)을 결정한다. 이후, 결정된 최대 픽셀값 및/또는 최소 픽셀값을 DOG 기준 영상의 전후 영상에서 각각 산출된 최대 픽셀값 및/또는 최소 픽셀값과 비교하여 그 중 가장 큰 픽셀값과 가장 작은 픽셀값을 선택하고, 선택된 픽셀을 특징점(Keypoint) 후보군으로 결정한다.
이후, 모든 옥텟에 포함된 DOG에 대해서도 동일한 과정을 반복하여 각 옥텟 별로 특징점 후보군을 결정한 후, 특징점 후보군 중 그 출현 빈도가 기준치 이하인 특징점 및 에지(Edge)인 특징점을 특징점 후보군에서 제외시킴으로써 특징점을 결정한다.
여기서, 특징점이 에지인지 여부를 판단하기 위해 수학식 7에 정의된 Hessian Matrix를 사용한다.
Figure 112007089014159-PAT00025
이를 구체적으로 살펴보면, Hessian Matrix에서
Figure 112007089014159-PAT00026
를 가장 큰 값의 Eigenvalue라고 하고
Figure 112007089014159-PAT00027
를 두 번째로 큰 Eigenvalue라고 하는 경우 다음의 수학식 8과 수학식 9을 만족하므로,
Figure 112007089014159-PAT00028
일 때, 수학식 8 및 수학식 9를 이용하여 수학식10과 같은 결과를 산출할 수 있다.
Figure 112007089014159-PAT00029
Figure 112007089014159-PAT00030
Figure 112007089014159-PAT00031
수학식 8에서 Tr(H)는Hessian 행렬의 Trace행렬을 의미하고, 수학식 9에서 Det(H)는 Hessian 행렬의 Determine행렬을 의미한다.
한편, 수학식 10에서,
Figure 112007089014159-PAT00032
가 일정할 때,
Figure 112007089014159-PAT00033
Figure 112007089014159-PAT00034
보다 큰 경우 해당 특징점은 에지가 된다.
상술한 과정을 통해도 4a에 도시된 영상으로부터 결정된 특징점들이 도 4d에 도시되어 있다.
이후, 결정된 특징점을 이용하여 해당 영상의 특징점들에 대한 기술 자(Descriptor)를 생성한다. 특징점 기술자는 각 특징점의 크기값(Magnitude) 및 방향성(Orientation)을 산출한 후, 방향성 별로 크기값을 합산함으로써 생성된다. 여기서, 각 특징점의 크기값과 방향성은 각각 수학식 11 및 12를 이용하여 산출된다.
Figure 112007089014159-PAT00035
Figure 112007089014159-PAT00036
영상 처리부(138)는 상술한 SIFT 기법을 이용하여 양 영상의 특징점들을 추출하고, 양 영상의 특징점 기술자들을 비교함으로써 기술자들의 차이가 가장 작은 특징점들을 동일한 특징점인 것으로 판단하여 매칭하는 방법으로 양 영상을 비교한다.
이러한 영상 처리부(138)에 의한 양 영상의 비교결과 양 영상에 차이가 있는 것으로 판단되는 경우, 현재 이동로봇이 목표점에 정확히 위치하고 있지 않은 것이므로 위치 결정부(132)를 통해 보정 경로를 생성하게 한다.
한편, 영상 처리부(138)는 이동로봇이 이동하는 도중 후술할 장애물 감지부(160)에 의해 장애물이 감지되면, 장애물이 감지된 위치에서의 조도에 매칭되어 있는 장애물 확인영상들과 장애물 감지 위치에서 영상센서(120)로부터 수신되는 장 애물 촬영영상을 비교하여 장애물 확인영상들 중 장애물 촬영영상과 동일한 장애물 확인영상을 추출한다.
구체적으로, 영상 처리부(138)는 장애물이 감지된 위치에서 영상센서(120)로부터 장애물 촬영영상이 수신되면, 상술한 영상 처리 기법(전처리 기법 및 특징점 추출 기법)을 이용하여 영상 저장영역(152)에 저장되어 있는 장애물 확인영상들을 검색하여, 수신된 장애물 촬영영상과 동일한 장애물 확인 영상을 추출한다.
다시 도 1을 참조하면, 장애물 판별부(139)는 후술할 장애물 감지부(160)에 의해 장애물이 감지되면, 영상 처리부(138)에 의해 추출된 장애물 확인영상을 이용하여 감지된 장애물이 어떠한 것인지 판별한다. 이후, 장애물 판별부(139)는 판별된 장애물의 종류나 크기, 장애물의 이동성 여부 등을 종합적으로 고려하여 장애물의 회피를 위한 장애물 회피 경로를 생성하고, 생성된 장애물 회피 경로를 주행 제어부(136)로 전송함으로써 이동로봇이 장애물을 회피할 수 있도록 한다.
메모리(150)는 영상센서(120)를 통해 획득된 목표점 확인영상들 및 장애물 확인 영상들이 저장되는 영상 저장영역(152)과 지도 작성부(134)에 의해작성된 지도가 저장되는 지도 저장영역(154)을 포함한다.
일 실시예에 있어서, 영상 저장영역(120)에는 각 목표점 확인영상들 및 장애물 확인영상들이 조도별로 저장되어 있으며, 각 목표점 확인영상들은 해당 목표점의 좌표와 매칭되어 저장되어 있다. 이러한 메모리(150)는 EEPROM 또는 플래쉬 메모리 등으로 구현될 수 있다.
장애물 감지부(160)는 이동로봇의 이동경로 상에 존재하는 장애물을 감지하 는 것으로서, 외부로 신호를 송출하고 반사된 신호를 수신할 수 있는 센서쌍으로 구현되는 원/근거리 센서부(162)나 장애물과의 충돌을 통해 장애물을 감지하는 범퍼(164) 중 적어도 하나를 포함한다. 이때, 원/근거리 센서부(162)는 원거리 센서부와 근거리 센서부가 별개로 구성될 수 있으며, 원/근거리 센서부(162) 및 범퍼는 이동로봇의 전면, 후면, 및 측면 중 적어도 한 면에 장착될 수 있다.
이 외에도, 이동로봇(100)은 제어부(140)의 상태를 외부로 표시하기 위한 표시부(170)나 이동로봇이 담당하게 될 고유의 기능을 구현하기 위한 다양한 모듈들을 더 포함할 수 있다.
이하에서는 상술한 이동로봇이 이동경로에 대한 지도를 작성하는 과정을 도 5를 참조하여 구체적으로 설명한다.
먼저, 이동로봇의 영상센서(120)를 통해 이동로봇이 위치한 환경에 배치되어 있는 각 식별지들을 인식한다(제100단계). 이때, 식별지들은 이동로봇이 위치하는 환경의 바닥, 벽, 또는 천장 등에 배치될 수 있다. 이후, 인식된 식별지들의 색상 및 모양 중 적어도 하나에 따라 이동로봇이 이동해야 할 이동경로 및/또는 하나 이상의 목표점을 결정한다(제110단계). 일 실시예에 있어서, 이동로봇의 이동경로는 인식되는 식별지의 색상 또는 모양에 따라 전역 이동경로와 지역 이동경로로 구분되며, 이동로봇의 목표점은 인식되는 식별지의 색상 또는 모양에 따라 전역 목표점과 지역 목표점으로 구분될 수 있다.
다음으로, 결정된 이동경로 및 목표점을 이용하여 이동로봇이 위치한 환경에서의 지도를 작성하여 지도 저장영역에 저장한다(제120단계).
다음으로, 도 6을 참조하여 본 발명의 일 실시예에 따른 이동로봇의 주행 제어 방법을 설명한다.
먼저, 사전단계로써, 이동로봇이 위치한 환경에서의 목표점 확인을 위한 목표점 확인영상과 장애물 확인 영상을 촬영하여 영상 저장영역에 저장한다(제200단계). 이때, 이동로봇이 위치한 환경의 조도가 변경되더라도 이동로봇이 영상을 보다 정확하게 인식하도록 하기 위해 목표점 확인영상과 장애물 확인영상은 이동로봇이 위치한 환경에서의 조도를 변경시켜가면서 촬영한 후, 촬영된 영상은 각 조도별로 저장한다.
여기서, 목표점 확인영상은 각 목표점에 존재하는 특정 객체를 촬영한 영상을 의미하고, 장애물 확인영상은 이동로봇이 위치한 환경에서 출현 가능한 장애물을 촬영한 영상을 의미하고, 목표점 확인영상은 지도상의 각 목표점과 매칭되어 저장하는 것이 바람직하다.
다음으로, 특정 목표점에 대한 이동명령이 수신되면(제210단계), 작성된 지도에 따라 특정 목표점으로 주행을 시작한다(제220단계). 목표점으로 이동 중 장애물이 감지되는지 여부를 판단하여(제230단계), 장애물이 감지되는 경우 장애물이 감지된 위치에서의 조도를 감지하고(제240단계), 장애물이 감지된 위치에서 촬영된 영상(이하, 장애물 촬영영상'이라 함)을 제240단계에서 인식된 조도에 매칭되어 있는 장애물 확인영상과 비교함으로써 장애물 촬영영상과 동일한 장애물 확인영상이 존재하는지 판단한다(제250단계).
이때, 장애물 촬영영상과 장애물 확인영상을 비교함에 이어서, MCT 기법을 이용한 전처리 과정을 통해 비교대상 되는 장애물 촬영영상의 개수를 감소시킬 수 있다.
일 실시예에 있어서, 장애물 촬영영상과 장애물 확인영상의 비교는 각 영상으로부터 추출된 특징점의 매칭여부를 통해 수행될 수 있는데, 이러한 특징점 추출은 SIFT 기법을 이용하여 수행될 수 있다. SIFT 기법을 이용하여 양 영상의 특징점을 매칭하는 방법을 도 7을 참조하여 구체적으로 설명한다.
먼저, 비교 대상이 되는 양 영상의 스케일을 변환하여 각 영상별로 N개의 옥텟(Octave)을 형성하고(제400단계), 각 옥텟의 영상에 가우시안 필터(Gaussian Filter)를 적용하여 각 영상에 블러(Blurr처리)를 수행함으로써 블러 영상(Blurr Image)을 생성한다(제410단계). 이때, 각 옥텟의 영상에 가우시안 필터를 적용함에 있어서, 시그마값을 일정하게 증가시킴으로써 각 옥텟마다 복수개의 영상을 생성한다.
이후, 각 옥텟에 포함된 영상들 중 인접한 영상들간의 차(DOG: Difference of Gaussian)를 산출하고(제420단계), 각 옥텟 별로 최대 픽셀값(Maxima) 및/또는 최소 픽셀값(Minima)을 결정한다(제430단계). 다음으로, 결정된 최대 픽셀값 및/또는 최소 픽셀값을 DOG 기준 영상의 전후 영상에서 각각 산출된 최대 픽셀값 및/또는 최소 픽셀값과 비교하여 그 중 가장 큰 픽셀값과 가장 작은 픽셀값을 선택하고, 선택된 픽셀을 특징점(Keypoint) 후보군으로 결정한다(제440단계).
다음으로, 특징점 후보군들 중 그 출현개수가 기준치 이하이거나, 에지 특징점들을 제외함으로써 특징점을 결정한 후(제450단계), 각 특징점들에 대한 기술 자(Descriptor)를 생성한다(제460단계). 마지막으로, 양 영상의 특징점 기술자들을 이용하여 양 영상의 특징점을 매칭시킨다(제470단계).
다시 도 6을 참조하면, 제250단계에서의 판단결과, 장애물이 감지된 위치에서 촬영된 영상과 동일한 장애물 확인영상이 존재하는 경우 해당 장애물 확인영상을 이용하여 감지된 장애물을 판별하고(제260단계), 판별된 장애물에 따라 장애물 회피 경로를 생성함으로써 생성된 장애물 회피경로를 이용하여 장애물을 회피한다(제270단계). 한편, 제250단계에서, 장애물 촬영영상과 동일한 장애물 확인영상이 존재하지 않는 경우 해당 장애물 촬영영상을 새로운 장애물 확인영상으로 영상 저장영역에 저장한다(제275단계).
장애물을 회피한 후, 또는 제230단계에서 장애물이 감지되지 않은 경우, 목표점에 도달했는지 여부를 판단하여(제280단계), 도달하지 않은 경우 작성된 지도에 따라 목표점으로의 주행을 계속한다(제220단계).
한편, 제280단계에서 목표점에 도달한 것으로 판단되는 경우 해당 위치에서의 조도를 인식하고(제290단계), 해당 위치에서 획득되는 목표점 촬영영상을 해당 목표점에 매칭되어 있는 목표점 확인영상 중 제290단계에서 인식된 조도에서의 목표점 확인영상과 비교하여 목표점 확인영상과 목표점 촬영영상이 차이가 있는지를 판단한다(제300단계). 이때, 목표점 확인영상과 목표점 촬영영상을 비교 과정은 상술한 장애물 확인영상과 장애물 촬영영상의 비교과정과 동일하므로 상세한 설명은 생략하기로 한다.
비교결과 목표점 확인영상과 목표점 촬영영상에 차이가 있는 경우, 예컨대, 목표점 촬영영상에 포함된 객체의 위치나 크기가 목표점 확인영상에 포함된 객체의 위치나 크기와 다른 경우, 이동로봇이 목표점에 정확하게 위치하고 있지 않은 것으로 판단하여, 목표점 촬영영상에 포함된 객체의 위치나 크기가 목표점 확인영상에 포함된 객체의 위치나 크기와 동일해 지도록 이동로봇의 보정 경로를 생성함으로써 생성된 보정 경로를 이용하여 이동로봇의 위치를 보정한다(제320단계).
상술한 실시예에 있어서는, 이동로봇이 최종 목표점에서만 그 위치의 정확성을 판단하는 것으로 기재하였지만, 변형된 실시예에 있어서는 최종 목표점으로 이동하는 과정 중에 존재하는 다른 목표점들의 위치에서 이동로봇의 위치를 확인함으로써 이동로봇이 지도에서 정해진 경로에 따라 정확하게 이동하고 있는지 여부를 판단할 수 있다.
예컨대, 도 2와 같은 예에서, 지역 목표점인 제2 목표점(240)으로의 이동명령이 수신된 경우, 제2 목표점(240)으로 이동하기 위해 이동로봇은 전역 이동경로 상에 존재하는 전역 목표점인 제1 목표점(220)을 경유하여 하므로, 제1 목표점(220) 상에서 수시된 제1 목표점 확인영상과 제1 목표점에 매칭되어 있는 제1 목표점 확인영상을 비교함으로써 이동로봇이 제1 목표점에 정확하게 위치하고 있는지 여부를 판단할 수 있을 것이다.
상술한 이동 로봇의 주행 제어 방법은 다양한 컴퓨터 수단을 이용하여 수행될 수 있는 프로그램 형태로도 구현될 수 있는데, 이때 이동 로봇의 주행 제어 방법을 수행하기 위한 프로그램은 하드 디스크, CD-ROM, DVD, 롬(ROM), 램, 또는 플래시 메모리와 같은 컴퓨터로 판독할 수 있는 기록 매체에 저장된다.
본 발명이 속하는 기술분야의 당업자는 본 발명이 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다.
예컨대, 상술한 실시예에 있어서는, 이동로봇이 이동경로를 따라 직진하고 있는지 여부를 판단하기 위해 시작점인 제1 위치와 현재 위치인 제2 위치에서 산출된 각 센서별 신호 도달거리를 이용하였지만, 변형된 실시예에 있어서는, 시작점이 아니라 이동로봇의 현재 위치 및 이동로봇의 직전의 위치에서 산출된 각 센서별 신호 도달거리를 이용할 수도 있을 것이다.
그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로 이해해야만 한다. 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 등가 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
도 1은 본 발명의 일 실시예에 따른 이동 로봇의 개략적인 블럭도.
도 2는 식별지 인식에 따라 이동경로 및 목표점을 결정하는 방법을 보여주는 도면.
도 3a 및 3b는 MCT 기법을 이용하여 픽셀의 밝기값을 이진화한 일예를 보여주는 도면.
도 4a 내지 4d는 SIFT 기법에 따라 특징점을 추출하는 과정을 보여주는 도면.
도 5는 본 발명의 일 실시예에 따라 지도를 작성하는 방법을 보여주는 플로우차트.
도 6은 본 발명의 일 실시예에 따라 이동로봇의 주행을 제어하는 방법을 보여주는 도면.
도 7은SIFT 기법을 이용하여 특징점을 추출하는 방법을 보여주는 플로우차트.
<도면의 주요 부분에 대한 부호의 설명>
100: 이동로봇 110: 구동부
120: 영상센서 125: 조도감지 센서
130: 제어부 150: 메모리
160: 장애물 감지부 170: 표시부

Claims (30)

  1. 영상 센서를 이용하여 이동로봇이 위치한 환경에 배치된 식별지들을 인식하는 단계;
    상기 인식된 식별지들을 이용하여 상기 이동로봇의 이동경로 및 하나 이상의 목표점을 결정하는 단계; 및
    상기 이동경로 및 상기 하나 이상의 목표점을 이용하여 지도를 작성하는 단계를 포함하는 것을 특징으로 하는 이동로봇의 주행 제어 방법.
  2. 제1항에 있어서, 상기 이동로봇의 이동경로 및 목표점 결정단계에서, 상기 이동로봇의 이동경로 및 상기 하나 이상의 목표점은 상기 인식된 식별지의 색상 및 모양 중 적어도 하나에 따라 결정되는 것을 특징으로 하는 이동로봇의 주행 제어 방법.
  3. 제1항에 있어서, 상기 이동경로는 상기 인식된 식별지의 색상 및 모양 중 적어도 하나에 따라 전역 이동경로 및 지역 이동경로로 구분되고, 상기 목표점은 상기 인식된 식별지의 색상 및 모양 중 적어도 하나에 따라 전역 목표점 및 지역 목표점으로 구분되는 것을 특징으로 하는 이동로봇의 주행 제어 방법.
  4. 제1항에 있어서,
    상기 목표점 확인을 위해 각 조도별로 촬영된 목표점 확인영상을 수집하여 상기 각 목표점과 매칭시켜 저장하는 단계;
    상기 목표점에 대한 이동명령이 수신되면, 상기 작성된 지도를 참조하여 상기 목표점으로 이동하는 단계;
    상기 목표점에서의 조도를 감지한 후 상기 목표점에서 영상을 촬영하는 단계; 및
    상기 목표점에서의 촬영영상과 상기 목표점에 매칭되어 있는 상기 감지된 조도에서의 목표점 확인영상을 비교하여 상기 이동로봇의 위치를 판단하는 단계를 더 포함하는 것을 특징으로 하는 이동로봇의 주행 제어 방법.
  5. 제4항에 있어서, 상기 이동로봇의 위치 판단 단계는,
    상기 목표점에서의 촬영영상 및 상기 목표점 확인영상을 전처리 하는 단계를 더 포함함으로써,
    상기 전처리된 목표점에서의 촬영영상과 상기 전처리된 목표점 확인영상의 차이가 기준치 이하인 경우 상기 목표점에서의 촬영영상과 상기 목표점 확인영상을 비교하는 것을 특징으로 하는 이동로봇의 주행 제어 방법.
  6. 제5항에 있어서, 상기 전처리는 MCT(Modified Census Transform)를 이용하여 수행되는 것을 특징으로 하는 이동로봇의 주행 제어 방법.
  7. 제4항에 있어서, 상기 이동로봇의 위치 확인 단계는,
    상기 목표점에서의 촬영영상 및 상기 목표점 확인영상으로부터 특징점을 추출하고, 추출된 상기 목표점에서의 촬영영상의 특징점과 상기 목표점 확인영상의 특징점을 매칭함으로써 상기 목표점 확인영상과 목표점 촬영영상을 비교하는 것을 특징으로 하는 이동로봇의 주행 제어 방법.
  8. 제7항에 있어서, 상기 각 영상의 특징점은 SIFT(Scale Invariant Feature Transform)을 이용하여 추출되는 것을 특징으로 하는 이동로봇의 주행 제어 방법.
  9. 제4항에 있어서, 상기 이동로봇의 위치 확인 단계에서 상기 목표점에서의 촬영 영상과 상기 목표점 확인영상에 차이가 있는 경우, 상기 목표점에서의 촬영영상이 상기 목표점 확인영상과 동일해지도록 상기 이동로봇의 위치를 보정하는 단계를 더 포함하는 것을 특징으로 하는 이동로봇의 주행 제어 방법.
  10. 제1항에 있어서,
    장애물 확인을 위해 각 조도별로 촬영된 장애물 확인영상을 수집하여 저장하는 단계;
    상기 작성된 지도를 따라 이동 중에 장애물이 감지되면, 상기 장애물 감지 위치에서의 조도를 감지한 후 상기 장애물 감지 위치에서 영상을 촬영하는 단계; 및
    상기 장애물 감지 위치에서의 촬영상과 상기 감지된 조도에 매칭되어 있는 상기 장애물 확인영상을 비교하여 상기 장애물을 판별하는 단계를 더 포함하는 것을 특징으로 하는 이동로봇의 주행 제어 방법.
  11. 제10항에 있어서, 상기 장애물 판별 단계는,
    상기 장애물 감지 위치에서의 촬영영상 및 상기 장애물 확인영상을 전처리 하는 단계를 더 포함함으로써,
    상기 전처리된 장애물 감지 위치에서의 촬영영상 및 상기 전처리된 장애물 확인영상의 차이가 기준치 이하인 경우 상기 장애물 감지 위치에서의 촬영영상과 상기 장애물 확인영상의 비교를 수행하는 것을 특징으로 하는 이동로봇의 주행 제어 방법.
  12. 제11항에 있어서, 상기 전처리는 MCT(Modified Census Transform)를 이용하여 수행되는 것을 특징으로 하는 이동로봇의 주행 제어 방법.
  13. 제10항에 있어서, 상기 장애물 판별 단계는,
    상기 장애물 감지위치에서의 촬영영상 및 상기 장애물 확인영상으로부터 특징점을 추출하고, 추출된 상기 장애물 감지위치에서의 촬영영상의 특징점과 상기 장애물 확인영상의 특징점을 매칭함으로써 상기 장애물 감지위치에서의 촬영영상과 상기 장애물 확인영상을 비교하는 것을 특징으로 하는 이동로봇의 주행 제어 방법.
  14. 제13항에 있어서, 상기 각 영상의 특징점은 SIFT(Scale Invariant Feature Transform)을 이용하여 추출되는 것을 특징으로 하는 이동로봇의 주행 제어 방법.
  15. 제10항에 있어서,
    상기 장애물이 판별되면 판별된 장애물에 따라 장애물 회피 경로를 설정하는 단계; 및
    상기 설정된 회피 경로에 따라 이동하여 상기 장애물을 회피하는 단계를 더 포함하는 것을 특징으로 하는 이동로봇의 주행 제어 방법.
  16. 제10항에 있어서, 상기 장애물의 감지는 상기 이동로봇의 이동 중 상기 이동로봇에 장착된 각 센서에 의해 수신되는 신호 도달 거리 또는 상기 이동로봇에 장착된 범퍼로부터 수신되는 신호를 분석하여 수행되는 것을 특징으로 하는 이동로봇의 주행 제어 방법.
  17. 영상센서를 통해 촬영된 확인영상을 각 조도별로 수집하는 단계;
    이동로봇의 이동 중 특정 위치에서 상기 영상센서를 통해 하나 이상의 촬영영상이 수신되면, 상기 특정위치에서 감지된 조도와 매칭되어 있는 상기 확인영상을 추출하는 단계;
    상기 특정위치에서 수신된 상기 하나 이상의 촬영영상 및 상기 추출된 확인 영상을 전처리 하는 단계;
    상기 하나 이상의 촬영영상 중 상기 전처리된 촬영영상과 상기 전처리된 확인영상의 차이가 기준치 이하인 촬영영상을 결정하는 단계; 및
    상기 결정된 촬영영상과 상기 추출된 확인영상의 동일여부를 판단하는 단계를 포함하는 것을 특징으로 하는 이동로봇의 주행 제어 방법.
  18. 제17항에 있어서, 상기 확인영상은 상기 이동로봇의 목표점 확인을 위한 목표점 확인영상 및 상기 이동로봇이 위치한 환경에 존재하는 장애물 확인을 위한 장애물 확인영상 중 적어도 하나를 포함하는 것을 특징으로 하는 이동로봇의 주행 제어 방법.
  19. 제17항에 있어서, 상기 동일 여부 판단 단계는, 상기 결정된 촬영영상 및 상기 추출된 확인영상으로부터 특징점을 추출하고, 상기 결정된 촬영영상으로부터 추출된 특징점과 상기 추출된 확인영상으로부터 추출된 특징점을 매칭함으로써 상기 결정된 촬영영상과 상기 추출된 확인영상의 동일 여부를 판단하는 것을 특징으로 하는 이동로봇의 주행 제어 방법.
  20. 제19항에 있어서, 상기 전처리는 MCT(Modified Census Transform)를 이용하여 수행되고, 상기 특징점 추출은 SIFT(Scale Invariant Feature Transform)을 이용하여 수행되는 것을 특징으로 하는 이동로봇의 주행 제어 방법.
  21. 제1항 내지 제20항 중 어느 하나의 항에 기재된 이동로봇의 주행 제어방법을 수행하기 위한 프로그램이 기록된 기록매체.
  22. 이동로봇이 위치한 환경에 배치된 식별지들을 인식하거나, 이동로봇의 이동 중 영상을 촬영하는 영상 센서;
    상기 영상 센서에 의해 인식된 식별지들을 이용하여 상기 이동로봇의 이동경로 및 하나 이상의 목표점을 결정하거나, 이동로봇의 위치를 판단하는 위치 결정부
    상기 위치 결정부에 의해 결정된 상기 이동경로 및 상기 하나 이상의 목표점을 이용하여 지도를 작성하는 지도 작성부;
    상기 지도 작성부에 의해 작성된 지도가 저장되는 메모리;
    상기 이동로봇을 이동시키는 구동부; 및
    상기 위치 결정부에 의해 결정된 이동경로 또는 상기 지도 작성부에 의해 작성된 지도에 따라 상기 이동로봇이 이동하도록 상기 구동부를 제어하는 주행 제어부를 포함하는 것을 특징으로 하는 이동로봇.
  23. 제22항에 있어서,
    상기 위치 결정부는 상기 영상센서에 의해 인식된 식별지의 색상 및 모양 중 적어도 하나에 따라 상기 이동로봇의 이동경로 및 상기 하나 이상의 목표점을 결정하고, 상기 인식된 식별지의 색상 및 모양 중 적어도 하나에 따라 상기 이동경로를 전역 이동경로 및 지역 이동경로로 구분하며, 상기 인식된 식별지의 색상 및 모양 중 적어도 하나에 따라 상기 목표점을 전역 목표점 및 지역 목표점으로 구분하는 것을 특징으로 하는 이동로봇.
  24. 제22항에 있어서,
    상기 메모리에는 상기 목표점 확인을 위한 목표점 확인영상과 장애물 확인을 위한 장애물 확인 영상이 각 조 도별로 저장되어 있고, 상기 목표점 확인 영상은 상기 목표점과 매칭되어 저장되어 있는 것을 특징으로 하는 이동로봇.
  25. 제24항에 있어서,
    상기 이동로봇이 위치한 환경의 조도를 감지하는 조도감지 센서; 및
    상기 목표점으로의 이동명령에 따라 상기 이동로봇이 상기 목표점으로 이동하면 상기 목표점에 매칭되어 있는 상기 감지된 조도에서의 목표점 확인영상과 상기 영상센서를 통해 획득된 상기 목표점에서의 촬영영상을 비교하는 영상처리부를 더 포함하고,
    상기 위치 결정부는 상기 영상처리부에 의한 비교결과 상기 목표점에서의 촬영 영상과 상기 목표점 확인영상에 차이가 있는 경우 상기 이동로봇의 위치를 보정하기 위한 보정 경로를 생성하여 상기 주행 제어부로 전송하는 것을 특징으로 하는 이동로봇.
  26. 제24항에 있어서,
    상기 영상처리부는 목표점에서의 촬영영상 및 상기 목표점 확인영상을 전처리 함으로써 전처리된 목표점에서의 촬영영상 및 목표점 확인영상을 비교하는 것을 특징으로 하는 이동로봇.
  27. 제26항에 있어서, 상기 영상처리부는 MCT(Modified Census Transform)를 이용하여 전처리를 수행하는 것을 특징으로 하는 이동로봇.
  28. 제25항에 있어서,
    상기 영상처리부는 상기 목표점에서의 촬영영상 및 상기 목표점 확인영상으로부터 특징점을 추출하고, 추출된 상기 목표점에서의 촬영영상의 특징점과 상기 목표점 확인영상의 특징점을 비교하는 것을 특징으로 하는 이동로봇.
  29. 제28항에 있어서,
    상기 영상 처리부는 SIFT(Scale Invariant Feature Transform)을 이용하여 상기 목표점에서의 촬영영상과 상기 목표점 확인영상으로부터 특징점을 추출하는 것을 특징으로 하는 이동로봇.
  30. 제24항에 있어서,
    상기 이동로봇이 위치한 환경의 조도를 감지하는 조도감지 센서;
    상기 이동로봇의 이동 중 장애물의 존재여부를 감지하는 장애물 감지부;
    상기 장애물 감지부에 의해 장애물이 감지되면, 상기 장애물이 감지된 위치에서의 조도에 매칭되어 있는 상기 장애물 확인영상들과 상기 영상센서를 통해 획득된 상기 장애물 감지 위치에서의 촬영영상을 비교하여 상기 장애물 확인영상 중 상기 장애물 촬영영상과 동일한 영상을 추출하는 영상 처리부; 및
    상기 영상처리부에 의해 추출된 장애물 확인영상을 이용하여 상기 장애물 감지부에 의해 감지된 장애물을 판별하고, 판별된 장애물을 회피하기 위한 장애물 회피 경로를 생성하여 상기 주행 제어부로 전송하는 장애물 판별부를 더 포함하는 것을 특징으로 하는 이동로봇.
KR1020070128341A 2007-12-11 2007-12-11 이동로봇의 주행 제어 방법 및 이를 이용한 이동 로봇 KR100933539B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020070128341A KR100933539B1 (ko) 2007-12-11 2007-12-11 이동로봇의 주행 제어 방법 및 이를 이용한 이동 로봇

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020070128341A KR100933539B1 (ko) 2007-12-11 2007-12-11 이동로봇의 주행 제어 방법 및 이를 이용한 이동 로봇

Publications (2)

Publication Number Publication Date
KR20090061355A true KR20090061355A (ko) 2009-06-16
KR100933539B1 KR100933539B1 (ko) 2009-12-23

Family

ID=40990841

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070128341A KR100933539B1 (ko) 2007-12-11 2007-12-11 이동로봇의 주행 제어 방법 및 이를 이용한 이동 로봇

Country Status (1)

Country Link
KR (1) KR100933539B1 (ko)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160028239A (ko) 2014-09-03 2016-03-11 재단법인한국조선해양기자재연구원 조명 제어 시스템 및 제어 방법
WO2018124473A1 (ko) * 2016-12-29 2018-07-05 서울대학교 산학협력단 이동 로봇 장치 및 그것의 동작 제어 방법
KR20190075622A (ko) * 2017-12-21 2019-07-01 엘지전자 주식회사 인공지능을 이용한 이동 로봇 및 그 제어방법
CN112445224A (zh) * 2019-09-03 2021-03-05 原相科技股份有限公司 光学检测装置
US11435192B1 (en) * 2017-10-17 2022-09-06 AI Incorporated Method for constructing a map while performing work
US11499832B1 (en) * 2017-10-17 2022-11-15 AI Incorporated Method for constructing a map while performing work
US11520344B2 (en) * 2019-02-11 2022-12-06 634 Ai Ltd. Systems and methods for managing multiple autonomous vehicles
US11835343B1 (en) * 2004-08-06 2023-12-05 AI Incorporated Method for constructing a map while performing work

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101228332B1 (ko) * 2011-03-31 2013-01-31 삼성테크윈 주식회사 감시 시스템
KR101849354B1 (ko) * 2013-03-19 2018-05-24 한화지상방산 주식회사 이동 로봇의 경로계획 생성 장치 및 방법
US20210362337A1 (en) * 2019-06-10 2021-11-25 Lg Electronics Inc. Intelligent robot device

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003330538A (ja) * 2002-05-13 2003-11-21 Sanyo Electric Co Ltd 自律移動ロボットおよびその自律移動方法
KR100557682B1 (ko) * 2003-07-21 2006-03-07 주식회사 한울로보틱스 주행 바닥면 영상정보를 이용한 이동로봇의 주행제어방법
KR100669250B1 (ko) * 2005-10-31 2007-01-16 한국전자통신연구원 인공표식 기반의 실시간 위치산출 시스템 및 방법
KR100749923B1 (ko) * 2005-12-08 2007-08-21 한국전자통신연구원 카메라와 표식을 이용한 이동 로봇의 측위 시스템 및 방법

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11835343B1 (en) * 2004-08-06 2023-12-05 AI Incorporated Method for constructing a map while performing work
KR20160028239A (ko) 2014-09-03 2016-03-11 재단법인한국조선해양기자재연구원 조명 제어 시스템 및 제어 방법
WO2018124473A1 (ko) * 2016-12-29 2018-07-05 서울대학교 산학협력단 이동 로봇 장치 및 그것의 동작 제어 방법
US11435192B1 (en) * 2017-10-17 2022-09-06 AI Incorporated Method for constructing a map while performing work
US11499832B1 (en) * 2017-10-17 2022-11-15 AI Incorporated Method for constructing a map while performing work
KR20190075622A (ko) * 2017-12-21 2019-07-01 엘지전자 주식회사 인공지능을 이용한 이동 로봇 및 그 제어방법
US11119501B2 (en) 2017-12-21 2021-09-14 Lg Etectronics Inc. Moving robot and control method for the same
US11520344B2 (en) * 2019-02-11 2022-12-06 634 Ai Ltd. Systems and methods for managing multiple autonomous vehicles
CN112445224A (zh) * 2019-09-03 2021-03-05 原相科技股份有限公司 光学检测装置
CN112445224B (zh) * 2019-09-03 2024-04-26 原相科技股份有限公司 光学检测装置

Also Published As

Publication number Publication date
KR100933539B1 (ko) 2009-12-23

Similar Documents

Publication Publication Date Title
KR100933539B1 (ko) 이동로봇의 주행 제어 방법 및 이를 이용한 이동 로봇
US11789545B2 (en) Information processing device and method, program and recording medium for identifying a gesture of a person from captured image data
US8265425B2 (en) Rectangular table detection using hybrid RGB and depth camera sensors
EP2144131B1 (en) Apparatus and method of building map for mobile robot
EP3053141B1 (en) Industrial vehicles with overhead light based localization
KR101083394B1 (ko) 이동 로봇의 위치 인식을 위한 지도 생성 및 갱신 방법
KR20180125010A (ko) 이동 로봇 및 이동 로봇의 제어방법
KR101538775B1 (ko) 전방 영상을 이용한 위치 인식 장치 및 방법
JP5407898B2 (ja) 対象物検出装置及びプログラム
KR101686170B1 (ko) 주행 경로 계획 장치 및 방법
EP2887315B1 (en) Camera calibration device, method for implementing calibration, program and camera for movable body
JP4042517B2 (ja) 移動体およびその位置検出装置
CN114252071A (zh) 自走车导航装置及其方法
CN115147587A (zh) 一种障碍物检测方法、装置及电子设备
KR101456172B1 (ko) 이동로봇의 위치인식 장치, 방법 및 이동로봇
JP4123138B2 (ja) 車両検知方法及び車両検知装置
KR20180090565A (ko) 이동 로봇 및 그 제어방법
US20200301439A1 (en) Information processing apparatus and reading system
KR20190103524A (ko) 자율 주행 장치 및 방법
KR101305405B1 (ko) 측면의 랜드마크를 인식하는 지능형 이동로봇의 위치인식 방법
CN115446846A (zh) 一种基于条码识别的图书盘点机器人
US20230009925A1 (en) Object detection method and object detection device
US20210256720A1 (en) Vanishing point extraction devices and methods of extracting vanishing point
WO2020175085A1 (ja) 画像処理装置、及び画像処理方法
CN115700507B (zh) 地图更新方法及其装置

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20121212

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20131216

Year of fee payment: 5

LAPS Lapse due to unpaid annual fee