KR20100070582A - 거리센서로부터 얻은 주변환경의 거리정보를 바탕으로 한 이동로봇탐사시스템 및 이를 이용한 탐사방법 - Google Patents

거리센서로부터 얻은 주변환경의 거리정보를 바탕으로 한 이동로봇탐사시스템 및 이를 이용한 탐사방법 Download PDF

Info

Publication number
KR20100070582A
KR20100070582A KR1020080129195A KR20080129195A KR20100070582A KR 20100070582 A KR20100070582 A KR 20100070582A KR 1020080129195 A KR1020080129195 A KR 1020080129195A KR 20080129195 A KR20080129195 A KR 20080129195A KR 20100070582 A KR20100070582 A KR 20100070582A
Authority
KR
South Korea
Prior art keywords
mobile robot
surrounding environment
distance sensor
distance
information
Prior art date
Application number
KR1020080129195A
Other languages
English (en)
Other versions
KR101037379B1 (ko
Inventor
박성기
김문상
정호원
박순용
Original Assignee
한국과학기술연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술연구원 filed Critical 한국과학기술연구원
Priority to KR1020080129195A priority Critical patent/KR101037379B1/ko
Publication of KR20100070582A publication Critical patent/KR20100070582A/ko
Application granted granted Critical
Publication of KR101037379B1 publication Critical patent/KR101037379B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0217Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with energy consumption, time reduction or distance reduction criteria

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Manipulator (AREA)

Abstract

본 발명은 거리센서로부터 얻은 주변환경의 거리정보를 바탕으로 한 이동로봇탐사시스템을 이용한 탐사방법에 관한 것으로, 이동 이동로봇탐사시스템이 거리 센서를 통해 지형 정보를 획득하여, 스스로 위상 지도를 생성하면서 이동하는 탐사 방법에 관한 것이다.
본 발명에 따른 거리센서로부터 얻은 주변환경의 거리정보를 바탕으로 한 이동로봇탐사시스템을 이용한 탐사방법은 거리센서부로부터 주위 환경의 거리 정보를 입력을 받는 거리 정보 입력 단계와, 지도생성부가 거리 정보 입력 단계에서 입력된 정보에서 노드 정보를 획득하는 노드 추출 단계와, 지도 생성부의 노드 추출단계에서 입력된 노드 정보 중에서 일차연결노드(first child node)를 찾아내는 일차연결노드(first child node) 추출 단계와 일차연결노드(first child node) 중에서 컨케이브노드(concave node)를 찾아내는 컨케이브노드(concave node) 추출 단계와, 일차연결노드(first child node)에서 위상지도로 사용할 노드들을 선정하고 위상지도를 생성하는 전역적 위상지도 생성 단계와 위상지도에서 이동로봇탐사시스템이 이동할 노드(node)를 선택하는 타겟포인트(target point) 선정 단계를 포함한다.
이동로봇탐사시스템, 위상지도, 컨케이브노드(concave node), 탐 사(exploration), 거리센서

Description

거리센서로부터 얻은 주변환경의 거리정보를 바탕으로 한 이동로봇탐사시스템 및 이를 이용한 탐사방법{ The moving robot exploration system founded the distance information of a surrounding circumstance required from distance sensor and the exploration method using the moving robot exploration system }
본 발명은 거리센서로부터 얻은 주변환경의 거리정보를 바탕으로 한 이동로봇탐사시스템을 이용한 탐사방법에 관한 것으로, 이동로봇탐사시스템이 주위 환경의 거리 정보를 획득하고, 노드정보를 추출하여 주위 환경을 탐사하는 방법에 관한 것이다.
산업용 로봇을 시작으로 최근에는 임의의 환경에서도 동작할 수 있는 지능형 로봇의 형태로 그 영역을 넓혀가고 있다. 지능형 로봇은 서비스, 군사, 경비, 위험지역 탐사와 같은 다양한 분야에 응용이 가능하며, 이러한 지능형 로봇에 있어서 로봇의 자율 주행기술의 확보는 필수적이라고 할 수 있다. 그 중에서 로봇이 주위 환경에 대한 정보를 확보하지 못한 공간에 위치했을 때, 스스로 정보를 획득하고 지도를 생성하면서 이동하는 탐사(exploration) 기술은 핵심요소가 된다.
이러한 로봇의 탐사기술은 기본적으로 지도 생성과 함께 이루어지며, 어떤 지도를 사용하느냐와 어떤 종류의 센서를 사용하느냐에 따라 다양한 방법이 존재한다. 최근의 연구에서는 지도를 간단하게 기술할 수 있는 위상적 (topological) 지도를 주로 사용하며, 센서로는 레이저 및 초음파 센서와 같은 거리 정보를 획득하는 센서를 주로 사용한다.
이러한 센서들을 기반으로 로봇 스스로 지도를 생성하고 탐사를 수행하고자 한 종래의 기술은 다음과 같다.
국내의 특허로는 거리 센서를 사용하여 획득한 주위 환경 정보에 대하여 세선화 알고리즘을 적용하여 위상지도를 만들고자 한 특허(출원번호 10-2005-0057716)와 로봇이 벽을 따라 이동하면서 위상지도를 생성하면서 자율주행을 수행하는 방법에 대한 특허(출원번호 10-2006-0003787)와 거리 센서 및 장애물 인식센서를 이용하여 로봇이 이동한 경로를 바탕으로 위상지도를 생성하는 방법에 대한 특허(공개번호 10-2004-0087171)가 있다. 첫 번째 특허는 로봇이 위상지도 격자지도를 동시에 만들기 때문에 효율성이 떨어지는 단점이 있고, 두 번째 특허의 경우, 벽을 따라 이동하기 때문에 거리 정보를 획득하고 위상지도를 생성하는데 있어서 공간의 정보를 획득하는데 효율성이 떨어진다고 볼 수 있다. 또한 세 번째 특허의 경우, 탐사에 있어 전략이 없이 단순히 장애물을 회피하면서 이동하기 때문에 전체 환경을 탐사하는데 있어서 효율성이 떨어진다는 단점이 있다.
그리고 공개된 논문들 중에서 본 특허와 유사한 기술은 다음과 같은 것이 있다. B. Yamauchi 가 거리 센서를 바탕으로 격자 지도를 생성하면서 탐사를 수행하는 방법을 제시하였다. (B. Yamauchi, "A Frontier-Based Approach for Autonomous Exploration," IEEE CIRA, 1997.) 이러한 방법은 격자지도를 사용하기 때문에 지도 정보의 크기가 크다는 단점뿐만 아니라 하나의 좌표계를 기준으로 지도를 생성하기 때문에 탐사를 수행하면서 에러가 지속적으로 누적된다는 문제점이 있었다. H. Choset 등은 거리센서로부터 획득한 데이터에 대하여 GVG(generalized voronoi graph)를 이용하여 노드 정보를 획득하여 탐사를 수행하는 방법을 제안하였다 (H. Choset and K. Nagatani, "Topological simultaneous localization and mapping(SLAM): towards exact localization without explicit localization," IEEE Transactions on Robotics and Automation, vol. 17, no. 2, pp. 125-137, 2001.). 이 방법에서는 탐사를 수행하면서 단순히 가까운 노드 순서로 이동하기 때문에 탐사 방법이 효율적이지 못하다는 단점이 있었다.
본 발명은 상기한 바와 같은 종래 기술의 불편함을 해결하기 위하여 안출된 것으로서, 로봇이 자신이 위치한 공간에 대한 사전 정보 없이 거리센서만을 이용하여 환경 정보를 획득하여 지도를 생성하고 효율적으로 탐사를 수행하는 방법을 제공하는 것이다.
또한 본 발명의 다른 목적은 지도의 크기가 작은 위상 지도를 생성함과 동시에 지역적 좌표계를 사용하여, 로봇이 탐사를 수행하면서 발생하는 에러를 줄이고, 삼면이 막힌 노드를 미리 방문하여 탐사를 수행하여, 모든 공간을 방문하기까지 걸리는 시간 또는 거리의 효율성을 높인 탐사 방법을 제공하는 것이다.
상기한 목적을 달성하기 위한 기술적 사상으로서, 본 발명에서는 제 1 관점으로서 거리센서로부터 얻은 주변환경의 거리정보를 바탕으로 한 이동로봇탐사시스템에 있어서, 외부의 주변환경의 영상을 입력받는 카메라부(100)와; 외부동작 및 물체모델을 저장하며 거리정보를 입력하고 전역적 위상 지도를 생성하는 로봇본체부(200)와; 상기 이동로봇탐사시스템을 이동시키는 로봇이동부(300)를 포함한 것을 특징으로 하는 거리센서로부터 얻은 주변환경의 거리정보를 바탕으로 한 이동로봇탐사시스템이 제시된다.
상기 제1 관점에 있어서,
상기 로봇본체부(200)는,
외부 동작을 하기 위한 기계 팔인 머니퓨레이터(210)와; 외부에 장착되어서 주위 환경의 거리 정보를 입력을 하는 거리센서부(220)와; 내부에 위치하고 물체 인식을 위한 물체모델을 저장한 데이터베이스(230)와; 상기 거리센서부(220)에서 입력되는 거리 정보를 사용하여 전역적 위상 지도를 생성하는 지도생성부(240)를 포함하는 것을 특징으로 하고,
상기 제1 관점에 있어서,
상기 로봇이동부(300)는, 바퀴 또는 캐터필라인 것을 특징으로 하고,
상기 거리센서부(220)는 전방향의 거리 정보를 획득하는 것을 특징으로 하고,
상기 제1 관점에 있어서,
상기 전역적 위상 지도는 지역적 좌표계를 사용하는 것을 특징으로 하고,
상기 제1 관점에 있어서,
상기 이동로봇탐사시스템은,
주위환경에 대한 사전정보를 갖지 않은 상태에서 거리센서로부터 주변환경정보를 얻어 주변지역을 탐사하는 것을 특징으로 한다.
제2 관점으로서, 거리센서로부터 얻은 주변환경의 거리정보를 바탕으로 한 이동로봇탐사시스템을 이용한 탐사방법에 있어서, 거리센서부(220)로부터 거리 정보를 입력받는 1단계(S110)와; 상기 입력된 거리정보에서 이동로봇탐사시스템의 이동이 가능한 노드 정보를 추출하는 2단계(S120)와; 상기 입력 받은 이동로봇탐사시스템의 이동이 가능한 노드 정보중에서 일차연결노드(first child node)를 추출하 는 3단계(S130)와; 상기 추출한 일차연결노드(first child node)중에서 컨케이브노드(concave node)를 찾아내는 4단계(S140)와; 상기 이동로봇탐사시스템의 이동이 가능한 상기 일차연결노드(first child node)들을 전역적 위상지도로 만드는 5단계(S150)와; 상기 전역적 위상지도로부터 이동로봇탐사시스템이 다음으로 이동할 위치인 타겟포인트(target point)를 결정하는 6단계(S160)를 포함하는 것을 특징으로 하는 거리센서로부터 얻은 주변환경의 거리정보를 바탕으로 한 이동로봇탐사시스템을 이용한 탐사방법이 제시된다.
상기 제2 관점에 있어서,
상기 거리센서부(220)는 전방향의 거리 정보를 획득하는 것을 특징으로 하고,
상기 제2 관점에 있어서,
상기 전역적 위상 지도는 지역적 좌표계를 사용하는 것을 특징으로 하고,
상기 제2 관점에 있어서,
상기 이동로봇탐사시스템은, 주위환경에 대한 사전정보를 갖지 않은 상태에서 거리센서로부터 주변환경정보를 얻어 주변지역을 탐사하는 것을 특징으로 하고,
상기 제2 관점에 있어서,
상기 2단계는, 상기 거리센서부로부터 얻은 주위환경정보를 이미지형태로 저장하고, 이에 대하여 골격화 알고리즘을 적용하고, 생성된 골격영상에 대하여 수학식 1인 마스크를 적용하여 이동가능한 노드를 찾아내는 것을 특징으로 하고,
상기 제2 관점에 있어서,
상기 3단계는, 상기 골격영상에서 상기 이동로봇탐사시스템의 현재 위치로부터 뻗어나간 각각의 호(arc)에 대하여 그 호의 방향성에 따라 적합한 수학식 2인 마스크를 적용하여 일차연결노드(first child node)를 찾아내는 것을 특징으로 하고,
상기 제2 관점에 있어서,
상기 4단계는, 상기 컨케이브노드가 두개의 엔드노드(end node)와 하나의 브랜치노드(branch node)가 연결된다는 특성을 고려하여 일차연결노드를 검색할때 사용한 호의 방향성에 따른 수학식 2인 마스크를 적용하여 컨케이브 노드의 위치를 찾아내는 것을 특징으로 하고,
상기 제2 관점에 있어서,
상기 골격화 알고리즘은, 모폴로지컬 영상 처리 알고리즘, 브러쉬파이어 알고리즘인 것을 특징으로 한다.
본 발명에 따른 거리센서로부터 얻은 주변환경의 거리정보를 바탕으로 한 이동로봇탐사시스템을 이용한 탐사방법은 주위 환경의 거리 정보를 획득하여 노드 정보를 추출하고 위상 지도를 생성함으로써 주위 환경을 스스로 탐사할 수 있다. 또한 컨케이브노드(concave node)라는 개념을 사용하여, 주위 환경을 탐사하는데 있어서 시간, 거리 측면에서의 효율성을 증가시킬 수 있는 효과가 있다.
이하에서는 첨부한 도면을 참조하면서 본 발명의 실시예에 대한 구성 및 작 용을 상세하게 설명하기로 한다.
상기 목적을 달성하기 위하여 본 발명에 따른 거리센서로부터 얻은 주변환경의 거리정보를 바탕으로 한 이동로봇탐사시스템을 이용한 탐사방법은 이동로봇탐사시스템이 주위 환경에 대한 사전 정보 없이 스스로 주위 환경을 이동하면서 지도를 생성하는 방법에 관한 것으로, 이동로봇탐사시스템이 거리 센서에 의해 지형 정보를 획득하여 전역적 위상 지도 정보를 생성하면서 이동하는 탐사 방법에 대한 발명이다.
본 발명에 따른 거리센서로부터 얻은 주변환경의 거리정보를 바탕으로 한 이동로봇탐사시스템을 이용한 탐사방법은 거리센서부(220)로부터 주위 환경의 거리 정보를 입력을 받는 거리 정보 입력 단계와, 지도생성부가 거리 정보 입력 단계에서 입력된 정보에서 노드 정보를 획득하는 노드 추출 단계와, 지도 생성부의 노드 추출단계에서 입력된 노드 정보 중에서 일차연결노드(first child node)를 찾아내는 일차연결노드(first child node) 추출 단계와 일차연결노드(first child node) 중에서 컨케이브노드(concave node)를 찾아내는 컨케이브노드(concave node) 추출 단계와, 일차연결노드(first child node)에서 위상지도로 사용할 노드들을 선정하고 위상지도를 생성하는 전역적 위상지도 생성 단계와 위상지도에서 이동로봇탐사시스템이 이동할 노드(node)를 선택하는 타겟포인트(target point) 선정 단계를 포함한다.
본 발명에 따른 거리센서로부터 얻은 주변환경의 거리정보를 바탕으로 한 이동로봇탐사시스템 및 이를 이용한 탐사방법을 보다 구체적으로 살펴본다.
도 1은 거리센서로부터 얻은 주변환경의 거리정보를 바탕으로 한 이동로봇탐사시스템의 구조도이다.
본 발명에 따른 거리센서로부터 얻은 주변환경의 거리정보를 바탕으로 한 이동로봇탐사시스템 도 1에 도시된 바와 같이 카메라부(100)와 로봇본체부(200)와 로봇이동부(300)를 포함하여 구성된다.
상기 카메라부(100)는 외부의 주변환경의 영상을 입력받는다. 상기 로봇본체부(200)는 외부동작 및 물체모델을 저장하며 거리정보를 입력하고 전역적 위상 지도를 생성한다. 상기 로봇이동부(300)는 상기 이동로봇탐사시스템을 이동시킨다.
상기 로봇본체부(200)는 외부 동작을 하기 위한 기계 팔인 머니퓨레이터(210)와 주위 환경의 거리 정보를 입력을 하는 거리센서부(220)가 외부에 장착되고, 내부에 물체 인식을 위한 물체모델을 저장한 데이터베이스(230,미도시)와 상기 거리센서부(220)에서 입력되는 거리 정보를 사용하여 상기 전역적 위상 지도를 생성하는 지도생성부(240,미도시)를 포함한다.
상기 거리센서부(220)는 상기 로봇본체부(200)의 전 후로 하나씩 장착되어 한 번에 전방향 거리를 획득할 수 있는 것이 이상적이다.
상기 로봇이동부(300)는 이동로봇탐사시스템을 이동 경로에 따라 이동시키는 구성으로 바퀴나 캐터필라를 비롯하여 이동로봇탐사시스템의 본체를 이동시킬 수 있는 모든 장치를 사용할 수 있다.
도 2는 거리센서로부터 얻은 주변환경의 거리정보를 바탕으로 한 이동로봇탐사시스템을 이용한 탐사방법의 흐름도이다.
본 발명에 따른 거리센서로부터 얻은 주변환경의 거리정보를 바탕으로 한 이동로봇탐사시스템을 이용한 탐사방법은 도 2에 도시된 바와 같이 상기 거리센서부(220)로부터 거리 정보를 입력받는 1단계(S110)와; 상기 입력된 거리정보에서 이동로봇탐사시스템의 이동이 가능한 노드 정보를 추출하는 2단계(S120)와; 상기 입력 받은 이동로봇탐사시스템의 이동이 가능한 노드 정보중에서 일차연결노드(first child node)를 추출하는 3단계(S130)와; 상기 추출한 일차연결노드(first child node)중에서 컨케이브노드(concave node)를 찾아내는 4단계(S140)와; 상기 이동로봇탐사시스템의 이동이 가능한 상기 일차연결노드(first child node)들을 전역적 위상지도로 만드는 5단계(S150)와; 상기 전역적 위상지도로부터 이동로봇탐사시스템이 다음으로 이동할 위치인 타겟포인트(target point) 결정하는 6단계(S160)를 포함한다. 따라서, 본 발명에서는 기본적으로 먼저 환경 거리 정보를 획득하고, 이를 바탕으로 노드 정보를 추출하여 전역적 위상 지도를 생성하고, 이동로봇탐사시스템의 이동을 수행한다.
상기 거리센서부(220)를 사용하여 전방향 거리 정보를 획득하고 획득한 거리 정보를 각도 순서대로 연결하여 폐영역을 생성하여 이진 영상으로 저장한다. 거리 정보의 100mm는 이진영상의 1픽셀(pixel)에 해당하도록 영상을 생성한다. 그리고 생성된 이진영상의 폐영역 내부를 모폴로지컬 영상 처리 알고리즘을 사용하여 채운다. 채워진 폐영역 영상에 대하여 브러쉬파이어 알고리즘(brushfire algorithm)을 적용하여 도 3과 같은 뼈대 영상을 추출한다.
상기 획득한 뼈대 영상에서 위상 지도의 노드로 사용할 정보를 뽑아내는 과 정이 필요하다. 도 3과 같이 얻어진 뼈대(skeleton) 정보에 대하여 수학식 1의 마스크를 적용하여 노드 정보를 찾아낸다.
Figure 112008087009321-PAT00001
수학식 1의 마스크를 뼈대 영상에 적용하면 도 4와 같이 노드(node) 정보를 분류할 수 있다. 도 4의 (a)와 같은 결과는 엔드노드(end node)를 의미하고 (b)와 같은 결과는 브랜치노드(branch node)를 의미하며, (c)와 같은 결과는 호(arc)를 의미한다. 상기 결과에서 (b)와 같은 결과를 보이는 브랜치노드(branch node)를 위상지도의 노드로 사용한다. 상기 수학식 1의 마스크를 사용한 결과는 도 5와 같이 덩어리진 형태로 발견된다. 각각의 덩어리진 브랜치노드(branch node)로부터 그 중심점을 찾아내는 과정이 필요하다. 먼저 영상 처리 알고리즘 중에서 라벨링 알고리즘(Labeling algorithm)을 이용하여 각각의 덩어리들을 구분한다. 라벨링 알고리즘(Labeling algorithm)은 흔히 사용되는 이미지 프로세싱 알고리즘(image processing algorithm)의 하나로, 인접한 픽셀들을 찾아내어 하나로 엮어주는 역할을 한다. 그리고 각각의 덩어리에서 무게중심을 구하는 알고리즘을 사용하여 도 6과 같이 각각의 덩어리에서 하나의 브랜치노드(branch node)를 찾아낸다. 이로써, 뼈대(skeleton) 정보로부터, 브랜치노드(branch node)에 관한 정보를 추출하였다. 그리고 그중에서 이동로봇탐사시스템이 이동 불가능한 공간에서 발생한 노드(node) 를 필터링(filtering)하는 과정을 거쳐야 한다. 이것은 도 7과 같이 이동로봇탐사시스템크기의 마스크를 각각의 노드에 적용하여 레이저 데이터(laser data)로부터 생성한 폐영역 영상과 겹치는 부분이 있는지 검사하여 찾아낼 수 있다.
이동로봇탐사시스템의 탐사(exploration)는 상기 노드 추출 단계에서 획득한 노드를 기반으로 진행한다. 먼저 이동로봇탐사시스템이 주위환경에 대한 아무런 정보없이 탐사를 시작하면 초기화(initialization)과정을 수행한다. 초기화 과정을 시작하면 이동로봇탐사시스템은 노드 추출 단계를 수행하고 노드 추출 단계에서 획득한 브랜치노드(branch node) 중에서 가장 가까운 브랜치노드(branch node)로 이동한다. 그리고 이동한 위치를 전역적 위상지도의 원점(initial point)인 (0,0,0)으로 선정한다.
원점을 설정한 후, 이동로봇탐사시스템은 상기 거리센서부(220)를 통하여 주위 환경의 전방향 거리 정보를 획득한다. 획득한 전방향 거리 정보로부터 상기 노드추출 단계를 수행한다. 노드추출 단계에서 획득한 브랜치노드(branch node)정보 중에서 다음으로 이동할 노드를 선정하는 작업을 수행한다. 본 발명에서는 상기 뼈대 영상에서 획득한 브랜치노드(branch node)중에서 이동로봇탐사시스템의 현재 위치에 일차적으로 연결된 일차연결노드(first child node)만을 이동로봇탐사시스템이 이동할 노드로 사용한다. 이 때, 현재 이동로봇탐사시스템의 위치에 브랜치노드(branch node)가 발생하지 않을 가능성이 높다. 그러므로 일차연결노드(first child node)의 검색을 수행하기 위한 기준점을 선정할 필요가 있다. 기준점은 현재 이동로봇탐사시스템의 위치에서 반경 1m 내에 존재하는 모든 브랜치 포인트(branch point)를 사용한다. 그리고 반경 1m 내에 브랜치노드(branch node)가 존재하지 않을 경우, 가장 가까운 뼈대 영상의 픽셀 포인트(pixel point)를 기준점으로 사용한다. 기준점을 선정한 후, 일차연결노드(first child node)를 검색한다. 상기 수학식 1의 마스크를 기준점에 적용하면 기준점으로부터 호(arc)가 어느 방향으로 뻗어나가는지를 알 수 있다. 호(arc)의 방향을 획득하면 그 방향을 따라 브랜치노드(branch node)의 검색을 수행한다. 이 때, 이미 검색을 수행한 픽셀(pixel)로 돌아오는 것을 방지하기 위하여, 수학식 2와 같이 호(arc)의 방향에 따라 다른 형태의 마스크를 사용하는 방법을 제안한다.
Figure 112008087009321-PAT00002
수학식 2에서 제안한 마스크는 도 8과 같은 형태로 사용한다. 마스크를 적용하여 상기 노드 추출 단계와 같이 마스크를 적용한 픽셀(pixel)의 노드(node) 종류를 판단한다. 마스크를 적용한 결과 값이 2 이상이면 브랜치노드(branch node)로 판단하고 1이면 호(arc), 0이면 엔드노드(end node)로 판단한다. 또한 현재 픽셀이 호(arc)인 경우에 마스크를 씌운 결과로부터 방향성을 획득하여, 수학식 2의 마스크들 중에서 해당 방향의 마스크를 선택하여 일차연결노드(first child node)의 검색을 지속적으로 수행한다.
일차연결노드(first child node)의 검색이 끝나면, 컨케이브 노드(concave node)를 검색하는 과정을 수행한다. 컨케이브 노드는 도 9와 같이 삼면이 막힌 노드를 의미하며 도 10과 같이 일차 연결 노드가 두 개의 엔드노드(end node)와 하나의 브랜치노드(branch node)로 이루어지는 특성을 가진다. 컨케이브 노드를 찾는 방법은 일차연결노드(first child node)를 찾는 방법과 유사하다. 각각의 일차연결노드(first child node)에 대하여 수학식 2에서 제안한 마스크를 사용하여 일차적으로 연결된 노드(node)를 검색하여 하나의 브랜치노드(branch node)와 두 개의 엔드노드(end node)가 발견되면 컨케이브노드(concave node)로 선정한다.
현재 이동로봇탐사시스템의 위치에서 획득한 일차연결노드(first child node)와 이동로봇탐사시스템의 데이터베이스에 저장된 위상지도의 노드 중에서 같은 공간에 표상된 노드를 걸러내는 과정이 필요하다. 이 과정에서는 두 가지 기준을 사용한다. 첫째로 전역적 위상지도(topological map)의 모든 노드(node)들과 비교하여 일차연결노드(first child node)와 가장 가까운 노드(node)를 찾는다. 현재 위치가 아닌 다른 노드(node)와 사용자가 임의로 정한 값인 DThreshold이하의 거리만큼 떨어진 경우, 그 노드(node)와 중복된 위치를 나타낸다고 판단한다. 두 번째로 일 차연결노드(first child node)와 가장 가까운 노드(node)의 각도 정보와 그 노드(node)에 일차적으로 연결된 노드(node)들의 각도 차이를 비교하여 사용자가 임의로 정한 값인 θThreshold 이하인 경우에 불필요한 노드(node)로 판단한다. 그 사용예는 도 11과 같다. 불필요한 노드(node) 정보를 제외한 일차연결노드(first child node)를 전역적 위상지도(topological map)로 저장한다. 그리고 타겟포인트(target point)를 선정한다. 타겟포인트(target point)는 컨케이브노드(concave node) 여부와 노드(node)간의 거리를 기준으로 정한다. 일차연결노드(first child node)가 존재하지 않을 경우, 전역적 위상지도(topological map)에서 방문하지 않은 노드(node) 중 가장 가까운 노드(node)를 타겟포인트(target point)로 선정한다. 이 때, 노드(node)까지의 거리는 Dijkstra’s algorithm을 사용하여 계산한다. 그리고 전역적위상지도(topological map)상에서 더 이상 방문하지 않은 노드(node)가 존재하지 않을 경우, 탐사(exploration)를 종료한다.
이상으로 첨부된 도면을 참조하여 본 발명의 실시예를 설명하였으나, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명의 그 기술적 사상이나 필수적인 특징을 변경하지 않고 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 따라서 이상에서 기술한 실시예는 모든 면에서 예시적인 것이며 한정적이 아닌 것이다.
도 1은 본 발명에 따른 거리 정보를 바탕으로 탐사를 수행하고 위상 지도를 생성하는 이동로봇탐사시스템의 구조도이다.
도 2는 본 발명에 따른 거리 정보를 바탕으로 탐사를 수행하고 위상 지도를 생성하는 방법의 기본 순서도이다.
도 3은 본 발명에서 이동로봇탐사시스템이 획득한 전방향 거리 정보를 이진 영상으로 만든 후 골격화 과정을 거친 결과 그림이다.
도 4는 본 발명에 따른 마스크(mask)를 사용한 브랜치노드(branch node), 엔드노드(end node), 호(arc) 탐색의 개념도이다.
도 5는 본 발명에 따른 마스크(mask)를 사용하여 브랜치노드(branch node)탐색을 수행한 결과에 대한 개념도이다.
도 6은 본 발명에 따른 덩어리진 브랜치노드(branch node) 중에서 중심점을 찾아낸 결과에 대한 개념도이다.
도 7은 본 발명에 따른 이동로봇탐사시스템의 이동이 불가능한 브랜치노드(branch node)를 걸러내는 결과에 대한 개념도이다.
도 8은 본 발명에 따른 일차 연결 노드를 찾아내기 위한 마스크(mask)들의 사용에 대한 개념도이다.
도 9는 본 발명에 따른 컨케이브노드(concave node)가 발견되는 지역에 대한 개념도이다.
도 10은 본 발명에 따른 컨케이브노드(concave node)의 골격 정보에서의 특 성에 대한 개념도이다.
도 11은 본 발명에 따른 중복되는 노드(node)의 추출에 대한 개념도이다.
< 도면의 주요부호에 대한 설명 >
100 : 카메라부 200 : 로봇본체부
210 : 머니퓨레이터 220 : 거리센서부
230 : 데이터베이스 240 : 지도생성부
300 : 로봇이동부

Claims (15)

  1. 거리센서로부터 얻은 주변환경의 거리정보를 바탕으로 한 이동로봇탐사시스템에 있어서,
    외부의 주변환경의 영상을 입력받는 카메라부와;
    외부동작 및 물체모델을 저장하며 거리정보를 입력 하고 전역적 위상 지도를 생성하는 로봇본체부와;
    상기 이동로봇탐사시스템을 이동시키는 로봇이동부를 포함한 것을 특징으로 하는 거리센서로부터 얻은 주변환경의 거리정보를 바탕으로 한 이동로봇탐사시스템.
  2. 청구항 1에 있어서,
    상기 로봇본체부는,
    외부에 장착되어서 주위 환경의 거리 정보를 입력을 하는 거리센서부와;
    내부에 위치하고 물체 인식을 위한 물체모델을 저장한 데이터베이스와;
    상기 거리센서부에서 입력되는 거리 정보를 사용하여 전역적 위상 지도를 생성하는 지도생성부를 포함하는 것을 특징으로 하는 거리센서로부터 얻은 주변환경의 거리정보를 바탕으로 한 이동로봇탐사시스템.
  3. 청구항 2에 있어서,
    상기 로봇본체부는,
    외부 동작을 하기 위한 기계 팔인 머니퓨레이터를 더 포함하는 것을 특징으로 하는 거리센서로부터 얻은 주변환경의 거리정보를 바탕으로 한 이동로봇탐사시스템.
  4. 청구항 1 에서 3중 어느 한 항에 있어서,
    상기 로봇이동부는,
    바퀴 또는 캐터필라인 것을 특징으로 하는 거리센서로부터 얻은 주변환경의 거리정보를 바탕으로 한 이동로봇탐사시스템.
  5. 청구항 2 또는 3에 있어서,
    상기 거리센서부는 전방향의 거리 정보를 획득하는 것을 특징으로 하는 거리센서로부터 얻은 주변환경의 거리정보를 바탕으로 한 이동로봇탐사시스템.
  6. 청구항 1 에서 3중 어느 한 항에 있어서,
    상기 전역적 위상 지도는 지역적 좌표계를 사용하는 것을 특징으로 하는 거리센서로부터 얻은 주변환경의 거리정보를 바탕으로 한 이동로봇탐사시스템.
  7. 청구항 1 에서 3중 어느 한 항에 있어서,
    상기 이동로봇탐사시스템은,
    주위환경에 대한 사전정보를 갖지 않은 상태에서 거리센서로부터 주변환경정보를 얻어 주변지역을 탐사하는 것을 특징으로 하는 거리센서로부터 얻은 주변환경의 거리정보를 바탕으로 한 이동로봇탐사시스템.
  8. 거리센서로부터 얻은 주변환경의 거리정보를 바탕으로 한 이동로봇탐사시스템을 이용한 탐사방법에 있어서,
    거리센서부로부터 거리 정보를 입력받는 1단계와;
    상기 입력된 거리정보에서 이동로봇탐사시스템의 이동이 가능한 노드 정보를 추출하는 2단계와;
    상기 입력 받은 이동로봇탐사시스템의 이동이 가능한 노드 정보중에서 일차연결노드(first child node)를 추출하는 3단계와;
    상기 추출한 일차연결노드(first child node)중에서 컨케이브노드(concave node)를 찾아내는 4단계와;
    상기 이동로봇탐사시스템의 이동이 가능한 상기 일차연결노드(first child node)들을 전역적 위상지도로 만드는 5단계와;
    상기 전역적 위상지도로부터 이동로봇탐사시스템이 다음으로 이동할 위치인 타겟포인트(target point)를 결정하는 6단계를 포함하는 것을 특징으로 하는 거리센서로부터 얻은 주변환경의 거리정보를 바탕으로 한 이동로봇탐사시스템을 이용한 탐사방법.
  9. 청구항 8에 있어서,
    상기 거리센서부는 전방향의 거리 정보를 획득하는 것을 특징으로 하는 거리센서로부터 얻은 주변환경의 거리정보를 바탕으로 한 이동로봇탐사시스템을 이용한 탐사방법.
  10. 청구항 8에 있어서,
    상기 전역적 위상 지도는 지역적 좌표계를 사용하는 것을 특징으로 하는 거리센서로부터 얻은 주변환경의 거리정보를 바탕으로 한 이동로봇탐사시스템을 이용한 탐사방법.
  11. 청구항 8에 있어서
    상기 이동로봇탐사시스템은,
    주위환경에 대한 사전정보를 갖지 않은 상태에서 거리센서로부터 주변환경정보를 얻어 주변지역을 탐사하는 것을 특징으로 하는 거리센서로부터 얻은 주변환경의 거리정보를 바탕으로 한 이동로봇탐사시스템을 이용한 탐사방법.
  12. 청구항 8에 있어서,
    상기 2단계는,
    상기 거리센서부로부터 얻은 주위환경정보를 이미지형태로 저장하고, 이에 대하여 골격화 알고리즘을 적용하고, 생성된 골격영상에 대하여 수학식 1인 마스크 를 적용하여 이동가능한 노드를 찾아내는 것을 특징으로 하는 거리센서로부터 얻은 주변환경의 거리정보를 바탕으로 한 이동로봇탐사시스템을 이용한 탐사방법.
    [수학식 1]
    Figure 112008087009321-PAT00003
  13. 청구항 12에 있어서,
    상기 3단계는,
    상기 골격영상에서 상기 이동로봇탐사시스템의 현재 위치로부터 뻗어나간 각각의 호(arc)에 대하여 그 호의 방향성에 따라 적합한 수학식 2인 마스크를 적용하여 일차연결노드(first child node)를 찾아내는 것을 특징으로 하는 거리센서로부터 얻은 주변환경의 거리정보를 바탕으로 한 이동로봇탐사시스템을 이용한 탐사방법.
    [수학식 2]
    Figure 112008087009321-PAT00004
  14. 청구항 8에 있어서,
    상기 4단계는,
    상기 컨케이브노드가 두개의 엔드노드(end node)와 하나의 브랜치노드(branch node)가 연결된다는 특성을 고려하여 일차연결노드를 검색할때 사용한 호의 방향성에 따른 수학식 2인 마스크를 적용하여 컨케이브 노드의 위치를 찾아내는 것을 특징으로 하는 거리센서로부터 얻은 주변환경의 거리정보를 바탕으로 한 이동로봇탐사시스템을 이용한 탐사방법.
    [수학식 2]
    Figure 112008087009321-PAT00005
  15. 청구항 11에 있어서,
    상기 골격화 알고리즘은,
    모폴로지컬 영상 처리 알고리즘, 브러쉬파이어 알고리즘인 것을 특징으로 하는 거리센서로부터 얻은 주변환경의 거리정보를 바탕으로 한 이동로봇탐사시스템을 이용한 탐사방법.
KR1020080129195A 2008-12-18 2008-12-18 거리센서로부터 얻은 주변환경의 거리정보를 바탕으로 한 이동로봇탐사시스템 및 이를 이용한 탐사방법 KR101037379B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020080129195A KR101037379B1 (ko) 2008-12-18 2008-12-18 거리센서로부터 얻은 주변환경의 거리정보를 바탕으로 한 이동로봇탐사시스템 및 이를 이용한 탐사방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020080129195A KR101037379B1 (ko) 2008-12-18 2008-12-18 거리센서로부터 얻은 주변환경의 거리정보를 바탕으로 한 이동로봇탐사시스템 및 이를 이용한 탐사방법

Publications (2)

Publication Number Publication Date
KR20100070582A true KR20100070582A (ko) 2010-06-28
KR101037379B1 KR101037379B1 (ko) 2011-05-27

Family

ID=42368305

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080129195A KR101037379B1 (ko) 2008-12-18 2008-12-18 거리센서로부터 얻은 주변환경의 거리정보를 바탕으로 한 이동로봇탐사시스템 및 이를 이용한 탐사방법

Country Status (1)

Country Link
KR (1) KR101037379B1 (ko)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101040528B1 (ko) * 2011-02-17 2011-06-16 국방과학연구소 지형감지 센서조립체 및 이를 구비하는 자율이동 플랫폼
KR20140132228A (ko) * 2013-05-07 2014-11-17 삼성테크윈 주식회사 이동로봇의 지도 작성 장치 및 방법
US10339370B2 (en) 2015-12-11 2019-07-02 Hanwha Defense Co., Ltd. Method and apparatus for determining obstacle collision by using object moving path
KR20210005443A (ko) 2019-07-05 2021-01-14 엘지전자 주식회사 이동 로봇 및 그 제어방법
KR20210007361A (ko) 2019-07-11 2021-01-20 엘지전자 주식회사 이동 로봇 및 그 제어방법
WO2021010757A1 (en) 2019-07-16 2021-01-21 Lg Electronics Inc. Mobile robot and control method thereof
US11674809B2 (en) 2019-07-05 2023-06-13 Lg Electronics Inc. Moving robot and control method thereof
US11700989B2 (en) 2019-07-11 2023-07-18 Lg Electronics Inc. Mobile robot using artificial intelligence and controlling method thereof

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109737980A (zh) * 2018-12-29 2019-05-10 上海岚豹智能科技有限公司 一种导航方法及其对应的机器人

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100749923B1 (ko) * 2005-12-08 2007-08-21 한국전자통신연구원 카메라와 표식을 이용한 이동 로봇의 측위 시스템 및 방법

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101040528B1 (ko) * 2011-02-17 2011-06-16 국방과학연구소 지형감지 센서조립체 및 이를 구비하는 자율이동 플랫폼
KR20140132228A (ko) * 2013-05-07 2014-11-17 삼성테크윈 주식회사 이동로봇의 지도 작성 장치 및 방법
US10339370B2 (en) 2015-12-11 2019-07-02 Hanwha Defense Co., Ltd. Method and apparatus for determining obstacle collision by using object moving path
KR20210005443A (ko) 2019-07-05 2021-01-14 엘지전자 주식회사 이동 로봇 및 그 제어방법
US11674809B2 (en) 2019-07-05 2023-06-13 Lg Electronics Inc. Moving robot and control method thereof
US11774976B2 (en) 2019-07-05 2023-10-03 Lg Electronics Inc. Moving robot and control method thereof
KR20210007361A (ko) 2019-07-11 2021-01-20 엘지전자 주식회사 이동 로봇 및 그 제어방법
US11700989B2 (en) 2019-07-11 2023-07-18 Lg Electronics Inc. Mobile robot using artificial intelligence and controlling method thereof
US11774982B2 (en) 2019-07-11 2023-10-03 Lg Electronics Inc. Moving robot and control method thereof
WO2021010757A1 (en) 2019-07-16 2021-01-21 Lg Electronics Inc. Mobile robot and control method thereof
KR20210009011A (ko) 2019-07-16 2021-01-26 엘지전자 주식회사 이동 로봇 및 그 제어방법

Also Published As

Publication number Publication date
KR101037379B1 (ko) 2011-05-27

Similar Documents

Publication Publication Date Title
KR101037379B1 (ko) 거리센서로부터 얻은 주변환경의 거리정보를 바탕으로 한 이동로봇탐사시스템 및 이를 이용한 탐사방법
JP6896077B2 (ja) 車両自動パーキングシステム及び方法
US7765499B2 (en) Method, system, and computer product for forming a graph structure that describes free and occupied areas
Badino et al. Visual topometric localization
Li et al. Multivehicle cooperative local mapping: A methodology based on occupancy grid map merging
JP2009053849A (ja) 経路探索システム、経路探索方法、及び自律移動体
Li et al. Review of vision-based Simultaneous Localization and Mapping
Avraham et al. Empnet: Neural localisation and mapping using embedded memory points
AU2013237211B2 (en) Generating navigation data
Büchner et al. Learning and aggregating lane graphs for urban automated driving
Tapus et al. A cognitive modeling of space using fingerprints of places for mobile robot navigation
Nasr et al. Landmark recognition for autonomous mobile robots
CN109977455B (zh) 一种适用于带地形障碍三维空间的蚁群优化路径构建方法
Ahmadi et al. HDPV-SLAM: Hybrid depth-augmented panoramic visual SLAM for mobile mapping system with tilted LiDAR and panoramic visual camera
Cocaud et al. Environment mapping using probabilistic quadtree for the guidance and control of autonomous mobile robots
Hassouna et al. Robust robotic path planning using level sets
CA3184001A1 (en) Multi-agent map generation
Liu et al. Map-less long-term localization in complex industrial environments
Pereira et al. Visibility maps for any-shape robots
Sun et al. Online map fusion system based on sparse point-cloud
Li et al. Intelligent vehicle localization and navigation based on intersection fingerprint roadmap (IRM) in underground parking lots
CN115705670B (zh) 地图管理方法及其装置
Cai et al. Autonomous navigation system for exhibition hall service robots via laser SLAM
Chicaiza et al. Navigation Guided by Visual Markers and Path Planning for Mobile Robots in Confined Environments
Cohen et al. Incremental and adaptive multi-robot mapping for human scene observation

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application
J201 Request for trial against refusal decision
AMND Amendment
B701 Decision to grant
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20140507

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20150430

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20180409

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20190520

Year of fee payment: 9