KR20090131335A - 로봇의 장애물 검출방법 및 그 장치 - Google Patents

로봇의 장애물 검출방법 및 그 장치 Download PDF

Info

Publication number
KR20090131335A
KR20090131335A KR1020080057149A KR20080057149A KR20090131335A KR 20090131335 A KR20090131335 A KR 20090131335A KR 1020080057149 A KR1020080057149 A KR 1020080057149A KR 20080057149 A KR20080057149 A KR 20080057149A KR 20090131335 A KR20090131335 A KR 20090131335A
Authority
KR
South Korea
Prior art keywords
image
obstacle
past
current
estimating
Prior art date
Application number
KR1020080057149A
Other languages
English (en)
Other versions
KR100997656B1 (ko
Inventor
서일홍
장국현
Original Assignee
한양대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한양대학교 산학협력단 filed Critical 한양대학교 산학협력단
Priority to KR1020080057149A priority Critical patent/KR100997656B1/ko
Publication of KR20090131335A publication Critical patent/KR20090131335A/ko
Application granted granted Critical
Publication of KR100997656B1 publication Critical patent/KR100997656B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • B25J9/1676Avoiding collision or forbidden zones

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

본 발명은 로봇의 장애물 검출방법 및 그 장치에 관한 것이다. 본 발명에 따른 로봇의 장애물 검출방법에 있어서, 과거에 획득한 영상에 관한 데이터베이스로부터 현재위치와 비교할 과거영상을 추출하는 단계; 상기 추출한 과거영상과 현재영상에서 공통으로 존재하는 비교영역을 선택하는 단계; 상기 비교영역에 존재하는 특징에 기초하여 상기 과거영상을 상기 현재위치에 대응하는 영상으로 변환하는 단계; 및 상기 변환된 영상과 상기 현재영상을 비교하여 장애물 위치를 추정하는 단계를 포함한다.
이에 따라, 영상을 획득한 위치가 다른 경우에도 빠르고 정확하게 장애물의 위치를 예측할 수 있어, 로봇의 상황 예측과 행동 선택에 있어서 정확한 판단과 적절한 상황대처를 할 수 있게 해준다.
Figure P1020080057149
이동 로봇, 장애물 검출

Description

로봇의 장애물 검출방법 및 그 장치{OBSTACLE DETECTING METHOD OF ROBOT AND APPARATUS THEREFOR}
본 발명은 로봇의 장애물 검출방법 및 그 장치에 관한 것으로서, 보다 구체적으로는 과거영상과 현재영상을 비교하여 장애물을 검출하는 로봇의 장애물 검출방법 및 그 장치에 관한 것이다.
현재 로봇기술은 가정용 청소 로봇, 교육용 로봇, 엔터테인먼트 로봇, 공공 서비스 로봇과 같이 다양한 분야에서 실제 사용 및 적용되고 있으며, 앞으로 통신, 서비스 등 광범위한 분야에서 그 수요가 폭발적으로 증가할 것으로 예상된다.
최근에는 인공 지능 로봇 분야에서, 동적으로 변화하는 환경에 적응하는 환경 적응 로봇이 큰 이슈가 되고 있다. 이러한 환경 적응 로봇 분야는 동적으로 변화하고 인간 또는 다른 로봇과 공존하는 환경에서 로봇이 인지 또는 행동 선택을 적절히 할 수 있도록 하는 것을 목표로 한다.
특히, 로봇의 장애물 검출은 로봇의 주행, 임무 수행 등 로봇 전반의 분야에 서 매우 중요한 이슈가 되는 부분이며, 스스로 상황정보를 획득하고 행동해야 하는 이동로봇에 있어서 더욱 중요하다.
종래 로봇의 장애물 검출방법으로는 과거영상과 현재영상을 비교하여 영상의 차이(차영상)를 구하는 방식이 주로 사용되고 있다. 즉, 두 영상 간에 차이가 발생하는 부분에 장애물이 있을 것으로 예측하는 것이다. 여기서, 종래 차영상 계산 방법은 과거영상과 현재영상의 획득위치가 동일하다는 것을 전제로 한다.
하지만, 이동로봇이 자율주행을 하는 경우 과거 영상을 획득한 위치와 장애물을 검출해야 하는 위치가 동일하다는 보장이 없다. 따라서, 동일한 위치에서 획득한 이미지 사이에 차영상을 구하는 방식인 종래의 기술은 계속적으로 위치를 변경하는 이동로봇에는 직접적으로 적용하기 어려운 문제점을 갖는다.
따라서, 본 발명의 목적은 영상을 획득한 위치가 다른 경우에도 장애물 검출이 가능한 로봇의 장애물 검출방법 및 그 장치를 제공하는 것이다.
또한, 이동에 따라 장애물이 있을 것으로 예측되는 지점을 추적함으로써 더욱 정확하고 빠르게 장애물을 검출할 수 있어 로봇의 상황 예측과 행동 선택에 있어서 정확한 판단과 적절한 상황대처를 할 수 있는 로봇의 장애물 검출방법 및 그 장치를 제공하는 것이다.
상기 목적은 본 발명에 따라, 로봇의 장애물 검출방법에 있어서, 과거에 획득한 영상에 관한 데이터베이스로부터 현재위치와 비교할 과거영상을 추출하는 단계; 상기 추출한 과거영상과 현재영상에서 공통으로 존재하는 비교영역을 선택하는 단계; 상기 비교영역에 존재하는 특징에 기초하여 상기 과거영상을 상기 현재영상의 위치에 대응하는 영상으로 변환하는 단계; 및 상기 변환된 영상과 상기 현재 영상을 비교하여 장애물 위치를 추정하는 단계를 포함하는 것을 특징으로 하는 로봇의 장애물 검출방법에 의해 달성될 수 있다.
한편, 상기 목적은 본 발명에 따라, 로봇의 장애물 검출방법에 있어서, 과거에 획득한 영상에 관한 데이터베이스로부터 현재위치와 비교할 과거영상을 추출하는 단계; 상기 추출한 과거영상과 현재영상에서 공통으로 존재하는 비교영역을 선택하는 단계; 상기 비교영역에 존재하는 특징에 기초하여 상기 현재영상을 상기 과거영상의 위치에 대응하는 영상으로 변환하는 단계; 및 상기 변환된 영상과 상기 과거영상을 비교하여 장애물 위치를 추정하는 단계를 포함하는 것을 특징으로 하는 로봇의 장애물 검출방법에 의해서도 달성될 수 있다.
여기서, 상기 비교영역을 선택하는 단계는, 상기 과거영상과 상기 현재영상에서 이미지 특징들을 추출하는 단계; 및 상기 추출한 이미지 특징들에서 공통으로 존재하는 비교영역을 선택하는 단계를 포함할 수 있다.
그리고, 상기 이미지 특징들을 추출하는 단계는 소실선들 또는 특징점들을 추출할 수 있다.
또한, 상기 과거영상을 추출하는 단계는 상기 데이터베이스에서 현재 위치에 가장 가까운 위치에서 포착한 과거영상을 추출할 수 있다.
아울러, 상기 장애물 위치를 추정하는 단계는, 상기 변환된 영상과 상기 현재 영상과의 차영상을 산출하는 단계; 상기 산출된 차영상을 오프닝 모폴로지 연산을 이용하여 단순화하는 단계; 및 상기 단순화된 차영상을 상기 현재영상에 매핑하여 상기 장애물 위치를 추정하는 단계를 포함할 수 있다.
한편, 상기 장애물 위치를 추정하는 단계는, 상기 변환된 영상과 상기 과거 영상과의 차영상을 산출하는 단계; 상기 산출된 차영상을 오프닝 모폴로지 연산을 이용하여 단순화하는 단계; 및 상기 단순화된 차영상을 상기 과거영상에 매핑하여 상기 장애물 위치를 추정하는 단계를 포함할 수 있다.
그리고, 상기 장애물 위치를 추정하는 단계는, 상기 매핑결과에 따라 장애물이 존재하는 위치를 장애물후보위치로 추정하는 단계; 및 상기 로봇의 이동에 따라 상기 장애물후보위치를 지속적으로 추적 및 확인하여 상기 장애물 위치를 최종적으로 추정하는 단계를 포함할 수 있다.
한편, 상기 목적은 본 발명에 따라, 로봇의 장애물 검출장치에 있어서, 영상을 검출하는 비젼센서; 과거에 획득한 영상에 관한 정보가 저장된 데이터베이스; 상기 데이터베이스로부터 현재위치와 비교할 과거영상을 추출하는 비교영상추출부; 상기 추출한 과거영상과 상기 이미지센서로부터 입력된 현재영상에서 공통으로 존재하는 비교영역을 선택하는 비교영역선택부; 상기 비교영역에 존재하는 특징에 기초하여 상기 과거영상과 상기 현재영상 중 어느 하나를 다른 하나의 위치에 대응하 는 영상으로 변환하는 이미지변환부; 및 상기 변환된 영상과 상기 다른 하나를 비교하여 장애물 위치를 추정하는 장애물검출부를 포함하는 것을 특징으로 하는 로봇의 장애물 검출장치에 의해서도 달성될 수 있다.
그리고, 상기 이미지변환부는 상기 과거영상과 상기 현재영상 중 상기 어느 하나를 아핀(AFFINE) 변환, 선형 등각 변환, 줌인 또는 줌아웃을 이용하여 상기 다른 하나의 위치에 대응하는 영상으로 변환할 수 있다.
이상 설명한 바와 같이, 본 발명에 따르면, 영상을 획득한 위치가 다른 경우에도 장애물 검출이 가능한 로봇의 장애물 검출방법 및 그 장치가 제공된다.
또한, 이동에 따라 장애물이 있을 것으로 예측되는 지점을 추적함으로써 더욱 정확하고 빠르게 장애물을 검출할 수 있어 로봇의 상황 예측과 행동 선택에 있어서 정확한 판단과 적절한 상황대처를 할 수 있는 로봇의 장애물 검출방법 및 그 장치가 제공된다.
이하, 도면을 참조하여 본 발명의 구체적인 실시예들에 대해 설명하기로 한다.
도 1은 본 발명의 일 실시예에 따른 로봇의 장애물 검출장치의 제어블록도이다. 도 1에 도시된 바와 같이, 본 발명에 따른 로봇의 장애물 검출장치는 비젼센 서(10), 데이터베이스(20), 비교영상추출부(30), 비교영역선택부(40), 이미지변환부(50), 및 장애물검출부(60)를 포함한다.
비젼센서(10)는 로봇에 부착되어 영상을 검출하는 센서로서, CCD 카메라 등 다양한 이미지센서에 의해 구현 가능하다.
데이터베이스(20)는 과거에 획득한 영상에 관한 정보가 저장된 것으로, 과거의 정상상태의 영상들이 위치정보가 태그 되어 데이터베이스(20)로 구성된다. 여기서, 위치정보는 로봇의 위치와 각도에 관한 정보를 포함하며, 예컨대, (x,y,θ)로서 표현된다. 여기서, x,y는 로봇의 절대좌표, θ는 로봇이 바라보는 각도(즉, 로봇의 이미지센서가 영상을 찍은 각도)를 의미한다.
비교영상추출부(30)는 데이터베이스(20)로부터 현재위치와 비교할 과거영상을 추출한다. 비교영상추출부(30)는 데이터베이스(20)로부터 가장 적절한 영상을 선택하게 되는데, 예를 들어, 로봇이 위치하는 현재의 위치정보와 가장 유사한 위치정보를 가진 과거영상을 검색하여 추출한다.
비교영역선택부(40)는 추출한 과거영상과 이미지센서로부터 입력된 현재영상에서 공통으로 존재하는 비교영역을 선택한다. 비교영역선택부(40)의 구체적인 설명은 도 2a 내지 도 3d를 참조하여 설명하기로 한다.
도 2a는 비교영상추출부(30)에서 추출한 과거영상이고, 도 2b 및 도 2c는 도 2a를 처리하여 이미지 특징을 추출한 예를 도시한 것이며, 도 3a는 비젼센서(10)로부터 입력된 현재영상이고, 도 3b 및 도 3c는 도 3a에서 이미지 특징을 추출한 예를 도시한 것이다.
도 2a 및 도 3a에서 알 수 있듯이, 두 영상 모두 복도에서 문을 바라보고 있는 영상이며, 과거영상은 복도의 왼쪽, 현재영상은 오른쪽에 약간 치우쳐 있다. 또한, 과거영상에는 장애물이 없지만, 현재영상에는 복도 끝 문앞에 박스가 놓여져 있음을 볼 수 있다.
비교영역선택부(40)는 과거영상과 현재영상을 처리하여 이미지특징을 추출한다. 도 2b 및 도 3b에 도시된 바와 같이, 비교영역선택부(40)는 두 영상에서 직선성분 즉 경계성분을 검출한다. 이렇게 검출된 직선성분들이 이미지 특징으로 사용된다.
비교영역선택부(40)는 검출된 이미지 특징들에 기초하여 비교영역을 선택하게 된다. 도 2c 및 도 3c에 도시된 바와 같이, 비교영역선택부(40)는 직선성분들 중에서 소실점을 공유하고 있는 소실선만을 걸러낸다.
그리고, 도 2c와 도 3c에서 찾아낸 소실선들과 소실점을 기준으로 비교영역을 선택하게 된다. 여기서, 비교영역선택부(40)는 양 영상에서 공통으로 존재하는 영역을 비교영역으로 선정한다.
도 2d와 도 3d는 위와 같은 과정을 거쳐 비교영역을 선택하는 과정의 예를 나타낸다.
본 예에서, 비교영역선택부(40)는 과거영상과 현재영상에서 소실점 밑의 하부영역에서 가장 짧은 소실선을 기준으로 비교영역을 선택한다. 본 예에서, 두 영상에서 소실점 아래의 가장 짧은 소실선은 도 3c의 왼쪽 하단에 위치한 소실선이므로, 소실점과 해당 소실선을 기준으로 비교영역을 선정하게 되고, 다른 영상에도 대응하는 영역을 비교영역으로 선택하게 된다.
위와 같은 과정을 거쳐 선택된 비교영역은 도 2d와 도 2d에 각각 네모 박스로 표시된 영역이다. 도 2d 및 도 3d에 도시된 바와 같이, 박스로 표시된 영역이 두 영상 모두에 공통적으로 존재하는 영역임을 확인할 수 있다.
위 예에서 이미지특징을 추출하는데 있어서, 직선성분들을 통한 소실선들을 이미지 특징으로 사용하였지만, 이 외에 코너와 같은 특징점을 사용하는 방법도 취할 수 있으며 이렇게 찾은 특징점을 기초로 하여 두 영상에서 공통으로 존재하는 비교영역을 선택하게 된다.
이미지변환부(50)는 비교영역에 존재하는 특징에 기초하여 과거영상을 현재위치에 대응하는 영상으로 변환하거나, 현재영상을 과거 위치에 대응하는 영상으로 변환한다. 이하, 본 실시예에서는 과거영상을 현재 위치에 대응하는 영상으로 변환하는 것을 일 예로 설명하기로 한다.
예를 들어, 도 2d 및 도 3d에서 비교영역의 특징은 복도와 벽의 경계선들이며, 이미지변환부(50)는 이러한 특징들을 기준으로 하여 과거 영상을 현재위치에 맞게 변환하게 된다. 변환에 사용되는 방법은 아핀(Affine) 변환, 선형 등각 변환, 줌인 또는 줌아웃 등의 기법이 사용될 수 있다. 본 예에서는 아핀(Affine) 변환을 이용하는 것을 일 예로 한다.
도 4a 및 도 4b는 아핀(Affine) 변환을 이용한 이미지 변환의 예를 도시한 것이다.
도 4a 및 도 4b에서 알 수 있듯이, 변환된 이미지는 원래의 영상과 비교하여 크기와 시점이 달라지지만, 포함된 내용은 동일하다는 것을 알 수 있다. 구체적으로, 이미지변환을 통해 왼쪽에 치우쳐 있던 시점이 오른쪽으로 바뀌고, 문 옆의 소화기가 퍼지게 도시됨을 볼 수 있다.
장애물검출부(60)는 변환된 영상과 현재영상을 비교하여 장애물 위치를 추정한다. 장애물검출부(60)의 구체적인 내용은 도 5를 참조하여 설명하기로 한다.
도 5에서 (a) 및 (b)는 각각 변환된 과거영상과 현재영상의 비교영역을 도시한 예이다.
도 5의 (a)와 (b)에서 알 수 있듯이 (a)에는 문 앞에 아무런 물체가 없지만 (b)에는 어떤 물체가 놓여져 있음을 볼 수 있다.
장애물검출부(60)는 변환된 영상과 현재영상의 차영상을 구하여 장애물 위치를 검출한다. 한편, 이미지변환부(50)가 현재영상을 과거영상의 위치에 맞게 변환하는 경우, 장애물검출부(60)는 변환된 영상과 과거영상의 차영상을 구하여 장애물의 위치를 검출하게 된다. 전술한 바와 같이, 본 실시예에서는 전자를 예로 설명한다.
본 예에서, 장애물검출부(60)는 (a)와 (b)의 차영상을 구하게 되는데, 차영상 계산의 예가 도 5의 (c) ~ (e)에 도시되어 있다.
(c)는 차영상을 그레이스케일로 표현한 것이다. (c)에서 두 영상의 차이가 크고 작음에 따라 그레이스케일이 달리 표시되어 있음을 확인할 수 있다. (c)에서 밝은 영역일수록 두 영상 간에 차이가 더 발생하는 영역임을 가리킨다.
장애물검출부(60)는 그레이스케일로 표현된 차영상을 바이너리 차원으로 단 순화시킨다. 일정 문턱값을 기준으로 이하는 0, 이상은 1로 표현할 수 있다. 물론 그 반대가 될 수도 있다. 바이너리로 단순화시킨 예가 (d)에 표시되어 있다. (d)에서 희게 표시되어 있는 영역이 두 영상 간에 차이가 발생하는 부분을 가리킨다.
장애물검출부(60)는 바이너리 차원으로 단순화된 영상에서 노이즈를 제거한다. 노이즈 제거의 예는 (e)에 표시되어 있다. 본 예에서는 오프닝 모폴로지 연산을 통해 더욱 단순화시켰다.
장애물검출부(60)는 전술한 과정을 통해 얻은 차영상을 현재영상에 매핑하여 장애물후보위치를 추정한다. 도 6은 차영상을 현재영상에 매핑한 예를 도시하고 있다.
도 6에서 희게 표시된 부분이 장애물이 위치할 가능성이 있는 장애물후보위치로 추정된다. 도 6을 통해 알 수 있듯이 문앞에 놓여진 박스를 정확히 검출할 수 있음을 확인할 수 있다.
본 발명은 전술한 과거이미지 검출, 변환, 차영상 연산 등의 일련의 과정을 로봇의 이동에 따라 반복적으로 수행함으로써, 장애물후보위치를 계속적으로 추적하여 장애물위치를 최종적으로 추정하게 된다.
즉, 도 6에서 장애물이 위치한 곳을 장애물후보위치로 추정하고, 이후 이동에 따라 계속적으로 전술한 장애물추정과정을 반복함으로써 장애물후보위치에서 동일하게 장애물이 검출되는지를 확인하여 최종적으로 장애물위치를 결정하게 된다.
동일한 위치에서 계속적으로 장애물이 검출된다면 장애물이 존재하는 위치로 추정되고, 이렇게 예측한 장애물의 위치는 로봇의 상황 예측과 행동 선택에 있어서 중대한 영향을 줄 수 있다. 예컨대, 장애물의 크기에 따라 비켜갈 수 있는지 아니면 통과가 불가능한지 판단하여 로봇의 주행경로를 판단하게 된다. 예컨대, 박스나 의자와 같이 정지된 장애물일 경우 로봇은 해당 물체를 피해갈 수 있는지 아니면 전진방향이 막힌 것으로 판단하고 다른 길을 선택해야 하는지 미리 알게 함으로써 로봇의 행동의 효율성을 향상시킬 수 있다.
다만, 이후 검출과정에서 해당 위치에서 장애물이 검출되지 않는다면 노이즈로 판단한다. 즉, 추적 과정에서 비연속적으로 검출되는 장애물후보위치는 이미지 변환과정이나 이미지 획득과정에서 발생한 노이즈로 취급될 것이다. 예컨대, 도 6에서 다수의 부분이 장애물후보위치로 추정되었지만, 계속적인 검출과정을 통해 잘못 검출된 부분은 노이즈로 취급될 것이다.
다른 예로서, 동일한 위치에서는 검출되지 않지만, 일정한 경로로 움직이고 있는 물체가 계속하여 검출된다면, 이것을 움직이는 장애물로 판단할 수 있을 것이다. 예를 들어, 사람이나 로봇과 같이 이동하는 물체에 대해서도 상대 물체의 이동방향이나 이동속도, 로봇의 이동방향을 가로막고 있는 상태 등을 미리 예측할 수 있으므로, 이에 대한 적절한 대응방법을 제시할 수 있다.
이와 같이, 본 발명은 로봇의 이동에 따라 부단하게 장애물을 추적 및 확인함에 따라 장애물을 정확히 검출하고 노이즈를 제거할 수 있으므로, 검출방법은 정밀한 방법이 사용되지 않아도 무방하다. 이동로봇의 특성상 입력되는 영상이 계속적으로 바뀌고 빠른 연산이 필요하므로, 본 발명에서는 간단한 연산을 통해서도 장애물을 정확히 검출할 수 있어 신뢰도, 성능 및 비용면에서 유리하다. 또한, 거리 센서에 의존하는 방법에 비해 멀리서도 장애물을 사전에 검출할 수 있는 효과가 있다.
한편, 전술한 비교영상추출부(30), 비교영역선택부(40), 이미지변환부(50), 및 장애물검출부(60)는 소프트웨어 알고리즘과 이들 알고리즘을 저장 및 처리되는 메모리, 프로세서 등으로 구현될 수 있다.
전술한 실시예에서는 과거영상을 현재 위치에 맞게 변환하여 장애물을 추정하는 것을 주로 설명하였으나, 본 발명에 따라 현재영상을 과거영상의 위치에 맞게 변환하여 장애물의 위치를 검출할 수 있으며, 이러한 기술내용이 본 발명의 범위에 포함됨은 물론이다.
비록 본 발명의 몇몇 실시예들이 도시되고 설명되었지만, 본 발명이 속하는 기술분야의 통상의 지식을 가진 당업자라면 본 발명의 원칙이나 정신에서 벗어나지 않으면서 본 실시예를 변형할 수 있음을 알 수 있을 것이다. 발명의 범위는 첨부된 청구항과 그 균등물에 의해 정해질 것이다.
도 1은 본 발명의 일 실시예에 따른 로봇의 장애물 검출장치의 제어블록도이다.
도 2a 내지 도 2d는 본 발명의 일 실시예에 따른 과거영상의 비교영역선택의 예를 도시한 것이다.
도 3은 내지 도 3d는 본 발명의 일 실시예에 따른 현재영상의 비교영역선택의 예를 도시한 것이다.
도 4a 및 도 4b는 본 발명의 일 실시예에 따라 과거영상을 현재위치에 맞게 변환한 예를 도시한 것이다.
도 5는 본 발명의 일 실시예에 따라 변환된 영상과 현재영상과의 차영상을 산출하는 예를 도시한 것이다.
도 6은 산출된 차영상을 현재영상에 매핑하여 장애물을 예측하는 방법을 도시한 것이다.

Claims (10)

  1. 로봇의 장애물 검출방법에 있어서,
    과거에 획득한 영상에 관한 데이터베이스로부터 현재위치와 비교할 과거영상을 추출하는 단계;
    상기 추출한 과거영상과 현재영상에서 공통으로 존재하는 비교영역을 선택하는 단계;
    상기 비교영역에 존재하는 특징에 기초하여 상기 과거영상을 상기 현재영상의 위치에 대응하는 영상으로 변환하는 단계; 및
    상기 변환된 영상과 상기 현재 영상을 비교하여 장애물 위치를 추정하는 단계를 포함하는 것을 특징으로 하는 로봇의 장애물 검출방법.
  2. 로봇의 장애물 검출방법에 있어서,
    과거에 획득한 영상에 관한 데이터베이스로부터 현재위치와 비교할 과거영상을 추출하는 단계;
    상기 추출한 과거영상과 현재영상에서 공통으로 존재하는 비교영역을 선택하는 단계;
    상기 비교영역에 존재하는 특징에 기초하여 상기 현재영상을 상기 과거영상의 위치에 대응하는 영상으로 변환하는 단계; 및
    상기 변환된 영상과 상기 과거영상을 비교하여 장애물 위치를 추정하는 단계를 포함하는 것을 특징으로 하는 로봇의 장애물 검출방법.
  3. 제1항 또는 제2항에 있어서,
    상기 비교영역을 선택하는 단계는, 상기 과거영상과 상기 현재영상에서 이미지 특징들을 추출하는 단계; 및
    상기 추출한 이미지 특징들에서 공통으로 존재하는 비교영역을 선택하는 단계를 포함하는 것을 특징으로 하는 로봇의 장애물 검출방법.
  4. 제3항에 있어서,
    상기 이미지 특징들을 추출하는 단계는 소실선들 또는 특징점들을 추출하는 것을 특징으로 하는 로봇의 장애물 검출방법.
  5. 제1항 또는 제2항에 있어서,
    상기 과거영상을 추출하는 단계는 상기 데이터베이스에서 현재 위치에 가장 가까운 위치에서 포착한 과거영상을 추출하는 것을 특징으로 하는 로봇의 장애물 검출방법.
  6. 제1항에 있어서,
    상기 장애물 위치를 추정하는 단계는, 상기 변환된 영상과 상기 현재 영상과의 차영상을 산출하는 단계;
    상기 산출된 차영상을 오프닝 모폴로지 연산을 이용하여 단순화하는 단계; 및
    상기 단순화된 차영상을 상기 현재영상에 매핑하여 상기 장애물 위치를 추정하는 단계를 포함하는 것을 특징으로 하는 로봇의 장애물 검출방법.
  7. 제2항에 있어서,
    상기 장애물 위치를 추정하는 단계는, 상기 변환된 영상과 상기 과거 영상과의 차영상을 산출하는 단계;
    상기 산출된 차영상을 오프닝 모폴로지 연산을 이용하여 단순화하는 단계; 및
    상기 단순화된 차영상을 상기 과거영상에 매핑하여 상기 장애물 위치를 추정하는 단계를 포함하는 것을 특징으로 하는 로봇의 장애물 검출방법.
  8. 제6항 또는 제7항에 있어서,
    상기 장애물 위치를 추정하는 단계는, 상기 매핑결과에 따라 장애물이 존재하는 위치를 장애물후보위치로 추정하는 단계; 및
    상기 로봇의 이동에 따라 상기 장애물후보위치를 지속적으로 추적 및 확인하여 상기 장애물 위치를 최종적으로 추정하는 단계를 포함하는 것을 특징으로 하는 로봇의 장애물 검출방법.
  9. 로봇의 장애물 검출장치에 있어서,
    영상을 검출하는 비젼센서;
    과거에 획득한 영상에 관한 정보가 저장된 데이터베이스;
    상기 데이터베이스로부터 현재위치와 비교할 과거영상을 추출하는 비교영상추출부;
    상기 추출한 과거영상과 상기 이미지센서로부터 입력된 현재영상에서 공통으로 존재하는 비교영역을 선택하는 비교영역선택부;
    상기 비교영역에 존재하는 특징에 기초하여 상기 과거영상과 상기 현재영상 중 어느 하나를 다른 하나의 위치에 대응하는 영상으로 변환하는 이미지변환부; 및
    상기 변환된 영상과 상기 다른 하나를 비교하여 장애물 위치를 추정하는 장애물검출부를 포함하는 것을 특징으로 하는 로봇의 장애물 검출장치.
  10. 제9항에 있어서,
    상기 이미지변환부는 상기 과거영상과 상기 현재영상 중 상기 어느 하나를 아핀(AFFINE) 변환, 선형 등각 변환, 줌인 또는 줌아웃을 이용하여 상기 다른 하나의 위치에 대응하는 영상으로 변환하는 것을 특징으로 하는 로봇의 장애물 검출장치.
KR1020080057149A 2008-06-18 2008-06-18 로봇의 장애물 검출방법 및 그 장치 KR100997656B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020080057149A KR100997656B1 (ko) 2008-06-18 2008-06-18 로봇의 장애물 검출방법 및 그 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020080057149A KR100997656B1 (ko) 2008-06-18 2008-06-18 로봇의 장애물 검출방법 및 그 장치

Publications (2)

Publication Number Publication Date
KR20090131335A true KR20090131335A (ko) 2009-12-29
KR100997656B1 KR100997656B1 (ko) 2010-12-01

Family

ID=41690559

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080057149A KR100997656B1 (ko) 2008-06-18 2008-06-18 로봇의 장애물 검출방법 및 그 장치

Country Status (1)

Country Link
KR (1) KR100997656B1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160100876A (ko) * 2016-08-08 2016-08-24 연세대학교 산학협력단 장애물 식별 장치 및 방법
WO2018038552A1 (ko) * 2016-08-25 2018-03-01 엘지전자 주식회사 이동 로봇 및 그 제어방법
KR20180023301A (ko) * 2016-08-25 2018-03-07 엘지전자 주식회사 이동 로봇 및 그 제어방법

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9868211B2 (en) * 2015-04-09 2018-01-16 Irobot Corporation Restricting movement of a mobile robot
KR101825687B1 (ko) 2015-04-24 2018-02-05 한국전자통신연구원 차영상을 이용한 장애물 검출장치 및 그 방법

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10269364A (ja) * 1997-03-24 1998-10-09 Hitachi Seiki Co Ltd 移動対象物の画像処理方法、装置およびプログラムを記録した記録媒体

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160100876A (ko) * 2016-08-08 2016-08-24 연세대학교 산학협력단 장애물 식별 장치 및 방법
WO2018038552A1 (ko) * 2016-08-25 2018-03-01 엘지전자 주식회사 이동 로봇 및 그 제어방법
KR20180023301A (ko) * 2016-08-25 2018-03-07 엘지전자 주식회사 이동 로봇 및 그 제어방법
AU2017316090B2 (en) * 2016-08-25 2020-10-29 Lg Electronics Inc. Mobile robot and control method therefor
US11150666B2 (en) 2016-08-25 2021-10-19 Lg Electronics Inc. Mobile robot and control method for controlling the same

Also Published As

Publication number Publication date
KR100997656B1 (ko) 2010-12-01

Similar Documents

Publication Publication Date Title
KR101618030B1 (ko) 이동 로봇의 위치 인식 및 주행 제어 방법과 이를 이용한 이동 로봇
CN109344687B (zh) 基于视觉的障碍物检测方法、装置、移动设备
Kim et al. Moving obstacle avoidance of a mobile robot using a single camera
US8938319B2 (en) Robot slip detection apparatus and method
EP2579184B1 (en) Mobile apparatus and method of controlling the same
US8004528B2 (en) Method, systems and computer product for deriving three-dimensional information progressively from a streaming video sequence
JP7272024B2 (ja) 物体追跡装置、監視システムおよび物体追跡方法
KR100997656B1 (ko) 로봇의 장애물 검출방법 및 그 장치
KR20150144730A (ko) ADoG 기반 특징점을 이용한 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
KR20210129043A (ko) 이벤트 기반 센서로부터의 정보를 처리하는 방법
EP2610783B1 (en) Object recognition method using an object descriptor
WO2011015800A1 (en) Correlated probabilistic trajectories pedestrian motion detection using a decision forest
US20080140256A1 (en) Robot apparatus and control method therefor
Mao et al. Automated multiple target detection and tracking in UAV videos
KR20100013855A (ko) 카메라 핸드오프를 이용한 다중 카메라상의 연속적인 물체추적 방법
Pereira et al. A qualitative-probabilistic approach to autonomous mobile robot self localisation and self vision calibration
Luo et al. Real-time stereo tracking of multiple moving heads
Foggia et al. A real-time stereo-vision system for moving object and obstacle detection in AVG and AMR applications
Wang et al. Mobile robot ego motion estimation using ransac-based ceiling vision
JP2009015655A (ja) 画像処理装置
Tanaka Detecting collision-free paths by observing walking people
KR101572484B1 (ko) 소실점 기반의 라인 검색을 이용한 송전선 검출 방법
Novischi et al. Vision based autonomous navigation in unstructured static environments for mobile ground robots
KR20230059236A (ko) 객체 깊이 추정 방법 및 장치, 이를 이용한 이동 장치
Das et al. Camera Motion Compensation and Person Detection in Construction Site Using Yolo-Bayes Model

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20131008

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20140923

Year of fee payment: 5

LAPS Lapse due to unpaid annual fee