KR100906991B1 - 로봇의 비시인성 장애물 탐지방법 - Google Patents

로봇의 비시인성 장애물 탐지방법 Download PDF

Info

Publication number
KR100906991B1
KR100906991B1 KR1020070113173A KR20070113173A KR100906991B1 KR 100906991 B1 KR100906991 B1 KR 100906991B1 KR 1020070113173 A KR1020070113173 A KR 1020070113173A KR 20070113173 A KR20070113173 A KR 20070113173A KR 100906991 B1 KR100906991 B1 KR 100906991B1
Authority
KR
South Korea
Prior art keywords
robot
image
feature point
coordinate value
obtaining
Prior art date
Application number
KR1020070113173A
Other languages
English (en)
Other versions
KR20090047145A (ko
Inventor
전세웅
김영욱
정일균
Original Assignee
전자부품연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 전자부품연구원 filed Critical 전자부품연구원
Priority to KR1020070113173A priority Critical patent/KR100906991B1/ko
Publication of KR20090047145A publication Critical patent/KR20090047145A/ko
Application granted granted Critical
Publication of KR100906991B1 publication Critical patent/KR100906991B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/04Viewing devices

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Image Analysis (AREA)
  • Manipulator (AREA)

Abstract

본 발명은 로봇의 비시인성 장애물 탐지 방법에 관한 것으로서, 제 1 위치에서 전방의 물체를 촬영한 영상 이미지로부터 특징점을 추출하고, 추출한 특징점의 영상 좌표값과 3차원 좌표값을 구한 이후에, 로봇을 일정 거리 이동 및 회전시킨 제 2 위치에서 예상되는 특징점의 영상 좌표값을 구하며, 로봇을 실제 이동 및 회전한 제 2 위치에서 전방의 물체를 촬영한 영상 이미지로부터 특징점을 추출하여 그 영상 좌표값을 구한 다음, 제 2 위치에서 예상되는 특징점의 영상 좌표값과 로봇을 실제로 이동 및 회전한 제 2 위치에서의 해당 특징점의 영상 좌표값을 비교하여 비시인성 장애물의 존재 여부를 탐지하는 것을 특징으로 한다.
본 발명에 의하면 로봇의 전방에 유리창, 모기장, 투명 아크릴판과 같은 비시인성(非視認性) 장애물이 존재하는 경우에도, 장애물을 판단할 수 있어 로봇의 자율 주행 성능을 향상시킬 수 있으며, 이를 통해 정확한 환경 지도를 작성할 수 있다.
비시인성, 장애물, TOF 카메라, 특징점, 좌표

Description

로봇의 비시인성 장애물 탐지방법{ Method for detecting invisible obstacle of robot }
본 발명은 로봇의 비시인성(非視認性) 장애물 탐지방법에 관한 것으로서, 보다 상세하게는 제 1 위치에서 전방의 물체를 촬영한 영상 이미지로부터 특징점을 추출하고, 추출한 특징점들의 영상 좌표값 및 3차원 좌표값을 구하며, 로봇을 제 2 위치로 이동시킬 경우에 예상되는 특징점의 영상 좌표를 구한 후, 로봇을 제 2 위치에 실제로 이동시킨 후 추출되는 특징점의 영상 좌표와 비교하여 비시인성 장애물의 존재 여부를 판단하는 로봇의 비시인성(非視認性) 장애물 탐지방법에 관한 것이다.
이동 로봇은 고정된 위치가 아닌 공간을 스스로 움직이면서 주어진 작업을 수행하는데, 제품 생산에 필요한 부품이나 작업 도구 등을 필요한 위치로 옮기며, 옮긴 부품 등을 조립하여 제품을 생산하는 작업 등을 수행한다.
근래에는 산업 분야뿐만 아니라 가정에서의 이동 로봇의 활용 예가 많이 발표되고 있으며, 이 경우 이동 로봇은 가정에서 청소를 하거나 물건을 옮기는 작업을 수행한다.
일반적으로 자율적인 로봇 주행(Autonomous Robot Navigation)을 실현하기 위해서는, 로봇의 동작 환경 내에서 로봇의 위치 정보를 즉각적으로 파악할 수 있는 측위(Localization) 방법, 상기 측위 정보로부터 동작 환경 내에서의 이동 경로를 생성하고 해당 경로를 따라 로봇 플랫폼을 제어하는 가이드(Guidance) 방법, 로봇의 동작 환경에 대한 정보를 수집, 관리하는 환경 지도 작성(Environment Map Building) 방법 등이 요구된다.
특히, 장애물이 있는 환경에서 로봇의 주행을 위해서는 자신의 위치를 추적하고, 주위 환경에 대한 지도를 작성하는 것이 필수적이다. 이는 작성된 지도를 이용하여 로봇의 경로 계획, 객체의 조작 또는 사람과의 통신 등의 작업을 수행할 수 있기 때문이다.
이와 같이, 로봇이 주어진 경로를 따라 주행하거나 새로이 경로를 작성하기 위해서는 자신의 현재 위치에 대한 정보를 언제든지 확인할 수 있어야 하는데, 이를 위해 로봇의 동작 환경 내에 인공 표식(Artificial Landmark)을 설치하거나 자연 표식(Natural Landmark)을 환경 내에서 추출하는 방식을 취한다.
종래의 자연 표식 기반의 환경 지도 작성 방법은, 일반적으로 단일 카메라를 이용한 무빙 스테레오 카메라(Moving Stereo Camera)를 통해 전방의 물체를 촬영하거나 스테레오 카메라를 이용해 전방의 물체를 촬영한 후, 촬영한 영상에서 특징점을 추출하여 주위 환경에 대한 환경 지도를 작성하였다.
그러나, 로봇의 전방에 유리창, 모기장, 투명 아크릴판과 같은 비시인성(非視認性) 장애물이 존재하는 경우, 일반 카메라로는 이를 구분할 수 없어 환경 지도 작성을 위한 특징점을 올바르게 추출할 수 없다는 문제점이 있다.
따라서, 종래의 일반 카메라 기반의 로봇 자율 주행 기술은 비시인성 장애물을 인지하지 못하므로 자율 주행 성능이 떨어지게 된다.
상기 문제점을 해결하기 위한 본 발명의 로봇의 비시인성 장애물 탐지 방법의 바람직한 실시예는, 로봇이 위치하는 제 1 위치에서 전방의 물체를 촬영한 영상 이미지로부터 특징점을 추출하고, 상기 제 1 위치에서의 특징점의 영상 좌표값과 3차원 좌표값을 구하는 단계와, 로봇을 상기 제 1 위치에서 일정 거리를 이동 및 회전하여 제 2 위치에 위치시킬 경우에 예상되는 제 2 위치에서의 특징점의 예상 영상 좌표값 (u, v)를 상기 제 1 위치에서의 특징점의 3차원 좌표값을 이용하여 구하는 단계와, 상기 로봇을 상기 제 2 위치로 이동시킨 후 상기 전방의 물체를 촬영한 영상 이미지로부터 특징점을 추출하고, 상기 추출한 제 2 위치에서의 특징점의 영상 좌표값을 구하는 단계와, 상기 제 2 위치에서의 특징점의 예상 영상 좌표값과 상기 제 2 위치에서의 특징점의 영상 좌표값을 비교하여 비시인성 장애물의 존재 여부를 판단하는 단계를 포함하여 이루어지는 것을 특징으로 한다.
여기서, 상기 제 1 위치에서의 특징점의 영상 좌표값과 3차원 좌표값을 구하는 단계는, 상기 제 1 위치에서 상기 전방의 물체를 촬영하여 거리 정보 이미지를 생성하는 단계와, 상기 제 1 위치에서 상기 전방의 물체를 촬영하여 영상 이미지를 생성한 후, 생성한 영상 이미지에서 특징점을 추출하는 단계와, 상기 제 1 위치에서의 특징점의 영상 좌표를 구한 후, 상기 거리 정보 이미지에서 상기 제 1 위치에서의 특징점의 영상 좌표와 대응되는 영상 좌표의 3차원 좌표값을 구하는 단계를 포함하여 이루어지는 것을 특징으로 한다.
본 발명에 의하면 로봇의 전방에 유리창, 모기장, 투명 아크릴판과 같은 비시인성(非視認性) 장애물이 존재하는 경우에 그 비시인성 장애물을 판단할 수 있어 로봇의 자율 주행 성능을 향상시킬 수 있으며, 이를 통해 정확한 환경 지도를 작성할 수 있다.
이하, 도 1 내지 도 5를 참조하여 본 발명의 로봇의 비시인성 장애물 탐지 방법에 대해 상세히 설명한다.
본 발명을 설명함에 있어서, 본 발명과 관련된 공지기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략하기로 한다. 그리고, 후술 되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.
도 1은 본 발명의 설명을 위해, 본 발명이 적용될 수 있는 주위 환경을 개략적으로 나타낸 도면이다.
이에 도시된 바와 같이, 실내 공간에서 화분(100) 앞에 유리 구조물(200)이 놓여 있다고 할 때, 로봇(300)이 상기 화분(100)의 방향으로 전진하면서 화분(100) 앞에 놓여있는 유리 구조물(200)을 비시인성 장애물로 판단하는 상황을 이하에서 설명하기로 한다.
본 발명의 로봇(300)은 TOF(Time of Flight) 카메라 및 일반 영상 카메라를 구비하는데, 여기서 TOF 카메라와 일반 영상 카메라의 카메라 좌표계는 동일한 것으로 가정한다.
즉, 로봇(300)에서 TOF 카메라와 일반 영상 카메라의 물리적 위치는 서로 다르지만, 두 카메라의 좌표계를 일치시키는 알고리즘을 사용하면 두 카메라의 좌표계를 동일한 것으로 할 수 있다.
도 2는 본 발명의 로봇의 비시인성 장애물 탐지 방법을 나타낸 순서도이다.
이에 도시된 바와 같이, 먼저 로봇이 제 1 위치에 위치할 경우에 TOF 카메라로 전방의 물체를 촬영하여 거리 정보 이미지를 획득하고, 일반 영상 카메라로 전방의 물체를 촬영하여 영상 이미지를 획득한다(S 100).
여기서, 상기 TOF 카메라로부터 획득한 물체의 거리 정보는 로봇 좌표계로서 표현되는데, 로봇 좌표계는 로봇의 소정 부분을 원점으로 하는 로봇 자신의 좌표계를 말하며, 이하에서 로봇 좌표계는 (X, Y, Z)로 표시한다.
그리고, 상기 일반 영상 카메라로부터 획득한 영상 이미지는 영상 좌표계를 통해 표현할 수 있는데, 영상 좌표계는 일반 영상 카메라가 생성한 영상 이미지에서의 소정 위치를 원점으로 설정한 좌표계로서, 기본적으로 2차원 좌표로 표현된다.
즉, 영상 좌표계는 카메라의 영상 평면에 포함되고 서로 수직인 두 개의 선에 의해 이루어지며, 이하에서는 영상 좌표계를 (U, V)로 표시한다. 이러한 로봇 좌표계와 영상 좌표계를 도 3에 도시하였다.
본 발명에서는 상기 TOF 카메라를 이용하여 전방 물체의 3차원 공간상에서의 거리 정보를 얻게 되는데, 여기서 TOF(Time of Flight)는 적외선(Infrared Ray)이 방출된 후, 전방의 물체에 반사되어 검출되는 시간을 의미한다.
상기 TOF(Time of Flight)를 통한 거리 측정 방식에 대해 도 4를 참조하여 살펴보면, TOF(Time of Flight)는 적외선이 IR TOF 카메라의 발광 소자에서 방출된 시각 tt와 상기 적외선이 전방의 장애물에 반사되어 검출된 시각 tr의 차이에 의한 값으로 다음과 수학식 1과 같이 정의된다.
TOF = tr - tt
그리고, 상기 TOF 카메라를 통해 측정되는 물체의 거리 d는 다음 수학식 2와 같이 나타낼 수 있다.
d = (c × TOF)/2
여기서, c는 적외선의 속도를 의미한다.
이와 같이, 본 발명에서는 TOF 카메라로 전방의 물체를 촬영하여 거리 정보 이미지를 획득하기 때문에, 화분(100) 앞에 유리 구조물(200)이 놓여있는 상황에서는 TOF 카메라로부터 획득한 거리 정보는 바로 유리 구조물(200)의 거리 정보가 된다.
다음으로, 제 1 위치에서 상기 일반 영상 카메라로부터 획득한 영상 이미지에서 특징점을 추출한다(S 110). 상기 일반 영상 카메라의 경우 유리 구조물(200)을 인식하지 못하기 때문에, 상기 영상 이미지에서 추출된 제 1 위치에서의 특징점은 화분(100) 영상의 특징점들이 된다.
여기서, 가우시안 피라미드(Gaussian Pyramid) 방법을 이용해 상기 영상 이미지에서 일관된 특성을 갖는 특징점을 추출할 수 있으며, 그외의 다양한 방법으로 특징점을 추출할 수 있다. 상기 추출한 특징점들은 각각 인덱스(Index)를 가지게 된다.
이어서, 상기 TOF 카메라로부터 획득한 물체의 3차원 거리 정보를 이용하여 상기 추출한 특징점의 로봇 좌표계(즉, 3D 좌표)를 추출한다(S 120).
즉, 상기 TOF 카메라로부터 획득한 영상에서 상기 추출한 제 1 위치에서의 특징점의 영상 좌표와 동일한 영상 좌표를 갖는 점들의 로봇 좌표계를 추출한 후, 이를 다음의 표와 같은 형태로 저장하여 둔다.
특징점 영상 좌표 3D 좌표
1 (u1, v1) (x1, y1, z1)
2 (u2, v2) (x2, y2, z2)
3 (u3, v3) (x3, y3, z3)
... ... ...
N (uN, vN) (xN, yN, zN)
본 발명에서는 이와 같이, 일반 영상 카메라를 통해 촬영한 영상에서 특징점을 추출하여 상기 특징점의 영상 좌표를 획득하고, 영상 좌표 매칭을 통해 상기 TOF 카메라를 통해 촬영한 영상에서 상기 특징점의 3D 좌표를 획득한다.
다음으로, 로봇(300)을 제 2 위치로 일정 거리(M) 이동 및 회전(θ)시킬 경우에 예상되는 특징점들의 예상 변화 위치(즉, 특징점 예상 영상 좌표)를 구한다(S 130).
다시 말하면, 상기 로봇(300)을 일정 거리(M) 이동 및 회전(θ)시켜 제 2 위치에 위치시킬 경우에 그 제 2 위치에서 일반 영상 카메라의 영상 평면에 투영될 특징점들의 예상 영상 좌표를 구한다.
여기서, 상기 제 2 위치에서 영상 평면에 투영될 특징점들의 예상 영상 좌표 (u. v)는 다음 수학식 3 및 수학식 4를 통해 구할 수 있다.
Figure 112007079931011-pat00001
여기서, f는 카메라의 초점 거리를 나타내며,
Figure 112007079931011-pat00002
이고,
Figure 112007079931011-pat00003
이며,
Figure 112007079931011-pat00004
이다.
Figure 112007079931011-pat00005
여기서, f는 카메라의 초점 거리를 나타내며,
Figure 112007079931011-pat00006
이고,
Figure 112007079931011-pat00007
이며,
Figure 112007079931011-pat00008
이다.
상기 수학식 3 및 수학식 4에서 x, y, z는 로봇이 이동하기 전인 제 1 위치에서 로봇 좌표계에서 특징점들의 좌표값을 말하는 것으로 이를 도 4에 도시하였다. 여기서, Z축을 카메라의 초점 축 방향으로 하였다.
이어서, 실제로 로봇을 제 2 위치로 이동시키고, 일반 영상 카메라로 전방의 물체를 촬영하여 영상 이미지를 획득한 후, 상기 획득한 영상 이미지에서 특징점을 추출한다(S 140).
연이어, 상기 제 2 위치에서 예상한 특징점들의 예상 영상 좌표와 상기 로봇을 실제로 제 2 위치로 이동시킨 후 촬영한 영상 이미지에서 추출한 특징점들의 영상 좌표를 비교한다(S 150).
상기 비교 결과, 서로 대응되는 특징점들의 영상 좌표의 차이가 미리 설정된 임계값 이상인 경우, 전방에 비시인성 장애물이 있다고 판단한다.
즉, 단계 S 130에서 구한 제 2 위치에서의 특징점 예상 영상 좌표는 수학식 3 및 수학식 4에서 보는 바와 같이, 특징점들의 3D 좌표값이 반영되어 있는데 여기서 3D 좌표값은 화분(100)보다 더 가까운 거리에 위치하는 유리 구조물(200)의 3D 좌표값이다.
따라서, 상기 제 2 위치에서의 특징점 예상 영상 좌표는 화분(100)보다 더 가까운 거리에 있는 유리 구조물(200)의 3D 좌표값이 반영되어 있으므로, 이동하기 전의 특징점 영상 좌표와 비교하여 서로 대응하는 특징점들이 영상 평면상에서 많이 이동하여 있게 된다(도 5a 및 도 5b 참조).
그러나, 단계 S 140에서 구한 제 2 위치에서의 특징점 영상 좌표는 유리 구조물(200)보다 먼 거리에 있는 화분(100)의 영상 이미지에서 추출한 특징점의 영상 좌표이므로, 이동하기 전의 특징점 영상 좌표와 비교하여 서로 대응하는 특징점들이 영상 평면상에서 조금 이동하여 있게 된다(도 5a 및 도 5c 참조).
다시 말하면, 로봇이 제 1 위치에서 전방의 물체를 촬영한 후, 일정 거리를 전진한 제 2 위치에서 전방의 물체를 촬영하는 경우, 먼 거리에 있는 물체보다 가까운 거리에 있는 물체의 특징점들이 더 많은 이동 변화를 보이게 된다.
만약, 화분(100)과 로봇(300) 사이에 유리 구조물(200)이 존재하지 않는다면, 단계 S 100에서 구한 로봇 좌표계는 실제 화분(100)의 3D 좌표값이 되고, 수학식 3 및 수학식 4에서 상기 실제 화분(100)의 3D 좌표값이 반영되므로, 상기 단계 S 150의 비교 결과 특징점들의 영상 좌표가 큰 차이가 나지 않을 것이다.
이와 같이, 본 발명에 의하면 로봇의 전방에 유리창, 모기장, 투명 아크릴판과 같은 비시인성(非視認性) 장애물이 존재하는 경우에도, 장애물을 판단할 수 있어 로봇의 자율 주행 성능을 향상시킬 수 있으며, 이를 통해 정확한 환경 지도를 작성할 수 있다.
이상에서 대표적인 실시예를 통하여 본 발명에 대하여 상세하게 설명하였으나, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 상술한 실시예에 대하여 본 발명의 범주에서 벗어나지 않는 한도 내에서 다양한 변형이 가능함을 이해할 것이다.
그러므로 본 발명의 권리범위는 설명된 실시예에 국한되어 정해져서는 안 되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.
도 1은 본 발명의 설명을 위해, 본 발명이 적용될 수 있는 주위 환경을 개략적으로 나타낸 도면.
도 2는 본 발명의 로봇의 비시인성 장애물 탐지 방법을 나타낸 순서도.
도 3은 본 발명의 로봇 좌표계 및 영상 좌표계를 나타낸 도면.
도 4는 제 1 위치에서 촬영한 영상 이미지에서 추출한 특징점의 3차원 좌표값을 나타낸 도면.
도 5a 내지 도 5c는 본 발명의 제 2 위치에서의 특징점의 예상 영상 좌표값과 실제 제 2 위치에서의 특징점의 영상 좌표값을 비교하는 상태를 나타낸 도면.

Claims (6)

  1. 로봇(300)이 위치하는 제 1 위치에서 전방의 물체를 촬영한 영상 이미지로부터 특징점을 추출하고, 상기 제 1 위치에서의 특징점의 영상 좌표값과 3차원 좌표값을 구하는 단계(S100, S110, S120);
    로봇(300)을 상기 제 1 위치에서 일정 거리를 이동 및 회전하여 제 2 위치에 위치시킬 경우에 예상되는 제 2 위치에서의 특징점의 예상 영상 좌표값 (u, v)를 상기 제 1 위치에서의 특징점의 3차원 좌표값을 이용하여 구하는 단계(S130);
    상기 로봇(300)을 상기 제 2 위치로 이동시킨 후 상기 전방의 물체를 촬영한 영상 이미지로부터 특징점을 추출하고, 상기 추출한 제 2 위치에서의 특징점의 영상 좌표값을 구하는 단계(S140); 및
    상기 제 2 위치에서의 특징점의 예상 영상 좌표값과 상기 제 2 위치에서의 특징점의 영상 좌표값을 비교하여 비시인성 장애물의 존재 여부를 판단하는 단계(S150);를 포함하여 이루어지는 로봇의 비시인성(非視認性) 장애물 탐지 방법.
  2. 제 1 항에 있어서, 상기 제 1 위치에서의 특징점의 영상 좌표값과 3차원 좌표값을 구하는 단계(S100, S110, S120)는;
    상기 제 1 위치에서 상기 전방의 물체를 촬영하여 거리 정보 이미지를 생성하는 단계(S100);
    상기 제 1 위치에서 상기 전방의 물체를 촬영하여 영상 이미지를 생성한 후, 생성한 영상 이미지에서 특징점을 추출하는 단계(S100, S110); 및
    상기 제 1 위치에서의 특징점의 영상 좌표를 구한 후, 상기 거리 정보 이미지에서 상기 제 1 위치에서의 특징점의 영상 좌표와 대응되는 영상 좌표의 3차원 좌표값을 구하는 단계(S120);를 포함하여 이루어지는 것을 특징으로 하는 로봇의 비시인성(非視認性) 장애물 탐지 방법.
  3. 제 2 항에 있어서, 상기 거리 정보 이미지는;
    TOF(Time of Flight) 카메라로 전방의 물체를 촬영하여 생성하는 것을 특징으로 하는 로봇의 비시인성(非視認性) 장애물 탐지 방법.
  4. 제 1 항 내지 제 3 항 중 어느 하나의 항에 있어서, 상기 제 2 위치에서의 특징점의 예상 영상 좌표값 (u, v)를 구하는 단계는;
    하기의 수학식 1 및 수학식 2에 의해 이루어지는 것을 특징으로 하는 로봇의 비시인성(非視認性) 장애물 탐지 방법.
    (수학식 1)
    Figure 112009008139419-pat00009
    여기서, f는 카메라의 초점 거리를 나타내며,
    Figure 112009008139419-pat00010
    이고,
    Figure 112009008139419-pat00011
    이며,
    Figure 112009008139419-pat00012
    이다. 또한, M은 로봇(300)의 이동 거리를 말하고, θ는 로봇(300)의 회전각을 나타낸다.
    (수학식 2)
    Figure 112009008139419-pat00013
    여기서, f는 카메라의 초점 거리를 나타내며,
    Figure 112009008139419-pat00014
    이고,
    Figure 112009008139419-pat00015
    이며,
    Figure 112009008139419-pat00016
    이다.
    한편, x, y, z는 로봇(300)이 이동하기 전인 제 1 위치에서의 특징점들의 3차원 좌표값을 나타낸다.
  5. 제 1 항 내지 제 3 항 중 어느 하나의 항에 있어서, 상기 비시인성 장애물의 존재 여부를 판단하는 단계(S150)는;
    상기 제 2 위치에서의 특징점의 예상 영상 좌표값과 상기 제 2 위치에서의 특징점의 영상 좌표값의 차이가 미리 설정된 임계값이상인 경우, 전방에 비시인성 장애물이 있는 것으로 판단하는 것을 특징으로 하는 로봇의 비시인성(非視認性) 장애물 탐지 방법.
  6. 제1항 내지 제3항 중 어느 하나의 항에 있어서, 상기 특징점의 추출은;
    가우시안 피라미드(Gaussian Pyramid) 방법을 이용하는 것을 특징으로 하는 로봇의 비시인성(非視認性) 장애물 탐지 방법.
KR1020070113173A 2007-11-07 2007-11-07 로봇의 비시인성 장애물 탐지방법 KR100906991B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020070113173A KR100906991B1 (ko) 2007-11-07 2007-11-07 로봇의 비시인성 장애물 탐지방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020070113173A KR100906991B1 (ko) 2007-11-07 2007-11-07 로봇의 비시인성 장애물 탐지방법

Publications (2)

Publication Number Publication Date
KR20090047145A KR20090047145A (ko) 2009-05-12
KR100906991B1 true KR100906991B1 (ko) 2009-07-10

Family

ID=40856684

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070113173A KR100906991B1 (ko) 2007-11-07 2007-11-07 로봇의 비시인성 장애물 탐지방법

Country Status (1)

Country Link
KR (1) KR100906991B1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012018168A1 (ko) * 2010-08-05 2012-02-09 서울대학교산학협력단 타겟 트래킹을 위한 구동 명령 기반 비젼 장치 제어 시스템 및 방법
KR20220082310A (ko) 2020-12-10 2022-06-17 주식회사 리페어코리아 Tof 카메라와 머신러닝 알고리즘을 활용한 자율주행 팔로잉 모빌리티의 동작 방법

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101685151B1 (ko) * 2010-01-08 2016-12-12 삼성전자주식회사 캘리브레이션 장치
KR102583945B1 (ko) * 2021-09-17 2023-10-05 주식회사 알지티 투명 물체 인식 자율 주행 서비스 로봇 수단
KR20240030606A (ko) * 2022-08-31 2024-03-07 주식회사 알지티 자동문 인식 자율 주행 서비스 로봇 수단

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002352225A (ja) 2001-05-23 2002-12-06 Toshiba Corp 障害物検出装置及びその方法
KR100500831B1 (ko) 2002-11-25 2005-07-12 삼성광주전자 주식회사 로봇청소기의 회전각도 산출방법
KR20060021922A (ko) * 2006-01-26 2006-03-08 한민홍 두 개의 카메라를 이용한 장애물 감지 기술 및 장치
KR100752782B1 (ko) 2006-05-26 2007-08-29 주식회사 에이티엠 로봇 작업위치의 3차원적 현출 시스템 및 방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002352225A (ja) 2001-05-23 2002-12-06 Toshiba Corp 障害物検出装置及びその方法
KR100500831B1 (ko) 2002-11-25 2005-07-12 삼성광주전자 주식회사 로봇청소기의 회전각도 산출방법
KR20060021922A (ko) * 2006-01-26 2006-03-08 한민홍 두 개의 카메라를 이용한 장애물 감지 기술 및 장치
KR100752782B1 (ko) 2006-05-26 2007-08-29 주식회사 에이티엠 로봇 작업위치의 3차원적 현출 시스템 및 방법

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012018168A1 (ko) * 2010-08-05 2012-02-09 서울대학교산학협력단 타겟 트래킹을 위한 구동 명령 기반 비젼 장치 제어 시스템 및 방법
KR20220082310A (ko) 2020-12-10 2022-06-17 주식회사 리페어코리아 Tof 카메라와 머신러닝 알고리즘을 활용한 자율주행 팔로잉 모빌리티의 동작 방법

Also Published As

Publication number Publication date
KR20090047145A (ko) 2009-05-12

Similar Documents

Publication Publication Date Title
EP3347875B1 (en) Localization of a robot in an environment using detected edges of a camera image from a camera of the robot and detected edges derived from a three-dimensional model of the environment
US10133278B2 (en) Apparatus of controlling movement of mobile robot mounted with wide angle camera and method thereof
US9836653B2 (en) Systems and methods for capturing images and annotating the captured images with information
CN110801180B (zh) 清洁机器人的运行方法及装置
US8903160B2 (en) Apparatus and method with traveling path planning
KR101423139B1 (ko) 3차원 직선을 이용하여 위치를 인식하고 지도를 생성하는 방법 및 그 방법에 따른 이동체
WO2008013355A1 (en) System and method for calculating location using a combination of odometry and landmarks
KR101555589B1 (ko) 청소기의 제어방법
JPH03201110A (ja) 自律走行車の位置方位検出装置
KR20110011424A (ko) 이동 로봇의 위치 인식 및 주행 제어 방법과 이를 이용한 이동 로봇
Alizadeh Object distance measurement using a single camera for robotic applications
KR100906991B1 (ko) 로봇의 비시인성 장애물 탐지방법
JP4042517B2 (ja) 移動体およびその位置検出装置
JP6328796B2 (ja) マニプレータ制御方法、システム、およびマニプレータ
Tamjidi et al. 6-DOF pose estimation of a portable navigation aid for the visually impaired
Fauadi et al. Intelligent vision-based navigation system for mobile robot: A technological review
TWI532619B (zh) Dual Image Obstacle Avoidance Path Planning Navigation Control Method
CN111571561B (zh) 移动机器人
Poomarin et al. Automatic docking with obstacle avoidance of a differential wheel mobile robot
Wei et al. An approach to navigation for the humanoid robot nao in domestic environments
CN111380535A (zh) 基于视觉标签的导航方法、装置、移动式机器及可读介质
Davidson et al. Depth estimation from motion parallax: Experimental evaluation
KR102047303B1 (ko) 저조도 영상 내 소실점에 기반하여 방향을 추정하는 로봇 및 방법
Krishnan et al. Intelligent indoor mobile robot navigation using stereo vision
Folkesson et al. Sift based graphical slam on a packbot

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130621

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20140701

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20150626

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20160704

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20190702

Year of fee payment: 11