KR100926601B1 - 천장 영상 기반 이동 로봇 장치 및 이의 위치 인식 방법 - Google Patents

천장 영상 기반 이동 로봇 장치 및 이의 위치 인식 방법 Download PDF

Info

Publication number
KR100926601B1
KR100926601B1 KR1020070141851A KR20070141851A KR100926601B1 KR 100926601 B1 KR100926601 B1 KR 100926601B1 KR 1020070141851 A KR1020070141851 A KR 1020070141851A KR 20070141851 A KR20070141851 A KR 20070141851A KR 100926601 B1 KR100926601 B1 KR 100926601B1
Authority
KR
South Korea
Prior art keywords
image
door
feature
mobile robot
ceiling
Prior art date
Application number
KR1020070141851A
Other languages
English (en)
Other versions
KR20090073796A (ko
Inventor
송재복
황서연
Original Assignee
고려대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 고려대학교 산학협력단 filed Critical 고려대학교 산학협력단
Priority to KR1020070141851A priority Critical patent/KR100926601B1/ko
Publication of KR20090073796A publication Critical patent/KR20090073796A/ko
Application granted granted Critical
Publication of KR100926601B1 publication Critical patent/KR100926601B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/088Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/01Mobile robot

Abstract

본 발명은, 영상 입력부와, 엔코더 감지부와, 연산부와, 제어부와, 저장부와, 구동부를 구비하는 이동 로봇 장치를 제공하는 제공 단계와, 상기 영상 입력부를 통하여 입력된 영상 정보를 처리하는 영상 입력 처리 단계와, 상기 영상 정보에 기초하여 도어 특징을 포함 가능한 특징을 추출하는 특징 추출 단계와, 상기 추출된 특징들을 사용하여 상기 이동 로봇 장치의 위치를 인식하는 위치 인식 단계를 포함하는 천장 영상 기반 이동 로봇 위치 인식 방법 및 이동 로봇 장치를 제공한다.

Description

천장 영상 기반 이동 로봇 장치 및 이의 위치 인식 방법{MOBILE ROBOT UNIT BASED ON THE CEILING IMAGE/FEATURE MAP OF THE IMAGE AND THE METHOD FOR RECOGNIZING THE SELF POSITION OF THE SAME}
본 발명은 로봇 장치 및 이의 제어 방법에 관한 것으로, 보다 정확한 위치 인식을 가능하게 하는 천장 영상 기반 이동 로봇 장치 및 이의 위치 인식 방법에 관한 것이다.
로봇에 대한 수요는 산업용으로서 뿐만 아니라 가정용에 대한 수요도 증대되고 있고, 이에 따라 로봇 연구가 활발하게 진행되고 있다. 특히, 종래의 위치 고정된 로봇과는 달리 이동 가능한 이동 로봇에 대한 연구가 활발하게 진행되고 있는데, 이동 가능한 이동 로봇은 주변 환경을 사용하여 자신의 위치를 정확하게 인식하는 기술 및 이를 위하여 기준이 되는 표식을 기점으로 자신의 위치 파악을 가능하게 하는 지도 작성에 대한 기술의 연구가 진행되고 있다.
특히, 주변 환경으로부터 취득되는 정보 중 꼭지점 또는 직선과 같이 특정한 모양을 구비하는 정보를 특징(feature)라고 명명되며, 이들은 이용하여 작성된 지도를 특징 지도(feature map)라고 한다. 특징은 환경 내에서 로봇의 위치를 인식 하기 위한 표식으로 사용되기 때문에 어떠한 특징을 추출하여 이를 사용할 것인지 그리거 추출된 특징이 주변 환경의 변화에 따라 강인한 특성을 갖는지 등과 같은 사항이 정확한 특징 지도를 작성하는데 중요한 인자가 된다.
통상적으로 저가형 소형 로봇의 경우 주행을 위한 상태 감지를 위한 감지 센서로서 적외선 센서와 초음파 센서를 사용하는데, 적외선 센서는 직진성과 심한 노이즈로 인하여 정보 누설로 인한 정확한 지도 작성이 곤란하다. 또한 초음파 센서의 경우 감지 범위가 넓다는 장점이 있으나 이 경우에도 잡음이 심하여 정확한 지도 작성이 곤란하다는 문제점이 존재한다.
이러한 단점들을 극복하기 위하여 천장 영상을 활용할 수 있는 천장지향형 단일 카메라를 구비하는 천장 영상 기반 로봇이 도출되었는데, 천장 영상의 활용이 가능한 천장지향형 단일 카메라를 구비하는 로봇은 사람 또는 장애물과 같은 동적 물체에 의한 간섭을 가능한 배제시킬 수 있고 표식에 대한 안정적인 추적이 가능하다는 장점을 구비하였다. 하지만, 이러한 종래 기술에 따른 천장지향형 단일 카메라를 구비하는 로봇의 경우, 특징으로 코너 특징과 직선 특징을 사용하였는데, 코너 특징의 경우 안정적인 정합이 가능하나 조명 변화등에 따른 밝기 변화에 의하여 정보의 변화가 심하고 직선 특징의 경우 복수의 직선이 구비되는 경우 혼동에 의한 정확한 정합 여부 판단이 어렵다는 문제점이 수반되었다.
본 발명은 천장 영상을 이용하여 위치 인식을 이루되 보다 정확한 위치 인식 을 가능하도록 하는 특징을 사용하는 천장 영상 기반 이동 로봇 장치 및 이의 위치 인식 방법을 제공하는 것을 목적으로 한다.
전술한 목적을 달성하기 위한 본 발명은, 영상 입력부와, 엔코더 감지부와, 연산부와, 제어부와, 저장부와, 구동부를 구비하는 이동 로봇 장치를 제공하는 제공 단계와, 상기 영상 입력부를 통하여 입력된 영상 정보를 처리하는 영상 입력 처리 단계와, 상기 영상 정보에 기초하여 도어 특징을 포함 가능한 특징을 추출하는 특징 추출 단계와, 상기 추출된 특징들을 사용하여 상기 이동 로봇 장치의 위치를 인식하는 위치 인식 단계를 포함하는 천장 영상 기반 이동 로봇 위치 인식 방법을 제공한다.
상기 천장 영상 기반 이동 로봇 위치 인식 방법에 있어서, 상기 특징 추출 단계는: 상기 영상 정보로부터 코너 특징을 추출하는 코너 특징 추출 단계와, 상기 영상 정보로부터 윤곽선을 추출하는 윤곽선 추출 단계와, 상기 영상 정보로부터 직선 특징을 추출하는 직선 특징 추출 단계와, 상기 영상 정보로부터 개방된 문에 대한 도어 특징을 추출하는 도어 특징 추출 단계를 포함할 수도 있다.
상기 천장 영상 기반 이동 로봇 위치 인식 방법에 있어서, 상기 특징 추출 단계는: 상기 영상 정보로부터 천장에 배치되는 조명에 대한 조명 특징을 추출하는 조명 특징 추출 단계를 더 구비할 수도 있다.
또한, 상기 도어 특징은 상기 영상 입력부에서 얻어진 영상의 중심을 통과하는 두 개의 수직선부 및 상기 두 개의 수직선부를 연결하는 수평선부를 포함하되, 상기 도어 특징 추출 단계는 상기 도어 특징에 대응하는 도어 후보를 추출하는 도어 후보 추출 단계를 구비할 수도 있다.
그리고, 상기 도어 후보 추출후, 상기 도어 후보와 동일한 형태를 구비하는 도어 후보 샘플을 사전 설정된 개수로 형성하는 도어 후보 샘플링 단계를 구비할 수도 있고, 상기 도어 특징 추출 단계는: 상기 도어 후보 추출후, 상기 도어 후보에 대한 가상 평면의 설정 여부를 판단하는 가상 평면 설정 판단 단계와, 상기 가상 평면이 설정되지 않은 경우, 상기 영상 입력부 및 상기 엔코더 감지부의 입력 신호에 기초하여 상기 도어 후보 샘플에 대한 추정 영상을 생성하는 샘플링 추정 영상 생성 단계와, 상기 도어 후보 샘플에 대한 추정 영상과 상기 영상 입력부의 현재 영상을 비교하는 샘플 영상 비교 단계를 포함할 수도 있다.
상기 천장 영상 기반 이동 로봇 위치 인식 방법에 있어서, 상기 샘플 영상 비교 단계가 완료된 후, 상기 샘플 영상 비교 단계 결과에 기초하여 상기 도어 후보에 대한 도어 후보 샘플을 재설정하는 리샘플링 단계가 구비될 수도 있고, 상기 리샘플링 단계 후, 상기 도어 후보 샘플의 수렴도를 사전 설정 수렴치와 비교하고, 상기 도어 후보 샘플이 수렴된 것으로 판단되는 경우 상기 도어 후보 샘플이 수렴되는 도어 후보에 대한 가상 평면을 설정할 수도 있다.
또한, 상기 도어 특징 추출 단계는: 상기 가상 평면 설정 판단 단계에서 상기 가상 평면이 설정된 것을 판단되는 경우, 상기 영상 입력부 및 상기 엔코더 감지부의 입력 신호에 기초하여 상기 가상 평면에 대한 가상 평면 내 추정 영상을 생성하는 가상 평면 내 추정 영상 생성 단계와, 상기 가상 평면 내 추정 영상과 상기 영상 입력부의 현재 영상 중 도어 후보 내의 영상을 비교하는 가상 평면 영상 비교 단계를 포함할 수도 있다.
또한, 상기 가상 평면 내 추정 영상과 상기 현재 영상 중 도어 후보 내의 영상의 일치 여부를 판단하고, 상기 가상 평면 내 추정 영상과 상기 현재 영상 중 도어 후보 내의 영상이 서로 불일치하는 경우 상기 도어 후보 샘플이 수렴하는 도어 후보를 도어 특징으로 확정하는 도어 특징 확정 단계를 구비할 수도 있고, 상기 특징 추출 단계는, 상기 영상 정보로부터 천장에 배치되는 조명에 대한 조명 특징을 추출하는 조명 특징 추출 단계를 더 구비하고, 상기 조명 특징 추출 단계는: 상기 이동 로봇 장치의 현재 위치를 확인하는 위치 확인 단계와, 상기 영상 입력부의 영상 정보에 기초하여 영상 내 조명 특징의 존재 여부를 확인하는 조명 특징 판단 단계를 구비할 수도 있다.
상기 천장 영상 기반 이동 로봇 위치 인식 방법에 있어서, 상기 영상 내 조명 특징이 없는 경우, 영상의 밝기를 검출하는 영상 밝기 검출 단계와, 영상 내 영상 밝기가 사전 설정된 밝기 최대값과 동일한 영역에 대한 형상을 저장하는 조명 형상 저장 단계를 포함할 수도 있다.
상기 천장 영상 기반 이동 로봇 위치 인식 방법에 있어서, 상기 위치 인식 단계는: 상기 엔코더 감지부의 신호에 기초하여 상기 이동 로봇 장치의 예측 위치를 예측하는 예측 단계와, 상기 이동 로봇 장치의 예측 위치에서의 연산된 예측 영상 및 상기 영상 감지부로부터의 영상 내 각각의 특징에 기초하여 정합 여부를 판단하는 정합 단계와, 상기 정합 단계에서 정합 정보에 기초하여 상기 이동 로봇 장 치의 위치를 보정하는 추정 단계를 포함할 수도 있고, 상기 정합 단계에서, 상기 이동 로봇 장치의 예측 위치에서의 연산된 예측 영상 및 상기 영상 감지부로부터의 영상 내 각각의 특징에 기초하여 정합되지 않은 것으로 판단하는 경우, 상기 영상 감지부로부터의 영상 내 특징은 새로운 특징으로 설정하여 저장할 수도 있다.
또한, 상기 특징은 개방된 문을 나타내는 도어 특징과 천장의 조명을 나타내는 조명 특징을 포함하되, 상기 정합 단계는: 상기 도어 특징 또는 상기 조명 특징의 형상을 비교하는 단계를 포함할 수도 있다.
본 발명의 다른 일면에 따르면, 구동부에 의하여 위치 이동을 이루는 이동 로봇 장치에 있어서, 천장의 영상 정보를 취득하는 영상 입력부와, 상기 영상 입력부의 영상 정보를 저장하는 저장부와, 상기 저장부에 저장된 영상 정보를 연산하여 예측 영상을 생성하는 연산부와, 상기 저장부로부터의 신호에 기초하여 도어 특징을 포함 가능한 특징을 추출하고, 상기 연산부로부터의 예측 영상과 상기 영상 입력부로부터의 실제 영상을 비교하는 정합 단계를 수행하여 현재 위치를 인식하는 제어부를 포함하는 천장 영상 기반 이동 로봇 장치를 제공한다.
상기한 바와 같은 구성을 갖는 본 발명에 따른 천장 영상 기반 이동 로봇 장치 및 이의 위치 인식 방법은 다음과 같은 효과를 갖는다.
첫째, 본 발명에 따른 천장 영상 기반 이동 로봇 장치 및 이의 위치 인식 방법은, 도어 특징을 활용하여 보다 정확한 특징 맵을 형성함으로써 보다 정확한 위치 인식을 가능하게 하는 천장 영상 기반 이동 로봇 장치 및 제어 방법을 제공할 수 있다.
둘째, 본 발명에 따른 천장 영상 기반 이동 로봇 장치 및 이의 위치 인식 방법은, 단일 카메라를 통하여도 보다 정확한 특징 인지에 의한 위치 인식을 가능하게 함으로써, 장치의 제조 원가를 현저하게 절감시키고 운영 유지비를 감소시켜 비용 절감을 최대화할 수 있는 천장 영상 기반 이동 로봇 장치 및 이의 위치 인식 방법을 제공할 수도 있다.
셋째, 본 발명에 따른 천장 영상 기반 이동 로봇 장치 및 이의 위치 인식 방법은, 조명 특징에 대한 활용을 가능하게 하여 조명의 유무 변화와 같은 주변 환경 변화에도 강인성을 부여하여 보다 정확한 위치 인식을 가능하게 할 수도 있다.
본 발명은 도면에 도시된 일실시예들을 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 다른 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 특허 청구 범위의 기술적 사상에 의해 정해져야 할 것이다.
이하에서는 천장 영상 기반 이동 로봇 장치 및 이의 위치 인식 방법에 대하여 도면을 참조하여 설명하기로 한다.
도 1에는 본 발명의 일실시예에 따른 천장 영상 기반 이동 로봇 장치(10)에 대한 개략적인 블록 선도가 도시되고, 도 2에는 본 발명의 일실시예에 따른 천장 영상 기반 이동 로봇 장치(10)의 개략적인 제어 과정을 나타내는 흐름도가 도시된 다.
본 발명의 일실시예에 따른 천장 영상 기반 이동 로봇 장치(10)는 영상 입력부(100)와, 엔코더 감지부(200)와, 제어부(300)와, 저장부(400)와, 연산부(500)와, 구동부(600)를 포함한다. 제어부(300)는 다른 구성요소들과 전기적 소통을 이루어 입력 신호를 전달받고 각각의 구성요소로 제어 신호를 인가할 수 있다. 영상 입력부(100)는 다양한 구성이 가능한데, 본 실시예에서 영상 입력부(100)는 단안 카메라로 구성된다. 영상 입력부(100)는 단안 카메라로 구현되어 천장 영상(ceiling image)를 취득하는데, 영상 입력부(100)는 단안 카메라의 구성으로 인하여 대상과의 정확한 거리 인지는 용이하지 않다. 연산부(500)는 제어부(300)의 제어 신호에 따라 소정의 연산 과정을 수행하며, 저장부(400)는 사전 설정된 다양한 값들을 기저장하고 제어부(300)의 제어 신호에 따라 필요한 영상 정보 내지 위치 정보들을 저장한다. 구동부(600)는 전기 모터 등으로 구현되고, 제어부(300)의 제어 신호에 따라 구동되어 천장 영상 기반 이동 로봇 장치(10)를 원하는 위치로 이동시킬 수 있는 구동력을 제공한다. 엔코더 감지부(200)는 구동부(300)에 의하여 구동되는 구동륜(미도시)의 회전수 및 회전 각도 등을 감지하는데, 회전 각도는 각각의 구동륜의 회전수의 차이에 따라 연산되어 도출되는 과정을 통하여 이루어질 수도 있다.
도 2에는 본 발명의 일실시예에 따른 천장 영상 기반 이동 로봇 장치(10)의 개략적인 제어 과정을 나타내는 흐름도가 도시되는데, 제어부(300)는 영상 입력부(100)로부터 천장 영상(또는 영상 정보)를 입력받아 영상 정보를 처리한다(S10). 영상 입력 처리 단계(S10)가 실행되기 전에 천장 영상 기반 이동 로봇 장치(10)가 제공되는데, 도 2의 흐름도에서는 표기가 생략되었다. 도 3에는 영상 입력 처리 단계(S10)에 대한 보다 구체적인 흐름의 일예가 도시되는데, 제어부(300)는 영상 입력부(100)에 제어 신호를 인가하여 단안 카메라로 구현되는 영상 입력부(100)가 현재 천장 영상 기반 이동 로봇 장치(10)의 위치에서의 천장(ceiling)에 대한 영상 정보를 취득하도록 하고 이를 제어부(300)로 입력하도록 한다(S11). 제어부(300)는 입력된 영상 또는 영상 정보의 왜곡 여부를 판단하여(S12), 영상 또는 영상 정보에 화상 왜곡이 존재하는 경우, 이를 연산부(500)로 전달하여 영상에 대한 보정을 수행하는 영상 보정 단계를 수행한다(S13). 도 4 및 도 5에는 영상 보정 전후의 영상에 대한 개략적인 일예들이 도시되는데, 단안 카메라로 구현되는 영상 입력부(100)는 천장 영상에서의 특징을 추출하고 이를 지속적으로 추적할 수 있도록 하는 영상 또는 영상 정보를 얻을 수 있도록 넓은 시야를 확보하기 위하여 취득되는 영상 정보에 왜곡이 발생한다. 연산부(500)는 제어부(400)의 제어 신호에 따라 영상 입력부(100)로부터 입력되는 영상 또는 영상 정보를 가공하여 왜곡 현상을 보정한다. 영상 보정이 완료되거나 또는 영상 보정이 불필요하다고 판단한 경우, 연산부(500)는 보정된 영상 또는 영상 정보를 제어부(300)로 출력한다(S14).
그런 후, 제어부(300)는 특징 추출 단계(S20)를 수행하는데, 제어부(300)는 화상 왜곡 등이 보정된 영상에 기초하여 현재 영상 내에 존재하는 특징을 추출한다. 본 발명의 일실시예에 따른 천장 영상 기반 이동 로봇 장치의 위치 인식 방법에 수행되는 특징 추출 단계에서 얻어지는 특징 중에는 도어 특징이 포함된다. 도 6에는 본 발명의 일실시예에 따른 특징 추출 단계에 대한 일예가 도시되는데, 먼 저, 영상 정보로부터 코너 특징이 추출되고(S21), 영상 정보에서의 윤곽선이 추출되고(S22), 얻어진 윤곽선들로부터 직선 특징이 추출된다(S23). 직선 특징이 추출된 후, 도어 특징이 추출되는데(S25), 본 실시예에서는 도어 특징 추출 후, 조명 특징이 추출되는 단계를 더 구비한다. 도 7에는 천장 영상 기반 이동 로봇 장치(10)가 취득하는 천장의 영상 정보에서 얻어지는 특징 중 코너 특징과 직선 특징에 대한 개략적인 상태도가 도시된다. 영상 정보로부터 코너 특징, 윤곽선 추출 및 직선 추출이 이루어지는 단계들이 수행되는데, 코너 특징은 영상 정보에서의 물체 끝에 각진 부분이나 두 선이 교차하는 부분으로 형성된다. 영상 정보로부터 윤곽선 추출이 이루어진 후, 다양한 직선이 얻어지는데, 이들 직선 중 사전 설정된 길이 이상의 직선을 특징으로서의 직선 특징으로 설정한다. 직선 특징은 인접 직선들과 혼동 우려등이 있는 반면, 코너 특징은 주변 부분과 확연하게 구별 가능한 바 코너 특징은 위치 인식을 위한 표식으로 즉시 사용될 수 있다. 영상 정보로부터 코너 특징, 윤곽선 추출 및 직선 추출 단계는 통상적인 영상 정보 처리 과정과 동일하므로 이에 대한 구체적 설명은 생략한다.
도어 특징 추출 단계(S25)에서 도어 특징이 추출되는데, 도어 특징은 천장 영상 기반 이동 로봇 장치(10)가 관통하여 주행 가능한 개방된 문에 대한 특징을 나타낸다. 도어 특징은 공간을 분할하는 경계로 사용될 수 있는데, 도어 특징은 두 개의 수직선부와 한 개의 수평선부를 포함한다. 도 8에는 도어 특징을 추출하는 도어 특징 추출 단계(S25)에 대한 일예로서의 보다 구체적인 제어 흐름이 도시된다. 여기서, 제어 흐름을 계수하는 도어 특징 추출 계수(n)가 구비되는데, 도어 특징 추출 계수(n)는 도어 특징 추출이 시작하는 경우 n=1의 값을 가지도록 설정되고, 소정의 단계를 수행한 경우 n=2로 설정되며, 도어 특징 추출이 완료되는 경우 n=1로 리셋된다.
도어 특징 추출 단계(S25)가 수행되는 경우, 제어부(300)는 도어 특징 추출 계수(n)를 1로 설정하고, 제어부(300)는 도어 특징 추출 계수(n)가 1인지 여부를 판단하여 도어 특징 추출 단계를 수행하기 위한 초기 진행 여부를 판단한다(S210). 그런 후, 도어 특징 추출 계수(n)가 1인 경우, 제어부(300)는 도어 후보 추출 단계(S211)를 수행한다. 도어 후보는 도어 특징에 해당하는지 여부가 판단되어지는 대상으로, 도어 특징에 대한 요건이 충족되는 경우 도어 후보는 도어 특징으로 확정된다. 본 발명에서 도어 특징은 두 개의 수직선부와 한 개의 수평선부를 포함하는데, 도 9에는 도어 특징을 설명하기 위한 개략적인 사시도가 도시되고, 도 10에는 도 9의 천장 영상 기반 이동 로봇 장치(10)의 영상 입력부(100)가 취득한 영상이 도시된다. 개방된 도어(문)는 천장 영상 기반 이동 로봇 장치(10)가 이동하는 지면에 수직하는 기둥과 두 개의 기둥의 상단을 연결하는 상단 틀로 형성된다. 따라서, 이동 로봇 장치의 영상 입력부에서 얻어지는 영상 정보는 도 9에 도시된 바와 같은 도면 부호 'A'로 지시되는 영상 평면에서 취득되고, 이와 같은 영상 평면은 도 10에 도시된 바와 같이 표시되는데, 지면에 수직하게 형성되는 기둥의 연장선은 영상의 중심을 통과하고, 지면에 수평한 상단 틀은 천장 영상 기반 이동 로봇 장치(10)의 이동과 회전에 영향을 받지만 기둥을 연결하는 구성을 취한다. 따라서, 영상에서 지면에 수직하는 기둥은 두 개의 수직선부에 대응하고 상단 틀은 수 평선부에 대응한다. 도 10에 도시된 천장 영상 기반 이동 로봇 장치(10)의 영상 입력부(100)에서 취득한 영상에 있어, 기둥에 대응하는 수직선부와 상단 틀에 대응하는 수평선부는 각각 복수 개의 직선으로 구현되는데, 제어부(300)는 연장선이 동일한 중심을 관통하되 중심으로부터 소정의 반경을 이루는 위치에서의 선분 간의 거리가 사전 설정된 소정의 간극 이하의 값을 가지는 경우 복수 개의 직선은 단일의 기둥에 대응하는 단일의 수직선부라고 판단하고, 상단 틀에 대응하는 복수 개의 직선으로 한 쌍의 수직선부를 연결하고 소정의 간극 거리를 이루는 경우 이들을 단일의 수평선부로 인식한다.
이와 같이 도어 특징을 이루는 두 개의 수직선부와 한 개의 수평선부를 구비하는 대상이 존재하는지 여부를 판단하고(S212), 도어 후보가 존재하지 않는 경우 제어부(300)는 제어 흐름을 하기되는 단계 S235로 이동하여 도어 특징이 존재하지 않는 것으로 판단하여 이를 확정하고 도어 추출 단계의 수행을 종료한다.
반면, 도어 후보가 존재하는 것으로 제어부(300)가 판단하는 경우(S212), 제어부(300)는 검출된 도어 후보에 대한 도어 후보 샘플링 단계(S213)를 수행한다. 도어 후보 샘플링 단계(S213)에서 제어부(300)는 도어 후보와 동일한 형태를 구비하는 도어 후보 샘플을 사전 설정된 개수로 형성하는데, 도 11에는 도어 후보 샘플링 단계에 대한 개략적인 사시도가 도시되는데, 본 발명의 영상 입력부(100)는 단안 카메라로 사용되어 거리 인식이 곤란한 바, 영상 입력부(100)에서 얻어진 도어 후보에 대한 영상은 천장 영상 기반 이동 로봇 장치(10)로부터 실제로 어느 정도 떨어져 있는 지에 대한 판단이 곤란한 바, 도어 후보 샘플은 동일한 각도 방향으로 동일한 방사 선분 상에 배치되는 구조로 형성된다. 본 실시예에서 도어 후보 샘플의 개수는 200개 정도로 설정되는데, 이는 본 발명의 일예로서 보다 정확한 제어 과정을 위해서 보다 많은 개수의 도어 후보 샘플링이 이루어질 수도 있고, 경우에 따라 신속한 제어 과정을 위하여 보다 적은 개수의 도어 후보 샘플링이 이루어질 수도 있는 등 설계 사양에 따라 다양한 선택이 가능하다.
그런 후, 도어 특징 추출 계수(n)를 증가시키는데(S215), 도어 특징 추출 단계(S25)는 단일의 제어 흐름만을 수행이 완료되어 도어 후보가 추출되지 않고 수회의 반복 과정을 통하여 얻어진다. 즉, 도어 특징 추출 단계(S25)는 가상 평면 설정 판단 단계(S220)와, 샘플링 추정 영상 생성 단계(S221)와 샘플 영상 비교 단계(S223)를 포함한다. 도어 특징 추출 계수(n)가 1이 아닌 경우, 즉 도어 후보가 추출되고 도어 후보 샘플링이 완료된 경우, 제어부(300)는 가상 평면 설정 여부를 판단하는 가상 평면 설정 판단 단계(S220)를 수행한다. 여기서, 가상 평면이란 도어 후보을 포함하고 지면에 수직한 가상의 평면으로 도어 후보에 대하여 설정된 수 개의 도어 후보 샘플이 수렴되는 도어 후보(도어 후보 샘플)에 대한 평면을 의미하는데, 가상 평면은 도어 후보가 개방된 도어(문)을 나타내는 도어 특징으로서 확정 가능한지 여부를 판단하기 위한 기초로 사용된다.
제어부(300)가 가상 평면이 형성되지 않은 것으로 판단하는 경우, 제어부(300)는 사전 설정된 개수의 도어 후보 샘플에 대하여 현재 천장 영상 기반 이동 로봇 장치(10)의 위치에서의 샘플링 추정 영상을 생성한다(S221). 즉, 제어부(300)는 저장부(400) 및 연산부(500)를 사용하여, 전회의 도어 후보 샘플링 단 계(S213)에서 얻어진 각각의 도어 후보 샘플에 대하여 천장 영상 기반 이동 로봇 장치(10)가 이동한 상태에서의 얻어질 수 있는 위치에 대하여 추정되는 영상을 생성한다. 도 12에는 본 발명의 일실시예에 따른 천장 영상 기반 이동 로봇 장치(10)의 시간 경과에 따라 위치 이동시 도어 후보 샘플에 대한 추정 영상 관계를 설명하기 위한 개략적인 상태도가 도시되는데, 천장 영상 기반 이동 로봇 장치(10)는 시간 t1으로부터 시간 t2만큼 시간 변위를 이루는 경우, 각각에 대응하는 위치로 이동한다. 여기서, 선 O-O는 천장 영상 기반 이동 로봇 장치(10)의 영상 입력부(100)에 대한 중심선을 나타내고, 각선분 AOA는 선 O-O를 중심으로 각각의 측방향으로 가중치 각도 ±θ만큼 각도의 범위를 갖는 각선분을 나타내는데, 각선분 AOA는 도어 후보 샘플 중 하기되는 유력한 도어 후보 샘플을 기준으로 새로운 도어 후보 샘플을 설정하기 위하여 사용되는 결정 기준으로 사용된다.
먼저, 가상 평면이 설정되지 않은 것으로 판단되는 경우, 제어부(300)는 도어 후보에 대한 수 개의 도어 후보 샘플 중 유력한 도어 후보 샘플이 선택 내지 수렴되지 않은 것으로 판단하고, 현재 시간 t2에서 천장 영상 기반 이동 로봇 장치(10)가 얻을 수 있을 것이라고 추정되는 전회 시간 t1에서 얻어진 도어 후보 샘플에 대한 추정 영상을 생성한다. 전회 시간 t1에서 얻어진 도어 후보 샘플에 대하여 연산되어 시간 t2에서 보여질 것으로 예상 추정되는 영상은 전회 시간 t1에서 영상 입력부(100)로부터 얻어진 영상과, 천장 영상 기반 이동 로봇 장치(10)의 엔코더 감지부(200)로부터 얻어진 천장 영상 기반 이동 로봇 장치(10)의 이동 및 회전 정보에 기초하여 연산부(500)가 연산하여 생성한다.
시간 t1에서 설정된 도어 후보 샘플에 대한 시간 t2에서 추정된 영상 생성이 완료된 경우, 제어부(300)는 샘플링 추정 영상과 현재 시간 t2에서 영상 입력부(100)로부터 얻어진 현재의 영상을 비교하는 샘플 영상 비교 단계를 수행한다(S223). 이와 같은 샘플 영상 비교 단계(S223)를 통하여, 제어부(300)는 샘플 추정 영상과 현재 얻어진 영상 간에 가장 유사한 샘플 추정 영상을 선택하고, 이에 대응하는 도어 후보 샘플을 유력한 도어 후보 샘플로 선정한다.
샘플 영상 비교 단계(S223)가 완료된 후, 샘플 영상 비교 단계 결과에 기초하여 도어 후보에 대한 도어 후보 샘플을 재설정하는 리샘플링 단계(S225)를 수행한다(S225). 즉, 제어부(300)는 샘플 영상 비교 단계를 통하여 얻어진 유력한 도어 후보 샘플을 기준으로 도어 후보에 대한 도어 후보 샘플을 재설정하는데, 전회, 즉 시간 t1에서의 선 O-O와 본회, 즉 시간 t2에서의 각선분 AOA와 교차되는 교차점 B1,B2 사이에 배치되는 선 B1-B2 사이의 영역에서 새로운 도어 후보 샘플이 선정된다. 여기서, 샘플 추정 영상과 시간 t2에서의 현재 영상의 비교를 통하여 가장 유사한 것으로 판단되어지는 유력한 도어 후보 샘플은 선 B1-B2에 배치되는데, 가중치 각도 ±θ는 각선분 AOA을 이루는 사이 각도로 사용되어 유력한 도어 후보 샘플을 기준으로 수렴 영역을 한정시킴으로써, 재샘플링시 신속한 수렴 과정을 이루도록 한다. 도 12에서 축 C1-C2로 이루어지는 도표는 유력한 도어 후보 샘플을 기준으로 도어 후보 샘플을 재설정하는데 사용되는 가중치 값을 변화시키기 위한 가중치 선도가 도시되는데, 가중치(w)에 대한 가중치 선도의 면적의 합은 1을 이룬다. 여기서, 가중치 선도는 삼각형 형상을 이루도록 설정되었으나, 이는 일예일뿐 설계 사양에 따라 포물선 형상으로 형성될 수도 있는 등 다양한 변형이 가능하다.
리샘플링 단계가 완료된 후, 제어부(300)는 도어 후보 샘플에 대한 수렴도를 사전 설정 수렴치와 비교한다(S227). 도어 후보 샘플의 위치를 천장 영상 기반 이동 로봇 장치(10)가 이동하는 지면에 투영시키는 경우, 도 12의 축 D1-D2와 같은 선도로 표현되는데, 도어 후보 샘플은 시간 t1에서의 선 O-O과 평행한 장방향의 타원형으로 표현 가능한데, 도어 후보 샘플의 수렴도는 축 D1-D2에서의 장방향 축선 길이를 수렴 길이(l)로 설정하고 이를 사전 설정된 수렴치로서의 사전 설정 수렴 길이(ls)와 비교하여 도어 후보 샘플의 수렴 여부를 판단한다. 예를 들어, 사전 설정 수렴 길이(ls)가 약 50cm로 설정된 경우, 수렴 길이(l)가 50cm 이하로 약 40cm 정도의 길이를 가지는 경우, 사전 설정된 개수로 샘플링된 도어 후보 샘플이 유력한 도어 후보 샘플을 중심으로 수렴을 이루었다고 판단하고, 유사도가 가장 높고 가중치가 가장 높은, 즉 도어 후보에 해당할 확률이 가장 높은 도어 후보 샘플을 도어 후보로 설정하여 도어 후보 샘플이 수렴되었다고 판단한다. 그런 후, 제어부(300)는 수렴되었다고 판단되고 확률이 가장 높은 도어 후보 샘플에 대한 가상 평면을 형성하는데, 가상 평면은 지면에 수직한 형태로 구현된다(S229). 도 12 및 도 13에 도시된 바와 같이, 시간 t1에서 시간 t2로 시간 경과시 천장 영상 기반 이동 로봇 장치(10)는 위치 이동을 이루고, 수렴된 도어 후보 샘플에 대하여 지면에 수직한 가상 평면을 설정한다.
도어 특징 추출 단계(S25)는 가상 평면 내 추정 영상 생성 단계(S230)와, 가상 평면 영상 비교 단계(S231)를 포함하는데, 제어부(300)는 단계 S220에서 가상 평면이 설정된 것으로 판단하는 경우, 제어부(300)는 저장부(400)에 기저장된 시간 전회 시간에서의 영상 정보를 사용하여 현재 시간에서의 가상 평면 내 추정 영상을 생성한다(S230). 이러한 가상 평면 내 추정 영상 생성은 저장부(400)에 저장된 전회의 가상 평면에 대응하는 도어 후보 샘플에 대한 영상으로부터 연산부(500)를 통하여 새로이 얻어질 수 있으나, 천장 영상 기반 이동 로봇 장치(10)의 위치 인식에 대한 제어 주기가 빠른 경우, 별도의 연산을 거치지 않고 전회에 생성된 샘플링 추정 영상을 그대로 사용하는 구조를 취할 수도 있다.
그런 후, 제어부(300)는 생성된 가상 평면 내 추정 영상을 천장 영상 기반 이동 로봇 장치(10)의 영상 입력부(100)로부터 얻어진 현재 영상(왜곡 보정이 이루어진)과 비교하고(S231), 양자의 일치 여부를 판단한다(S233). 도 14는 전회 시간에서 영상 입력부에서 얻어진 가상 평면(Pv1)에 대한 영상을 나타내고, 도 15는 가상 평면 내 추정 영상과 현재 시간에서의 실제 영상이 일치하는 경우에 대한 영상을 나타내고, 도 16은 가상 평면 내 추정 영상과 현재 시간에서의 실제 영상이 불일치하는 경우에 대한 영상을 나타낸다.
도 14에서 전회 시간에서의 가상 평면(Pv1) 내에 윤곽선(Tv1)이 인식되고, 도 15에는 천장 영상 기반 이동 로봇 장치(10)가 이동/회전한 경우의 가상 평면(Pv2)에서의 추정된 영상에서의 윤곽선(Tv2, 점선)은 현재 영상 입력부에서 얻어진 도어 후보에 대한 영상에서의 윤곽선(TR2)이 도시되는데, 각각의 추정 영상 및 현재 영상에서의 윤곽선(Tv2 및 TR2)는 서로 일치한다. 추정 영상에서의 윤곽선(Tv2)은 가상 평면(Pv2)이 벽과 같은 밀폐된 상태라고 가정하여 전회 시간에서의 가상 평면(Pv1)에 대한 정보를 엔코더 감지부(200)로부터 얻어지는 천장 영상 기반 이동 로봇 장치(10)의 이동/회전 정보를 사용하여 연산한 것이어서, 양자가 일치하는 경우 가상 평면(Pv2)은 밀폐된 상태, 즉 개방된 도어가 아니라고 판단한다. 반면, 도 16에는 천장 영상 기반 이동 로봇 장치(10)가 이동/회전한 경우의 가상 평면(Pv2)에서의 추정된 영상에서의 윤곽선(Tv2, 점선)과 현재 영상 입력부에서 얻어진 도어 후보에 대한 영상에서의 윤곽선(TR2)이 도시되는데, 천장 영상 기반 이동 로봇 장치(10)가 이동/회전 한 경우의 가상 평면(Pv2)은 영상 입력부에서 얻어진 영상에서의 도어 후보와 일치하나, 각각의 추정 영상 및 현재 영상에서의 윤곽선(Tv2 및 TR2)는 서로 불일치한다. 추정 영상에서의 윤곽선(Tv2)은 가상 평면(Pv2)이 벽과 같은 밀폐된 상태라고 가정하여 전회 시간에서의 가상 평면(Pv1)에 대한 정보를 엔코더 감지부(200)로부터 얻어지는 천장 영상 기반 이동 로봇 장치(10)의 이동/회전 정보를 사용하여 연산한 것이어서, 양자가 불일치하는 경우 가상 평면(Pv2)은 밀폐되지 않은 상태, 즉 개방된 도어라고 판단한다.
따라서, 제어부(300)가 단계 S233에서 가상 평면 내 영상과 실제 영상에서의 도어 후보 내의 영상이 일치하는 경우, 수렴된 도어 후보 샘플로서의 도어 후보는 개방된 도어가 아닌 벽 내지 밀폐된 도어로 판단한다(S235). 반면, 제어부(300)가 단계 S233에서 가상 평면 내 영상과 실제 영상에서의 도어 후보 내의 영상이 불일치하는 경우, 수렴된 도어 후보 샘플로서의 도어 후보는 개방된 도어로 판단하여 수렴된 도어 후보 샘플로서의 도어 후보를 도어 특징으로 확정하는 도어 특징 확정 단계(S237)를 수행하고, 도어 특징 추출 계수(n)를 리셋하여 n=1의 값으로 재설정한다(S239). 상기와 같은 도어 특징 추출 단계(S25)는 보다 정확한 위치 인식을 위하여 상당한 연산 시간 내지 도출 시간을 요하는 바, 각각의 도어 특징 추출 단계는 천장 영상 기반 이동 로봇 위치 인식 방법에 대한 수회의 제어 주기를 거친 후에 도출될 수도 있다.
특징 추출 단계(S20)는 도어 특징 추출 단계(S25)를 수행한 후, 경우에 따라 조명 특징 추출 단계(S27)를 더 구비할 수도 있다. 도 17에 도시된 바와 같이, 조명 특징 추출 단계(S27)는 영상 입력부(100)를 통하여 입력되는 영상 정보로부터 천장에 배치되는 조명에 대한 조명 특징을 추출하는 단계인데, 조명 특징 추출 단계(S27)는 위치 확인 단계(S270)와, 조명 특징 판단 단계(S271)를 포함한다. 위치 확인 단계(S270)에서 제어부(300)는 천장 영상 기반 이동 로봇 장치(10)의 현재 위치를 인지하는데, 천장 영상 기반 이동 로봇 장치(10)의 현재 위치는 엔코더 감지부(200)의 신호에 기초하여 연산될 수 있다. 조명 특징 판단 단계(S271)에서 제어부(300)는 영상 입력부(100)로부터 입력되는 영상 정보에 기초하여 저장부(400)에 저장된 특징에 대한 위치 정보와 엔코더 감지부(2000로부터의 위치 정보를 사용하여 해당 위치에서의 영상 내 조명 특징이 존재하는지 여부를 확인 판단한다.
영상 내 조명 특징이 없다고 판단되는 경우, 제어부(300)는 영상 밝기 검출 단계(S275)와 조명 형상 저장 단계(S277)를 수행한다. 즉, 제어부(300)가 영상 내 조명 특징이 존재하지 않는다고 판단하는 경우, 제어부(300)는 영상 입력부(100)로부터 입력된 현재의 영상 밝기, 즉 영상 내 화소의 밝기 검출을 수행하고(S275), 검출된 영상 밝기를 설정된 영상 밝기 최대값(Bmax)과 비교한다(S276). 영상 밝기 가 영상 밝기 최대값과 동일한 화소가 존재하지 않는 경우, 제어부(300)는 영상 내 조명 특징이 존재하지 않는다고 판단하고 조명 특징의 부재를 확정하며(S278), 천장 영상 기반 이동 로봇 장치(10)의 위치 인식 과정에 이를 반영하지 않는다. 반면, 영상 밝기를 동일 밝기의 화소 별로 그룹핑을 수행하고, 그룹핑된 화소중 영상 밝기 최대값과 비교하여 도 18에 도시된 바와 같이 이들 동일한 화소의 윤곽선을 기준으로 조명의 형상 및 위치를 저장하며(S277), 조명 특징의 존재를 확정하여(S274) 이를 위치 인식 과정에 반영한다.
또한, 영상 내 조명 특징이 존재한다고 판단되는 경우, 제어부(300)는 영상 내 윤곽선 검출을 통하여 폐곡선 존재 여부를 검색하고(S272), 검색된 폐곡선을 저장부(400)에 저장된 조명 특징과 비교한다(S273). 폐곡선 형상과 저장된 조명 특징의 형상이 일치하는 경우, 조명 특징의 존재를 확정하여(S274) 이를 위치 인식 과정에 반영한다. 반면, 폐곡선 형상과 저장된 조명 특징의 형상이 일치하지 않는 경우, 제어부(300)는 조명 특징이 부재하는 것으로 확정하고(S278), 천장 영상 기반 이동 로봇 장치(10)의 위치 인식 과정에 이를 반영하지 않는다.
특징 추출 단계(S20)가 수행된 후, 제어부(300)는 천장 영상 기반 이동 로봇 장치(10)의 위치 인식 단계(S30)를 수행하는데, 위치 인식 단계(S30)는 추출된 특징들을 사용하여 이동 로봇 장치의 위치를 인식한다. 도 19에는 본 발명의 일실시예에 따른 위치 인식 단계(S30)에 대한 개략적인 흐름도가 도시되고, 도 20에는 본 발명의 일실시예에 따른 천장 영상 기반 이동 로봇 장치(10)의 이동 경로 및 엔코더 감지부로부터의 정보에 기초한 예측 경로를 나타내는 개략적인 선도가 도시된다. 위치 인식 단계(S30)는 예측 단계(S31)와 정합 단계(S33)와 추정 단계(S35)를 포함하는데, 예측 단계(S31)는 엔코더 감지부(200)의 신호에 기초하여 이동 로봇 장치의 예측 위치를 예측한다. 여기서, 예측 위치는 전회 시간에서의 위치에서 엔코더 감지부(200)로부터의 신호에 기초하여 본회 시간에서 이동되었을 것이라고 예측되는 위치를 나타내는데, 도 20에서 초기 위치 s0로부터 시간이 t=t1, t=t2로 경과하는 동안 엔코더 감지부(100)로부터의 정보에 기초하여 예측된 s1, s2의 예측 위치는 경우에 따라 실제 위치 s1',s2'와 불일치할 수도 있다. 한편, 영상 입력부(100)로부터 얻어지는 실제 영상에서 얻어지는 특징에 대한 위치는 불확실 영역(도 21 참조; 도 12의 축 D1-D2 참조) 상에 배치되고, 하기되는 특징의 정합 여부는 예측 영상에서의 특징이 실제 영상에서의 특징에 대한 불확실 영역 상에 배치되는지 여부를 판단함으로써 이루어진다. 즉, 제어부(300)는 천장 영상 기반 이동 로봇 장치(10)의 예측 위치에서의 연산부(500)에 의하여 연산된 예측 영상 및 영상 감지부(100)로부터의 영상 내 각각의 특징에 기초하여 정합 여부를 판단하는 정합 단계(S33)를 수행한다. 정합 단계(S33)에서 예측 영상 및 영상 감지부(100)로부터의 영상 내 각각의 특징의 정합이 이루어지지 않은 것으로 판단되는 경우, 제어부(300)는 정합되지 않은 특징을 새로운 특징으로 인식하여 이를 저장부(400)에 저장한다. 예를 들어, 제어부(300)는 예측 위치에서의 예측 영상에서의 특징과 실제 영상에서의 특징의 위치를 비교하는데, 실제 영상에서의 특징에 대한 불확실 영역 내에 예측 영상에서의 특징이 위치하지 않는 경우 제어부(300)는 영상 입력부(100)로부터 얻어진 실제 영상에서의 정보와 엔코더 감지부로부터의 정보를 사용하여 실제 영상 내의 특징을 새로운 특징으로 파악하고 새로운 특징에 대한 위치를 저장부(400)에 저장한다. 반면, 예측 영상에서의 특징이 실제 영상에서의 특징에 대한 불확실 영역 내에 배치되는 경우, 제어부(300)는 양자가 정합된 것으로 판단하고 구체적 비교를 통하여 오차 여부 및 이를 위치 인식 과정에 반영할 정도를 판단한다. 즉, 제어부(300)는 양자가 정합된 것으로 판단된 경우, 특징의 구체적 비교를 통하여 특징의 오차 여부에 의한 위치 오차 보정 정도를 판단하고 산출한다. 이러한 일치 정도는 코너 특징의 경우 실제 영상에서의 특징 영상과 예측 영상에서의 특징 영상에 대한 화소의 밝기 비교를 통하여 이루어질 수도 있고, 도어 특징 및 조명 특징은 특징의 형상 비교를 통하여 이루어질 수도 있다.
정합 여부 및 일치 정도가 판단된 경우, 제어부(300)는 추정 단계(S35)를 수행하는데, 추정 단계(S35)에서 제어부(300)는 정합 여부 및 정합 정도(특징의 오차 여부에 의한 위치 오차 보정 정도)에 기초하여 천장 영상 기반 이동 로봇 장치(10)의 위치를 보정한다.
상기 실시예들은 본 발명을 설명하기 위한 일예들로, 본 발명이 이에 국한되는 것은 아니다. 조명 특징은 선택적으로 고려되는 위치 인식 방법을 취할 수도 있는 등, 이동 로봇 장치의 위치 인식을 이루는 과정에서 도어 특징을 포함하는 특징을 추출하고 이를 사용하여 위치 인식을 이루는 범위에서 다양한 변형이 가능하다.
도 1은 본 발명의 일실시예에 따른 천장 영상 기반 이동 로봇 장치의 개략적인 블록선도이다.
도 2는 본 발명의 일실시예에 따른 천장 영상 기반 이동 로봇 장치의 위치 인식 방법에 대한 개략적인 제어 흐름도이다.
도 3은 본 발명의 일실시예에 따른 천장 영상 기반 이동 로봇 장치의 위치 인식 방법의 영상 입력 처리 단계에 대한 흐름도이다.
도 4 및 도 5는 본 발명의 일실시예에 따른 천장 영상 기반 이동 로봇 장치의 영상 입력부에서 얻어진 영상 및 이의 왜곡 보정을 이룬 영상에 대한 개략적인 선도이다.
도 6은 본 발명의 일실시예에 따른 천장 영상 기반 이동 로봇 장치의 위치 인식 방법의 특징 추출 단계에 대한 흐름도이다.
도 7은 본 발명의 일실시예에 따른 천장 영상 기반 이동 로봇 장치의 위치 인식 방법의 특징 추출 단계에서 추출되는 특징들에 대한 개략적인 선도이다.
도 8은 본 발명의 일실시예에 따른 천장 영상 기반 이동 로봇 장치의 위치 인식 방법의 도어 특징 추출 단계에 대한 흐름도이다.
도 9는 본 발명의 일실시예에 따른 천장 영상 기반 이동 로봇 장치의 위치 인식 방법의 도어 특징 추출 단계에서 추출되는 도어 특징을 설명하기 위한 개략적인 선도이다.
도 10은 본 발명의 일실시예에 따른 천장 영상 기반 이동 로봇 장치의 영상 입력부에서 얻은 영상에서의 도어 특징 또는 도어 후보에 대한 개략적인 선도이다.
도 11은 본 발명의 일실시예에 따른 천장 영상 기반 이동 로봇 장치의 위치 인식 방법의 도어 추출 단계 중 도어 후보 샘플링 단계에 대한 개략적인 상태도이다.
도 12는 본 발명의 일실시예에 따른 천장 영상 기반 이동 로봇 장치의 시간 경과에 따라 위치 이동시 도어 후보 샘플에 대한 추정 영상 관계를 설명하기 위한 개략적인 상태도이다.
도 13은 시간 t1에서 시간 t2로 시간 경과에 따른 천장 영상 기반 이동 로봇 장치의 위치 이동 시 수렴된 도어 후보 샘플에 대하여 지면에 수직하게 설정된 가상 평면에 대한 개략적인 사시도이다.
도 14는 전회 시간에서 영상 입력부에서 얻어진 가상 평면(Pv1)에 대한 영상을 나타내는 개략적인 선도이다.
도 15는 가상 평면 내 추정 영상과 현재 시간에서의 실제 영상이 일치하는 경우에 대한 영상을 나타내는 개략적인 선도이다.
도 16은 가상 평면 내 추정 영상과 현재 시간에서의 실제 영상이 불일치하는 경우에 대한 영상을 나타내는 개략적인 선도이다.
도 17은 본 발명의 일실시예에 따른 천장 영상 기반 이동 로봇 장치의 위치 인식 방법의 조명 특징 추출 단계에 대한 흐름도이다.
도 18은 본 발명의 일실시예에 따른 천장 영상 기반 이동 로봇 장치의 영상 입력부에서 얻은 영상에서 동일 밝기 화소를 연결하여 얻은 조명 특징을 나타내는 개략적인 선도이다.
도 19는 본 발명의 일실시예에 따른 천장 영상 기반 이동 로봇 장치의 위치 인식 방법의 위치 인식 단계에 대한 개략적인 흐름도이다.
도 20은 본 발명의 일실시예에 따른 천장 영상 기반 이동 로봇 장치의 실제 이동 경로 및 엔코더 감지부로부터의 정보에 기초한 예측 경로를 나타내는 개략적인 선도이다.
도 21에는 본 발명의 일실시예에 따른 천장 영상 기반 이동 로봇 장치의 위치 인식 방법에서 사용되는 각각의 특징에 대한 불확실 영역을 나타내는 개략적인 선도이다.
*도면의 주요부분에 대한 부호의 설명*
10...천장 영상 기반 이동 로봇 장치 100...영상 입력부
200...엔코더 감지부 300...제어부
400...저장부 500...연산부
600...구동부

Claims (16)

  1. 영상 입력부와, 엔코더 감지부와, 연산부와, 제어부와, 저장부와, 구동부를 구비하는 천장 영상 기반 이동 로봇 장치를 제공하는 제공 단계와,
    상기 영상 입력부를 통하여 입력된 영상 정보를 처리하는 영상 입력 처리 단계와,
    상기 영상 정보에 기초하여 개방된 문에 대한 도어 특징을 포함 가능한 특징을 추출하는 특징 추출 단계와,
    상기 추출된 특징들을 사용하여 상기 이동 로봇 장치의 위치를 인식하는 위치 인식 단계를 포함하고,
    상기 도어 특징은 상기 영상 입력부에서 얻어진 영상의 중심을 통과하는 두 개의 수직선부 및 상기 두 개의 수직선부를 연결하는 수평선부를 포함하는 천장 영상 기반 이동 로봇 위치 인식 방법.
  2. 제 1항에 있어서,
    상기 특징 추출 단계는:
    상기 영상 정보로부터 코너 특징을 추출하는 코너 특징 추출 단계와,
    상기 영상 정보로부터 윤곽선을 추출하는 윤곽선 추출 단계와,
    상기 영상 정보로부터 직선 특징을 추출하는 직선 특징 추출 단계와,
    상기 영상 정보로부터 개방된 문에 대한 도어 특징을 추출하는 도어 특징 추출 단계를 포함하는 것을 특징으로 하는 천장 영상 기반 이동 로봇 위치 인식 방법.
  3. 제 2항에 있어서,
    상기 특징 추출 단계는:
    상기 영상 정보로부터 천장에 배치되는 조명에 대한 조명 특징을 추출하는 조명 특징 추출 단계를 더 구비하는 것을 특징으로 하는 천장 영상 기반 이동 로봇 위치 인식 방법.
  4. 제 2항에 있어서,
    상기 도어 특징 추출 단계는 상기 도어 특징에 대응하는 도어 후보를 추출하는 도어 후보 추출 단계를 구비하는 것을 특징으로 하는 천장 영상 기반 이동 로봇 위치 인식 방법.
  5. 제 4항에 있어서,
    상기 도어 후보 추출후, 상기 도어 후보와 동일한 형태를 구비하는 도어 후보 샘플을 사전 설정된 개수로 형성하는 도어 후보 샘플링 단계를 구비하는 것을 특징으로 하는 천장 영상 기반 이동 로봇 위치 인식 방법.
  6. 제 5항에 있어서,
    상기 도어 특징 추출 단계는:
    상기 도어 후보 추출후, 상기 도어 후보에 대한 가상 평면의 설정 여부를 판단하는 가상 평면 설정 판단 단계와,
    상기 가상 평면이 설정되지 않은 경우, 상기 영상 입력부 및 상기 엔코더 감지부의 입력 신호에 기초하여 상기 도어 후보 샘플에 대한 추정 영상을 생성하는 샘플링 추정 영상 생성 단계와,
    상기 도어 후보 샘플에 대한 추정 영상과 상기 영상 입력부의 현재 영상을 비교하는 샘플 영상 비교 단계를 포함하는 것을 특징으로 하는 천장 영상 기반 이동 로봇 위치 인식 방법.
  7. 제 6항에 있어서,
    상기 샘플 영상 비교 단계가 완료된 후, 상기 샘플 영상 비교 단계 결과에 기초하여 상기 도어 후보에 대한 도어 후보 샘플을 재설정하는 리샘플링 단계가 구비되는 것을 특징으로 하는 천장 영상 기반 이동 로봇 위치 인식 방법.
  8. 제 7항에 있어서,
    상기 리샘플링 단계 후, 상기 도어 후보 샘플의 수렴도를 사전 설정 수렴치와 비교하고, 상기 도어 후보 샘플이 수렴된 것으로 판단되는 경우 상기 도어 후보 샘플이 수렴되는 도어 후보에 대한 가상 평면을 설정하는 것을 특징으로 하는 천장 영상 기반 이동 로봇 위치 인식 방법.
  9. 제 8항에 있어서,
    상기 도어 특징 추출 단계는:
    상기 가상 평면 설정 판단 단계에서 상기 가상 평면이 설정된 것을 판단되는 경우, 상기 영상 입력부 및 상기 엔코더 감지부의 입력 신호에 기초하여 상기 가상 평면에 대한 가상 평면 내 추정 영상을 생성하는 가상 평면 내 추정 영상 생성 단계와,
    상기 가상 평면 내 추정 영상과 상기 영상 입력부의 현재 영상 중 도어 후보 내의 영상을 비교하는 가상 평면 영상 비교 단계를 포함하는 것을 특징으로 하는 천장 영상 기반 이동 로봇 위치 인식 방법.
  10. 제 9항에 있어서,
    상기 가상 평면 내 추정 영상과 상기 현재 영상 중 도어 후보 내의 영상의 일치 여부를 판단하고, 상기 가상 평면 내 추정 영상과 상기 현재 영상 중 도어 후보 내의 영상이 서로 불일치하는 경우 상기 도어 후보 샘플이 수렴하는 도어 후보를 도어 특징으로 확정하는 도어 특징 확정 단계를 구비하는 것을 특징으로 하는 천장 영상 기반 이동 로봇 위치 인식 방법.
  11. 제 2항에 있어서,
    상기 특징 추출 단계는, 상기 영상 정보로부터 천장에 배치되는 조명에 대한 조명 특징을 추출하는 조명 특징 추출 단계를 더 구비하고,
    상기 조명 특징 추출 단계는:
    상기 이동 로봇 장치의 현재 위치를 확인하는 위치 확인 단계와,
    상기 영상 입력부의 영상 정보에 기초하여 영상 내 조명 특징의 존재 여부를 확인하는 조명 특징 판단 단계를 구비하는 것을 특징으로 하는 천장 영상 기반 이동 로봇 위치 인식 방법.
  12. 제 11항에 있어서,
    상기 영상 내 조명 특징이 없는 경우, 영상의 밝기를 검출하는 영상 밝기 검출 단계와,
    영상 내 영상 밝기가 사전 설정된 밝기 최대값과 동일한 영역에 대한 형상을 저장하는 조명 형상 저장 단계를 포함하는 것을 특징으로 하는 천장 영상 기반 이동 로봇 위치 인식 방법.
  13. 제 1항에 있어서,
    상기 위치 인식 단계는:
    상기 엔코더 감지부의 신호에 기초하여 상기 이동 로봇 장치의 예측 위치를 예측하는 예측 단계와,
    상기 이동 로봇 장치의 예측 위치에서의 연산된 예측 영상 및 상기 영상 감지부로부터의 영상 내 각각의 특징에 기초하여 정합 여부를 판단하는 정합 단계와,
    상기 정합 단계에서 정합 정보에 기초하여 상기 이동 로봇 장치의 위치를 보 정하는 추정 단계를 포함하는 것을 특징으로 하는 천장 영상 기반 이동 로봇 위치 인식 방법.
  14. 제 13항에 있어서,
    상기 정합 단계에서, 상기 이동 로봇 장치의 예측 위치에서의 연산된 예측 영상 및 상기 영상 감지부로부터의 영상 내 각각의 특징에 기초하여 정합되지 않은 것으로 판단하는 경우, 상기 영상 감지부로부터의 영상 내 특징은 새로운 특징으로 설정하여 저장하는 것을 특징으로 하는 천장 영상 기반 이동 로봇 위치 인식 방법.
  15. 제 13항에 있어서,
    상기 특징은 개방된 문을 나타내는 도어 특징과 천장의 조명을 나타내는 조명 특징을 포함하되,
    상기 정합 단계는:
    상기 도어 특징 또는 상기 조명 특징의 형상을 비교하는 단계를 포함하는 것을 특징으로 하는 천장 영상 기반 이동 로봇 위치 인식 방법.
  16. 구동부에 의하여 위치 이동을 이루는 이동 로봇 장치에 있어서,
    천장의 영상 정보를 취득하는 영상 입력부와,
    상기 영상 입력부의 영상 정보를 저장하는 저장부와,
    상기 저장부에 저장된 영상 정보를 연산하여 예측 영상을 생성하는 연산부와,
    상기 저장부로부터의 신호에 기초하여 개방된 문에 대한 도어 특징을 포함하는 특징을 상기 예측 영상 및 상기 영상 입력부로부터의 실제 영상에 대하여 각각 추출하고, 상기 연산부로부터의 예측 영상과 상기 영상 입력부로부터의 실제 영상에서의 특징을 비교하여 정합 여부를 판단하는 정합 단계를 수행하여 현재 위치를 인식하는 제어부를 포함하는 천장 영상 기반 이동 로봇 장치.
KR1020070141851A 2007-12-31 2007-12-31 천장 영상 기반 이동 로봇 장치 및 이의 위치 인식 방법 KR100926601B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020070141851A KR100926601B1 (ko) 2007-12-31 2007-12-31 천장 영상 기반 이동 로봇 장치 및 이의 위치 인식 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020070141851A KR100926601B1 (ko) 2007-12-31 2007-12-31 천장 영상 기반 이동 로봇 장치 및 이의 위치 인식 방법

Publications (2)

Publication Number Publication Date
KR20090073796A KR20090073796A (ko) 2009-07-03
KR100926601B1 true KR100926601B1 (ko) 2009-11-11

Family

ID=41330905

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070141851A KR100926601B1 (ko) 2007-12-31 2007-12-31 천장 영상 기반 이동 로봇 장치 및 이의 위치 인식 방법

Country Status (1)

Country Link
KR (1) KR100926601B1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013032192A2 (ko) * 2011-08-27 2013-03-07 고려대학교 산학협력단 천장 임의 형상 특성 활용 이동 로봇 위치 인식 방법
KR101248308B1 (ko) * 2011-01-31 2013-03-27 고려대학교 산학협력단 천장 조명 방향 특성 활용 이동 로봇 위치 인식 방법 및 이를 활용한 천장 조명 방향 특성 활용 위치 인식 이동 로봇 장치
KR101391525B1 (ko) 2012-07-19 2014-05-07 고려대학교 산학협력단 이동 로봇의 지도 형성 방법 및 위치 인식 방법

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101036028B1 (ko) * 2009-07-08 2011-05-19 고려대학교 산학협력단 고속 회전 불변 특징 정합 방법, 이를 구비하는 천장 영상 기반 이동 로봇 장치 및 이의 위치 인식 방법
KR101540666B1 (ko) * 2009-07-22 2015-07-31 엘지전자 주식회사 이동 로봇의 위치추정을 위한 회전변화에 불변하는 특징점 검출 장치 및 방법
KR101035058B1 (ko) * 2009-09-25 2011-05-19 전자부품연구원 이동 로봇 및 그의 자기위치 인식을 위한 천장영역 인식방법
CN108968825B (zh) * 2018-08-17 2020-12-11 深圳领贝智能科技有限公司 一种扫地机器人和机器人扫地方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004012429A (ja) 2002-06-11 2004-01-15 Mitsubishi Heavy Ind Ltd 自己位置/姿勢同定装置、及び自己位置/姿勢同定方法
KR100586648B1 (ko) 2003-07-21 2006-06-07 주식회사 한울로보틱스 천장 영상을 이용한 청소용 로봇의 자기위치 추정방법
KR20060074044A (ko) * 2004-12-27 2006-07-03 주식회사 아이오. 테크 천장 영상에 의한 로봇의 위치 추정방법
KR100791384B1 (ko) 2006-07-05 2008-01-07 삼성전자주식회사 특징점을 이용한 영역 구분 방법 및 장치와 이를 이용한이동 청소 로봇

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004012429A (ja) 2002-06-11 2004-01-15 Mitsubishi Heavy Ind Ltd 自己位置/姿勢同定装置、及び自己位置/姿勢同定方法
KR100586648B1 (ko) 2003-07-21 2006-06-07 주식회사 한울로보틱스 천장 영상을 이용한 청소용 로봇의 자기위치 추정방법
KR20060074044A (ko) * 2004-12-27 2006-07-03 주식회사 아이오. 테크 천장 영상에 의한 로봇의 위치 추정방법
KR100791384B1 (ko) 2006-07-05 2008-01-07 삼성전자주식회사 특징점을 이용한 영역 구분 방법 및 장치와 이를 이용한이동 청소 로봇

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101248308B1 (ko) * 2011-01-31 2013-03-27 고려대학교 산학협력단 천장 조명 방향 특성 활용 이동 로봇 위치 인식 방법 및 이를 활용한 천장 조명 방향 특성 활용 위치 인식 이동 로봇 장치
WO2013032192A2 (ko) * 2011-08-27 2013-03-07 고려대학교 산학협력단 천장 임의 형상 특성 활용 이동 로봇 위치 인식 방법
WO2013032192A3 (ko) * 2011-08-27 2013-05-02 고려대학교 산학협력단 천장 임의 형상 특성 활용 이동 로봇 위치 인식 방법
US9402151B2 (en) 2011-08-27 2016-07-26 Korea University Research And Business Foundation Method for recognizing position of mobile robot by using features of arbitrary shapes on ceiling
KR101391525B1 (ko) 2012-07-19 2014-05-07 고려대학교 산학협력단 이동 로봇의 지도 형성 방법 및 위치 인식 방법

Also Published As

Publication number Publication date
KR20090073796A (ko) 2009-07-03

Similar Documents

Publication Publication Date Title
KR100926601B1 (ko) 천장 영상 기반 이동 로봇 장치 및 이의 위치 인식 방법
US10810734B2 (en) Computer aided rebar measurement and inspection system
US9402151B2 (en) Method for recognizing position of mobile robot by using features of arbitrary shapes on ceiling
US9990726B2 (en) Method of determining a position and orientation of a device associated with a capturing device for capturing at least one image
US8831872B2 (en) Apparatus and method for estimating location of mobile body and generating map of mobile body environment using upper image of mobile body environment, and computer readable recording medium storing computer program controlling the apparatus
US8849036B2 (en) Map generating and updating method for mobile robot position recognition
KR101781757B1 (ko) 객체 인식을 위한 수중 이미지 처리장치 및 그 방법
JP2020042816A (ja) 物体検出方法、装置、機器、記憶媒体及び車両
WO2018159177A1 (en) Vehicle automated parking system and method
JP5157803B2 (ja) 自律移動装置
KR20150120408A (ko) 카메라 보조 모션 방향 및 속도 추정
KR100656859B1 (ko) 초음파 센서와 비젼 센서를 기반으로 하는 이동로봇의 동시위치인식 및 지도형성 방법
KR101789217B1 (ko) 기하학적 특징과 확률론적 기법을 이용한 실내 지도 생성 장치 및 방법
CN109903313A (zh) 一种基于目标三维模型的实时位姿跟踪方法
EP3624060A1 (en) Information processing device, information processing method, and program
KR101450586B1 (ko) 동작 인식 방법, 시스템 및 컴퓨터 판독 가능한 기록 매체
KR101738751B1 (ko) 실내 자기장을 이용한 이동 로봇의 위치 인식 방법 및 장치
Liu et al. Conditional simultaneous localization and mapping: A robust visual SLAM system
KR100835906B1 (ko) 로봇 전역 위치 추정 방법 및 로봇 전역 위치 추정 장치
CN112669358B (zh) 一种适用于多平台协同感知的地图融合方法
Zhang et al. A LiDAR-intensity SLAM and loop closure detection method using an intensity cylindrical-projection shape context descriptor
Wen et al. Visual navigation of an indoor mobile robot based on a novel artificial landmark system
KR101002776B1 (ko) 상향 영상을 이용한 이동체의 위치 추정 및 지도 생성 장치및 방법과 그 장치를 제어하는 컴퓨터 프로그램을저장하는 컴퓨터로 읽을 수 있는 기록 매체
JP7483414B2 (ja) 情報処理装置、情報処理方法及びプログラム
Song et al. A Hidden Markov model approach for Voronoi localization

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20121004

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20130717

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20151030

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20160928

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20181025

Year of fee payment: 10