KR100915801B1 - 이동 로봇들의 결합을 위한 도킹 시스템 및 방법 - Google Patents

이동 로봇들의 결합을 위한 도킹 시스템 및 방법 Download PDF

Info

Publication number
KR100915801B1
KR100915801B1 KR1020080126596A KR20080126596A KR100915801B1 KR 100915801 B1 KR100915801 B1 KR 100915801B1 KR 1020080126596 A KR1020080126596 A KR 1020080126596A KR 20080126596 A KR20080126596 A KR 20080126596A KR 100915801 B1 KR100915801 B1 KR 100915801B1
Authority
KR
South Korea
Prior art keywords
mobile robot
coupling
robot
environment image
mobile
Prior art date
Application number
KR1020080126596A
Other languages
English (en)
Inventor
김용태
문형필
정진우
Original Assignee
동국대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 동국대학교 산학협력단 filed Critical 동국대학교 산학협력단
Priority to KR1020080126596A priority Critical patent/KR100915801B1/ko
Application granted granted Critical
Publication of KR100915801B1 publication Critical patent/KR100915801B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/088Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/006Controls for manipulators by means of a wireless system for controlling one or several manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/04Viewing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0259Control of position or course in two dimensions specially adapted to land vehicles using magnetic or electromagnetic means
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/01Mobile robot

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Manipulator (AREA)

Abstract

이동 로봇들의 결합을 위한 도킹 시스템 및 방법이 개시된다. 위치 센서 및 지자기 센서를 이용하여 복수의 이동 로봇들을 결합시켜 이동 로봇의 이동성을 향상시키기 위한 이동 로봇들의 결합을 위한 도킹 시스템은 중심점 계산부, 물리적 요소 측정부, 모션 제어부를 포함한다. 중심점 계산부는 이동 로봇의 영상 촬영장치로부터 입력받은 환경 이미지에 이미지 프로세싱을 실시하여 감지한 물체의 외각 형태가 제 1타 이동 로봇의 미리 설정된 결합 수용체 외각 형태와 일치할 경우, 이미지 프로세싱을 거친 환경 이미지의 중심점 및 상기 결합 수용체의 중심점을 계산하고, 물리적 요소 측정부는 제 1타 이동 로봇까지의 거리 및 이동 로봇의 방위각을 포함하는 물리적 요소의 측정 정보를 생성하며, 모션 제어부는 중심점 계산부 및 물리적 요소 측정부로부터 전송받은 결과 정보를 이용하여 이동 로봇들 간의 결합을 위해 필요한 움직임을 제어한다.
결합, 이동 로봇, 지자기 센서

Description

이동 로봇들의 결합을 위한 도킹 시스템 및 방법{Docking system and method for cooperating mobile robots}
본 발명은 이동 로봇들의 결합을 위한 도킹 시스템 및 방법에 관한 것으로, 보다 상세하게는 위치 센서 및 지자기 센서를 이용하여 복수의 이동 로봇들을 결합시켜 이동 로봇의 이동성을 향상시키기 위한 도킹 시스템 및 방법에 관한 것이다.
대부분의 작은 이동 로봇들은 좁은 지역에서 큰 이동 로봇들보다 쉽게 주행할 수 있으며, 기능적으로 복잡한 큰 이동 로봇들보다 상대적으로 저렴한 비용으로 제작될 수 있다는 이점이 있다. 하지만, 일반적으로 외부 환경에서 주행하기에 어려움이 따르는데, 바위, 자갈, 벽돌과 같은 상대적으로 작은 물체들마저도 작은 이동 로봇들이 피해야하는 장애물이 되기 때문이다.
상기와 같은 장애물을 극복하기 위한 방법 중에는 복수의 작은 이동 로봇들 사이에 물리적인 결합을 적용하는 방법이 있다. 즉, 복수의 이동 로봇을 연결하여 장애물을 극복하는 것이다. 복수로 구성된 이동 로봇을 사용하는 아이디어는 로보틱스에서 새로운 아이디어는 아니며, 현재, 탐색과 구조, 및 행성과 도시의 탐사에 사용된다.
이러한 작업을 수행할 때 복수로 구성된 이동 로봇들 사이에서 어떠한 방식으로 정보를 공유할 수 있는지가 복수로 구성된 이동 로봇 시스템에서 대표적인 논점이라고 할 수 있지만, 이러한 논점에 이동 로봇들 사이의 물리적, 또는 기계적인 결합은 포함되지 않는다.
물리적 결합을 이용하는 로보틱스 시스템의 대표적인 예로는 80년대 후반에서 90년대 초반에 보급된 모듈로 된 이동 로봇들과 역학적으로 구조를 변경할 수 있는 이동 로봇(예컨대, 셀 구조로 된 이동 로봇을 위한 후크(hook) 타입 결합 알고리즘, 관절로 이어진 몸체를 가지는 이동 로봇, 모듈로 된 체인 이동 로봇)이 있으며, 1993년에 처음으로 소개된 폴리봇(PolyBot)이 있다. 그리고 최근에, 결합을 위한 핀(pin)과 홀(hole)의 구성을 가지는 밀리봇(Millibot)이 개발되었고, Shen 외의 다수에 의해 슈퍼봇(Super-Bot)이 개발되었다. 이동 로봇들 사이에서 물리적인 결합에 의한 이동성 향상은 상대적인 역학적 움직임을 고찰하는 것으로 연구된다.
하지만, 기존의 시스템들에서 이동 로봇들 사이의 기계적인 결합은 주로 인력을 통해 이루어지고 있으며, 독자적인 결합은 스왐봇(Swarm-bot)들의 테두리를 연결시키는 그리퍼(gripper)에 의해 실현되고 있다. 즉, 이전의 연구 중 적은 수만이 이동 로봇들 사이의 기계적인 결합을 다루고 있으며, 그 중에서도 일부만이 결합 절차에서 이동 로봇들이 정렬되어 있지 않은 상황을 고려하고 있는 상황이다.
그러므로 광범위하게 연구되었던 물리적으로 결합하는 이동 로봇들, 이동 로봇에서의 자가 조립, 또는 구조를 변경할 수 있는 복수로 구성된 이동 로봇들을 실 현하기 위해, 이동 로봇들 사이의 기계적인 결합을 기본적으로 다룰 수 있으며, 추가적으로, 이동 로봇들이 정렬되어 있지 않음으로 발생하는 오차가 있을지라도, 이동 로봇들 사이에서 물리적인 결합을 수행할 수 있는 기계적인 결합 시스템이 개발되어야 할 것이다.
본 발명은 이와 같은 종래의 문제점을 해결하기 위해 안출된 것으로서, 복수의 이동 로봇들이 정렬되어 있지 않아서 오차가 발생할 경우에도 이동 로봇들 사이의 물리적 결합을 수행할 수 있는 이동 로봇들의 결합을 위한 도킹 시스템 및 방법을 제공하는 것을 목적으로 한다.
상기 목적을 달성하기 위해 본 발명에 따른 이동 로봇들의 결합을 위한 도킹 시스템은 이동 로봇, 상기 이동 로봇이 결합하고자 하는 제 1타 이동 로봇, 및 상기 이동 로봇에 결합되고자 하는 제 2타 이동 로봇들의 결합을 위한 도킹 시스템으로서, 중심점 계산부, 물리적 요소 측정부, 모션 제어부를 포함한다.
중심점 계산부는 이동 로봇의 영상 촬영장치로부터 입력받은 환경 이미지에 이미지 프로세싱을 실시하여 감지한 물체의 외각 형태가 제 1타 이동 로봇의 미리 설정된 결합 수용체 외각 형태와 일치할 경우, 이미지 프로세싱을 거친 환경 이미지의 중심점 및 상기 결합 수용체의 중심점을 계산하고, 물리적 요소 측정부는 제 1타 이동 로봇까지의 거리 및 이동 로봇의 방위각을 포함하는 물리적 요소의 측정 정보를 생성하며, 모션 제어부는 중심점 계산부 및 물리적 요소 측정부로부터 전송받은 결과 정보를 이용하여 이동 로봇들 간의 결합을 위해 필요한 움직임을 제어한다.
이때, 이미지 프로세싱은 입력된 환경 이미지를 이미지 프로세싱 시간을 줄 이기 위한 소정의 포맷으로 변환한 후, 미리 설정된 크기로 환경 이미지의 크기를 변환할 수 있다.
또한, 이미지 프로세싱은 포맷과 크기가 변환된 환경 이미지를 빛의 영향을 줄이기 위한 소정의 포맷으로 변환할 수 있다.
또한, 물리적 요소 측정부는 거리 측정부 및 방위각 측정부를 포함할 수 있는데, 거리 측정부는 위치 센서를 이용하여 제 1타 이동 로봇까지의 거리를 측정하여 거리 정보를 생성할 수 있으며, 방위각 측정부는 지자기 센서를 이용하여 이동 로봇의 방위각을 측정하여 방위각 정보를 생성할 수 있다.
또한, 모션 제어부는 중심점 계산부로부터 수신된 결합 수용체의 중심점이 정면에 배치되도록 이동 로봇의 좌우 회전을 제어할 수 있다.
또한, 모션 제어부는 제 1타 이동 로봇이 자신의 방위각을 이동 로봇의 방위각과 일치시킬 수 있도록, 결합 수용체가 정면에 배치된 상태에서 측정된 이동 로봇의 방위각 정보를 무선 통신부를 통해서 제 1타 이동 로봇으로 전송할 수 있다.
본 발명에 따른 이동 로봇들의 결합을 위한 도킹 시스템은 제 2타 이동 로봇의 결합 삽입체가 이동 로봇의 결합 수용체에 접촉한 시점부터 결합이 완료될 시점까지의 결합 진행 상태를 확인하여, 확인 결과를 제 2타 이동 로봇으로 전송하는 결합 상태 확인부를 더 포함할 수 있다.
또한, 모션 제어부는 결합된 로봇들이 작업 수행을 완료하였을 경우, 이동 로봇의 결합 수용체와 제 2타 이동 로봇의 결합 삽입체를 고정시키는 잠금 장치를 제어하여 결합을 해제시킬 수 있다.
또한, 본 발명에 따른 이동 로봇들의 결합을 위한 도킹 시스템은 환경 이미지에 포함되는 물체의 외각 형태에 따라 수행할 작업을 설계하는 작업 설계부를 더 포함할 수 있다.
또한, 본 발명에 따른 이동 로봇들의 결합을 위한 도킹 시스템은 이동 로봇들 사이에서 결합을 위해 필요한 정보를 무선 통신으로 전송하는 무선 통신부를 더 포함할 수 있다.
본 발명에 따른 이동 로봇들의 결합을 위한 도킹 방법은 이동 로봇이 결합할 제 1타 이동 로봇을 감지하였을 경우, 이동 로봇이 상기 제 1타 이동 로봇을 촬영한 환경 이미지에 이미지 프로세싱을 수행하는 (a) 단계, 환경 이미지가 제 1타 이동 로봇의 결합 수용체의 미리 설정된 외각 형태와 일치할 경우, 이미지 프로세싱을 거친 환경 이미지의 중심점 및 결합 수용체의 중심점을 계산하는 (b) 단계, 제 1타 이동 로봇까지의 거리를 측정하여 거리 정보를 생성하는 (c) 단계, 제 1타 이동 로봇과의 결합 상태를 확인하여, 결합이 완료되지 않은 경우에, 환경 이미지의 중심점과 결합 수용체의 중심점이 일치하는 조사하여, 일치하지 않으면 환경 이미지의 중심점과 결합 수용체의 중심점이 일치하도록 이동 로봇의 움직임을 제어하고 (a) 단계부터 다시 수행하는 (e) 단계, 환경 이미지의 중심점과 결합 수용체의 중심점이 일치하는 경우에 이동 로봇의 방위각을 측정하여 방위각 정보를 생성하고, 제 1타 이동 로봇이 자신의 방위각을 이동 로봇의 방위각과 일치시킬 수 있도록 방위각 정보를 상기 제 1타 이동 로봇으로 전송하는 (f) 단계, 및 이동 로봇이 소정의 거리만큼 직진하고 (a) 단계부터 다시 수행하는 (g) 단계를 포함한다.
또한, (a) 단계는 영상 촬영장치로부터 물체를 촬영한 환경 이미지를 입력받는 (a-1) 단계, 입력된 환경 이미지를 이미지 프로세싱 시간을 줄이기 위한 소정의 포맷으로 변환하는 (a-2) 단계, 포맷이 변환된 환경 이미지를 소정의 크기로 변환하는 (a-3) 단계, 크기가 변환된 환경 이미지에서 노이즈를 제거하는 (a-5) 단계, 및 노이즈 제거가 완료된 환경 이미지에서 물체의 외각 형태를 감지하는 (a-6) 단계를 포함할 수 있다.
또한, (a-3) 단계 및 (a-5) 단계 사이에서 환경 이미지를 빛의 영향을 줄이기 위한 소정의 포맷으로 변환하는 (a-4) 단계를 더 포함할 수 있다.
또한, (a) 단계 이전에 환경 이미지에 포함된 물체에 따라 수행할 작업을 설계하는 (i) 단계를 더 포함할 수 있다.
또한, (c) 단계 및 (e) 단계 사이에서 제 1타 이동 로봇과의 결합 상태를 확인하여, 결합이 완료된 경우에, 결합된 이동 로봇들이 작업을 수행하도록 하는 (d) 단계를 더 포함할 수 있다.
또한, (d) 단계 이후 결합된 이동 로봇들이 작업 수행을 완료하였을 경우, 이동 로봇의 결합 수용체에 포함된 잠금 장치를 해제시켜 제 1타 이동 로봇의 결합 수용체와 이동 로봇의 결합 삽입체가 분리되도록 하는 단계를 더 포함할 수 있다.
또한, (i) 단계는 물체를 감지할 수 있는 센서를 이용하여 이동 로봇의 주위에 위치하는 물체를 감지하는 (i-1) 단계, 영상 촬영장치로부터 입력받은 물체를 촬영한 환경 이미지에 이미지 프로세싱을 실시하는 (i-2) 단계, 및 감지한 물체의 외각 형태에 따라 수행할 작업을 설계하는 (i-3) 단계를 포함할 수 있다.
본 발명에 의해 복수의 이동 로봇들이 정렬되어 있지 않아 오차가 발생할 경우에도, 위치 센서로 측정한 이동 로봇들 사이의 거리 정보 및 지자기 센서로 측정한 이동 로봇들이 이루는 방위각 정보를 이용하여, 이동 로봇들의 움직임을 제어함으로써 이동 로봇들 사이의 물리적 결합을 수행할 수 있게 하여 이동 로봇의 이동성을 향상시킬 수 있다.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 설명한다. 발명의 이해를 보다 명확하게 하기 위해 동일한 구성요소에 대해서는 상이한 도면에서도 동일한 부호를 사용하도록 한다.
도 1은 본 발명에 따른 이동 로봇들의 결합을 위한 도킹 시스템(100) 구성의 일 실시예를 개략적으로 나타낸 블록도이다.
상기 목적을 달성하기 위해 본 발명에 따른 이동 로봇들 사이의 결합을 위한 도킹 시스템은 이미지 입력부(110), 작업 설계부(120), 중심점 계산부(130), 물리적 요소 측정부(140), 모션 제어부(150), 결합상태 확인부(160), 및 무선 통신부(170)를 포함한다.
도 1에는 본 발명에 따른 이동 로봇들의 결합을 위한 도킹 시스템(100)이 적용된 이동 로봇, 제 1타 이동 로봇(200), 및 제 2타 이동 로봇(300)이 도시되어 있는데, 이동 로봇의 결합 삽입체가 제 1타 이동 로봇(200)의 결합 수용체에 삽입되어 제 1타 이동 로봇(200) 및 이동 로봇이 결합될 수 있으며, 제 2타 이동 로 봇(300)의 결합 삽입체가 이동 로봇의 결합 수용체에 삽입되어 이동 로봇 및 제 2타 이동 로봇(300)이 결합될 수 있다.
도 2를 참조하면, 도 2는 본 발명에 따른 이동 로봇들의 결합을 위한 도킹 시스템(100)이 적용된 이동 로봇의 일 실시예를 도시한 도면으로, 이동 로봇의 전면에는 영상 처리장치인 CCD(Charge Coupled Dievice) 카메라와, PSD(Position Senstive Divice) 센서, 결합 삽입체인 peg가 설치되며, 이동 로봇의 후면에는 잠금 장치를 포함하고 있는 결합 수용체인 cup이 설치된 것을 볼 수 있다.
다시 도 1을 참조하면, 이미지 입력부(110)는 영상 촬영장치로부터 이동 로봇의 주위에 위치하는 물체를 촬영한 환경 이미지를 입력받는다.
본 발명에서 영상 촬영장치로 사용하는 CCD 카메라는 대상물에서 반사되어 들어온 빛을 카메라 내의 촬영부에서 전기 신호로 바꾸고, 아날로그 신호인 전기 신호를 디지털 신호로 변환시켜 영상 신호, 즉, 이미지를 생성한다.
이미지 입력부(110)는 이렇게 생성된 이동 로봇 주위를 촬영한 이미지 중에서 위치 감지 장치인 PSD 센서로부터 물체가 감지되었을 경우에 촬영된 이미지(물체가 포함된 이미지)인 환경 이미지만을 입력받는다.
작업 설계부(120)는 환경 이미지에 포함되는 물체의 외각 형태에 따라 수행할 작업을 설계할 수 있는데, 물체의 외각 형태는 중심점 계산부(130)에서 환경 이미지를 이미지 프로세싱하여 인식할 수 있다.
도 3은 환경 이미지에 이미지 프로세싱을 수행하여 물체를 인식한 일 실시예를 도시한 도면이다. 총 4개의 비교 이미지를 도시하였으며, 왼쪽 이미지는 원본 이미지를, 오른쪽 이미지는 물체의 외각 이미지를 통해 물체를 인식한 이미지를 나타낸다.
작업 설계부(120)는 인식된 물체의 외각 형태가 미리 설정된 타 이동 로봇 결합 수용체의 외각 형태와 일치하지 않을 경우에는(예컨대, 나무, 벽돌, 계단 등과 같은 물체) 물체를 이동 로봇 주변에 존재하는 장애물로 인식하고, 장애물을 피하거나 극복하기 위해 수행해야 할 작업을 설계한다. 하나의 이동 로봇으로 장애물을 피하거나 극복할 수 있다고 판단되면, 이에 해당하는 작업을 설계한다.
하지만, 인식된 물체가 하나의 이동 로봇의 기능만으로 피하거나 극복할 수 없는 장애물로 판단된다면, 복수의 이동 로봇이 결합함으로써 장애물을 피하거나 극복하기 위해 수행할 수 있는 작업을 설계한다.
중심점 계산부(130)는 입력받은 환경 이미지에 이미지 프로세싱을 실시하여 감지한 물체의 외각 형태가 미리 설정된 타 이동 로봇 결합 수용체의 외각 형태와 일치할 경우, 이미지 프로세싱을 거친 환경 이미지의 중심점 및 결합 수용체의 중심점을 계산한다.
이때, 중심점 계산부(130)는 입력된 환경 이미지를 이미지 프로세싱 시간을 줄이기 위해 소정의 포맷으로 변환한 후, 미리 설정된 크기로 환경 이미지의 크기를 변환하는 알고리즘에 따라 이미지 프로세싱을 수행할 수 있다.
본 발명에서 사용하는 CCD 카메라는 정확하게는 NT-385 color CCD 카메라 모듈이며, 이때, 비디오 디코더는 NTSC 비디오 입력을 표준 ITU-656 YUV 4:2:2 디지털 이미지로 변환한다. 디지털 형태로 변환된 이미지는 이미지 프로세싱 시간을 줄 이기 위해 160×120 크기의 RGB 5:6:5 이미지로 변환된다.
본 발명에서는 사용한 임베디드 시스템이 PC에 비해 성능이 낮기 때문에 RGB 3Bytes(24bits)를 2Bytes(16bits)로, 320×240의 크기를 160×120로 영상 해상도를 낮추어 처리하였고, 사용자가 사용하는 임베디드 시스템의 성능이 좋을 경우에는 반드시 상기와 같은 변환 수치를 적용하여 변환하지 않아도 됨이 바람직할 것이다.
또한, 중심점 계산부(130)는 포맷과 크기가 변환된 환경 이미지를 빛의 영향을 줄이기 위한 소정의 포맷으로 변환하는 이미지 프로세싱을 수행할 수 있다. 즉, RGB 이미지를 HSI와 같은 포맷의 이미지로 변환할 수 있다.
또한, 본 발명에서 상기와 같은 이미지 프로세싱을 수행하기 위해 FPGA를 사용하는데, FPGA는 이미지 사전 프로세싱(image pre-processing), 이미지 하위 프로세싱(image sub-processing), 이미지 변환, 및 본 발명에서 사용하는 CPU인 PXA272 프로세서 인터페이스와 같은 기능을 가진다.
이미지 변환이 완료되면 물체를 인식할 수 있는데, 변환된 환경 이미지의 색상 변환, 이미지에 포함된 물체의 외부 형태 감지, 물체의 중심점 추출, 색상 기반의 물체 인식과 같은 알고리즘에 따라 이미지 프로세싱을 수행함으로써 물체를 인식할 수 있다.
도 4는 포맷 및 크기가 변환된 환경 이미지를 알고리즘에 따라 이미지 프로세싱을 수행한 일 실시예를 도시한 도면이다. 총 4개의 도면이 도시되어 있고, 각각의 도면에서 좌상에 위치한 이미지는 포맷 및 크기가 변환된 환경 이미지를, 우상에 위치한 이미지는 좌상 이미지에 이미지 색상 변환 알고리즘에 따라 이미지 프 로세싱을 수행한 결과 이미지를 나타낸다.
또한, 우하에 위치한 이미지는 좌상 이미지에 포함되어 있는 결합 수용체의 중심점을 추출한 결과 이미지를, 좌하에 위치한 이미지는 좌상 이미지를 결합 수용체의 테두리 색상을 기반으로 한 색상 변환 알고리즘에 따라 이미지 프로세싱을 수행하여 결합 수용체의 테두리를 추출한 결과 이미지를 나타낸다.
이때, 중심점을 계산하기 위해 일반적인 영상 처리에서 물체의 중심을 구하는 방식인 COG(Center Of Gravity) 방식을 이용할 수 있다.
한편, 다시 도 1을 참조하면, 물리적 요소 측정부(140)는 제 1타 이동 로봇(200)에 대한 위치 및 이동 로봇의 방위각을 포함하는 물리적 요소의 측정 정보를 생성하는데, 거리 측정부(142), 및 방위각 측정부(144)를 포함할 수 있다.
거리 측정부(142)는 위치 센서(PSD 센서)를 이용하여 제 1타 이동 로봇(200)까지의 거리를 측정하여 거리 정보를 생성할 수 있다.
대상 물체의 위치에 따라 센서와의 거리가 달라지고, 적외선이 반사되어 들어오는 빛의 각도가 달라지는데, PSD 센서의 수광부에는 수광렌즈와 수광판이 내장되어 있어서 각도를 측정할 수 있다. 이 각도를 통해서 적외선을 반사시킨 물체와의 거리 정보를 생성할 수 있다. 본 발명에서는 PSD 센서로 4cm ~ 30cm 사이의 거리에 위치한 물체를 감지할 수 있는 SHARP사의 PSD 센서인 GP2Y0A41SK를 사용하였지만, 이 밖의 다른 PSD 센서를 사용하여도 무방할 것이다.
도 2를 참조하면, 도 2의 오른쪽에 도시된 이동 로봇의 전면에는 PSD 센서가 좌, 우로 2개 위치하는 것을 볼 수 있는데, 이는 이동 로봇과 제 1타 이동 로 봇(200) 사이의 왼쪽과 오른쪽 거리를 측정하기 위한 것이다.
또한, 방위각 측정부(144)는 지자기 센서(Compass 센서)를 이용하여 이동 로봇의 방위각을 측정하여 방위각 정보를 생성하고, 생성된 방위각 정보는 결합 상황에 따라서 모션 제어부(150) 또는 무선 통신부(170)로 출력된다.
이동 로봇이 제 1타 이동 로봇(200)에 결합하는 경우에, 측정된 방위각 정보는 무선 통신부를 통해서 제 1타 이동 로봇(200)으로 전송되고, 제 1타 이동 로봇(200)은 이동 로봇으로부터 수신한 방위각 정보에 따라서 자신의 방위각이 이동 로봇의 방위각과 일치하도록 모션을 제어하여 회전하게 된다.
또한, 제 2타 이동 로봇(300)이 이동 로봇에 결합하는 경우에, 측정된 방위각 정보는 모션 제어부(150)로 출력되고, 모션 제어부(150)는 제 2타 이동 로봇(300)으로부터 수신된 방위각 정보와 방위각 측정부(144)로부터 수신된 이동 로봇의 방위각 정보를 비교하여 이동 로봇의 방위각이 제 2타 이동로봇(300)의 방위각과 일치하도록 이동 로봇의 좌/우 회전 등의 모션을 제어한다.
방위각 측정부(144)를 구현하는 지자기 센서는 지구에서 발생하는 미약한 자기장의 흐름을 감지하여 마치 나침반처럼 방위를 알아내는 센서로, 본 발명에서는 낯선 환경에서 이동 로봇이 방위 궤도를 유지하기 위해 자신의 위치를 측정할 때 사용될 수 있다. 지자기 센서는 공지의 구성이므로 자세한 설명은 생략한다.
다시 도 1을 참조하면, 모션 제어부(150)는 중심점 계산부(130) 및 물리적 요소 측정부(140)로부터 전송받은 결과 정보를 이용하여 이동 로봇들 간의 결합을 위해 필요한 움직임을 제어한다.
즉, 모션 제어부(150)는 중심점 계산부(130)에서 계산한 환경 이미지의 중심점과 결합 수용체의 중심점이 일치하도록 이동 로봇의 좌우회전을 제어하고, 제 1타 이동 로봇(200) 결합 수용체로의 주행을 제어할 수 있다.
또한, 모션 제어부(150)는 상술한 바와 같이, 제 2타 이동로봇(300)으로부터 수신된 방위각 정보와 방위각 측정부(144)로부터 수신된 방위각 정보를 이용하여, 제 2타 이동로봇(300)이 이동 로봇에 용이하게 결합될 수 있도록, 이동 로봇의 좌우 회전을 제어하여, 이동 로봇의 방위각을 제 2타 이동로봇(300)의 방위각과 일치시킨다.
결합상태 확인부(160)는 결합 수용체에 포함되는데, 제 2타 이동 로봇(300)이 이동 로봇과 결합할 경우를 예를 들어 설명하고자 한다.
결합상태 확인부(160)는 이동 로봇의 결합 수용체에 제 2타 이동 로봇(300)의 결합 삽입체가 접촉한 시점부터 결합이 완료될 시점까지의 결합 진행 상태를 확인하여, 확인 결과를 무선 통신부(170)를 통해 제 2타 이동 로봇(300)으로 전송한다.
본 발명에서 결합상태 확인부(160)는 접촉센서인 마이크로 스위치를 포함할 수 있다. 즉, 마이크로 스위치는 제 2타 이동 로봇(300)의 결합 삽입체가 정확하게 이동 로봇의 결합 수용체에 삽입될 시점부터 계속적으로 동작하고, 결합 상태 확인부(160)는 마이크로 스위치를 확인하여 얻은 결합 상태 정보를 무선 통신부(170)를 통해 제 2타 이동 로봇(300)의 무선 통신부로 알리며, 제 2타 이동 로봇(300)의 모션 제어부는 전송받은 결합 상태 정보를 이용하여 결합이 완료될 시점까지 제 2타 이동 로봇(300)의 움직임을 제어한다.
제 2타 이동 로봇(300) 결합 삽입체의 양쪽 홈에 이동 로봇의 마이크로 스위치와 연결된 잠금 장치가 스프링에 의해 고정되어 결합이 완료되면, 제 2타 이동 로봇(300)의 움직임이 멈추게 되고, 이동 로봇의 마이크로 스위치에서 감지한 결합 완료 정보는 제 2타 이동 로봇(300)에게 무선 통신을 통해 전송된다.
또한, 이동 로봇의 모션 제어부(150)는 결합된 로봇들이 작업 수행을 완료하였을 경우, 즉, 작업 설계부(120)에서 설계한 복수의 이동 로봇이 결합함으로써 장애물을 피하거나 극복하기 위한 작업을 수행하였을 경우, 이동 로봇의 결합 수용체와 제 2타 이동 로봇(300)의 결합 삽입체를 고정시키는 잠금 장치가 풀어지도록 제어하여 결합을 해제시킬 수 있다.
본 발명에서, 잠금 장치는 솔레노이드 엑츄에이터(본 발명에서는 M010111P 솔레노이드를 사용한다)를 이용하는데, 이동 로봇의 모션 제어부(150)는 솔레노이드 엑츄에이터의 제어를 통해 이동 로봇들의 결합 상태를 제어할 수 있다.
다시, 제 1타 이동 로봇(200)과 이동 로봇 사이의 결합을 예로 들어 설명하고자 한다.
무선 통신부(170)는 이동 로봇들 사이에서 결합을 위해 필요한 정보를 무선 통신으로 전송할 수 있다. 즉, 탐색을 통해 제 1타 이동 로봇(200)을 감지하고자 할 경우, 및 결합 수용체와 결합 삽입체의 결합 상태를 제 1타 이동 로봇(200)에게 알려줄 경우에 무선 통신부(170)를 통해 통신할 수 있다.
본 발명에서는 지그비의 물리 계층을 이용한 무선 통신 모듈인 ZIG-100을 사 용하여 무선 통신을 실행하는데, ZIG-100는 고정된 MCU와 지그비 IC를 포함하는 작은 모듈이며, 2.4GHz 주파수와 250kbps RF bandwith를 사용하는 UART 통신을 허용한다.
도 5는 본 발명에 따른 이동 로봇들의 결합을 위한 도킹 방법의 일 실시예를 개략적으로 나타낸 흐름도이다.
먼저, 이동 로봇의 주변 환경을 촬영한 환경 이미지에서 물체를 감지하여(S100) 작업을 설계하는데, 도 6을 참조하여 상세히 서술하고자 한다.
도 6은 도 5의 환경 이미지에서 물체 감지 단계(S100)의 일 실시예를 상세히 나타낸 흐름도이다.
이동 로봇은 주행하며 영상 촬영장치를 통해 이동 로봇의 주변 환경을 촬영할 수 있다. 이때, 물체를 감지할 수 있는 센서를 이용할 수 있는데(S110), 센서로부터 물체가 감지되지 않을 경우에 이동 로봇은 계속해서 주행한다(S120).
센서로부터 물체가 감지되었을 경우에는 촬영한 이미지에 이미지 프로세싱을 수행하는데(S130), 이미지 프로세싱이 수행되어 환경 이미지가 변환되는 단계는 도 7을 추가적으로 참조하여 설명하고자 한다.
도 7은 도 6의 이미지 프로세싱 단계(S130)의 일 실시예를 상세히 나타낸 흐름도이다.
센서로부터 물체가 감지되면 영상 촬영장치는 물체를 포함하여 촬영한 환경 이미지를 생성한다(S131). 생성된 환경 이미지는 이미지 프로세싱 시간을 줄이기 위해 소정의 포맷 및 크기로 변환되는데, 본 발명에서는 환경 이미지를 RGB (5:6:5) 색상으로 변화시키고(S132), 160×120의 크기로 변환시킨다(133).
다음으로, 160×120 크기의 RGB 이미지로 변환된 환경 이미지를 빛의 영향을 줄이기 위한 소정의 포맷으로 변환할 수 있는데, 본 발명에서는 HSI 이미지로 변환한다(S134). 모든 변환이 완료되면, 노이즈를 제거하여(S135), 환경 이미지에서 물체의 외각 형태를 감지할 수 있다(S136).
다시 도 6을 참조하여 설명하면, 이미지 프로세싱 단계(S130)가 끝나고 환경 이미지에서 감지된 물체의 외각 형태를 토대로 이동 로봇이 수행할 작업을 설계한다(S140).
즉, 감지된 물체의 외각 형태가 미리 설정된 타 이동 로봇 결합 수용부의 외각 형태가 아닐 경우에는 이동 로봇이 피하거나 극복해야할 장애물로 판단한 후, 이동 로봇 혼자서 장애물을 피하거나 극복하기 위해 수행할 작업, 및 복수의 이동 로봇들이 결합하여 장애물을 피하거나 극복하기 위해 수행할 작업을 설계한다.
다시 도 5를 참조하여 설명하면, 장애물을 이동 로봇 혼자서 피하거나 극복할 수 있는지 여부를 추가적으로 판단하여, 즉, 제 1타 이동 로봇(200)과의 결합이 필요한지를 판단하여(S200), 결합이 필요하지 않을 경우에는 설계된 작업(이동 로봇 혼자서 장애물을 피하거나 극복하기 위해 수행할 작업)을 수행한 후 다른 물체를 탐색하기 위해 주행한다(S300).
결합이 필요할 경우에는 결합을 할 제 1타 이동 로봇(200)을 찾기 위해 무선 통신을 이용하여 제 1타 이동 로봇(200)을 탐색한다(S400).
제 1타 이동 로봇(200)이 감지되지 않는다면(S500), 다른 장소로 주행(S600) 하며 계속해서 무선 통신을 이용하여 제 1타 이동 로봇(200)을 탐색하고, 제 1타 이동 로봇(200)이 감지되었다면(S500), 제 1타 이동 로봇(200)이 위치한 지점으로 주행하여 제 1타 이동 로봇(200)과 결합을 수행한다(S700).
이동 로봇과 제 1타 이동 로봇(200)의 결합 단계(S700)는 도 8을 참조하여 상세히 설명하고자 한다.
도 8은 도 5의 제 1타 이동 로봇(200)과 결합하는 단계(S700)의 일 실시예를 상세히 나타낸 흐름도이다.
이동 로봇이 제 1타 이동 로봇(200)이 위치한 지점으로 주행하여 근접하게 위치하면 상술한 도 7의 이미지 프로세싱 단계(S130)를 그대로 적용하여 환경 이미지에 포함되어 있는 물체를 감지한다(S710).
감지한 물체가 미리 설정된 제 1타 이동 로봇(200)의 결합 수용체와 일치하는지 여부를 판단하여(S712), 일치하지 않을 경우에는(예컨대, 제 1타 이동 로봇(200)이 위치한 지점의 근처에 있는 다른 물체가 촬영되었을 경우) 감지된 제 1타 이동 로봇(200)과 무선 통신으로 위치를 확인하며 주행을 하여(S714), 다시 도 7의 이미지 프로세싱 단계(S130)를 적용하여 물체를 감지한다(S710).
감지한 물체가 제 1타 이동 로봇(200)의 결합 수용체와 일치할 경우에는 환경 이미지의 중심점 및 결합 수용체의 중심점을 COG 방법을 이용하여 계산한다(S720).
다음으로, 위치 센서를 통해 결합 수용체까지의 거리를 측정하고(S730), 결합 삽입체와 제 1타 이동 로봇(200)의 결합 수용체가 결합되는 상황을 감지한 제 1 타 이동 로봇(200)에서 무선 통신을 통해 이동 로봇으로 전송하며 결합 완료 여부를 확인한다(S740, S750).
이때, 결합이 완료되었다면 설계한 작업을 수행(S800)하고, 결합이 완료되지 않았다면 환경 이미지의 중심점 및 결합 수용체의 중심점이 일치되는지 여부를 확인한다(S760). 초기에 제 1타 이동 로봇(200)을 감지하자마자 거리를 측정했을 경우에는 결합이 완료될 수 없으므로, 바로 중심점들이 일치하는지 여부를 확인(S760)하는 것이 바람직할 것이다.
두 중심점이 일치하지 않는다면 이동 로봇은 두 중심점이 일치하도록 좌, 우로 회전하고(S762), 회전을 통해 중심점이 일치하였는지 여부를 확인하기 위해 이미지 프로세싱을 통한 물체 감지 단계(S710)부터 다시 시작하게 된다.
두 중심점이 일치한다면, 다음으로 지자기 센서를 통해 제 1타 이동 로봇(200)과 이동 로봇이 이루고 있는 방위각을 측정한다(S770). 이때, 방위각이 결합 가능 방위각 범위 안에 포함되지 않는다면, 이동 로봇 내의 지자기 센서에서 측정한 방위각 데이터를 무선 통신으로 제 1타 이동 로봇(200)에게 전송하고, 제 1타 이동 로봇(200)은 전송받은 방위각 데이터에 따라 방위각이 일치하도록 위치를 조정한다(S782).
제 1타 이동 로봇(200)의 위치 조정 결과가 이동 로봇에게 전송되면 이동 로봇은 소정의 거리만큼 직진한 후(S790), 제 S710 단계로 진행하여 제 S710 단계부터 반복적으로 수행한다. 직진하는 거리는 이동 로봇이 움직이는 영역의 크기 등에 따라서 사전에 설정됨이 바람직할 것이다.
만약, 방위각이 결합 가능 방위각 범위 안에 포함된다면, 이동 로봇은 그대로 소정 거리만큼 직진하며(S790), 이미지 프로세싱을 통한 물체 감지 단계(S710)로 돌아간다.
상기와 같은 과정을 반복하면, 중심점들의 일치 및 결합 가능 방위각을 유지하면서, 두 이동 로봇 간의 거리 차를 좁힐 수 있게 된다. 그리고나서, 이동 로봇의 결합 삽입체가 제 1타 이동 로봇(200)의 결합 수용체에 접촉되어 결합이 수행되고, 타 이동 로봇(200)은 마이크로 스위치를 확인하여 결합 완료 여부를 판단하며, 결합이 완료되었음을 무선으로 이동 로봇에게 알려준다.
결합이 완료되었음을 제 1타 이동 로봇(200)으로부터 통지받을 때까지 이동 로봇(100)은 계속해서 직진한다. 제 1타 이동 로봇(200)의 결합 수용체 내부에 포함되어 있는 잠금 장치가 스프링 힘에 의해 결합 삽입체의 양쪽 홈에 걸리게 되면, 결합 삽입체와 결합 수용체가 고정되며 결합이 완료되고, 제 1타 이동 로봇(200)의 마이크로 스위치는 이동 로봇으로 무선 통신을 통해 결합이 완료되었다는 정보를 전송한다.
다시 도 5를 참조하여 설명하면, 두 이동 로봇들이 결합하였으므로 상기에서 설계된 복수의 이동 로봇들이 결합하여 장애물을 피하거나 극복하기 위해 수행할 작업을 수행한다(S800).
작업 수행이 완료되면(S900), 제 1타 이동 로봇(200)에서 잠금 장치에 연결된 솔레노이드 엑츄에이터를 제어하여 이동 로봇들의 결합을 해제시킨다(S1000).
도 9는 두 개의 이동 로봇이 모두 이동하며 결합을 실행하는 일 실시예를 도 시한 도면이고, 도 10은 두 개의 이동 로봇 중에서 하나의 이동 로봇이 고정되어 있는 상태에서 결합을 실행하는 일 실시예를 나타낸다.
도 10의 실시예의 경우는 최근 들어 보급되고 있는 로봇 청소기와, 로봇 청소기의 충전대에 적용될 수 있을 것이다.
본 발명은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한, 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
이제까지 본 발명에 대하여 그 바람직한 실시예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.
도 1은 본 발명에 따른 이동 로봇들의 결합을 위한 도킹 시스템 구성의 일 실시예를 개략적으로 나타낸 블록도.
도 2는 본 발명에 따른 이동 로봇들의 결합을 위한 도킹 시스템이 적용된 이동 로봇의 일 실시예를 도시한 도면.
도 3은 환경 이미지에 이미지 프로세싱을 수행하여 물체를 인식한 일 실시예를 도시한 도면.
도 4는 포맷 및 크기가 변환된 환경 이미지를 알고리즘에 따라 이미지 프로세싱을 수행한 일 실시예를 도시한 도면.
도 5는 본 발명에 따른 이동 로봇들의 결합을 위한 도킹 방법의 일 실시예를 개략적으로 나타낸 흐름도.
도 6은 도 5의 환경 이미지에서 물체 감지 단계의 일 실시예를 상세히 나타낸 흐름도.
도 7은 도 6의 이미지 프로세싱 단계의 일 실시예를 상세히 나타낸 흐름도.
도 8은 도 5의 타 이동 로봇과 결합하는 단계의 일 실시예를 상세히 나타낸 흐름도.
도 9는 두 개의 이동 로봇이 모두 이동하며 결합을 실행하는 일 실시예를 도시한 도면.
도 10은 두 개의 이동 로봇 중에서 하나의 이동 로봇이 고정되어 있는 상태에서 결합을 실행하는 일 실시예를 도시한 도면.

Claims (19)

  1. 이동 로봇의 내부에 포함되어, 상기 이동 로봇의 결합을 제어하는 이동 로봇들의 결합을 위한 도킹 시스템으로서,
    상기 이동 로봇이 결합을 수행하는 로봇(결합 로봇)으로 동작하는 경우에, 상기 이동 로봇에 장착된 영상 촬영장치로부터 상기 이동 로봇 주위에 위치하는 물체를 촬영한 환경 이미지를 입력받는 이미지 입력부;
    상기 이동 로봇이 결합 로봇으로 동작하는 경우에, 상기 입력된 환경 이미지에 이미지 프로세싱을 실시하여 감지한 물체의 외각 형태가 상기 이동 로봇이 결합하고자 하는 제 1 타 이동 로봇(피결합 로봇)의 미리 설정된 결합 수용체 외각 형태와 일치하면, 상기 이미지 프로세싱을 거친 환경 이미지의 중심점 및 상기 환경 이미지에 포함된 결합 수용체의 중심점을 계산하는 중심점 계산부;
    상기 이동 로봇이 결합 로봇으로 동작하는 경우에, 상기 이동 로봇에서 상기 제 1 타 이동 로봇까지의 거리 및 상기 이동 로봇의 방위각을 포함하는 물리적 요소의 측정 정보를 생성하는 물리적 요소 측정부;
    상기 이동 로봇이 결합 로봇으로 동작하는 경우에, 상기 중심점 계산부 및 상기 물리적 요소 측정부로부터 전송받은 결과 정보를 이용하여 상기 이동 로봇 및 상기 제 1 타 이동 로봇 간의 결합을 위해 상기 이동 로봇의 움직임을 제어하는 모션 제어부; 및
    상기 이동 로봇이 제 2 타 로봇이 결합하고자 하는 피결합 로봇으로 동작하는 경우에, 상기 제 2 타 이동 로봇의 결합 삽입체가 상기 이동 로봇의 결합 수용체에 접촉한 시점부터 결합이 완료될 시점까지의 결합 진행 상태를 확인하여, 확인 결과를 상기 제 2 타 이동 로봇으로 전송하는 결합상태 확인부; 를 포함하고,
    상기 모션 제어부는,
    상기 중심점 계산부로부터 계산된 상기 결합 수용체의 중심점이 상기 환경 이미지의 중심점과 일치하도록 상기 이동 로봇의 좌우 회전을 제어하고,
    상기 결합 수용체의 중심점이 상기 환경 이미지의 중심점과 일치된 상태에서 측정된 상기 이동 로봇의 방위각 정보를 무선 통신부를 통해서 상기 제 1 타 이동 로봇으로 전송하여, 상기 제 1 타 이동 로봇이 자신의 방위각을 상기 이동 로봇의 방위각과 일치시킬 수 있도록 하는 것을 특징으로 하는 이동 로봇들의 결합을 위한 도킹 시스템.
  2. 제 1항에 있어서,
    상기 중심점 계산부는,
    상기 입력된 환경 이미지를 이미지 프로세싱 시간을 줄이기 위한 소정의 포맷으로 변환한 후, 미리 설정된 크기로 상기 환경 이미지의 크기를 변환하는 것을 특징으로 하는 이동 로봇들의 결합을 위한 도킹 시스템.
  3. 제 2항에 있어서,
    상기 중심점 계산부는,
    상기 포맷과 크기가 변환된 환경 이미지를 빛의 영향을 줄이기 위한 소정의 포맷으로 변환하는 것을 특징으로 하는 이동 로봇들의 결합을 위한 도킹 시스템.
  4. 제 1항에 있어서,
    상기 물리적 요소 측정부는,
    위치 센서를 이용하여 상기 제 1타 이동 로봇까지의 거리를 측정하여 거리 정보를 생성하는 거리 측정부; 를 포함하는 것을 특징으로 하는 이동 로봇들의 결합을 위한 도킹 시스템.
  5. 제 1항에 있어서,
    상기 물리적 요소 측정부는,
    지자기 센서를 이용하여 상기 이동 로봇의 방위각을 측정하여 방위각 정보를 생성하는 방위각 측정부; 를 더 포함하는 것을 특징으로 하는 이동 로봇들의 결합을 위한 도킹 시스템.
  6. 삭제
  7. 삭제
  8. 삭제
  9. 제 1항에 있어서,
    상기 모션 제어부는,
    결합된 상기 제 2 타 이동 로봇과 상기 이동 로봇이 결합을 유지할 필요성이 없어졌을 경우, 상기 이동 로봇의 결합 수용체와 상기 제 2 타 이동 로봇의 결합 삽입체를 고정시키는 잠금 장치를 제어하여 결합을 해제시키는 것을 특징으로 하는 이동 로봇들의 결합을 위한 도킹 시스템.
  10. 제 9항에 있어서,
    상기 환경 이미지에 포함되는 물체의 외각 형태에 따라 수행할 작업을 설계하는 작업 설계부; 를 더 포함하는 것을 특징으로 하는 이동 로봇들의 결합을 위한 도킹 시스템.
  11. 제 1항에 있어서,
    상기 이동 로봇들 사이에서 결합을 위해 필요한 정보를 무선 통신으로 전송하는 무선 통신부; 를 더 포함하는 것을 특징으로 하는 이동 로봇들의 결합을 위한 도킹 시스템.
  12. 이동 로봇(결합 로봇) 및 상기 이동 로봇이 결합하고자 하는 로봇인 제 1 타 이동 로봇(피결합 로봇)의 내부에서 수행되며, 상기 이동 로봇들의 결합을 제어하는 이동 로봇들의 결합을 위한 도킹 방법으로서,
    (a) 상기 이동 로봇이 상기 제 1타 이동 로봇을 감지하였을 경우, 상기 이동 로봇에 입력된 환경 이미지에 이미지 프로세싱을 수행하는 단계;
    (b) 상기 환경 이미지에서 인식된 물체의 외각 형태가 상기 제 1 타 이동 로봇의 결합 수용체의 미리 설정된 외각 형태와 일치할 경우, 상기 이동 로봇이 상기 이미지 프로세싱을 거친 환경 이미지의 중심점 및 상기 환경 이미지에 포함된 결합 수용체의 중심점을 계산하는 단계;
    (e) 상기 제 1 타 이동 로봇이 상기 이동 로봇과의 결합 상태를 확인하여 결합 상태를 상기 이동 로봇으로 통지하고, 상기 이동 로봇이 결합이 완료되지 않은 경우에 상기 환경 이미지의 중심점과 상기 결합 수용체의 중심점이 일치하는 조사하여, 일치하지 않으면 상기 환경 이미지의 중심점과 상기 결합 수용체의 중심점이 일치하도록 자신(이동 로봇)의 좌우 회전 움직임을 제어하고 상기 (a) 단계로 진행하여 상기 (a) 단계부터 다시 수행하는 단계;
    (f) 상기 환경 이미지의 중심점과 상기 결합 수용체의 중심점이 일치하는 경우에 상기 이동 로봇이 상기 이동 로봇의 방위각을 측정하여 방위각 정보를 생성하고, 상기 제 1 타 이동 로봇이 자신의 방위각을 상기 이동 로봇의 방위각과 일치 시킬 수 있도록 상기 제 1 타 이동 로봇으로 상기 방위각 정보를 전송하는 단계; 및
    (g) 상기 이동 로봇이 소정의 거리만큼 직진하고 상기 (a) 단계로 진행하여 상기 (a) 단계부터 다시 수행하는 단계; 를 포함하고,
    상기 (e) 단계에서는,
    상기 이동 로봇과 상기 제 1 타 이동 로봇의 결합이 완료된 경우에, 상기 중심점들의 일치 여부를 조사하지 않고, 결합된 상기 이동 로봇들이 작업을 수행하도록 하는 것을 특징으로 하는 이동 로봇들의 결합을 위한 도킹 방법.
  13. 제 12항에 있어서,
    상기 (a) 단계는,
    (a-1) 상기 이동 로봇에 장착된 영상 촬영장치로부터 촬영한 상기 물체를 포함하는 환경 이미지를 입력받는 단계;
    (a-2) 상기 입력된 환경 이미지를 이미지 프로세싱 시간을 줄이기 위한 소정의 포맷으로 변환하는 단계;
    (a-3) 상기 포맷이 변환된 환경 이미지를 소정의 크기로 변환하는 단계;
    (a-5) 상기 크기가 변환된 환경 이미지에서 노이즈를 제거하는 단계; 및
    (a-6) 상기 노이즈 제거가 완료된 환경 이미지에서 상기 물체의 외각 형태를 감지하는 단계; 를 포함하는 것을 특징으로 하는 이동 로봇들의 결합을 위한 도킹 방법.
  14. 제 13항에 있어서,
    상기 (a-3) 단계 및 상기 (a-5) 단계 사이에서,
    (a-4) 상기 환경 이미지를 빛의 영향을 줄이기 위한 소정의 포맷으로 변환하는 단계; 를 더 포함하는 것을 특징으로 하는 이동 로봇들의 결합을 위한 도킹 방법.
  15. 제 12항에 있어서,
    상기 (a) 단계 이전에,
    (i) 상기 이동 로봇이 상기 환경 이미지에서 포함된 물체에 따라 수행할 작업을 설계하는 단계; 를 더 포함하는 것을 특징으로 하는 이동 로봇들의 결합을 위한 도킹 방법.
  16. 삭제
  17. 제 12항에 있어서,
    상기 (e) 단계에서,
    상기 결합된 이동 로봇들이 상기 작업의 수행 완료와 같이 결합을 유지할 필요성이 없어졌을 경우, 상기 제 1 타 이동 로봇이 결합 수용체에 포함된 잠금 장치를 해제시켜 상기 제 1 타 이동 로봇의 결합 수용체와 상기 이동 로봇의 결합 삽입체가 분리되도록 하는 것을 특징으로 하는 이동 로봇들의 결합을 위한 도킹 방법.
  18. 제 15항에 있어서,
    상기 (i) 단계는,
    (i-1) 물체를 감지할 수 있는 센서를 이용하여 상기 이동 로봇의 주위에 위치하는 물체를 감지하는 단계;
    (i-2) 영상 촬영장치로부터 입력받은 상기 물체를 촬영한 환경 이미지에 이미지 프로세싱을 실시하는 단계; 및
    (i-3) 상기 감지한 물체의 외각 형태에 따라 수행할 작업을 설계하는 단계; 를 포함하는 것을 특징으로 하는 이동 로봇들의 결합을 위한 도킹 방법.
  19. 제 12항 내지 제 15항 및 제 17항, 및 제 18항 중 어느 한 항의 이동 로봇들의 결합을 위한 도킹 방법을 컴퓨터에서 판독할 수 있고, 실행 가능한 프로그램 코드로 기록한 기록 매체.
KR1020080126596A 2008-12-12 2008-12-12 이동 로봇들의 결합을 위한 도킹 시스템 및 방법 KR100915801B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020080126596A KR100915801B1 (ko) 2008-12-12 2008-12-12 이동 로봇들의 결합을 위한 도킹 시스템 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020080126596A KR100915801B1 (ko) 2008-12-12 2008-12-12 이동 로봇들의 결합을 위한 도킹 시스템 및 방법

Publications (1)

Publication Number Publication Date
KR100915801B1 true KR100915801B1 (ko) 2009-09-07

Family

ID=41355385

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080126596A KR100915801B1 (ko) 2008-12-12 2008-12-12 이동 로봇들의 결합을 위한 도킹 시스템 및 방법

Country Status (1)

Country Link
KR (1) KR100915801B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101151449B1 (ko) 2012-02-15 2012-06-01 한경대학교 산학협력단 리프팅 기능이 구비된 모듈형 이동로봇과 이들의 협력 제어를 통한 화물운송 시스템 및 방법

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040026640A (ko) * 2002-09-24 2004-03-31 혼다 기켄 고교 가부시키가이샤 안내로봇장치
KR20050104902A (ko) * 2004-04-30 2005-11-03 한국과학기술원 비전 센서를 이용한 우주 비행체 도킹 로봇 시스템
KR100645814B1 (ko) * 2005-06-07 2006-11-23 엘지전자 주식회사 이동로봇의 자동충전 복귀 시스템 및 그 복귀 방법
KR20070073437A (ko) * 2006-01-05 2007-07-10 장동영 합체형 장애물 주행 로봇

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040026640A (ko) * 2002-09-24 2004-03-31 혼다 기켄 고교 가부시키가이샤 안내로봇장치
KR20050104902A (ko) * 2004-04-30 2005-11-03 한국과학기술원 비전 센서를 이용한 우주 비행체 도킹 로봇 시스템
KR100645814B1 (ko) * 2005-06-07 2006-11-23 엘지전자 주식회사 이동로봇의 자동충전 복귀 시스템 및 그 복귀 방법
KR20070073437A (ko) * 2006-01-05 2007-07-10 장동영 합체형 장애물 주행 로봇

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101151449B1 (ko) 2012-02-15 2012-06-01 한경대학교 산학협력단 리프팅 기능이 구비된 모듈형 이동로봇과 이들의 협력 제어를 통한 화물운송 시스템 및 방법

Similar Documents

Publication Publication Date Title
US11914370B2 (en) System and method for providing easy-to-use release and auto-positioning for drone applications
JP4142460B2 (ja) 運動検出装置
US11019322B2 (en) Estimation system and automobile
US10375289B2 (en) System and method for providing autonomous photography and videography
EP3627446B1 (en) System, method and medium for generating a geometric model
US8581960B2 (en) Imaging device, imaging method, and imaging system
KR20180051996A (ko) 무인 비행 장치 및 이를 이용한 피사체 촬영 방법
CN106371281A (zh) 基于结构光多模块360度空间扫描和定位的3d相机
TW202013251A (zh) 在機器人設備上使用光流感測器進行vslam比例估計的系統和方法
WO2016031105A1 (ja) 情報処理装置、情報処理方法、及びプログラム
US9818037B2 (en) Estimating heading misalignment between a device and a person using optical sensor
US11729367B2 (en) Wide viewing angle stereo camera apparatus and depth image processing method using the same
WO2020068849A1 (en) Spatially-aware camera and method thereof
US11769269B2 (en) Fusing multiple depth sensing modalities
US20220019222A1 (en) Unmanned Aerial Vehicle, Unmanned Aerial Vehicle Flight Control Device, Unmanned Aerial Vehicle Flight Control Method and Program
KR100915801B1 (ko) 이동 로봇들의 결합을 위한 도킹 시스템 및 방법
CN113701750A (zh) 一种井下多传感器的融合定位系统
CN108564626B (zh) 用于确定安装于采集实体的相机之间的相对姿态角的方法和装置
CN110421563A (zh) 一种工业机器人建图定位系统及机器人
Roozing et al. Low-cost vision-based 6-DOF MAV localization using IR beacons
KR102310958B1 (ko) 광시야각의 스테레오 카메라 장치 및 이를 이용한 깊이 영상 처리 방법
Jin et al. A wearable robotic device for assistive navigation and object manipulation
KR102430273B1 (ko) 광시야각의 스테레오 카메라 기반 1인칭 비전 시스템 및 이를 이용한 영상 처리 방법
KR20230016390A (ko) 광시야각의 스테레오 카메라 장치 및 이를 이용한 깊이 영상 처리 방법
CN116391163A (zh) 电子设备、方法和存储介质

Legal Events

Date Code Title Description
A201 Request for examination
A302 Request for accelerated examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20120731

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20130830

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20160729

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20170802

Year of fee payment: 9

LAPS Lapse due to unpaid annual fee