KR101976241B1 - 다중로봇의 자기위치인식에 기반한 지도작성 시스템 및 그 방법 - Google Patents

다중로봇의 자기위치인식에 기반한 지도작성 시스템 및 그 방법 Download PDF

Info

Publication number
KR101976241B1
KR101976241B1 KR1020160008336A KR20160008336A KR101976241B1 KR 101976241 B1 KR101976241 B1 KR 101976241B1 KR 1020160008336 A KR1020160008336 A KR 1020160008336A KR 20160008336 A KR20160008336 A KR 20160008336A KR 101976241 B1 KR101976241 B1 KR 101976241B1
Authority
KR
South Korea
Prior art keywords
robot
information
local map
map
location
Prior art date
Application number
KR1020160008336A
Other languages
English (en)
Other versions
KR20170088228A (ko
Inventor
이순걸
형 김
오찬민
Original Assignee
경희대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 경희대학교 산학협력단 filed Critical 경희대학교 산학협력단
Priority to KR1020160008336A priority Critical patent/KR101976241B1/ko
Publication of KR20170088228A publication Critical patent/KR20170088228A/ko
Application granted granted Critical
Publication of KR101976241B1 publication Critical patent/KR101976241B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • G09B29/003Maps
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/881Radar or analogous systems specially adapted for specific applications for robotics

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Robotics (AREA)
  • Electromagnetism (AREA)
  • Automation & Control Theory (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Mathematical Physics (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

본 발명은 다중 로봇의 위치에 기반하여 지도를 작성하는 시스템 및 그 방법을 개시한다. 보다 상세하게는, 본 발명은 다중 로봇의 거리 측정 모듈로부터 환경 정보를 획득하고, 상기 획득된 환경 정보와 지형 정보로부터 상기 다중 로봇의 위치를 추정하여 위치 정보를 획득하며, 상기 획득된 위치 정보와, 상기 환경 정보에 기반하여 상기 다중 로봇의 움직임에 의해 동적으로 변하는 환경에 대한 로컬 지도를 생성하고, 상기 거리 측정 모듈로부터 획득되는 감도 데이터의 변화로부터 상기 다중 로봇을 인식하여 근접 여부를 판단하여 로컬 지도를 메인 서버로 전송하며, 로컬 지도를 병합하여 통합 지도를 생성할 수 있다.

Description

다중로봇의 자기위치인식에 기반한 지도작성 시스템 및 그 방법{MAP BUILDING SYSTEM AND ITS METHOD BASED ON MULTI-ROBOT LOCALIZATION}
본 발명은 다중 로봇의 위치에 기반하여 지도를 작성하는 시스템 및 그 방법에 관한 것이다.
일반적으로 로봇(robot)은 스스로 보유한 능력에 의해 주어진 일을 자율적으로 처리하거나 작동하는 기계로, 크게는 이동 로봇과 고정 로봇으로 분류되며, 활용에 따라서는 산업용 로봇, 개인서비스 로봇 및 전문서비스 로봇으로 분류된다.
그 중, 이동 로봇은 이동이 가능한 물리적 기계 장치에 환경을 인식할 수 있는 센서와 지능적인 제어를 실현하는 제어장치를 탑재한 로봇 시스템으로 자율적으로 동작할 수 있는 능력을 가지고 있으므로, 많은 영역에서 전통적인 기계 장비가 수행할 수 없는 작업을 인간에 의해 수행하는 것보다 더 잘 수행할 수 있다.
이동 로봇은 자기의 정확한 위치를 파악하는 것이 가장 기본적인 중요한 기능이므로, 이동 로봇의 위치를 파악하고 공간 내에서 특정 작업을 수행하기 위한 지도(map)를 작성하는 기능의 필요성이 강조되어 왔다.
이동 로봇을 이용하여 작업을 하기 위해서는 로봇에 부착되어 있는 센서를 이용하여 환경에 대한 지도를 작성하는 SLAM(Simultaneous Localization And Mapping) 기술 이외에도, 미지의 지역을 탐험하기 위한 별도의 알고리즘이 주로 요구된다.
일반적으로 알고리즘을 이용한 기술은 간단하게는 벽을 따라 움직이는 벽 따라가기(wall-following)를 이용하여 이동 공간의 전체 형상을 알아내는 방법이나, 더 복잡하게는 능동적 SLAM(active SLAM) 등을 이용하여 경로 계획을 수행하는 방법 등을 사용하였다. 또한, 이와 같은 방법에 의하여 지도가 생성된 이후에도, 이동 로봇이 지도에 포함된 모든 영역을 빠짐없이 작업하기 위한 별도의 전역경로 계획(coverage path planning)이 추가적으로 필요하였다.
따라서, 종래의 이동 로봇은 별도의 알고리즘을 수행함으로써, 알고리즘의 산출과정에서 발생하는 오류로 인해 이동 공간 전체에 관한 세부적인 지도를 생성하기에 어려움이 있으므로, 지도의 정확도가 낮아지는 한계가 있었다.
또한, 종래의 지도를 생성하기 위한 기술은 단일의 이동 로봇을 이용하여 자율주행을 하면서 환경에 대한 지도를 작성하거나, 실내의 한정된 영역에서만 자기위치추정과 지도 작성에 대한 동작을 수행하는 기술에 불과하였기에, 지도를 작성하는 소요 시간이 증가되는 문제점이 존재하였고, 실외의 환경에 대한 지도를 작성하는데 한계가 존재하였다.
또한, 종래의 로봇을 이용한 지도 생성 기술은 가장 보편적으로 사용되는 오도메트리(Odometry)를 이용한 방법을 주로 사용함으로써, 넓은 공간에서 로봇의 주행 시, 주행길이가 길어질수록 오차가 누적되어 로봇의 위치를 정확하게 추정하기 어려운 문제점이 존재하였다.
한국등록특허 제10-1413475호(발명의 명칭: 다중로봇 협력주행을 위한 정보공유기반의 경로계획 방법) 한국등록특허 제10-1341204호(발명의 명칭: 레이저 스캐너 및 구조물을 이용한 모바일 로봇의 위치추정장치 및 방법) 한국등록특허 제10-1468545호(발명의 명칭: 이동 로봇의 전역위치인식 및 지도 업데이트 장치 및 방법)
본 발명의 목적은 초기에 절대위치가 주어진 다중 로봇을 사용하여 알려지지 않은 작업공간내 에서의 로봇의 위치를 보다 정확하게 추정하고 그에 기반한 지도작성 시스템 및 그 방법을 제공하는 것이다. 이를 위하여 다중 로봇이 이동함으로써 획득되는 변화된 주변 환경 정보를 각각 기점의 주변 환경 정보와 비교하여 각각의 로봇의 절대적인 보정정보를 구하고 이를 다중로봇의 상대적 이동량을 알려주는 오도메트리 정보와 융합하여 다중 로봇의 위치를 보다 정확하게 추정하게 되며 동시에 주변 환경을 파악하여 지도작성을 수행한다.
또한, 본 발명의 목적은 다중 로봇이 서로 이동 중 다중로봇이 동일한 센서감지 영역 내에 있다고 판단되면 각각의 로봇이 작성한 지도를 병합하여 통합된 지도를 생성함으로써, 시간을 단축하고, 지도를 작성할 때 발생될 수 있는 누적 오차를 감소시킬 수 있는 다중 로봇의 위치에 기반한 지도작성 시스템 및 그 방법을 제공하는 것이다.
또한, 본 발명의 목적은 다중 로봇에 부착된 특정 마커를 인식하여 다중 로봇으로부터 생성된 각각의 로컬 지도의 중첩된 영역을 파악하고, 중첩된 영역이 존재할 경우 지도를 통합하여 효율적인 지도작성이 가능한 다중 로봇의 위치에 기반한 지도작성 시스템 및 그 방법을 제공하는 것이다.
또한, 본 발명의 목적은 다중 로봇이 서로 근접하여 서로의 센서감지 영역 내에 존재하며 중복되는 환경정보를 가지는 경우에만 다중 로봇 각각이 생성한 로컬 지도를 매칭함으로써, 매칭 시 발생할 수 있는 오류를 최소화하여 효율적인 지도를 작성할 수 있는 다중 로봇의 위치에 기반한 지도작성 시스템 및 그 방법을 제공하는 것이다.
일 실시예에 따른 다중 로봇의 위치에 기반한 지도작성 방법은 다중 로봇의 거리 측정 모듈로부터 환경 정보를 획득하고, 상기 획득된 환경 정보와 지형 정보로부터 상기 다중 로봇의 위치를 추정하여 위치 정보를 획득하는 단계, 상기 획득된 위치 정보와, 상기 환경 정보에 기반하여 상기 다중 로봇의 움직임에 의해 동적으로 변하는 환경에 대한 로컬 지도를 생성하는 단계, 상기 거리 측정 모듈로부터 획득되는 감도 데이터의 변화로부터 상기 다중 로봇을 인식하여 근접 여부를 판단하는 단계 및 상기 판단된 근접 여부에 기반하여 상기 생성된 로컬 지도를 메인 서버로 전송하는 단계를 포함한다.
또한, 실시예에 따른 로봇의 위치 추정 방법은 로봇에 내장된 휠 엔코더를 이용하는 오도메트리(odometry), 레이저 거리 센서 중 적어도 어느 하나를 포함하는 거리 측정 모듈을 이용하여 동적으로 변하는 환경에 대한 환경 정보를 획득하는 단계, 절대적 위치를 나타내는 지형 정보와, 상대적 위치를 나타내는 상기 로봇의 거리 측정 모듈로부터 측정되는 상기 환경 정보를 매칭하는 단계, 상기 지형 정보와 상기 환경 정보의 매칭에 기반하여, 매칭 알고리즘으로부터 상기 로봇의 움직임에 따른 변위를 연산하고, 상기 연산된 변위에 의해 상기 로봇의 위치 정보를 산출하는 단계 및 상기 산출된 위치 정보와 상기 환경 정보에 기반하여 상기 지형 정보에서 상기 로봇의 현재 위치를 보정하는 단계를 포함한다.
또한, 다른 실시예에 따른 로봇의 로컬 지도 생성 방법은 로봇에 내장된 휠 엔코더를 이용하는 오도메트리(odometry), 레이저 거리 센서 중 적어도 어느 하나를 포함하는 거리 측정 모듈을 이용하여 동적으로 변하는 환경에 대한 환경 정보를 획득하는 단계, 지형 정보와, 상기 획득된 환경 정보의 매칭에 기반하여, 매칭 알고리즘으로부터 상기 로봇의 움직임에 따른 변위를 연산하고, 상기 연산된 변위에 의해 상기 로봇의 위치 정보를 산출하는 단계, 상기 획득된 위치 정보와, 상기 환경 정보에 기반하여 로컬 지도를 생성하는 단계, 상기 로봇의 움직임에 의해 동적으로 변하는 환경을 기반으로 상기 로컬 지도를 보정하는 단계 및 상기 보정된 로컬 지도를 메인 서버로 전송하는 단계를 포함한다.
또한, 다른 실시예에 따른 다중 로봇의 지도 병합 방법은 제1 로봇에 내장된 휠 엔코더를 이용하는 오도메트리(odometry), 레이저 거리 센서 중 적어도 어느 하나를 포함하는 거리 측정 모듈을 이용하여 동적으로 변하는 환경에 대한 환경 정보를 획득하는 단계, 지형 정보와, 상기 획득된 환경 정보에 기반하여, 매칭 알고리즘으로부터 상기 제1 로봇의 움직임에 따른 변위를 연산하고, 상기 연산된 변위에 의해 상기 제1 로봇의 위치 정보를 산출하는 단계, 상기 획득된 위치 정보와, 상기 환경 정보로부터 로컬 지도를 생성하는 단계, 상기 제1 로봇의 움직임에 의해 동적으로 변하는 환경을 기반으로 상기 로컬 지도를 보정하는 단계, 상기 제1 로봇의 거리 측정 모듈로부터 제2 로봇에 부착된 특정 색상의 마커를 인식하고, 감도 데이터의 변화를 감지함으로써, 상기 제2 로봇을 인식하여 근접 여부를 판단하는 단계, 상기 판단된 근접 여부에 따라 상기 생성된 로컬 지도를 메인 서버로 전송하는 단계를 포함한다.
일 실시예에 따른 다중 로봇의 위치에 기반한 지도작성 시스템은 거리 측정 모듈로부터 획득되는 환경 정보와, 지형 정보를 매칭함으로써 위치 정보를 획득하고, 상기 획득된 위치 정보와 상기 환경 정보에 기반하여 로컬 지도를 생성하며, 상기 거리 측정 모듈로부터 획득되는 감도 데이터의 변화로부터 서로 다른 로봇을 인식하여 근접 여부를 판단하고, 상기 판단된 근접 여부에 따라 상기 생성된 로컬 지도를 전송하는 다중 로봇 및 상기 다중 로봇으로부터 수신되는 상기 로컬 지도를 병합하여 통합 지도를 생성하는 메인 서버를 포함한다.
일 실시예에 따른 다중 로봇의 위치에 기반한 지도작성 시스템 및 그 방법은 초기에 주어진 다중 로봇의 절대 위치 정보를 기반으로 상대적 위치 정보인 다중 로봇의 위치를 기점으로 획득되는 주변 환경에 대한 환경 정보를 이용하여 다중 로봇의 위치를 보다 정확하게 추정할 수 있다.
또한, 본 발명의 실시예에 따르면, 다중 로봇 각각이 작성한 지도를 공통 영역 정보를 기반으로 병합하여 통합된 지도를 생성함으로써, 시간을 단축하고, 지도를 작성할 때 발생될 수 있는 누적 오차를 감소시킬 수 있다.
또한, 본 발명의 실시예에 따르면, 다중 로봇 각각에 부착된 특정 마커를 인식하여 다중 로봇으로부터 생성된 로컬 지도의 중첩된 영역을 파악하고, 중첩된 영역이 존재할 경우 개별 지도를 통합함으로써, 효율적인 지도작성이 가능한 효과가 있다.
또한, 본 발명의 실시예에 따르면, 다중 로봇이 서로 근접할 경우에만 다중 로봇 각각이 생성한 로컬 지도를 매칭함으로써, 매칭 시 발생할 수 있는 오류를 최소화하여 효율적인 지도를 작성할 수 있다.
도 1은 본 발명의 실시예에 따른 다중 로봇의 위치에 기반한 지도작성 방법을 설명하기 위한 흐름도이다.
도 2는 본 발명의 실시예에 따른 로봇의 위치 추정 방법을 설명하기 위한 흐름도이다.
도 3은 본 발명의 실시예에 따른 로봇의 로컬 지도 생성 방법을 설명하기 위한 흐름도이다.
도 4는 본 발명의 실시예에 따른 다중 로봇의 로컬 지도 병합 방법을 설명하기 위한 흐름도이다.
도 5는 본 발명의 실시예에 따른 다중 로봇의 영역이 중첩되는 예를 설명하기 위한 도면이다.
도 6은 본 발명의 실시예에 따른 단일 로봇 및 다중 로봇의 위치에 기반한 지도작성 결과를 도시한 도면이다.
도 7은 본 발명의 실시예에 따른 다중 로봇의 위치에 기반한 지도작성 시스템을 설명하기 위해 도시한 도면이다.
도 8은 본 발명의 실시예에 따른 다중 로봇의 구성을 설명하기 위한 블록도를 도시한 도면이다.
이하 첨부 도면들 및 첨부 도면들에 기재된 내용들을 참조하여 본 발명의 실시예를 상세하게 설명하지만, 본 발명이 실시예에 의해 제한되거나 한정되는 것은 아니다.
본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소, 단계, 동작 및/또는 소자는 하나 이상의 다른 구성요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다.
본 명세서에서 사용되는 “실시예”, “예”, “측면”, “예시” 등은 기술된 임의의 양상(aspect) 또는 설계가 다른 양상 또는 설계들보다 양호하다거나, 이점이 있는 것으로 해석되어야 하는 것은 아니다.
또한, '또는' 이라는 용어는 배타적 논리합 'exclusive or' 이기보다는 포함적인 논리합 'inclusive or' 를 의미한다. 즉, 달리 언급되지 않는 한 또는 문맥으로부터 명확하지 않는 한, 'x가 a 또는 b를 이용한다' 라는 표현은 포함적인 자연 순열들(natural inclusive permutations) 중 어느 하나를 의미한다.
또한, 본 명세서 및 청구항들에서 사용되는 단수 표현("a" 또는 "an")은, 달리 언급하지 않는 한 또는 단수 형태에 관한 것이라고 문맥으로부터 명확하지 않는 한, 일반적으로 "하나 이상"을 의미하는 것으로 해석되어야 한다.
또한, 본 명세서 및 청구항들에서 사용되는 제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.
한편, 본 발명을 설명함에 있어서, 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는, 그 상세한 설명을 생략할 것이다. 그리고, 본 명세서에서 사용되는 용어(terminology)들은 본 발명의 실시예를 적절히 표현하기 위해 사용된 용어들로서, 이는 사용자, 운용자의 의도 또는 본 발명이 속하는 분야의 관례 등에 따라 달라질 수 있다. 따라서, 본 용어들에 대한 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.
도 1은 본 발명의 실시예에 따른 다중 로봇의 위치에 기반한 지도작성 방법을 설명하기 위한 흐름도이다.
도 1에 도시된 바와 같이, 단계 S110에서, 다중 로봇의 환경 정보 및 위치 정보를 획득한다.
더욱 상세하게는, 단계 S110에서, 다중 로봇은 거리 측정 모듈로부터 환경 정보를 획득하고, 획득된 환경 정보와 지형 정보로부터 다중 로봇의 위치를 추정하여 위치 정보를 획득한다.
여기서, 다중 로봇이라 함은 복수의 로봇을 일컬을 수 있으며, 본 발명의 실시예에 따른 다중 로봇의 위치에 기반한 지도작성 방법은 다중 로봇 각각의 개별 로봇에서 수행되는 단계를 나타낼 수 있다.
또한, 환경 정보는 내부 공간 또는 외부 공간에 위치하는 다중 로봇을 기점으로 주위 환경에 대한 정보를 일컫는 것으로서, 다중 로봇에 구성된 레이저 거리 센서를 포함하는 거리 측정 모듈 또는 카메라를 이용하여 획득될 수 있다.
단계 S110은 다중 로봇에 내장된 휠 엔코더를 이용하는 오도메트리(odometry), 레이저 거리 센서 중 적어도 어느 하나를 포함하는 거리 측정 모듈을 이용하여 환경에 대한 환경 정보를 획득하는 단계일 수 있다.
예를 들면, 다중 로봇은 위치 및 방향을 인식하기 위해, 내장된 휠 엔코더를 이용하는 오도메트리를 이용한 방식을 사용할 수 있다.
여기서, 오도메트리는 추정항법(Dead-Reckoning)이라고도 하며, 오도메트리 기반 로봇은 이동하는 로봇에 주행거리계(Odometer) 또는 휠 센서(Wheel Sensor)를 이용하여 속도 정보를 얻고, 자성 센서 등을 이용하여 방위각 정보를 계산해 로봇의 위치와 방향을 인식할 수 있다.
또한, 다중 로봇은 오도메트리 외에도 다중 로봇 각각에 내장된 레이저 거리 센서 중 적어도 어느 하나를 이용하여 환경 정보를 획득할 수 있다.
예를 들면, 다중 로봇은 레이저 거리 센서를 이용하여 실내 또는 실외에 구비되거나 설치된 구조물을 파악할 수 있으며, 다중 로봇의 이동 방향과 직교하는 또는 이동 방향과 동일한 좌표의 0°부터 180°까지 스캔할 수 있다. 또한, 실내 주행 시 다중 로봇은 거리 측정 모듈을 이용하여 실내의 천장을 스캔할 수도 있다.
실시예에 따라서, 다중 로봇은 실내 주행 시 상부면이나 상부면 또는 전방, 즉 천장이나 그 하부의 4면체의 벽면의 환경 정보를 획득할 수 있으며, 상부면의 전구나 벽면의 시계나 달력 등 비교적 이동이 적거나 고정된 물체를 구조물로 이용할 수 있다.
또한, 단계 S110은 거리 측정 모듈로부터 획득되는 환경 정보와 메인 서버에 저장되어 유지되는 지도로부터 획득되는 지형 정보를 기반으로 절대적 위치 정보와 상대적 위치 정보를 이용하는 스캔 매칭(scan matching)을 이용하여 다중 로봇의 위치를 추정하는 단계일 수 있다.
여기서, 지형 정보는 메인 서버에 저장되어 유지되는 지도로부터 획득되는 정보일 수 있으며, 다중 로봇이 이전 위치에서 획득하였던 환경 정보를 모두 포함하고 있으므로, 절대적 위치 정보로 활용될 수 있다.
또한, 스캔 매칭이라 함은 다중 로봇에 포함된 거리 측정 모듈로부터 획득되는 환경 정보와 지형 정보로부터 다중 로봇의 위치를 추정하고, 지도를 생성함으로써 발생할 수 있는 데이터의 오류 및 정보의 오차를 보정하기 위한 방법일 수 있다.
다중 로봇은 절대적 위치 정보를 나타내는 지형 정보와, 상대적 위치 정보를 나타내는 거리 측정 모듈로부터 현재 위치를 기점으로 측정되는 환경 정보를 기반으로 매칭 알고리즘을 이용하여 다중 로봇의 움직임에 따른 변위를 연산하고, 연산된 변위로부터 위치를 추정할 수 있는 스캔 매칭 기법을 이용할 수 있다.
여기서, 상기 매칭 알고리즘은 ICP(iterative closest point) 알고리즘일 수 있으며, 스캔 매칭으로 인해 발생할 수 있는 오차를 감소시킬 수 있다.
예를 들면, 다중 로봇은 다중 로봇의 움직임이 발생하기 전의 위치에서 획득된 이전 환경 정보를 기준으로, 움직임이 발생한 후의 현재 위치에서 거리 측정 모듈로부터 획득되는 상대적인 위치 정보인 환경 정보를 이용하여 정확한 현재 위치를 추정할 수 있다.
보다 상세하게는, 스캔 매칭은 다중 로봇의 움직임에 따른 이동 거리의 변화뿐만 아니라 각도(θ)의 변화로부터 정확한 위치를 추정하기 위해 사용하는 기법으로, 이하에서 더 상세하게 설명하고자 한다.
본 발명의 실시예에 따른 다중 로봇의 위치에 기반한 지도작성 방법은 매칭 알고리즘인 하기의 [수식 1]을 이용하여 거리 측정 모듈로부터 획득되는 환경 정보로부터 다중 로봇의 위치를 추정하는 스캔 매칭(scan matching) 을 사용할 수 있다.
[수식 1]
Figure 112016007650122-pat00001
여기서,
Figure 112016007650122-pat00002
은 다중 로봇의 이전 위치에서 획득된 레퍼런스(reference) 데이터를 의미하고,
Figure 112016007650122-pat00003
는 다중 로봇의 현재 위치에서 스캔된 데이터를 의미한다.
또한,
Figure 112016007650122-pat00004
Figure 112016007650122-pat00005
Figure 112016007650122-pat00006
Figure 112016007650122-pat00007
에서의 포인트 수(number)를 의미하고,
Figure 112016007650122-pat00008
은 다중 로봇의 회전각 θ에 의해 결정되는 회전행렬을 의미하며,
Figure 112016007650122-pat00009
는 다중 로봇의 움직임에 따른 거리 벡터를 의미한다.
또한, 만약
Figure 112016007650122-pat00010
Figure 112016007650122-pat00011
에 가장 가까운 포인트일 경우,
Figure 112016007650122-pat00012
는 1을 의미하고, 가장 가까운 포인트가 아닐 경우,
Figure 112016007650122-pat00013
는 0을 의미한다.)
예를 들면, 다중 로봇은 거리 측정 모듈을 이용하여 주변 환경에 대한 환경 정보를 획득할 수 있고, 획득된 환경 정보에 기반하여 상기 [수식 1]로부터 다중 로봇의 움직임을 결정하는 상대적 위치 정보의 오차를 산출할 수 있다.
즉, 다중 로봇은 [수식 1]을 이용하여 다중 로봇의 움직임에 따라 획득된 데이터(
Figure 112016007650122-pat00014
)를 θ의 각도로 회전시키고,
Figure 112016007650122-pat00015
에 의해 데이터를 변환하여 정렬된 레퍼런스 데이터(
Figure 112016007650122-pat00016
)를 획득할 수 있다.
그러므로, 본 발명의 실시예에 따른 다중 로봇의 위치에 기반한 지도작성 방법은 다중 로봇의 거리 측정 모듈로부터 측정되는 환경 정보와, [수식 1]을 이용하여 위치를 추정하는 스캔 매칭으로부터, 다중 로봇의 정확한 위치 정보를 획득할 수 있다.
실시예에 따라서, 단계 S110은 다중 로봇의 환경 정보를 메인 서버로 전송하고, 메인 서버로부터 스캔 매칭을 이용하여 획득된 위치 정보를 수신하는 단계일 수도 있다. 예를 들면, 다중 로봇은 거리 측정 모듈로부터 획득된 환경 정보를 메인 서버로 전송하고, 메인 서버로부터 매칭 알고리즘 및 스캔 매칭을 이용하여 추정된 위치 정보를 수신할 수도 있다.
다시 도 1을 참조하면, 단계 S120에서, 다중 로봇은 위치 정보 및 환경 정보를 이용하여 로컬 지도를 생성한다.
더욱 상세하게는, 단계 S120은 단계 S110으로부터 획득된 다중 로봇의 위치 정보와, 환경 정보에 기반하여 다중 로봇의 움직임에 의해 동적으로 변하는 환경에 대한 로컬 지도를 생성하는 단계이다.
예를 들어, 단계 S120은 다중 로봇의 현재 위치를 기점으로, 거리 측정 모듈로부터 획득된 주변 환경에 대한 환경 정보와, 단계 S110으로부터 획득된 다중 로봇의 위치 정보로부터 로컬 지도를 생성하는 단계일 수 있다.
여기서, 로컬 지도는 다중 로봇 각각으로부터 생성되는 개별적인 지도를 의미할 수 있으며, 다중 로봇 각각의 움직임에 따른 위치 정보와, 움직임으로 인해 동적으로 변하는 환경에 대한 환경 정보로부터 생성될 수 있다.
또한, 로컬 지도는 다중 로봇의 위치 및 환경에 따라 달라질 수 있으므로, 다중 로봇은 각기 다른 로컬 지도를 생성할 수 있다.
또한, 단계 S120은 메인 서버에서 저장되어 유지되는 지도로부터 획득되는 지형 정보와, 다중 로봇의 위치 정보에 기반하여 로컬 지도의 오차를 보정하는 단계일 수 있다.
실시예에 따라서, 단계 S120으로부터 생성된 로컬 지도는 다중 로봇의 현재 위치를 기점으로 주변의 환경에 대한 환경 정보에 기반하여 생성된 것으로서, 작업 영역의 부분이 불완전할 수 있으므로, 메인 서버에 저장되어 유지되는 지도의 지형 정보를 이용하여 상기 로컬 지도의 미완성된 부분을 보완할 수 있고, 다중 로봇이 이전 위치에서 이동하거나 경로가 일정하지 않은 상태에서 획득된 환경 정보의 오차를 보완할 수 있다.
또한, 실시예에 따라서, 단계 S120은 생성된 로컬 지도와 메인 서버에 저장되어 유지되는 지형 정보를 비교하고, 로컬 지도와 지형 정보가 일치하지 않은 영역은 로컬 지도를 이용하여 지형 정보를 업데이트하여 보정할 수도 있다.
단계 S130에서, 다중 로봇은 근접 여부를 판단한다. 더욱 상세하게는, 단계 S130에서, 다중 로봇은 거리 측정 모듈로부터 획득되는 감도 데이터의 변화로부터 서로 다른 로봇을 인식하여 근접 여부를 판단한다.
예를 들면, 단계 S130은 다중 로봇의 거리 측정 모듈로부터 서로 다른 로봇에 부착된 특정 마커(marker)를 인식하여 변화하는 감도 데이터로부터 다중 로봇의 근접 여부를 판단하는 단계일 수 있다.
또한, 다중 로봇은 거리 측정 모듈을 이용하여 자신 외의 서로 다른 로봇에 부착된 특정 마커를 인식할 수 있고, 마커에 포함되어 있는 서로 다른 로봇의 특정 값을 포함하는 감도 데이터로부터 서로 다른 로봇의 근접 여부를 판단할 수 있다.
여기서 다중 로봇은 다중 로봇 각각인 단일 로봇을 일컬을 수 있고, 서로 다른 로봇이라 함은 단일 로봇 외의 제2의 로봇, 제3의 로봇 등의 복수 로봇일 수 있으나, 로봇의 수 또는 다중 로봇 및 서로 다른 로봇의 의미에 한정되지 않는다.
실시예에 따라서, 상기 마커는 로봇(다중 로봇 및 서로 다른 로봇을 모두 포함하여 지칭함)마다 서로 다른 특정 색상을 포함할 수 있고, 거리 측정 모듈 중 레이저 스캐너로부터 감지될 수 있다.
여기서, 감도 데이터는 인식되는 로봇의 지도작성 영역에 대한 정보, 로봇의 제조 정보, 로봇을 관리하는 관리자 정보, 로봇의 수행 정보, 위치 정보 및 배터리 정보 중 적어도 어느 하나를 포함하는 로봇 정보를 포함할 수 있다.
또한, 단계 S130은 다중 로봇이 서로 근접할 경우 주행을 멈추고, 다중 로봇에 수집된 로컬 지도의 중첩된 영역 여부를 판단하는 단계일 수 있다.
예를 들면, 다중 로봇은 지정된 일정 거리의 범위 안에 서로 다른 로봇이 위치할 경우, 근접 상태임을 판단하고, 서로 다른 로봇이 현재까지 생성한 로컬 지도를 수신하여 다중 로봇의 로컬 지도와 비교함으로써, 로컬 지도 내의 중첩된 영역이 존재하는지 판단할 수 있다.
또한, 단계 S130은 중첩된 영역이 존재할 경우, 중첩된 영역을 포함하는 전체 로컬 지도를 메인 서버로 전송하는 단계일 수 있다.
예를 들면, 다중 로봇이 서로 근접할 경우, 생성된 로컬 지도의 중첩 영역을 판단하는 방법은 다중 로봇 중 어느 하나의 로봇을 통해 이루어질 수 있으며, 실시예에 따라서는 다중 로봇은 다중 로봇의 근접을 판단한 후, 생성된 로컬 지도를 메인 서버로 전송하고, 메인 서버로부터 중첩된 영역의 여부에 따른 결과만을 수신할 수도 있다.
단계 S140에서, 다중 로봇은 생성된 로컬 지도를 메인 서버로 전송한다. 보다 상세하게는 단계 S140은 다중 로봇이 서로 근접하고, 로컬 지도에 중첩된 영역이 존재할 경우, 지도작성 동작을 멈추고 현재까지 생성한 로컬 지도를 메인 서버로 전송하는 단계일 수 있다.
여기서, 메인 서버는 다중 로봇으로부터 수신되는 로컬 지도를 병합하여 통합 지도를 생성할 수 있고, 생성된 통합 지도를 저장하여 유지할 수 있다.
또한, 메인 서버는 다중 로봇으로부터 획득된 위치에 따른 환경 정보와, 위치 정보를 모두 수신할 수 있으며, 수신된 환경 정보 및 위치 정보에 기반하여 다중 로봇에 대한 효율적인 경로계획 및 자율주행을 수정 및 제어하는 제어신호를 생성할 수도 있다.
도 2는 본 발명의 실시예에 따른 로봇의 위치 추정 방법을 설명하기 위한 흐름도이다.
도 2에 도시된 바와 같이, 단계 S210에서, 로봇은 거리 측정 모듈을 이용하여 환경 정보를 획득한다. 보다 상세하게는, 단계 S210은 로봇에 내장된 휠 엔코더를 이용하는 오도메트리(odometry), 레이저 거리 센서 중 적어도 어느 하나를 포함하는 거리 측정 모듈을 이용하여 동적으로 변하는 환경에 대한 환경 정보를 획득하는 단계이다.
예를 들면, 단계 S210은 로봇에 내장된 거리 측정 모듈, 카메라 및 센서를 이용하여 움직임에 따라 동적으로 변하는 환경에 대한 환경 정보를 획득하는 단계일 수 있다.
또한, 단계 S220에서, 로봇은 지형 정보와, 거리 측정 모듈로부터 측정되는 환경 정보를 매칭한다. 보다 상세하게는, 단계 S220는 절대적 위치를 나타내는 지형 정보와, 상대적 위치를 나타내는 로봇의 거리 측정 모듈로부터 측정되는 환경 정보를 매칭하는 단계이다.
예를 들면, 단계 S220은 메인 서버에 저장되어 유지되어 있는 지도로부터 획득되는 지형 정보와, 로봇의 거리 측정 모듈로부터 측정되는 환경 정보를 매칭하는 단계일 수 있다.
실시예에 따라서, 지형 정보는 메인 서버에 저장되어 유지되는 지도로부터 획득된 지형 정보를 일컫을 수 있으며, 로봇의 이전 위치를 기점으로 획득된 환경에 대한 환경 정보를 포함할 수도 있다. 즉, 지형 정보는 로봇의 절대적인 위치 정보를 제시할 수 있다.
또한, 단계 S220은 로봇의 현재 위치 정보에 기반하여 지형 정보의 위치와 거리 측정 모듈로부터 획득된 환경 정보의 위치를 일치시킨 후, 매칭하는 단계일 수 있다.
단계 S230에서, 로봇은 매칭 알고리즘으로부터 움직임에 따른 변위를 연산하고, 연산된 변위에 의해 로봇의 위치 정보를 산출한다. 보다 상세하게는, 단계 S230은 지형 정보와 환경 정보의 매칭에 기반하여, 매칭 알고리즘으로부터 로봇의 움직임에 따른 변위를 연산하고, 연산된 변위에 의해 로봇의 위치 정보를 산출하는 단계이다.
예를 들면, 단계 S230은 절대적 위치를 나타내는 지형 정보와, 상대적 위치 정보를 나타내는 환경 정보를 이용하는 스캔 매칭을 이용하여 위치를 추정하는 단계일 수 있다.
더욱 상세하게는, 로봇은 거리 측정 모듈을 이용하여 주변 환경에 대한 환경 정보를 획득하고, 획득된 환경 정보에 기반하여 매칭 알고리즘으로부터 로봇의 움직임을 결정하는 상대적 위치 정보의 오차를 산출할 수 있다.
그러므로, 단계 S230은 환경 정보와, 매칭 알고리즘을 이용하여 위치를 추정하는 스캔 매칭으로부터, 로봇의 정확한 위치 정보를 획득할 수 있다.
단계 S240에서, 로봇은 위치 정보 및 환경 정보에 기반하여 지형 정보에서, 로봇의 현재 위치를 보정한다. 보다 상세하게는 단계 S240은 단계 S230으로부터 추정된 위치 정보에 기반하여, 메인 서버에 저장되어 유지되는 지형 정보에서 로봇의 현재 위치를 보정하는 단계일 수 있다.
예를 들면, 단계 S240은 다중 로봇의 움직임에 기반하여 실시간으로 산출된 위치 정보를 지형 정보에 반영하여 위치를 보정할 수 있으나, 메인 서버의 요청 및 다중 로봇의 요청에 의해서도 실시될 수 있다.
도 3은 본 발명의 실시예에 따른 로봇의 로컬 지도 생성 방법을 설명하기 위한 흐름도이다.
도 3에 도시된 바와 같이, 단계 S310에서, 로봇은 거리 측정 모듈을 이용하여 환경 정보를 획득한다. 보다 상세하게는, 단계 S320은 로봇에 내장된 휠 엔코더를 이용하는 오도메트리(odometry), 레이저 거리 센서 중 적어도 어느 하나를 포함하는 거리 측정 모듈을 이용하여 동적으로 변하는 환경에 대한 환경 정보를 획득하는 단계이다.
단계 S320에서, 로봇은 매칭 알고리즘으로부터 움직임에 따른 변위를 연산하고, 연산된 변위에 의해 위치 정보를 산출한다. 보다 상세하게는, 단계 S320는 지형 정보와, 로봇으로부터 획득된 환경 정보를 매칭하고, 매칭 알고리즘으로부터 로봇의 움직임에 따른 변위를 연산하여 로봇의 위치 정보를 산출하는 단계일 수 있다.
또한, 실시예에 따라서, 로봇은 산출된 위치 정보를 기반으로, 메인 서버에 저장되어 유지되는 지형 정보에서 현재 위치를 정확하게 보정할 수도 있다.
단계 S330에서, 로봇은 위치 정보와, 환경 정보에 기반하여 로컬 지도를 생성한다.
예를 들어, 단계 S330은 로봇의 현재 위치를 기점으로, 거리 측정 모듈로부터 주변 환경에 대해 획득된 환경 정보와, 위치 정보를 기반으로 로컬 지도를 생성하는 단계일 수 있다.
또한, 단계 S340에서, 로봇은 움직임에 의해 동적으로 변하는 환경에 대한 환경 정보를 이용하여 로컬 지도를 보정한다. 예를 들어, 단계 S340은 단계 S330으로부터 생성된 로컬 지도와, 메인 서버에 저장되어 유지되는 지도로부터 획득되는 지형 정보를 이용하여 로컬 지도의 오차를 보정하는 단계일 수 있다.
실시예에 따라서, 단계 S340은 오차가 보정된 로컬 지도와, 메인 서버에 저장되어 유지되는 지도를 병합하여 로컬 지도를 업데이트할 수 있다.
단계 S350에서, 로봇은 보정된 로컬 지도를 메인 서버로 전송한다.
예를 들면, 단계 S350은 로봇이 지정된 영역에 대한 로컬 지도의 생성을 완료하였거나, 로봇의 오류로 인해 지도 작성이 불가능하거나, 서로 다른 로봇과 근접하였거나, 메인 서버로부터 로컬 지도에 대한 전송 요청이 수신되었을 경우 중 적어도 어느 하나의 상황에 의해 보정된 로컬 지도를 메인 서버로 전송할 수 있다.
단계 S360에서, 로봇은 주행 종료 여부를 판단한다. 예를 들어, 단계 S360은 로컬 지도를 메인 서버로 전송한 후, 주행 여부를 판단하는 단계일 수 있다.
실시예에 따라서, 로봇은 지정된 영역에 대한 로컬 지도 생성이 완료되었거나, 로봇의 동작이 불가능할 경우 주행을 종료할 수 있으나, 메인 서버로부터 수신되는 제어 신호에 기반하여 주행을 계속하여 유지할 수도 있다.
도 4는 본 발명의 실시예에 따른 다중 로봇의 로컬 지도 병합 방법을 설명하기 위한 흐름도이다.
도 4에 도시된 바와 같이, 단계 S410에서, 제1 로봇은 거리 측정 모듈을 이용하여 환경 정보를 획득한다. 보다 상세하게는, 단계 S410은 제1 로봇에 내장된 휠 엔코더를 이용하는 오도메트리(odometry), 레이저 거리 센서 중 적어도 어느 하나를 포함하는 거리 측정 모듈을 이용하여 동적으로 변하는 환경에 대한 환경 정보를 획득하는 단계이다.
단계 S420에서, 제1 로봇은 지형 정보와, 단계 S410으로부터 획득된 환경 정보를 이용하여 매칭 알고리즘으로부터 제1 로봇의 움직임에 따른 변위를 연산하고, 연산된 변위에 의해 제1 로봇의 위치 정보를 산출한다.
또한, 단계 S420은 산출된 위치 정보와, 메인 서버에 저장되어 유지되는 지도로부터 획득되는 지형 정보로부터, 제1 로봇의 현재 위치를 보정하는 단계일 수 있다.
실시예에 따라서, 단계 S420은 제1 로봇에서 수행될 수 있으나, 제1 로봇으로부터 환경 정보를 수신하는 메인 서버에서 수행될 수도 있다.
단계 S430에서, 제1 로봇은 위치 정보와, 환경 정보를 이용하여 로컬 지도를 생성하고, 단계 S440에서, 제1 로봇의 움직임에 의해 동적으로 변하는 환경을 기반으로, 로컬 지도를 보정한다.
실시예에 따라서, 단계 S440은 오차가 보정된 로컬 지도와, 메인 서버에 저장되어 유지되는 지도를 병합하여 로컬 지도를 업데이트할 수도 있다.
단계 S450에서, 제1 로봇은 제2 로봇의 근접 여부를 판단한다. 예를 들면, 단계 S450은 제1 로봇의 거리 측정 모듈로부터 제2 로봇에 부착된 특정 색상의 마커를 인식하여 감도 데이터의 변화로부터 제2 로봇의 근접 여부를 판단하는 단계일 수 있다.
실시예에 따라서, 제1 로봇은 지정된 일정 거리의 범위 안에 제2 로봇이 위치할 경우 근접 상태임을 판단하므로, 제1 로봇의 거리 측정 모듈로부터 마커가 인식되었다 하더라도 제2 로봇이 일정 거리의 범위 안에 위치하지 않았다면 근접한 상태가 아닐 수 있다.
즉, 제1 로봇은 거리 측정 모듈로부터 획득되는 감도 데이터의 변화를 감지하여 제2 로봇과의 거리를 측정할 수 있다.
단계 S450에서 제1 로봇은 제1 로봇 및 제2 로봇이 서로 근접한 상태라고 판단될 경우, 단계 S460에서, 영역의 중첩 여부를 판단한다. 예를 들면, 제1 로봇은 제2 로봇이 현재까지 생성한 로컬 지도를 수신하여 자신의 로컬 지도와 비교함으로써, 중첩된 영역이 존재하는지 판단할 수 있다.
실시예에 따라서는 제1 로봇이 자신의 로컬 지도를 제2 로봇으로 전송하여 중첩된 영역 여부를 판단할 수 있고, 제1 로봇의 로컬 지도와 제2 로봇의 로컬 지도를 메인 서버로 전송한 후, 메인 서버로부터 중첩된 영역의 여부에 따른 결과만을 수신할 수도 있다.
단계 S470에서, 제1 로봇은 생성된 로컬 지도를 메인 서버로 전송한다. 예를 들면, 제1 로봇이 제2 로봇의 로컬 지도와 제1 로봇의 로컬 지도를 비교하여 중첩 영역이 존재하는 것을 판단할 경우, 제1 로봇 및 제2 로봇은 주행을 멈추고 현재까지 각자 수집한 로컬 지도를 메인 서버로 전송할 수 있다.
이에 따라서, 메인 서버는 제1 로봇 및 제2 로봇으로부터 수신된 로컬 지도를 모두 병합하여 통합 지도를 생성할 수 있으나, 실시예에 따라서는 제1 로봇 및 제2 로봇 중 적어도 어느 하나의 로봇에서 로컬 지도를 모두 수신하여 통합 지도를 생성한 후, 통합 지도를 메인 서버로 전송할 수도 있다.
도 5는 본 발명의 실시예에 따른 다중 로봇의 영역이 중첩되는 예를 설명하기 위한 도면이다.
도 5를 참조하면, 제1 로봇(510)과 제2 로봇(520)은 각각 제1 로봇의 경로(511) 및 제2 로봇의 경로(521)를 따라서 주행할 수 있고, 제1 로봇(510) 및 제2 로봇(520)은 주행 정보 및 환경 정보를 메인 서버(560)로 실시간 전송할 수 있다.
메인 서버(560)는 수신된 주행 정보 및 환경 정보를 이용하여 매칭 알고리즘으로부터 위치를 추정하여 제1 로봇(510) 및 제2 로봇(520)의 위치 정보를 획득하여 제1 로봇(510) 및 제2 로봇(520)로 전송할 수 있다.
실시예에 따라서, 제1 로봇(510) 및 제2 로봇(520)은 각자 매칭 알고리즘을 이용하여 위치 정보를 획득할 수도 있다.
또한, 제1 로봇(510)은 제1 로봇의 경로(511)를 따라 주행하며 거리 측정 모듈을 이용하여 획득한 환경 정보로부터 A 영역(530)의 로컬 지도를 생성할 수 있고, 제2 로봇(520)은 제2 로봇의 경로(521)를 따라 주행하며 거리 측정 모듈에 의해 동적으로 변하는 환경에 대한 환경 정보를 획득하여 B 영역(540)의 로컬 지도를 생성할 수 있다.
A 영역(530) 및 B 영역(540)에 대한 로컬 지도를 생성하며 주행하는 제1 로봇(510) 및 제2 로봇(520)은 중첩되는 특정 영역에서 마주치게 되고, 제1 로봇(510) 및 제2 로봇(520)은 거리 측정 모듈을 이용하여 서로 다른 로봇에 부착된 마커를 인식하여 감도 데이터의 변화를 감지할 수 있다.
이에 따라서, 제1 로봇(510) 및 제2 로봇(520)은 감도 데이터의 변화로부터 근접여부를 판단하게 되고, 제1 로봇(510) 및 제2 로봇(520) 각각이 작성해온 로컬 지도를 매칭하여 중첩 영역(550)의 여부를 확인할 수 있다.
제1 로봇(510) 및 제2 로봇(520)은 매칭 알고리즘의 결과로 중첩 영역(550)이 발견되는 경우, 주행을 종료하며 제1 로봇(510) 및 제2 로봇(520)으로부터 생성된 A 영역(530)에 대한 로컬 지도 및 B 영역(540)에 대한 로컬 지도를 메인 서버(560)로 전송할 수 있다.
이에 따라서, 메인 서버(560)는 수신된 A 영역(530)에 대한 로컬 지도 및 B 영역(540)에 대한 로컬 지도를 병합하여 최종적인 통합 지도를 생성할 수 있다.
도 6은 본 발명의 실시예에 따른 단일 로봇 및 다중 로봇의 위치에 기반한 지도작성 결과를 도시한 도면이다.
보다 상세하게는, 도 6a는 본 발명의 실시예에 따른 단일 로봇의 위치에 기반한 지도작성 결과를 도시한 도면이고, 도 6b는 본 발명의 실시예에 따른 다중 로봇의 위치에 기반한 지도작성 결과를 도시한 도면이며, 도 6c는 본 발명의 실시예에 따른 단일 로봇 및 다중 로봇의 지도작성 결과와 실제 지도(Real map)를 비교한 결과를 도시한 도면이다.
도 6a 및 도 6b의 실험 결과는 단일 로봇 및 다중 로봇에 따른 지도작성의 정확성, 시간 효율성 및 주행거리 관점에서의 성능을 비교하여 하기의 [표 1]로 정리하였다.
[표 1]
Figure 112016007650122-pat00017
[표 1]로부터 단일 로봇(Single robot) 및 다중 로봇(Multi robots)의 주행 거리(Traveled distance) 결과를 살펴보면, 로컬 지도를 작성하는 동안 단일 로봇은 38.25m를 주행하고, 다중 로봇은 각각 17.69m 및 15.68m를 주행한 것을 확인할 수 있다. 이에 따라서, 다중 로봇을 이용함으로써, 로봇의 주행 거리의 부담이 줄어드는 것을 확인 할 수 있다.
또한, 단일 로봇 및 다중 로봇의 통합 지도에 따른 RMS 에러(RMS error) 결과를 살펴보면, 단일 로봇의 매핑과 실제 지도 사이의 RMS 에러는 약 570mm인 것을 확인할 수 있고, 다중 로봇의 매핑과 실제 지도 사이의 RMS 에러는 약 348mm인 것을 확인할 수 있으며, 이로부터 다중 로봇을 이용한 지도작성 결과의 RMS 에러가 더 낮은 것을 알 수 있다.
여기서, RMS 에러는 주변 환경의 특징에 해당하는 단일 로봇 및 다중 로봇의 매핑과 실제 지도의 비교로부터 산출될 수 있다.
또한, 지도를 작성하는데 소요되는 총 시간(Exploration time)을 살펴보면, 단일 로봇은 약 498초의 소요시간을 나타내고, 다중 로봇은 약 350초의 소요시간을 나타냄으로써, 다중 로봇을 이용하여 지도를 작성하는 것이 더 효율적인 것을 확인할 수 있다.
다시 도 6a 및 도 6b를 참조하면, 단일 로봇을 사용하여 지도를 작성한 도 6a의 결과는 지도작성의 정확도가 낮은 것을 확인할 수 있고, 단일 로봇의 이동이 일정하지 않은 것을 확인할 수 있다. 반면, 다중 로봇을 사용하여 지도를 작성하는 도 6b의 결과는 R1 및 R2로 지정된 다중 로봇이 서로 다른 영역에서 높은 정확도의 지도를 작성한 것을 확인할 수 있다.
즉, 도 6a 및 도 6b를 비교해본 결과, 다중 로봇을 이용하는 것이 단일 로봇을 사용하는 것보다 높은 정확도의 지도를 작성하는 것을 알 수 있다. 또한, 도 6c를 참조하면, 다중 로봇을 이용하여 작성한 지도가 실제 지도(Real map)에 가장 근접한 것을 확인할 수 있다.
도 7은 본 발명의 실시예에 따른 다중 로봇의 위치에 기반한 지도작성 시스템을 설명하기 위해 도시한 도면이다.
도 7을 참조하면, 본 발명의 실시예에 따른 다중 로봇의 위치에 기반한 지도작성 시스템(700)에서, 다중 로봇(710)은 환경 정보와, 위치 정보를 획득하여 로컬 지도를 생성하고, 메인 서버(720)는 다중 로봇(710)으로부터 생성된 로컬 지도를 수신하여 병합한 후, 통합 지도를 생성한다.
이를 위해, 본 발명의 실시예에 따른 다중 로봇의 위치에 기반한 지도작성 시스템(700)은 다중 로봇(7101, 7102 … 710n) 및 메인 서버(720)를 포함한다.
다중 로봇(710)은 거리 측정 모듈로부터 획득되는 환경 정보와, 지형 정보를 매칭함으로써 위치 정보를 획득하고, 획득된 위치 정보와 지형 정보에 기반하여 로컬 지도를 생성하며, 거리 측정 모듈로부터 획득되는 감도 데이터의 변화로부터 각 단일 로봇(로봇1, 로봇2 … 로봇n 중 적어도 어느 하나의 로봇)을 인식하여 근접 여부를 판단하고, 판단된 근접 여부에 따라 생성된 로컬 지도를 전송한다.
다중 로봇(710)은 로봇1(7101), 로봇2(7102) … 로봇n(710n) 중 적어도 어느 하나 이상을 포함하는 것일 수 있으며, 로봇의 수는 본 발명의 실시예에 따라 변동될 수 있다.
또한, 상기 서로 다른 로봇은 다중 로봇(710) 이외의 로봇을 일컫을 수 있으며, 서로 다른 로봇은 단일 로봇이거나, 다중 로봇일 수 있다.
다중 로봇(710)은 상기 서로 다른 로봇의 근접 여부를 판단하기 위하여, 서로 다른 로봇에 포함된 특정 색상의 마커(marker)를 인식하여 변화되는 감도 데이터로부터 근접 여부를 판단할 수 있다.
또한, 다중 로봇(710)은 감도 데이터로부터 근접 상태임을 판단한 경우, 주행을 멈추고 수집된 로컬 지도의 중첩된 영역을 판단할 수 있으며, 중첩된 영역이 존재할 경우 현재까지 수집된 로컬 지도를 메인 서버(720)로 전송할 수 있다. 반면, 다중 로봇(710) 각각의 로컬 지도에 중첩된 영역이 존재하지 않을 경우, 다중 로봇(710)은 지도작성을 계속하여 수행할 수 있다.
메인 서버(720)는 다중 로봇(710)으로부터 수신되는 로컬 지도를 병합하여 통합 지도를 생성한다.
메인 서버(720)는 다중 로봇(710)으로부터 수신되는 환경 정보 및 위치 정보에 기반하여 다중 로봇(710)에 대한 효율적인 경로계획 및 자율주행을 수정 및 제어하는 제어신호를 생성할 수 있다.
실시예에 따라서, 메인 서버(720)는 다중 로봇(710)의 거리 측정 모듈로부터 획득된 환경 정보를 수신하여 저장되어 유지되는 지도의 지형 정보와 매칭한 후, 다중 로봇(710)의 위치 정보를 생성하여 다중 로봇(710)으로 전송할 수 있으며, 다중 로봇(710)의 로컬 지도 및 지형 정보로부터 로컬 지도를 보정하여 전송할 수도 있다.
또한, 메인 서버(720)는 다중 로봇(710)에서 수집되는 환경 정보, 위치 정보 및 로컬 지도를 수신하고, 저장하여 유지할 수 있다.
도 8은 본 발명의 실시예에 따른 다중 로봇의 구성을 설명하기 위한 블록도를 도시한 도면이다.
도 8을 참조하면, 본 발명의 실시예에 따른 다중 로봇(710)은 환경 정보와 지형 정보를 매칭하여 위치 정보를 획득하고, 위치 정보와 환경 정보에 기반하여 로컬 지도를 생성하며, 서로 다른 로봇의 근접 상태에 따라 로컬지도를 메인 서버로 전송할 수 있다.
이를 위해, 본 발명의 실시예에 따른 다중 로봇(710)은 획득부(711), 로컬 지도 생성부(712), 로컬 지도 보정부(713), 근접 판단부(714), 통신부(715) 및 제어부(716)를 포함할 수 있다.
여기서, 다중 로봇(710)은 로봇1(7101), 로봇2(7102) … 로봇n(710n) 중 적어도 어느 하나 이상을 포함하는 것일 수 있으며, 단일 로봇 각각을 나타내는 것일 수 있으며, 획득부(711), 로컬 지도 생성부(712), 로컬 지도 보정부(713), 근접 판단부(714), 통신부(715) 및 제어부(716)는 상기 로봇 각각에 모두 포함된 구성일 수 있다.
획득부(711)는 거리 측정 모듈로부터 환경 정보를 획득하고, 획득된 환경 정보와 지형 정보를 매칭함으로써, 위치를 추정하여 위치 정보를 획득할 수 있다.
예를 들면, 획득부(711)는 환경 정보와, 메인 서버에 저장되어 유지되는 지도로부터 획득되는 지형 정보를 기반으로, 절대적 위치 정보와 상대적 위치 정보를 이용하는 스캔 매칭(casn matching)을 이용하여 다중 로봇의 위치를 추정할 수 있다.
로컬 지도 생성부(712)는 획득된 위치 정보와, 동적으로 변하는 환경을 기반으로 환경 정보에 기반하여 로컬 지도를 생성할 수 있다.
예를 들면, 로컬 지도 생성부(712)는 다중 로봇의 현재 위치를 기점으로, 거리 측정 모듈로부터 획득된 주변 환경에 대한 환경 정보와, 획득부(711)로부터 획득된 위치 정보를 이용하여 로컬 지도를 생성할 수 있다.
로컬 지도 보정부(713)는 메인 서버에 저장되어 유지되는 지도로부터 획득되는 지형 정보와, 환경 정보에 기반하여 로컬 지도를 보정할 수 있다.
근접 판단부(714)는 거리 측정 모듈로부터 획득되는 감도 데이터의 변화로부터 서로 다른 로봇을 인식하여 근접 여부를 판단할 수 있다.
예를 들면, 근접 판단부(714)는 다중 로봇에 부착된 특정 색상의 마커(marker)를 인식하여 변화하는 감도 데이터로부터 서로 다른 로봇의 근접 여부를 판단할 수 있다.
실시예에 따라서, 감도 데이터는 인식되는 서로 다른 로봇의 지도작성 영역에 대한 정보, 로봇의 제조 정보, 로봇을 관리하는 관리자 정보, 로봇의 수행 정보, 위치 정보 및 배터리 정보 중 적어도 어느 하나를 포함하는 로봇 정보를 포함할 수 있다.
통신부(715)는 판단된 근접 여부에 따라 보정된 로컬 지도를 메인 서버로 전송할 수 있고, 메인 서버로부터 제어신호 및 지형 정보를 수신할 수 있다.
제어부(716)는 메인 서버로부터 수신되는 제어신호에 기반하여 움직임을 제어할 수 있다.
예를 들면, 제어부(716)는 메인 서버로부터 수신된 경로계획 및 자율주행에 따른 제어신호에 기반하여 다중 로봇(710)의 움직임, 방향, 진행 여부, 로컬 지도의 생성 및 보정, 자율주행 및 서로 다른 로봇과의 통신 중 적어도 어느 하나를 제어할 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.
510: 제1 로봇
511: 제1 로봇의 경로
520: 제2 로봇
521: 제2 로봇의 경로
550: 중첩되는 영역
560, 820: 메인 서버
800: 다중 로봇의 위치에 기반한 지도작성 시스템
810: 로봇

Claims (16)

  1. 다중 로봇의 거리 측정 모듈로부터 환경 정보를 획득하고, 상기 획득된 환경 정보와 지형 정보로부터 상기 다중 로봇의 위치를 추정하여 위치 정보를 획득하는 단계;
    상기 획득된 위치 정보와, 상기 환경 정보에 기반하여 상기 다중 로봇의 움직임에 의해 동적으로 변하는 환경에 대한 로컬 지도를 생성하는 단계;
    상기 거리 측정 모듈로부터 획득되는 감도 데이터의 변화로부터 상기 다중 로봇을 인식하여 근접 여부를 판단하는 단계; 및
    상기 판단된 근접 여부에 기반하여 상기 생성된 로컬 지도를 메인 서버로 전송하는 단계
    를 포함하고,
    상기 위치 정보를 획득하는 단계는
    상기 지형 정보와 상기 환경 정보의 매칭에 기반하여, 매칭 알고리즘으로부터 상기 다중 로봇의 움직임에 따른 변위를 연산하고, 상기 연산된 변위에 의해 상기 다중 로봇의 위치 정보를 산출하는 단계를 포함하며,
    상기 매칭 알고리즘은
    상기 획득된 환경 정보에 기초하여, 기설정된 이전 시각에서의 위치인 상기 다중 로봇의 이전 위치에서 획득된 레퍼런스(reference) 데이터, 현재 시각에서의 위치인 상기 다중 로봇의 현재 위치에서 스캔된 데이터, 상기 다중 로봇의 기설정된 회전각에 의해 결정되는 회전행렬 및 상기 다중 로봇의 움직임에 따른 거리 벡터를 연산하여 상기 다중 로봇의 움직임에 따른 변위를 도출하고,
    상기 로컬 지도를 생성하는 단계는
    상기 지형 정보와, 상기 다중 로봇의 거리 측정 모듈로부터 측정된 상기 환경 정보에 기반하여 상기 로컬 지도의 오차를 보정하는 단계를 포함하며,
    상기 로컬 지도는
    상기 다중 로봇 각각으로부터 생성되는 개별적인 지도이고,
    상기 메인 서버는
    상기 다중 로봇으로부터 수신되는 상기 생성된 로컬 지도를 병합하여 통합 지도를 생성하는 다중 로봇의 위치에 기반한 지도작성 방법.
  2. 제1항에 있어서,
    상기 위치 정보를 획득하는 단계는
    상기 다중 로봇에 내장된 휠 엔코더를 이용하는 오도메트리(odometry), 레이저 거리 센서 중 적어도 어느 하나를 포함하는 상기 거리 측정 모듈을 이용하여 환경에 대한 상기 환경 정보를 획득하는 다중 로봇의 위치에 기반한 지도작성 방법.
  3. 제2항에 있어서,
    상기 위치 정보를 획득하는 단계는
    상기 거리 측정 모듈로부터 획득되는 상기 환경 정보와, 상기 지형 정보를 기반으로, 절대적 위치 정보와 상대적 위치 정보를 이용하는 스캔 매칭(scan matching)으로부터 상기 다중 로봇의 위치를 추정하는 것을 특징으로 하는 다중 로봇의 위치에 기반한 지도작성 방법.
  4. 제3항에 있어서,
    상기 위치 정보를 획득하는 단계는
    상기 절대적 위치 정보를 나타내는 상기 메인 서버에 저장되어 유지되는 상기 지형 정보와, 상기 상대적 위치 정보를 나타내는 상기 거리 측정 모듈로부터 측정되는 상기 환경 정보를 기반으로, 상기 다중 로봇의 움직임에 따른 변위를 연산하고, 상기 연산된 변위로부터 상기 다중 로봇의 위치를 추정하여 상기 위치 정보를 획득하는 것을 특징으로 하는 다중 로봇의 위치에 기반한 지도작성 방법.
  5. 삭제
  6. 제1항에 있어서,
    상기 근접 여부를 판단하는 단계는
    상기 거리 측정 모듈로부터 상기 다중 로봇에 포함된 특정 색상의 마커(marker)를 인식하여 상기 감도 데이터의 변화로부터 상기 다중 로봇의 근접 여부를 판단하는 것을 특징으로 하는 다중 로봇의 위치에 기반한 지도작성 방법.
  7. 제6항에 있어서,
    상기 근접 여부를 판단하는 단계는
    상기 다중 로봇이 서로 근접할 경우 주행을 멈추고, 상기 다중 로봇에 수집된 상기 로컬 지도의 중첩된 영역을 판단하는 것을 특징으로 하는 다중 로봇의 위치에 기반한 지도작성 방법.
  8. 삭제
  9. 제1항에 있어서,
    상기 위치 정보를 획득하는 단계는
    상기 다중 로봇에 내장된 휠 엔코더를 이용하는 오도메트리(odometry), 레이저 거리 센서 중 적어도 어느 하나를 포함하는 거리 측정 모듈을 이용하여 동적으로 변하는 환경에 대한 상기 환경 정보를 획득하는 단계;
    절대적 위치를 나타내는 상기 지형 정보와, 상대적 위치를 나타내는 상기 다중 로봇의 거리 측정 모듈로부터 측정되는 상기 환경 정보를 매칭하는 단계; 및
    상기 산출된 위치 정보와 상기 환경 정보에 기반하여 상기 지형 정보에서 상기 다중 로봇의 현재 위치를 보정하는 단계
    를 더 포함하는 다중 로봇의 위치에 기반한 지도작성 방법.
  10. 삭제
  11. 제1 로봇에 내장된 휠 엔코더를 이용하는 오도메트리(odometry), 레이저 거리 센서 중 적어도 어느 하나를 포함하는 거리 측정 모듈을 이용하여 동적으로 변하는 환경에 대한 환경 정보를 획득하는 단계;
    지형 정보와, 상기 획득된 환경 정보에 기반하여, 매칭 알고리즘으로부터 상기 제1 로봇의 움직임에 따른 변위를 연산하고, 상기 연산된 변위에 의해 상기 제1 로봇의 위치 정보를 산출하는 단계;
    상기 획득된 위치 정보와, 상기 환경 정보로부터 상기 제1 로봇의 로컬 지도를 생성하는 단계;
    상기 제1 로봇의 움직임에 의해 동적으로 변하는 환경을 기반으로 상기 생성된 제1 로봇의 로컬 지도를 보정하는 단계;
    상기 제1 로봇의 거리 측정 모듈로부터 제2 로봇에 부착된 특정 색상의 마커를 인식하고, 감도 데이터의 변화를 감지함으로써, 상기 제2 로봇을 인식하여 근접 여부를 판단하는 단계; 및
    상기 판단된 근접 여부에 따라 상기 생성된 제1 로봇의 로컬 지도를 메인 서버로 전송하는 단계
    를 포함하고,
    상기 매칭 알고리즘은
    상기 획득된 환경 정보에 기초하여, 기설정된 이전 시각에서의 위치인 다중 로봇의 이전 위치에서 획득된 레퍼런스(reference) 데이터, 현재 시각에서의 위치인 상기 다중 로봇의 현재 위치에서 스캔된 데이터, 상기 다중 로봇의 기설정된 회전각에 의해 결정되는 회전행렬 및 상기 다중 로봇의 움직임에 따른 거리 벡터를 연산하여 상기 다중 로봇의 움직임에 따른 변위를 도출하고,
    상기 로컬 지도는
    상기 다중 로봇 각각으로부터 생성되는 개별적인 지도이며,
    상기 메인 서버는
    상기 생성된 제1 로봇의 로컬 지도 및 상기 제2 로봇의 로컬 지도를 병합하여 통합 지도를 생성하는 다중 로봇의 지도 병합 방법.
  12. 제11항에 있어서,
    상기 근접 여부를 판단하는 단계는
    상기 제1 로봇과 상기 제2 로봇의 근접 여부에 기반하여 상기 제1 로봇의 보정된 로컬 지도와, 상기 제2 로봇의 로컬 지도의 중첩된 영역을 판단하는 것을 특징으로 하는 다중 로봇의 지도 병합 방법.
  13. 제1항 내지 제4항, 제6항 내지 제7항, 제9항, 및 제11항 내지 제12항 중 어느 한 항의 방법을 실행하는 프로그램을 기록한 컴퓨터 판독 가능 기록 매체.
  14. 거리 측정 모듈로부터 획득되는 환경 정보와, 지형 정보를 매칭함으로써 위치 정보를 획득하고, 상기 획득된 위치 정보와 상기 환경 정보에 기반하여 로컬 지도를 생성하며, 상기 거리 측정 모듈로부터 획득되는 감도 데이터의 변화로부터 서로 다른 로봇을 인식하여 근접 여부를 판단하고, 상기 판단된 근접 여부에 따라 상기 생성된 로컬 지도를 전송하는 다중 로봇; 및
    상기 다중 로봇으로부터 수신되는 상기 로컬 지도를 병합하여 통합 지도를 생성하는 메인 서버
    를 포함하고,
    상기 다중 로봇은,
    상기 지형 정보와 상기 환경 정보의 매칭에 기반하여, 매칭 알고리즘으로부터 상기 다중 로봇의 움직임에 따른 변위를 연산하고, 상기 연산된 변위에 의해 상기 다중 로봇의 위치 정보를 산출하며,
    상기 지형 정보와, 상기 다중 로봇의 거리 측정 모듈로부터 측정된 상기 환경 정보에 기반하여 상기 로컬 지도의 오차를 보정하고,
    상기 매칭 알고리즘은
    상기 획득된 환경 정보에 기초하여, 기설정된 이전 시각에서의 위치인 상기 다중 로봇의 이전 위치에서 획득된 레퍼런스(reference) 데이터, 현재 시각에서의 위치인 상기 다중 로봇의 현재 위치에서 스캔된 데이터, 상기 다중 로봇의 기설정된 회전각에 의해 결정되는 회전행렬 및 상기 다중 로봇의 움직임에 따른 거리 벡터를 연산하여 상기 다중 로봇의 움직임에 따른 변위를 도출하고,
    상기 로컬 지도는
    상기 다중 로봇 각각으로부터 생성되는 개별적인 지도인 다중 로봇의 위치에 기반한 지도작성 시스템.
  15. 제14항에 있어서,
    상기 다중 로봇은
    거리 측정 모듈로부터 환경 정보를 획득하고, 상기 획득된 환경 정보와 상기 지형 정보를 매칭함으로써, 위치를 추정하여 위치 정보를 획득하는 획득부;
    상기 획득된 위치 정보와, 동적으로 변하는 환경을 기반으로 상기 환경 정보에 기반하여 로컬 지도를 생성하는 로컬 지도 생성부;
    상기 메인 서버에 저장되어 유지되는 지도로부터 획득되는 상기 지형 정보와, 상기 환경 정보에 기반하여 상기 로컬 지도를 보정하는 로컬 지도 보정부;
    상기 거리 측정 모듈로부터 획득되는 감도 데이터의 변화로부터 상기 서로 다른 로봇을 인식하여 근접 여부를 판단하는 근접 판단부;
    상기 판단된 근접 여부에 따라 상기 보정된 로컬 지도를 메인 서버로 전송하고, 상기 메인 서버로부터 제어신호 및 상기 지형 정보를 수신하는 통신부; 및
    상기 메인 서버로부터 수신되는 상기 제어신호에 기반하여 움직임을 제어하는 제어부
    를 포함하는 다중 로봇의 위치에 기반한 지도작성 시스템.
  16. 제14항에 있어서,
    상기 메인 서버는
    상기 다중 로봇으로부터 수신되는 상기 환경 정보 및 상기 위치 정보에 기반하여 상기 다중 로봇에 대한 효율적인 경로계획 및 자율주행을 수정 및 제어하는 제어신호를 생성하는 다중 로봇의 위치에 기반한 지도작성 시스템.
KR1020160008336A 2016-01-22 2016-01-22 다중로봇의 자기위치인식에 기반한 지도작성 시스템 및 그 방법 KR101976241B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160008336A KR101976241B1 (ko) 2016-01-22 2016-01-22 다중로봇의 자기위치인식에 기반한 지도작성 시스템 및 그 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160008336A KR101976241B1 (ko) 2016-01-22 2016-01-22 다중로봇의 자기위치인식에 기반한 지도작성 시스템 및 그 방법

Publications (2)

Publication Number Publication Date
KR20170088228A KR20170088228A (ko) 2017-08-01
KR101976241B1 true KR101976241B1 (ko) 2019-08-28

Family

ID=59650457

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160008336A KR101976241B1 (ko) 2016-01-22 2016-01-22 다중로봇의 자기위치인식에 기반한 지도작성 시스템 및 그 방법

Country Status (1)

Country Link
KR (1) KR101976241B1 (ko)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022119057A1 (ko) * 2020-12-02 2022-06-09 서울대학교산학협력단 영상 기반의 협력적 동시 측위 및 지도 작성 시스템 및 방법
KR20230048880A (ko) * 2021-10-05 2023-04-12 국방과학연구소 전자 장치의 지도 병합 방법
US11880209B2 (en) 2020-05-15 2024-01-23 Samsung Electronics Co., Ltd. Electronic apparatus and controlling method thereof
KR102631313B1 (ko) * 2023-06-08 2024-01-31 (주)인티그리트 Slam 기술 구현을 위한 비전 데이터 및 라이다 데이터 간의 실시간 분석 및 대조를 통해 위치 오차 보정이 가능한 장치
KR102631315B1 (ko) * 2023-06-08 2024-02-01 (주)인티그리트 Slam 기술 구현을 위한 비전 데이터 및 라이다 데이터 간의 실시간 분석 및 대조를 통해 위치 오차 보정이 가능한 시스템

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017213601A1 (de) * 2017-08-04 2019-02-07 Robert Bosch Gmbh Verfahren zum Erstellen einer Objektkarte für eine Fabrikumgebung
KR102135560B1 (ko) * 2018-05-16 2020-07-20 주식회사 유진로봇 카메라와 라이다를 이용한 융합 센서 및 이동체
WO2019039733A1 (ko) * 2017-08-21 2019-02-28 (주)유진로봇 카메라와 라이다를 이용한 융합 센서 및 이동체
US11579298B2 (en) 2017-09-20 2023-02-14 Yujin Robot Co., Ltd. Hybrid sensor and compact Lidar sensor
KR20190078102A (ko) 2017-12-26 2019-07-04 한국전자통신연구원 멀티모달 센서를 이용한 다계층 전역 환경지도 관리 방법 및 이를 위한 장치
CN108181636B (zh) * 2018-01-12 2020-02-18 中国矿业大学 石化工厂巡检机器人环境建模与地图构建装置和方法
KR102145346B1 (ko) * 2018-07-16 2020-08-18 한국지질자원연구원 공간형상정보를 포함하는 지도 생성시스템
KR102198187B1 (ko) * 2018-12-28 2021-01-04 엘지전자 주식회사 이동 로봇
KR102384754B1 (ko) * 2019-12-16 2022-04-08 재단법인대구경북과학기술원 포인트 데이터 기반 지도 구축 방법 및 장치
KR102391771B1 (ko) * 2020-04-02 2022-04-27 함영국 이진화된 3차원 공간맵 기반의 자율 이동체 운영 방법
CN114413903A (zh) * 2021-12-08 2022-04-29 上海擎朗智能科技有限公司 用于多机器人的定位方法、机器人配送系统及计算机可读存储介质
CN114803472B (zh) * 2022-04-22 2023-12-26 深圳航天科技创新研究院 基于机器人的夹紧控制方法及控制系统
KR102649303B1 (ko) * 2024-01-09 2024-03-20 국방과학연구소 전자 장치 및 그의 다중로봇 탐사영역 관리 방법

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101413475B1 (ko) * 2013-02-20 2014-07-01 국방과학연구소 다중로봇 협력주행을 위한 정보공유기반의 경로계획 방법

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100883520B1 (ko) * 2007-07-23 2009-02-13 한국전자통신연구원 실내 환경지도 작성 시스템 및 방법
KR101081495B1 (ko) * 2009-11-09 2011-11-09 한국과학기술연구원 이동로봇의 혼합환경지도 작성방법
KR20130056586A (ko) * 2011-11-22 2013-05-30 한국전자통신연구원 군집 지능 로봇을 이용한 지도 구축 방법 및 그 장치
KR101341204B1 (ko) 2012-02-29 2013-12-12 부산대학교 산학협력단 레이저 스캐너 및 구조물을 이용한 모바일 로봇의 위치추정장치 및 방법
KR101468545B1 (ko) 2013-07-10 2014-12-03 연세대학교 산학협력단 이동 로봇의 전역위치인식 및 지도 업데이트 장치 및 방법

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101413475B1 (ko) * 2013-02-20 2014-07-01 국방과학연구소 다중로봇 협력주행을 위한 정보공유기반의 경로계획 방법

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11880209B2 (en) 2020-05-15 2024-01-23 Samsung Electronics Co., Ltd. Electronic apparatus and controlling method thereof
WO2022119057A1 (ko) * 2020-12-02 2022-06-09 서울대학교산학협력단 영상 기반의 협력적 동시 측위 및 지도 작성 시스템 및 방법
KR20220077951A (ko) 2020-12-02 2022-06-10 서울대학교산학협력단 영상 기반의 협력적 동시 측위 및 지도 작성 시스템 및 방법
KR102467858B1 (ko) 2020-12-02 2022-11-17 서울대학교산학협력단 영상 기반의 협력적 동시 측위 및 지도 작성 시스템 및 방법
KR20230048880A (ko) * 2021-10-05 2023-04-12 국방과학연구소 전자 장치의 지도 병합 방법
KR102639524B1 (ko) 2021-10-05 2024-02-22 국방과학연구소 전자 장치의 지도 병합 방법
KR102631313B1 (ko) * 2023-06-08 2024-01-31 (주)인티그리트 Slam 기술 구현을 위한 비전 데이터 및 라이다 데이터 간의 실시간 분석 및 대조를 통해 위치 오차 보정이 가능한 장치
KR102631315B1 (ko) * 2023-06-08 2024-02-01 (주)인티그리트 Slam 기술 구현을 위한 비전 데이터 및 라이다 데이터 간의 실시간 분석 및 대조를 통해 위치 오차 보정이 가능한 시스템

Also Published As

Publication number Publication date
KR20170088228A (ko) 2017-08-01

Similar Documents

Publication Publication Date Title
KR101976241B1 (ko) 다중로봇의 자기위치인식에 기반한 지도작성 시스템 및 그 방법
KR101948728B1 (ko) 데이터 수집 방법 및 시스템
CN108873908B (zh) 基于视觉slam和网络地图结合的机器人城市导航系统
KR101739996B1 (ko) 이동 로봇 및 이동 로봇의 위치 인식 및 지도 작성 방법
US8515612B2 (en) Route planning method, route planning device and autonomous mobile device
CN105486311A (zh) 室内机器人定位导航方法及装置
KR101214143B1 (ko) 이동체의 위치 및 방향 인식 장치 및 그 방법
KR101439921B1 (ko) 비젼 센서 정보와 모션 센서 정보를 융합한 모바일 로봇용 slam 시스템
TWI772743B (zh) 資訊處理裝置以及移動機器人
CN110187348A (zh) 一种激光雷达定位的方法
KR20220024791A (ko) 차량의 궤적을 결정하기 위한 방법 및 장치
JPWO2016013095A1 (ja) 自律移動装置
JP2012242967A (ja) 地図処理方法及びプログラム、並びにロボットシステム
US20190331496A1 (en) Locating a vehicle
JP5852645B2 (ja) 軌跡補正方法、軌跡補正装置および移動体装置
KR101167627B1 (ko) 이동 로봇의 위치 및 지도의 이중 보정 장치 및 방법
JP2018005709A (ja) 自律移動装置
KR101738751B1 (ko) 실내 자기장을 이용한 이동 로봇의 위치 인식 방법 및 장치
JP5720292B2 (ja) 推定位置評価システム及びプログラム
JP2020095339A (ja) 移動体、移動体の制御方法及びプログラム
KR101650128B1 (ko) 이동 로봇의 지도 생성 장치 및 방법
WO2019176258A1 (ja) 制御装置、制御方法及びプログラム
KR102481615B1 (ko) 데이터 수집 방법 및 시스템
JP7242040B2 (ja) 移動体制御装置、移動体制御方法及びコンピュータプログラム
JP2023538946A (ja) マルチエージェント地図生成

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant