KR101876968B1 - 실내 자율 주행 로봇을 위한 제어 방법 및 시스템 - Google Patents

실내 자율 주행 로봇을 위한 제어 방법 및 시스템 Download PDF

Info

Publication number
KR101876968B1
KR101876968B1 KR1020160137713A KR20160137713A KR101876968B1 KR 101876968 B1 KR101876968 B1 KR 101876968B1 KR 1020160137713 A KR1020160137713 A KR 1020160137713A KR 20160137713 A KR20160137713 A KR 20160137713A KR 101876968 B1 KR101876968 B1 KR 101876968B1
Authority
KR
South Korea
Prior art keywords
service
target facility
robot
sensing data
indoor
Prior art date
Application number
KR1020160137713A
Other languages
English (en)
Other versions
KR20180044475A (ko
Inventor
석상옥
윤동원
정진원
Original Assignee
네이버 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 네이버 주식회사 filed Critical 네이버 주식회사
Priority to KR1020160137713A priority Critical patent/KR101876968B1/ko
Priority to US15/787,571 priority patent/US10974395B2/en
Priority to JP2017201593A priority patent/JP6731388B2/ja
Publication of KR20180044475A publication Critical patent/KR20180044475A/ko
Application granted granted Critical
Publication of KR101876968B1 publication Critical patent/KR101876968B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/088Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
    • B25J13/089Determining the position of the robot with reference to its environment
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0003Home robots, i.e. small robots for domestic use
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0011Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement
    • G05D1/0027Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement involving a plurality of vehicles, e.g. fleet or convoy travelling
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0287Control of position or course in two dimensions specially adapted to land vehicles involving a plurality of land vehicles, e.g. fleet or convoy travelling
    • G05D1/0291Fleet control
    • G05D1/0297Fleet control by controlling means in a control room
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F8/00Arrangements for software engineering
    • G06F8/30Creation or generation of source code
    • G06F8/33Intelligent editors
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means

Abstract

실내 자율 주행 로봇을 위한 제어 방법 및 시스템이 개시된다. 클라우드 시스템에서 로봇의 실내 자율 주행을 제어하는 방법은, 목표 시설물의 내부에서 자율 주행하는 맵핑 로봇에서 센서를 통해 상기 목표 시설물의 내부에 대해 생성한 제1 센싱 데이터를, 상기 클라우드 시스템에서 수신하는 단계, 상기 제1 센싱 데이터를 이용하여 상기 목표 시설물의 실내 지도를 생성하는 단계, 상기 목표 시설물의 내부에 위치한 서비스 로봇으로부터, 상기 서비스 로봇이 센서를 통해 상기 목표 시설물의 내부에 대해 생성한 제2 센싱 데이터를, 네트워크를 통해 수신하는 단계 및 상기 제2 센싱 데이터 및 상기 생성된 실내 지도를 이용하여 상기 서비스 로봇의 상기 목표 시설물에 대한 실내 자율 주행을 제어하는 단계를 포함할 수 있다.

Description

실내 자율 주행 로봇을 위한 제어 방법 및 시스템{METHOD AND SYSTEM FOR CONTROLLING INDOOR AUTONOMOUS ROBOT}
아래의 설명은 실내 자율 주행 로봇을 위한 제어 방법 및 시스템에 대한 것이다.
자율 주행 로봇은 스스로 주변을 살피고 장애물을 감지하면서 바퀴나 다리를 이용하여 목적지까지 최적 경로를 찾아가는 로봇으로, 자율 주행 차량이나, 물류, 호텔 서비스, 로봇 청소기 등 다양한 분야를 위해 개발 및 활용되고 있다. 예를 들어, 한국공개특허 제10-2005-0024840호는 자율이동로봇을 위한 경로계획방법에 관한 기술로, 가정이나 사무실에서 자율적으로 이동하는 이동로봇이 장애물을 회피하면서 목표점까지 안전하고 빠르게 이동할 수 있는 최적경로를 계획하는 방법에 대해 개시하고 있다.
도 1은 종래기술에 있어서, 실내 자율 주행을 위해 로봇에 적용되는 기본 기술의 예를 도시한 도면이다. 도 1은 종래기술의 서비스 로봇(100)에 적용되는 기술들로서, 맵핑(Mapping, 110), 로컬리제이션(Localization, 120), 경로 계획(Path Planning, 130), 장애물 회피(Obstacle Avoidance, 140) 및 센싱(Sensing, 150)의 기술들을 나타내고 있다.
맵핑(110)은 서비스 로봇(100)이 자율 주행을 수행하면서 주변 지도를 작성하기 위한 기술 및/또는 이미 제작된 지도를 반입하여 관리하기 위한 기술을 포함할 수 있다. 예를 들어, 서비스 로봇(100)이 미지의 환경을 돌아다니면서 로봇에 부착되어 있는 센서만으로 외부의 도움 없이 환경에 대한 정확한 지도를 작성하거나 주변 환경과 기 저장된 지도를 매칭하여 현재위치를 추정하기 위해, SLAM(Simultaneous Localization And Mapping)이나 CML(Concurrent Mapping and Localization)과 같은 기술이 활용될 수 있으며, 또한 카메라의 2차원 데이터를 3차원 정보로 변환하기 위한 SFM(Structure from motion)과 같은 기술이 3차원 지도의 생성을 위해 활용될 수 있다.
로컬리제이션(120)은 서비스 로봇(100)이 주변 환경을 인식하고 자신의 위치를 추정하기 위한 기술을 포함할 수 있다. 예를 들어, GPS(Global Positioning System) 좌표나 IMU(Inertial Measurement Unit)의 센싱값, 그리고 상술한 SLAM 등의 기술이 활용될 수 있다.
경로 계획(130)은 서비스 로봇(100)의 자율 주행을 위한 경로를 설정하기 위한 기술을 포함할 수 있다. 예를 들어, RRT(Rapidly-exploring Random Tree), 경로를 찾기 위한 A 스타 알고리즘, D 스타 알고리즘, 다익스트라 알고리즘(Dijkstra algorithm) 등이 활용될 수 있다.
장애물 회피(140)는 서비스 로봇(100)이 경로 계획(130)에 따라 설정된 경로에 따라 자율 주행을 진행하는 중에 계획되지 않은 장애물(일례로, 사람 또는 사물)을 회피하기 위한 기술을 포함할 수 있다.
센싱(150)은 카메라, 라이더(lidar), IMU, 초음파 센서, GPS 모듈 등과 같이 서비스 로봇(100)이 포함하는 다양한 센서들을 이용하여 앞서 설명한 맵핑(110), 로컬리제이션(120), 경로 계획(130) 및 장애물 회피(140)를 위해 요구되는 정보를 제공하기 위한 기술을 포함할 수 있다.
구동(160)은 경로 계획(130)에 따라 또는 장애물 회피(140)를 위해 서비스 로봇(100)이 포함하는 바퀴나 다리 등을 제어하여 서비스 로봇(100)을 실제로 이동시키기 위한 기술을 포함할 수 있다.
이처럼, 종래기술에서는 서비스 로봇(100)의 자율 주행을 위해 다양한 센서들을 포함해야 하고, 이러한 센서들의 정보를 처리하며, 얻어지는 정보들로부터 맵핑(110), 로컬리제이션(120), 경로 계획(130) 및 장애물 회피(140)와 같은 다양한 연산을 처리하기 위한 프로세서를 포함해야 하며, 동시에 프로세서의 처리 결과에 따라 서비스 로봇(100)의 이동을 처리하기 위한 바퀴나 다리 등의 구성요소들을 포함해야 한다. 뿐만 아니라, 서비스 로봇(100)은, 서비스 로봇(100)의 이용자들이 원하는 서비스의 제공을 위한 특정 구성요소를 더 포함해야 한다. 예를 들어, 청소 로봇은 개별 특징에 알맞게 먼지를 빨아들여 저장하기 위한 구성요소를 더 포함해야 하며, 물류 관리를 위한 로봇은 물건들의 식별과 이동 등을 위한 구성요소를 더 포함해야 한다.
이처럼, 실내 자율 주행 로봇은 밀접한 연계가 요구되는 다양한 구성요소들을 포함해야 하는 관계로 제작 비용이 매우 크다는 문제점이 있다.
서비스 제공자가 대형 쇼핑몰이나 공항, 호텔 등과 같은 이용자들의 시설물들의 실내 지도를 미리 생성하고, 클라우드 서비스를 통해 이용자들의 개별 서비스 로봇들과 통신하면서 개별 서비스 로봇들을 위한 로컬리제이션과 경로 계획을 미리 생성된 실내 지도에 기반하여 처리하여 그 결과 데이터를 제공해줌으로써, 개별 서비스 로봇들이 제공된 결과 데이터에 기반하여 자율 주행을 처리할 수 있어 서비스 로봇의 제작 비용을 혁신적으로 줄일 수 있는 실내 자율 주행 로봇을 위한 제어 방법 및 시스템을 제공한다.
하나의 시설물 내에 다수의 서비스 로봇들이 동작하는 경우, 상기 클라우드 서비스를 통해 다수의 서비스 로봇들을 위한 서비스 계획을 관제함으로써, 다수의 서비스 로봇들이 하나의 시설물 내에서 보다 효율적으로 목적하는 서비스를 분담하여 처리할 수 있는 실내 자율 주행 로봇을 위한 제어 방법 및 시스템을 제공한다.
이용자들의 시설물들의 실내 지도를 제작함에 있어서 서비스 제공자 측에서 사람이 직접 관측 장비를 제어하여 실내 지도를 제작하는 것이 아니라, 실내 자율 주행을 위한 기능과 맵핑 기능을 모두 포함하여 자동적으로 실내 지도를 제작할 수 있는 실내 자율 주행 맵핑 로봇을 위한 시스템 및 그 제어 방법을 제공한다.
클라우드 시스템에서 로봇의 실내 자율 주행을 제어하는 방법에 있어서, 목표 시설물의 내부에서 자율 주행하는 맵핑 로봇에서 센서를 통해 상기 목표 시설물의 내부에 대해 생성한 제1 센싱 데이터를, 상기 클라우드 시스템에서 수신하는 단계; 상기 제1 센싱 데이터를 이용하여 상기 목표 시설물의 실내 지도를 생성하는 단계; 상기 목표 시설물의 내부에 위치한 서비스 로봇으로부터, 상기 서비스 로봇이 센서를 통해 상기 목표 시설물의 내부에 대해 생성한 제2 센싱 데이터를, 네트워크를 통해 수신하는 단계; 및 상기 제2 센싱 데이터 및 상기 생성된 실내 지도를 이용하여 상기 서비스 로봇의 상기 목표 시설물에 대한 실내 자율 주행을 제어하는 단계를 포함하는 것을 특징으로 하는 제어 방법을 제공한다.
일측에 따르면, 상기 맵핑 로봇은 상기 클라우드 시스템을 통해 상기 서비스 로봇의 실내 자율 주행을 제어하기 위한 클라우드 서비스를 제공하는 서비스 제공자 측에서 운용하는 장비이고, 상기 서비스 로봇은 상기 목표 시설물과 연관하여 상기 클라우드 서비스를 요청한 이용자 측에서 운용하는 장비인 것을 특징으로 할 수 있다.
다른 측면에 따르면, 상기 실내 지도를 생성하는 단계는, 상기 클라우드 서비스를 요청하는 복수의 이용자들 각각의 목표 시설물들에 대한 실내 지도를 생성하여 대응하는 이용자의 식별자, 대응하는 목표 시설물의 식별자 및 상기 대응하는 이용자의 서비스 로봇의 식별자 중 적어도 하나의 식별자와 연관하여 저장 및 관리하고, 상기 실내 자율 주행을 제어하는 단계는, 상기 복수의 이용자들 중 제1 이용자의 서비스 로봇의 실내 자율 주행을, 상기 적어도 하나의 식별자와 연관하여 관리되는 실내 지도를 이용하여 제어하는 것을 특징으로 할 수 있다.
또 다른 측면에 따르면, 상기 제2 센싱 데이터를, 네트워크를 통해 수신하는 단계는, 상기 목표 시설물에 복수의 서비스 로봇들이 존재하는 경우, 상기 복수의 서비스 로봇들 각각으로부터 제2 센싱 데이터를 수신하고, 상기 실내 자율 주행을 제어하는 단계는, 상기 복수의 서비스 로봇들 각각으로부터 수신된 제2 센싱 데이터를 통해 파악되는 상기 복수의 서비스 로봇들의 위치를 이용하여 상기 생성된 실내 지도의 구획에 따라 또는 상기 서비스 로봇이 상기 목표 시설물에서 제공하는 서비스에 따라 상기 복수의 서비스 로봇들 각각의 실내 자율 주행을 제어하는 것을 특징으로 할 수 있다.
또 다른 측면에 따르면, 상기 실내 자율 주행을 제어하는 단계는, 상기 제2 센싱 데이터 및 상기 생성된 실내 지도를 이용하여 상기 서비스 로봇의 경로 데이터를 생성하여 네트워크를 통해 상기 서비스 로봇으로 전송하고, 상기 서비스 로봇은 상기 전송된 경로 데이터에 기반하여 상기 목표 시설물의 내부를 주행하는 것을 특징으로 할 수 있다.
또 다른 측면에 따르면, 상기 제1 센싱 데이터 및 상기 제2 센싱 데이터는 상기 목표 시설물의 내부 이미지 정보 및 상기 목표 시설물의 특정 구역에서 발생하여 상기 특정 구역을 식별하기 위한 신호 정보를 포함하고, 상기 실내 자율 주행을 제어하는 단계는, 상기 신호 정보를 통해 상기 서비스 로봇이 위치하는 구역을 한정하고, 상기 한정된 구역의 이미지 정보에 대한 매칭을 통해 상기 서비스 로봇의 위치를 결정하는 것을 특징으로 할 수 있다.
또 다른 측면에 따르면, 상기 클라우드 시스템을 통해 상기 서비스 로봇의 실내 자율 주행을 제어하도록 제공되는 클라우드 서비스를 위한 IDE(Integrated Development Environment)가 상기 이용자 또는 상기 서비스 로봇의 제작자에게 제공되고, 상기 제어 방법은 상기 IDE를 통해 상기 서비스 로봇이 상기 목표 시설물에서 제공하는 서비스를 제어하기 위한 소프트웨어를 등록받는 단계; 및 상기 등록된 소프트웨어를 이용하여 상기 서비스 로봇이 상기 목표 시설물에서 제공하는 서비스를 제어하는 단계를 더 포함하는 것을 특징으로 할 수 있다.
맵핑 로봇의 제어 방법에 있어서, 목표 시설물의 내부를 자율 주행하면서 센서를 통해 상기 목표 시설물의 내부에 대한 제1 센싱 데이터를 생성하는 단계; 및 상기 생성된 제1 센싱 데이터를 네트워크를 통해 클라우드 시스템으로 전송하는 단계를 포함하고, 상기 클라우드 시스템은, 상기 제1 센싱 데이터를 이용하여 상기 목표 시설물의 실내 지도를 생성하고, 상기 목표 시설물의 내부에 위치한 서비스 로봇으로부터, 상기 서비스 로봇이 센서를 통해 상기 목표 시설물의 내부에 대해 생성한 제2 센싱 데이터를 수신하고, 상기 제2 센싱 데이터와 상기 생성된 실내 지도를 이용하여 상기 서비스 로봇의 상기 목표 시설물에 대한 실내 자율 주행을 제어하도록 구현되는 것을 특징으로 하는 제어 방법을 제공한다.
서비스 로봇의 제어 방법에 있어서, 목표 시설물의 내부에서 센서를 통해 상기 목표 시설물의 내부에 대한 제2 센싱 데이터를 생성하는 단계; 상기 생성된 제2 센싱 데이터를 네트워크를 통해 클라우드 시스템으로 전송하는 단계; 상기 클라우드 시스템이 상기 목표 시설물의 실내 지도와 상기 제2 센싱 데이터를 이용하여 생성한 경로 데이터를 수신하는 단계; 및 상기 생성된 경로 데이터에 기반하여 상기 서비스 로봇의 이동을 제어하는 단계를 포함하고, 상기 클라우드 시스템은, 상기 목표 시설물의 내부에서 자율 주행하는 맵핑 로봇에서 센서를 통해 상기 목표 시설물의 내부에 대해 생성한 제1 센싱 데이터를 이용하여 상기 목표 시설물의 실내 지도를 생성하도록 구현되는 것을 특징으로 하는 제어 방법을 제공한다.
상기 제어 방법을 컴퓨터에 실행시키기 위한 프로그램이 기록되어 있는 것을 특징으로 하는 컴퓨터에서 판독 가능한 기록매체를 제공한다.
컴퓨터와 결합되어 상술한 제어 방법을 컴퓨터에 실행시키기 위해 컴퓨터 판독 가능한 기록매체에 저장된 컴퓨터 프로그램을 제공한다.
로봇의 실내 자율 주행을 제어하는 클라우드 시스템에 있어서, 컴퓨터에서 판독 가능한 명령을 실행하도록 구현되는 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는, 목표 시설물의 내부에서 자율 주행하는 맵핑 로봇에서 센서를 통해 상기 목표 시설물의 내부에 대해 생성한 제1 센싱 데이터를 수신하도록 상기 클라우드 시스템을 제어하고, 상기 제1 센싱 데이터를 이용하여 상기 목표 시설물의 실내 지도를 생성하고, 상기 목표 시설물의 내부에 위치한 서비스 로봇으로부터, 상기 서비스 로봇이 센서를 통해 상기 목표 시설물의 내부에 대해 생성한 제2 센싱 데이터를 수신하도록 상기 클라우드 시스템을 제어하고, 상기 제2 센싱 데이터 및 상기 생성된 실내 지도를 이용하여 상기 서비스 로봇의 상기 목표 시설물에 대한 실내 자율 주행을 제어하도록 상기 클라우드 시스템을 제어하는 것을 특징으로 하는 클라우드 시스템을 제공한다.
실내 자율 주행을 위한 맵핑 로봇에 있어서, 복수의 센서들을 포함하고, 상기 복수의 센서들의 출력값을 포함하는 제1 센싱 데이터를 생성하는 센싱부; 상기 맵핑 로봇을 이동시키는 구동부; 상기 제1 센싱 데이터를 이용하여 목표 시설물의 내부를 자율 주행하도록 상기 구동부를 제어하는 제어부; 및 상기 생성된 제1 센싱 데이터를 네트워크를 통해 클라우드 시스템으로 전송하는 통신부를 포함하고, 상기 클라우드 시스템은, 상기 제1 센싱 데이터를 이용하여 상기 목표 시설물의 실내 지도를 생성하고, 상기 목표 시설물의 내부에 위치한 서비스 로봇으로부터, 상기 서비스 로봇이 센서를 통해 상기 목표 시설물의 내부에 대해 생성한 제2 센싱 데이터를 수신하고, 상기 제2 센싱 데이터와 상기 생성된 실내 지도를 이용하여 상기 서비스 로봇의 상기 목표 시설물에 대한 실내 자율 주행을 제어하도록 구현되는 것을 특징으로 하는 맵핑 로봇을 제공한다.
실내 자율 주행을 위한 서비스 로봇에 있어서, 복수의 센서들을 포함하고, 상기 복수의 센서들의 출력값을 포함하는 제2 센싱 데이터를 생성하는 센싱부; 상기 서비스 로봇을 이동시키는 구동부; 상기 제2 센싱 데이터를 네트워크를 통해 클라우드 시스템으로 전송하고, 상기 클라우드 시스템이 상기 목표 시설물의 실내 지도와 상기 제2 센싱 데이터를 이용하여 생성한 경로 데이터를 수신하는 통신부; 및 상기 생성된 경로 데이터에 기반하여 상기 목표 시설물의 내부를 자율 주행하도록 상기 구동부를 제어하는 제어부를 포함하고, 상기 클라우드 시스템은, 상기 목표 시설물의 내부에서 자율 주행하는 맵핑 로봇에서 센서를 통해 상기 목표 시설물의 내부에 대해 생성한 제1 센싱 데이터를 이용하여 상기 목표 시설물의 실내 지도를 생성하도록 구현되는 것을 특징으로 하는 서비스 로봇을 제공한다.
서비스 제공자가 대형 쇼핑몰이나 공항, 호텔 등과 같은 이용자들의 시설물들의 실내 지도를 미리 생성하고, 클라우드 서비스를 통해 이용자들의 개별 서비스 로봇들과 통신하면서 개별 서비스 로봇들을 위한 로컬리제이션과 경로 계획을 미리 생성된 실내 지도에 기반하여 처리하여 그 결과 데이터를 제공해줌으로써, 개별 서비스 로봇들이 제공된 결과 데이터에 기반하여 자율 주행을 처리할 수 있어 서비스 로봇의 제작 비용을 혁신적으로 줄일 수 있다.
하나의 시설물 내에 다수의 서비스 로봇들이 동작하는 경우, 상기 클라우드 서비스를 통해 다수의 서비스 로봇들을 위한 서비스 계획을 관제함으로써, 다수의 서비스 로봇들이 하나의 시설물 내에서 보다 효율적으로 목적하는 서비스를 분담하여 처리할 수 있다.
이용자들의 시설물들의 실내 지도를 제작함에 있어서 서비스 제공자 측에서 사람이 직접 관측 장비를 제어하여 실내 지도를 제작하는 것이 아니라, 실내 자율 주행을 위한 기능과 맵핑 기능을 모두 포함하여 자동적으로 실내 지도를 제작할 수 있다.
도 1은 종래기술에 있어서 실내 자율 주행을 위한 로봇에 적용되는 기술의 예를 도시한 도면이다.
도 2는 본 발명의 일실시예에 따른 로봇의 실내 자율 주행을 위한 전체 제어 시스템의 예를 도시한 도면이다.
도 3 은 본 발명의 일실시예에 따른 맵핑 로봇의 개략적인 구성의 예를 설명하기 위한 블록도이다.
도 4는 본 발명의 일실시예에 따른 클라우드 시스템의 개략적인 구성의 예를 설명하기 위한 블록도이다.
도 5는 본 발명의 일실시예에 따른 서비스 로봇의 개략적인 구성의 예를 설명하기 위한 블록도이다.
도 6은 본 발명의 일실시예에 있어서, 클라우드 시스템을 구성하는 물리적인 서버의 내부 구성을 설명하기 위한 블록도이다.
도 7은 본 발명의 일실시예에 있어서, 제어 방법을 설명하기 위한 흐름도이다.
도 8은 본 발명의 일실시예에 있어서, 서비스 로봇의 위치를 한정하기 예를 도시한 도면이다.
도 9는 본 발명의 일실시예에 있어서, 클라우드 시스템이 서비스 로봇이 제공하는 서비스를 제어하는 과정의 예를 흐름도이다.
이하, 실시예를 첨부한 도면을 참조하여 상세히 설명한다.
본 발명의 실시예들에 따른 로봇의 실내 자율 주행 위한 전체 제어 시스템은 크게 시설물의 실내에서 지도 데이터를 수집하는 맵핑 로봇을 위한 제어 시스템(이하, '맵핑 로봇 시스템')과, 맵핑 로봇이 수집한 지도 데이터에 기반하여 해당 시설물의 실내 지도를 제작하고 시설물에서 동작하는 서비스 로봇의 자율 주행을 위한 로컬리제이션과 경로 계획을 처리하는 클라우드 서비스를 위한 제어 시스템(이하, '클라우드 시스템'), 그리고 시설물의 내부에서 자율 주행을 통해 시설물의 이용자에 의해 목적된 서비스를 제공하는 서비스 로봇을 위한 제어 시스템(이하, '서비스 로봇 시스템')을 포함할 수 있다.
도 2는 본 발명의 일실시예에 따른 로봇의 실내 자율 주행을 위한 전체 제어 시스템의 예를 도시한 도면이다. 도 2는 서비스 제공자 측의 클라우드 시스템(210)과 맵핑 로봇(220), 그리고 이용자들의 시설물들과 이용자 측을 위한 서비스 로봇(230)을 나타내고 있다. 우선, 서비스 제공자 측은 맵핑 로봇(220)을 투입하여 이용자들의 시설물들의 실내 지도를 생성할 수 있다. 이때, 서비스 제공자 측은 대형 마트나 병원, 공항, 호텔 등과 같이 다양한 시설물들의 실내 지도를 미리 생성해놓을 수도 있고, 별도의 계약을 통해 서비스를 요청하는 이용자들의 시설물들의 실내 지도를 요청에 따라 생성할 수도 있다. 예를 들어, 서비스 제공자 측은 시설물 A의 이용자로부터의 요청에 따라 맵핑 로봇(220)을 시설물 A에 투입하여 시설물 A의 실내 지도를 생성할 수 있다. 맵핑 로봇(220)은 실내 자율 주행 로봇으로서 자율 주행과 지도 생성을 위해 3D 라이더(lidar), 360도 카메라, IMU(Inertial Measurement Unit)와 같은 다양한 센서들을 포함할 수 있고, 시설물 A를 자율 주행하면서 생성된 센싱 데이터를 클라우드 시스템(210)으로 전송할 수 있다. 이때 실시예에 따라 센싱 데이터는 실내 지도의 생성을 위한 맵핑 로봇(220)의 자율 주행이 완료된 후에 센싱 데이터가 저장된 컴퓨터 판독 가능 기록매체를 통해 클라우드 시스템(210)에 입력될 수도 있으나, 바람직하게는 맵핑 로봇(220)이 통신 모듈을 포함하여 네트워크를 통해 클라우드 시스템(210)으로 전송할 수 있다. 또한, 맵핑 로봇(220)에서 생성되는 센싱 데이터는 맵핑 로봇(220)에서 클라우드 시스템(210)으로 실시간으로 전송될 수도 있고, 맵핑 로봇(220)이 시설물의 센싱을 완료한 후에 일괄적으로 클라우드 시스템(210)으로 전송될 수도 있다.
클라우드 시스템(210)은 맵핑 로봇(220)이 제공하는 센싱 데이터에 기반하여 시설물 A에 대한 실내 지도를 제작할 수 있으며, 제작된 실내 지도에 기반하여 시설물 A에 배치된 서비스 로봇(230)과 통신하면서 서비스 로봇(230)을 제어할 수 있다. 예를 들어, 클라우드 시스템(210)은 서비스 로봇(230)이 포함하는 센서들을 통해 생성된 센싱 데이터(일례로, 서비스 로봇(230)의 현재 위치를 파악하기 위한 데이터)를 수신하고, 수신된 센싱 데이터와 시설물 A의 실내 지도를 이용하여 서비스 로봇(230)을 위한 로컬리제이션과 경로 계획을 처리하여 그 결과 데이터(일례로, 서비스 로봇(230)이 자율 주행 시 이동해야 할 경로 데이터)를 서비스 로봇(230)으로 제공할 수 있다. 이때, 서비스 로봇(230)은 클라우드 시스템(210)이 제공하는 결과 데이터에 기반하여 자율 주행을 처리하면서 목적된 서비스를 시설물 A 내에서 제공할 수 있게 된다.
맵핑 로봇(220)은 시설물 A에 대해 최초 1회만 또는 실내 지도에 대해 변경이 발생되는 경우에만, 또는 실내 지도에 대해 변경이 발생될 정도로 상당히 긴 시간 주기(일례로, 1년)로 해당 시설물에서 동작하면 된다. 따라서, 실내 지도의 제작이 요구되는 시설물들의 수와 시간 스케줄링에 따라 하나의 맵핑 로봇(220)이 다수의 시설물들의 실내 지도를 제작하는데 활용될 수 있기 때문에 다수의 맵핑 로봇들이 요구되지 않고 따라서 고가의 장비를 활용하여 제작되더라도 서비스 사용자 측에 큰 부담을 주지 않는다. 반면 이용자들 각각에서 개별 목적을 위해 동작하는 서비스 로봇들을 개별적으로 제작하여 이용할 때, 서비스 로봇들 각각은 해당하는 하나의 시설물에서 지속적으로 동작되어야 하며, 하나의 시설물 내에서 동시에 여러 대가 동작되어야 하는 경우가 다수 존재한다. 따라서 이용자의 측면에서는 고가의 장비를 활용하기 어려운 문제점이 있다. 이에, 본 발명의 실시예들에서는 서비스 제공자 측에서 맵핑 로봇(220)을 투입하여 시설물 A의 실내 지도를 제작하고, 클라우드 시스템(210)을 통해 서비스 로봇(230)을 제어함으로써, 서비스 로봇(230)이 고가의 장비를 사용하지 않고도 목적된 서비스를 해당 시설물 내에서 처리하도록 할 수 있다.
예를 들어, 라이더(lidar)는 전파에 가까운 성질을 가진 레이저 광선을 이용하여 개발한 레이더로서, 자율 주행을 위해 탑재되는 고가의 센서 장비이며 이러한 라이더를 활용하는 경우, 기본적으로 둘 이상의 라이더들이 하나의 자율 주행 유닛에 포함된다. 일례로, 물류 관리를 위해 이용자가 60 대의 서비스 로봇들을 사용한다 가정할 때, 종래기술에서는 고가의 라이더가 120 개 이상이 요구된다. 반면, 본 발명의 실시예들에서는 자율 주행을 위해 요구되는 로컬리제이션과 경로 계획을 서비스 제공자 측의 클라우드 시스템(210)이 처리하고 그 결과 데이터를 제공하면, 서비스 로봇들이 클라우드 시스템(210)으로부터 제공되는 결과 데이터에 따라 주행하기 때문에 고가의 센서 장비 없이 저가형 초음파 센서 및/또는 저가형 카메라만으로도 실내 주행이 가능해진다. 실질적으로 본 발명의 실시예들에 따른 서비스 로봇들은 클라우드 시스템(210)으로부터 제공되는 결과 데이터에 따라 동작하기 때문에 실내 자율 주행을 위한 별도의 센서 없이 실내 주행이 가능하다. 다만, 저가형 초음파 센서 및/또는 저가형 카메라와 같은 저가의 센서들이 서비스 로봇(230)의 현재 위치 파악과 서비스 로봇(230)의 장애물 회피 등을 위해 사용될 수 있다. 따라서, 이용자들은 저렴한 비용으로 제작되는 서비스 로봇들을 활용할 수 있으며, 서비스 로봇을 이용하고자 하는 다수의 이용자들이 존재하고, 이러한 다수의 이용자들 각각이 다수의 서비스 로봇들을 활용할 수 있음을 고려할 때, 서비스 로봇들의 제작 비용을 획기적으로 줄일 수 있게 된다. 예를 들어, 스마트폰 수준의 센싱 능력만으로도 서비스 로봇의 자율 주행을 처리할 수 있다.
또한, 서비스 로봇(230)이 클라우드 시스템(210)으로 전송하는 센싱 데이터는 시설물의 내부에서 서비스 로봇(230)의 현재 위치를 한정하기 위한 정보를 포함할 수 있다. 이러한 위치를 한정하기 위한 정보는 저가형 카메라를 통해 인식된 이미지 정보를 포함할 수 있다. 예를 들어, 클라우드 시스템(210)은 수신된 이미지 정보와 실내 지도의 이미지를 비교하여 서비스 로봇(230)의 위치를 파악할 수 있다. 다른 예로, 기존의 실내 위치를 파악하기 위해 잘 알려진 기술들이 활용될 수도 있다. 예를 들어, 시설물 내에서 인식되는 와이파이 신호나 비컨(beacon), 사람이 인식하지 못하는 사운드나 블루투스 핑커프린트 등을 활용하여 실내 위치를 파악하는 기존의 잘 알려진 기술들이 서비스 로봇(230)의 현재 위치를 파악하기 위해 활용될 수 있음을 당업자가 용이하게 이해할 수 있을 것이다. 또한, 이러한 기존의 기술들을 통해 서비스 로봇(230)의 대략적인 위치를 파악한 후, 이미지 매칭을 통해 서비스 로봇(230)의 정확한 위치를 파악할 수도 있다. 이 경우, 전체 실내 지도에 대응하는 이미지들과의 매칭을 처리할 필요 없이 대략적으로 파악된 위치를 통해 이미지 매칭의 범위를 줄일 수도 있다.
도 3 은 본 발명의 일실시예에 따른 맵핑 로봇의 개략적인 구성의 예를 설명하기 위한 블록도이고, 도 4는 본 발명의 일실시예에 따른 클라우드 시스템의 개략적인 구성의 예를 설명하기 위한 블록도이며, 도 5는 본 발명의 일실시예에 따른 서비스 로봇의 개략적인 구성의 예를 설명하기 위한 블록도이다.
도 3을 참조하면, 맵핑 로봇은 물리적인 장치일 수 있으며, 도 3에 도시된 바와 같이, 제어부(310), 구동부(320), 센서부(330) 및 통신부(340)를 포함할 수 있다.
제어부(310)는 맵핑 로봇(220)에 내장된 물리적인 프로세서일 수 있으며, 도 3에 도시된 바와 같이 경로 계획 처리 모듈(311), 맵핑 처리 모듈(312), 구동 제어 모듈(313), 로컬리제이션 처리 모듈(314) 및 데이터 처리 모듈(315)을 포함할 수 있다. 여기서, 제어부(310)가 포함하는 구성요소들은 물리적인 프로세서로서 제어부(310)가 수행하는 서로 다른 기능들(different functions)의 표현들일 수 있다. 예를 들어, 제어부(310)는 OS나 펌웨어와 같은 컴퓨터 프로그램의 코드에 따른 제어 명령에 따라 다양한 기능들을 처리할 수 있다.
구동부(320)는 맵핑 로봇(220)의 이동을 위한 바퀴나 다리, 또는 드론과 같은 비행체 형태의 맵핑 로봇(220)의 비행을 위한 물리적인 장비를 포함할 수 있다.
센서부(330)는 맵핑 로봇(220)이 위치한 시설물의 내부 환경에 대한 정보를 수집하기 위한 다양한 센서들을 포함할 수 있다. 예를 들어, 라이더(lidar), 360도 카메라, IMU, 초음파 센서, GPS 모듈, PDS(Position Sensitive Detector) 등과 같이 다양한 센서들 중 요구되는 센서들이 센서부(330)에 포함될 수 있다.
통신부(340)는 센서부(330)를 통해 센싱된 데이터를 네트워크를 통해 클라우드 시스템(210)으로 전송하기 위한 통신 기능을 포함할 수 있다.
목표 시설물의 내부에 위치한 맵핑 로봇(220)이 구동되면, 센서부(330)는 다양한 센서들의 출력값을 포함하는 제1센서 데이터를 생성하여 제어부(310)로 전달할 수 있다. 이때, 제어부(310)의 데이터 처리 모듈(415)은 전달받은 제1 센서 데이터를 맵핑 로봇(220)의 자율 주행을 위해 로컬리제이션 처리 모듈(314)로 전달할 수 있고, 또한 클라우드 시스템(210)에서 목표 시설물의 실내 지도를 생성할 수 있도록 제1 센서 데이터를 네트워크를 통해 클라우드 시스템(210)으로 전송하도록 통신부(340)를 제어할 수 있다.
로컬리제이션 처리 모듈(314)은 맵핑 로봇(220)이 주변 환경을 인식하고 자신의 위치를 추정하기 위한 기술로, 목표 시설물에서의 맵핑 로봇(220)의 현재 위치를 판단하기 위해 동작할 수 있다. 이때, 로컬리제이션 처리 모듈(314)은 맵핑 처리 모듈(312)과의 연동을 통해 기 저장된 목표 시설물의 실내 지도(일례로, 목표 시설물의 설계 청사진)와 현재 위치와의 맵핑을 처리하거나 또는 기 저장된 실내 지도가 없는 경우에는 목표 시설물의 실내 지도를 생성해나갈 수 있다.
이때, 경로 계획 처리 모듈(311)은 맵핑 로봇(220)의 자율 주행을 위한 경로를 생성해나갈 수 있다. 이 경우, 경로 계획 처리 모듈(311)에서 결정된 경로에 대한 정보는 구동 제어 모듈(313)로 전달될 수 있고, 구동 제어 모듈(313)는 제공된 경로에 따라 맵핑 로봇(220)을 이동시키기 위해 구동부(320)를 제어할 수 있다.
맵핑 로봇(220)은 이러한 제1 센싱 데이터의 생성 및 전송, 제1 센싱 데이터를 이용한 자율 주행 경로의 결정 및 결정된 자율 주행 경로에 따른 이동의 과정을 반복하면서 목표 시설물을 자율 주행할 수 있고, 목표 시설물에 대한 제1 센싱 데이터를 클라우드 시스템(210)으로 지속적으로 전송할 수 있다.
도 4를 참조하면, 클라우드 시스템(210)은 하나의 물리적인 서버 장치나 둘 이상의 물리적인 서버 장치들의 연계를 통해 구현될 수 있으며, 도 4에 도시된 바와 같이 맵 생성 모듈(410), 로컬리제이션 처리 모듈(420), 경로 계획 처리 모듈(430) 및 서비스 운영 모듈(440)을 포함할 수 있다. 이러한 클라우드 시스템(210)이 포함하는 구성요소들은, 운영체제의 코드나 적어도 하나의 컴퓨터 프로그램의 코드에 따른 제어 명령(instruction)에 따라 클라우드 시스템(210)이 포함하는 적어도 하나의 프로세서가 수행하는 서로 다른 기능들(different functions)의 표현들일 수 있다.
맵 생성 모듈(410)은 도 3에서 설명한 바와 같이 목표 시설물의 내부에서 자율 주행하는 맵핑 로봇(220)이 목표 시설물의 내부에 대해 생성한 제1 센싱 데이터를 이용하여 목표 시설물의 실내 지도를 생성하기 위한 구성요소일 수 있다.
이때, 로컬리제이션 처리 모듈(420)은 서비스 로봇(230)으로부터 네트워크를 통해 수신되는 제2 센싱 데이터와 맵 생성 모듈(410)을 통해 생성된 목표 시설물의 실내 지도를 이용하여 목표 시설물 내부에서의 서비스 로봇(230)의 위치를 결정할 수 있다.
경로 계획 처리 모듈(430)은 상술한 제2 센싱 데이터와 생성된 실내 지도를 이용하여 서비스 로봇(230)의 실내 자율 주행을 제어하기 위한 제어 신호를 생성할 수 있다. 예를 들어, 경로 계획 처리 모듈(430)은 서비스 로봇(230)의 경로 데이터를 생성할 수 있다. 클라우드 시스템(210)은 생성된 경로 데이터를 네트워크를 통해 서비스 로봇(230)으로 전송할 수 있다. 일례로, 경로를 위한 정보는 서비스 로봇(230)의 현재 위치를 나타내는 정보, 현재 위치와 실내 지도를 맵핑하기 위한 정보, 그리고 경로 계획 정보를 포함할 수 있다.
서비스 운영 모듈(440)은 서비스 로봇(230)이 목표 시설물 내에서 제공하는 서비스를 제어하기 위한 기능을 포함할 수 있다. 예를 들어, 클라우드 시스템(210)을 운영하는 서비스 제공자는 서비스 로봇(230)의 이용자나 제작자에게 클라우드 시스템(210)이 제공하는 클라우드 서비스를 위한 IDE(Integrated Development Environment)를 제공할 수 있다. 이때, 서비스 로봇(230)의 이용자나 제작자는 서비스 로봇(230)이 목표 시설물 내에서 제공하는 서비스를 제어하기 위한 소프트웨어를 IDE를 통해 제작하여 클라우드 시스템(210)에 등록할 수 있다. 이 경우, 서비스 운영 모듈(440)은 해당 서비스 로봇(230)과 연관하여 등록된 소프트웨어를 이용하여 서비스 로봇(230)이 제공하는 서비스를 제어할 수 있다. 구체적인 예로, 서비스 로봇(230)이 호텔에서 고객이 요청한 물건을 해당 고객의 객실로 전달하는 서비스를 제공한다고 가정한다. 이때, 클라우드 시스템(210)은 서비스 로봇(230)의 실내 자율 주행을 제어하여 서비스 로봇(230)이 해당 객실 앞으로 이동하도록 제어할 뿐만 아니라, 목적 위치에 도착한 경우 객실 출입문의 벨을 누르고 고객 응대 음성을 출력하고 목적한 물건을 고객에게 전달하는 일련의 서비스를 서비스 로봇(230)이 진행하도록 관련 명령을 서비스 로봇(230)에게 전달할 수 있다.
도 5를 참조하면, 서비스 로봇(230)은 물리적인 장치일 수 있으며, 도 5에 도시된 바와 같이, 제어부(510), 구동부(520), 센서부(530) 및 통신부(540)를 포함할 수 있다.
제어부(510)는 서비스 로봇(230)에 내장된 물리적인 프로세서일 수 있으며, 도 5에 도시된 바와 같이 경로 계획 처리 모듈(511), 맵핑 처리 모듈(512), 구동 제어 모듈(513), 로컬리제이션 처리 모듈(514), 데이터 처리 모듈(515) 및 서비스 처리 모듈(516)을 포함할 수 있다. 이때, 경로 계획 처리 모듈(511), 맵핑 처리 모듈(512) 및 로컬리제이션 처리 모듈(514)은 클라우드 시스템(210)과의 통신이 이루어지지 않는 경우에도 실내 자율 주행이 이루어질 수 있도록 하기 위해 실시예에 따라 선택적으로 제어부(510)에 포함될 수 있다.
데이터 처리 모듈(515)은 센서부(530)의 센서들의 출력값을 포함하는 제2 센싱 데이터를 수신하여 통신부(540)를 통해 클라우드 시스템(210)으로 전송할 수 있다. 앞서 설명한 바와 같이 클라우드 시스템(210)은 제2 센싱 데이터와 목표 시설물의 실내 지도를 이용하여 경로 데이터를 생성할 수 있고, 생성된 경로 데이터를 서비스 로봇(230)으로 전송할 수 있다. 이 경우, 경로 데이터는 통신부(540)를 통해 데이터 처리 모듈(515)로 전달될 수 있다.
일반적인 경우, 데이터 처리 모듈(515)은 경로 데이터를 바로 구동 제어 모듈(513)로 전달할 수 있고, 구동 제어 모듈(513)은 경로 데이터에 따라 구동부(520)를 제어하여 서비스 로봇(230)의 실내 자율 주행을 제어할 수 있다.
만약, 통신 장애로 인해 클라우드 시스템(210)과 통신할 수 없는 경우, 데이터 처리 모듈(515)은 제2 센싱 데이터를 로컬리제이션 처리 모듈(514)로 전송하고, 경로 계획 처리 모듈(511)와 맵핑 처리 모듈(512)을 통해 경로 데이터를 생성하여 서비스 로봇(230)의 실내 자율 주행을 직접 처리할 수도 있다. 다만, 이 경우, 서비스 로봇(230)은 맵핑 로봇(220)과 달리 고가의 센싱 장비를 포함하지 않기 때문에 저가형 초음파 센서 및/또는 저가형 카메라 등과 같은 센서의 출력값을 이용하여 실내 자율 주행을 처리할 수 있다. 그러나 서비스 로봇(230)이 기존에 클라우드 시스템(210)과의 통신을 통해 실내 자율 주행을 처리한 적이 있다면, 클라우드 시스템(210)으로부터 기존에 수신한 경로 데이터가 포함하는 맵핑 데이터 등을 더 활용함으로써 저가의 센서들을 이용하면서도 보다 정확한 실내 자율 주행이 가능해질 수 있다.
한편, 서비스 처리 모듈(516)은 클라우드 시스템(210)을 통해 수신되는 명령을 통신부(540)를 통해 또는 통신부(540)와 데이터 처리 모듈(515)을 통해 전달받을 수 있다. 이 경우, 구동부(520)는 서비스 로봇(230)의 이동을 위한 장비뿐만 아니라, 서비스 로봇(230)이 제공하는 서비스와 관련된 장비를 더 포함할 수 있다. 상술한 호텔 서비스의 예에서 서비스 로봇(230)의 구동부(520)는 객실 출입문의 벨을 누르기 위한 로봇 암(arm)이나 고객 응대 음성을 출력하기 위한 스피커 등을 더 포함할 수 있다. 이 경우, 서비스 처리 모듈(516)은 제공해야 할 서비스를 위한 구동 명령을 구동 제어 모듈(513)로 전달할 수 있고, 구동 제어 모듈(513)은 구동 명령에 따라 구동부(520)가 더 포함할 수 있는 로봇 암이나 스피커를 제어하여 서비스가 제공될 수 있도록 할 수 있다.
도 6은 본 발명의 일실시예에 있어서, 클라우드 시스템을 구성하는 물리적인 서버의 내부 구성을 설명하기 위한 블록도이다. 앞서 설명한 클라우드 시스템(210)은 하나의 물리적인 서버 장치로 구현되거나 또는 둘 이상의 물리적인 서버 장치의 연동을 통해 구현될 수 있다. 이때, 클라우드 시스템(210)을 구성하는 서버(600)는 도 6에 도시된 바와 같이 메모리(610), 프로세서(620), 통신 모듈(630) 그리고 입출력 인터페이스(640)를 포함할 수 있다. 메모리(610)는 컴퓨터에서 판독 가능한 기록매체로서, RAM(random access memory), ROM(read only memory) 및 디스크 드라이브와 같은 비소멸성 대용량 기록장치(permanent mass storage device)를 포함할 수 있다. 여기서 ROM과 비소멸성 대용량 기록장치는 메모리(610)와 분리되어 별도의 영구 저장 장치로서 포함될 수도 있다. 또한, 메모리(610)에는 운영체제와 적어도 하나의 프로그램 코드가 저장될 수 있다. 이러한 소프트웨어 구성요소들은 메모리(610)와는 별도의 컴퓨터에서 판독 가능한 기록매체로부터 로딩될 수 있다. 이러한 별도의 컴퓨터에서 판독 가능한 기록매체는 플로피 드라이브, 디스크, 테이프, DVD/CD-ROM 드라이브, 메모리 카드 등의 컴퓨터에서 판독 가능한 기록매체를 포함할 수 있다. 다른 실시예에서 소프트웨어 구성요소들은 컴퓨터에서 판독 가능한 기록매체가 아닌 통신 모듈(630)을 통해 메모리(610)에 로딩될 수도 있다.
프로세서(620)는 기본적인 산술, 로직 및 입출력 연산을 수행함으로써, 컴퓨터 프로그램의 명령을 처리하도록 구성될 수 있다. 명령은 메모리(610) 또는 통신 모듈(630)에 의해 프로세서(620)로 제공될 수 있다. 예를 들어 프로세서(620)는 메모리(610)에 로딩된 프로그램 코드에 따라 수신되는 명령을 실행하도록 구성될 수 있다. 이러한 프로세서(620)는 도 4를 통해 설명한 클라우드 시스템(210)이 포함하는 적어도 하나의 프로세서에 포함될 수 있다.
통신 모듈(630)은 실제 컴퓨터 네트워크를 통해 다른 물리적인 기기들과 서로 통신하기 위한 기능을 제공할 수 있다. 일례로, 통신 모듈(630)은 서버(600)가 맵핑 로봇(220)이나 서비스 로봇(230)과 통신과 통신하기 위한 기능을 제공할 수 있다.
입출력 인터페이스(640)는 입출력 장치(650)와의 인터페이스를 위한 수단일 수 있다. 예를 들어, 입출력 장치(650)에서 입력 장치는 키보드 또는 마우스 등의 장치를, 그리고 출력 장치는 디스플레이나 스피커와 같은 장치를 포함할 수 있다. 도 6에서 입출력 장치(650)는 서버(600)와 별도의 장치로 표현되었으나, 실시예에 따라 입출력 장치(650)가 서버(600)에 포함되도록 서버(600)가 구현될 수도 있다.
또한, 다른 실시예들에서 서버(600)는 도 6의 구성요소들보다 더 많은 구성요소들을 포함할 수도 있다. 그러나, 대부분의 종래기술적 구성요소들을 명확하게 도시할 필요성은 없다. 예를 들어, 서버(600)는 각종 물리적인 버튼이나 터치패널, 또는 광출력 장치 등의 다양한 구성요소들을 더 포함하도록 구현될 수도 있다.
도 7은 본 발명의 일실시예에 있어서, 제어 방법을 설명하기 위한 흐름도이다.
단계(S710)에서 맵핑 로봇(220)은 목표 시설물의 내부를 자율 주행하면서 센서를 통해 목표 시설물의 내부에 대한 제1 센싱 데이터를 생성할 수 있다. 예를 들어, 도 3을 통해 설명한 바와 같이, 맵핑 로봇(220)은 센싱부(330)를 통해 센서들의 출력값을 포함하는 제1 센싱 데이터를 데이터 처리 모듈(315)로 전송할 수 있다. 이러한 맵핑 로봇(220)은 클라우드 시스템(210)을 통해 서비스 로봇(230)의 실내 자율 주행을 제어하기 위한 클라우드 서비스를 제공하는 서비스 제공자 측에서 운용하는 장비일 수 있다. 또한, 서비스 로봇(230)은 목표 시설물과 연관하여 클라우드 서비스를 요청한 이용자 측에서 운용하는 장비일 수 있다.
단계(S720)에서 맵핑 로봇(220)은 생성된 제1 센싱 데이터를 전송할 수 있다. 예를 들어, 도 3을 통해 설명한 바와 같이 데이터 처리 모듈(315)은 센싱부(330)로부터 수신한 제1 센싱 데이터를 통신부(340)를 통해 클라우드 시스템(210)으로 전송할 수 있다.
단계(S730)에서 클라우드 시스템(210)은 수신된 제1 센싱 데이터를 이용하여 목표 시설물의 실내 지도를 생성할 수 있다. 예를 들어, 클라우드 시스템(210)은 도 6을 통해 설명한 통신 모듈(630)을 통해 맵핑 로봇(220)으로부터 제1 센싱 데이터를 수신할 수 있으며, 도 4를 통해 설명한 맵 생성 모듈(410)을 통해 수신한 제1 센싱 데이터를 이용하여 목표 시설물의 실내 지도를 생성할 수 있다. 이때, 실내 지도는 이미지 기반의 3차원 실내 지도로 생성될 수 있다. 이미 설명한 바와 같이, 제1 센싱 데이터는 맵핑 로봇(220)의 자율 주행이 끝난 후에 일괄적으로 클라우드 시스템으로 전달될 수도 있다.
실시예에 따라 클라우드 시스템(210)은 복수의 이용자들 각각의 목표 시설물들에 대한 실내 지도를 생성할 수도 있다. 예를 들어, 목표 시설물들마다 맵핑 로봇(220)을 투입하여 목표 시설물별 제1 센싱 데이터를 얻을 수 있고, 목표 시설물별로 실내 지도를 생성할 수 있다. 이 경우, 클라우드 시스템(210)은 목표 시설물별로 생성된 실내 지도를 이용자의 식별자, 대응하는 목표 시설물의 식별자 및 대응하는 이용자의 서비스 로봇의 식별자 중 적어도 하나의 식별자와 연관하여 저장 및 관리될 수 있다. 추후, 다수의 이용자들의 다수의 서비스 로봇들 중 하나의 실내 자율 주행을 제어하는 경우, 클라우드 시스템(210)은 실내 지도와 연관된 식별자를 통해 해당 서비스 로봇을 위한 실내 지도를 식별할 수 있으며, 식별되는 실내 지도를 이용하여 해당 서비스 로봇을 위한 실내 자율 주행을 제어할 수 있다.
단계(S740)에서 서비스 로봇(230)은 목표 시설물의 내부에서 센서를 통해 목표 시설물의 내부에 대한 제2 센싱 데이터 생성할 수 있다. 예를 들어, 도 5를 통해 설명한 바와 같이, 서비스 로봇(230)은 센싱부(530)를 통해 센서들의 출력값을 포함하는 제2 센싱 데이터를 데이터 처리 모듈(515)로 전송할 수 있다. 맵핑 로봇(220)이 라이더 및 360도 카메라와 같은 고가의 센싱 장비들을 센서들로서 이용하는 반면, 서비스 로봇(230)은 저가용 카메라 및/또는 저가용 초음파 센서와 같은 저가의 센싱 장비를 센서들로 이용하여 제2 센싱 데이터를 생성할 수 있다. 이처럼 클라우드 시스템(210)은 맵핑 로봇(220)을 통해 해당 목표 시설물의 실내 지도를 이미 생성하였고, 따라서 단순한 이미지 맵핑만으로도 서비스 로봇(230)의 실내 자율 주행을 제어할 수 있기 때문에 서비스 로봇(230)은 저가의 센서들로 구성될 수 있고 이에 따라 이용자들이 운용하는 서비스 로봇(230)의 제작 비용을 획기적으로 낮출 수 있게 된다.
단계(S750)에서 서비스 로봇(230)은 생성된 제2 센싱 데이터를 전송할 수 있다. 예를 들어, 도 5를 통해 설명한 바와 같이, 서비스 로봇(230)의 데이터 처리 모듈(515)은 제2 센싱 데이터를 통신부(540)를 통해 클라우드 시스템(210)으로 전송할 수 있다.
단계(S760)에서 클라우드 시스템(210)은 수신된 제2 센싱 데이터 및 생성된 실내 지도를 이용하여 경로 데이터를 생성할 수 있다. 경로 데이터는 클라우드 시스템(210)에서 목표 시설물의 실내 지도에 따른 가공된 맵핑 데이터와 경로 계획 데이터 및 서비스 로봇(230)에 대해 결정된 위치 데이터를 포함할 수 있다. 가공된 맵핑 데이터는 일례로, 현 시점에서 서비스 로봇(230)에 대해 결정된 위치 데이터 및 경로 계획 데이터와 관련된 실내 지도의 일부분일 수 있다. 보다 구체적인 예로, 맵핑 데이터는 서비스 로봇(230)이 현재 위치부터 이동해야 할 위치까지에 대응하는 실내 지도 데이터를 포함할 수 있다.
단계(S770)에서 클라우드 시스템(210)은 생성된 경로 데이터를 전송할 수 있다. 예를 들어, 클라우드 시스템(210)은 도 4를 통해 설명한 경로 계획 처리 모듈(430)이 로컬리제이션 처리 모듈(420) 및 맵 생성 모듈(410)과 연동하여 생성한 경로 데이터를 도 6을 통해 설명한 통신 모듈(630)을 통해 서비스 로봇(230)으로 전송할 수 있다. 이러한 경로 데이터의 생성 및 전송을 위한 단계(760) 및 단계(770)은 제2 센싱 데이터 및 생성된 실내 지도를 이용하여 서비스 로봇(230)의 목표 시설물에 대한 실내 자율 주행을 제어하기 위한 과정일 수 있다. 앞서 설명한 바와 같이 클라우드 시스템(210)은 복수의 이용자들이 클라우드 서비스를 이용하는 경우, 복수의 목표 시설물들 각각에 대해 실내 지도를 생성하고, 생성된 실내 지도를 대응하는 이용자의 식별자, 대응하는 목표 시설물의 식별자 및 대응하는 이용자의 서비스 로봇의 식별자 중 적어도 하나의 식별자와 연관하여 저장 및 관리함으로써, 실내 자율 주행을 제어할 서비스 로봇과 연관된 실내 지도를 식별할 수 있다.
또한, 하나의 목표 시설물에 복수의 서비스 로봇들이 존재할 수 있다. 다시 말해, 한 명의 이용자가 다수의 서비스 로봇들을 운용할 수도 있다. 이 경우, 클라우드 시스템(210)은 단계(760)에서 복수의 서비스 로봇들 각각으로부터 제2 센싱 데이터를 수신할 수 있다. 또한, 클라우드 시스템(210)은 단계(770)에서 복수의 서비스 로봇들 각각으로부터 수신된 제2 센싱 데이터를 통해 파악되는 복수의 서비스 로봇들의 위치를 이용하여 생성된 실내 지도의 구획에 따라 또는 서비스 로봇이 목표 시설물에서 제공하는 서비스에 따라 복수의 서비스 로봇들 각각의 실내 자율 주행을 제어할 수 있다. 예를 들어 복수의 서비스 로봇들이 물류 창고내에서 물류 관리 서비스를 제공할 수 있다. 이 경우, 복수의 서비스 로봇들이 물류 창고내에서 물류를 관리하기 위한 영역들(구획들)이 미리 나뉘어져 있을 수 있고, 클라우드 시스템(210)은 이러한 실내 지도의 구획에 따라 복수의 서비스 로봇들 각각의 실내 자율 주행을 제어할 수 있다. 또한, 서비스에 따라, 복수의 서비스 로봇들의 이동 경로가 겹치거나 또는 복수의 서비스 로봇들 각각이 실내 지도의 전체 구획들을 모두 이동할 가능성이 존재할 수 있다. 이를 위해, 클라우드 시스템(210)은 복수의 서비스 로봇들이 제공하는 서비스에 따라 복수의 서비스 로봇들 각각의 실내 자율 주행을 제어할 수도 있다. 예를 들어, 클라우드 시스템(210)은 복수의 서비스 로봇들의 현재 위치를 통해 복수의 서비스 로봇들 전체를 위한 최적의 이동 경로를 계산할 수도 있다. 또 다른 예로, 하나의 목표 시설물에서 서로 다른 서비스를 제공하는 서비스 로봇들이 존재할 수도 있다. 이처럼, 클라우드 서비스(210)는 하나의 목표 시설물에 복수의 서비스 로봇들이 존재하는 경우, 복수의 서비스 로봇들 각각의 위치를 알 수 있기 때문에 복수의 서비스 로봇들 전체를 고려하여 최적의 이동 경로를 계산할 수도 있다.
단계(780)에서 서비스 로봇(230)은 수신된 경로 데이터에 기반하여 이동을 제어할 수 있다. 예를 들어, 서비스 로봇(230)은 도 5를 통해 설명한 통신부(540)를 통해 경로 데이터를 수신하여 데이터 처리 모듈(515)로 전달할 수 있다. 이때, 데이터 처리 모듈(515)은 일반적인 경우, 경로 데이터를 구동 제어 모듈(513)로 전송하여 구동 제어 모듈(513)이 경로 데이터에 따라 구동부(520)를 제어하도록 할 수 있다. 이때, 단계(S740) 내지 단계(S780)는 서비스 로봇(230)이 자신의 서비스를 종료할 때까지 반복될 수 있다.
도 8은 본 발명의 일실시예에 있어서, 서비스 로봇의 위치를 한정하기 예를 도시한 도면이다. 도 8은 목표 시설물의 2차원 실내 지도(800)의 간략한 예를 나타내고 있다. 이때, 실선 원(810)이 서비스 로봇(230)의 위치를 나타내고, 점선들(820, 830)이 서비스 로봇(230)이 포함하는 저가형 카메라의 시야각이라 가정한다. 이때, 저가형 카메라를 통해 촬영된 이미지를 포함하는 제2 센싱 데이터가 서비스 로봇(230)에서 클라우드 시스템(210)으로 전송될 수 있다. 이 경우, 클라우드 시스템(210)은 서비스 로봇(230)의 위치를 확인하고자 할 때마다 2차원 실내 지도(800)에 대응하여 수집된 이미지들 전체에 대해 제2 센싱 데이터가 포함하는 이미지와 매칭되는 이미지가 발견될 때까지 이미지 매칭을 진행해야 하기 때문에 많은 연산 비용이 소모될 수 있다.
이에, 본 실시예에 따른 클라우드 시스템(210)이 수신하는 제1 센싱 데이터와 제2 센싱 데이터는 목표 시설물의 내부 이미지 정보뿐만 아니라, 목표 시설물의 특정 구역에서 발생하여 상기 특정 구역을 식별하기 위한 신호 정보를 더 포함할 수 있다. 예를 들어, 맵핑 로봇(220)과 서비스 로봇(230)은 목표 시설물 내에 설치된 AP(Access Point)들이 발생시키는 와이파이 신호나 목표 시설물에 별도로 구축되는 신호 발생기들에서 발생하는 전파 신호나 소리 신호(사람이 인지하지 못하는 사운드)를 감지하기 위한 신호 감지 센서를 더 포함할 수 있고, 해당 신호 감지 센서를 통해 인식된 신호 정보가 각각 제1 센싱 데이터와 제2 센싱 데이터에 더 포함되어 클라우드 시스템(210)으로 전송될 수 있다. 이때, 서로 다른 AP의 와이파이 신호는 구분될 수 있으며, 별도로 구축되는 신호 발생기들 역시 서로 구분 가능한 신호 정보를 발생시킬 수 있다.
이 경우, 클라우드 시스템(210)은 맵핑 로봇(220)의 위치는 쉽게 파악할 수 있기 때문에 제1 센싱 데이터가 포함하는 신호 정보에 대응하는 구역을 식별할 수 있게 된다. 이 경우, 클라우드 시스템(210)은 제2 센싱 데이터가 포함하는 신호 정보를 통해 서비스 로봇(230)의 구역을 한정할 수 있고, 따라서 이미지 매칭을 위한 연산 비용을 줄일 수 있다.
예를 들어, 도 8에 도시된 점선 원들이 각각 목표 시설물에서 발생하는 신호 정보들의 인식 가능 범위라 가정한다. 이때, 실선 원(810)의 위치에 존재하는 서비스 로봇(230)은 제1 점선 원(840)에 대응하는 신호 정보를 제2 센싱 데이터에 포함시켜 클라우드 시스템(210)으로 전송하게 된다. 이 경우, 클라우드 시스템(210)은 맵핑 로봇(220)이 동일한 신호 정보를 제1 센싱 데이터에 포함시켜 전송한 구역의 이미지들만을 이미지 매칭의 대상으로 한정함으로써 이미지 매칭을 위한 연산 비용을 줄일 수 있게 된다. 맵핑 로봇(220)이나 서비스 로봇(230)의 위치에 따라 둘 이상의 서로 다른 신호 정보가 포함될 수도 있으나, 이 경우에도 전체 실내 지도에 대응하는 모든 이미지들과의 이미지 매칭에 비해 연산 비용을 줄일 수 있게 된다.
도 9는 본 발명의 일실시예에 있어서, 클라우드 시스템이 서비스 로봇이 제공하는 서비스를 제어하는 과정의 예를 흐름도이다. 앞서 설명한 바와 같이 클라우드 시스템(210)이 서비스 로봇의 서비스를 제어해야 할 필요성이 존재한다. 이를 위해, 클라우드 시스템(210)을 통해 서비스 로봇(230)의 실내 자율 주행을 제어하도록 제공되는 클라우드 서비스를 위한 IDE(Integrated Development Environment)가 이용자 또는 서비스 로봇(230)의 제작자에게 제공될 수 있다. IDE는 효율적으로 소프트웨어를 개발하기 위한 통합개발환경 소프트웨어 어플리케이션 인터페이스로서 클라우드 시스템(210)은 이러한 IDE를 통해 서비스 로봇(230)의 서비스를 제어하기 위한 기능을 제공받을 수 있다.
단계(S910)에서 클라우드 시스템(210)은 IDE를 통해 서비스 로봇(230)이 목표 시설물에서 제공하는 서비스를 제어하기 위한 소프트웨어를 등록받을 수 있다. 이러한 단계(S910)는 도 7을 통해 설명한 단계(S740) 이전에 수행될 수 있다. 다시 말해, 클라우드 시스템(210)이 서비스 로봇(230)의 실내 자율 주행을 제어하기 위해 서비스 로봇(230)과 통신하기 이전에 미리 소프트웨어를 등록받을 수 있다. 예를 들어, 클라우드 시스템(210)은 도 4를 통해 설명한 서비스 운영 모듈(440)을 통해 소프트웨어를 등록받고 소프트웨어를 관리할 수 있다.
단계(S920)에서 클라우드 시스템(210)은 등록된 소프트웨어를 이용하여 서비스 로봇(230)이 목표 시설물에서 제공하는 서비스를 제어할 수 있다. 이때, 클라우드 시스템(210)은 도 4를 통해 설명한 서비스 운영 모듈(440)을 통해 등록된 소프트웨어의 프로그램 코드에 따라 서비스 관련 명령을 서비스 로봇(230)으로 전달할 수 있다. 따라서 클라우드 시스템(210)이 서비스 로봇(230)의 서비스를 어떻게 제어하는 가는 클라우드 시스템(210)에 등록되는 소프트웨어에 따라 달라질 수 있다. 이러한 단계(S920)은 단계(S740) 내지 단계(S780)을 통한 서비스 로봇(230)의 실내 자율 주행을 통해 서비스 로봇(230)이 서비스를 제공하고자 하는 위치에 도달한 후에 이루어질 수 있다. 예를 들어, 호텔의 실시예에서 서비스 로봇(230)이 목적된 객실 앞에 도착한 이후에 객실 출입문 벨을 누르거나 고객 응대 음성을 출력하는 등의 서비스의 시작이 클라우드 시스템(210)을 통해 제어될 수 있다. 클라우드 시스템(210)을 통해 시작된 서비스는 도 5를 통해 설명한 서비스 로봇(230)의 서비스 처리 모듈(516)을 통해 제공될 수 있다. 예를 들어, 서비스 로봇(230)은 클라우드 시스템(210)이 제공하는 제어 명령에 따라 대응하는 서비스를 제공할 수 있다. 이를 위해, 서비스 처리 모듈(516)은 제어 명령에 알맞은 서비스의 제공을 위한 처리 절차를 진행할 수 있다.
이처럼 본 발명의 실시예들에 따르면, 서비스 제공자가 대형 쇼핑몰이나 공항, 호텔 등과 같은 이용자들의 시설물들의 실내 지도를 미리 생성하고, 클라우드 서비스를 통해 이용자들의 개별 서비스 로봇들과 통신하면서 개별 서비스 로봇들을 위한 로컬리제이션과 경로 계획을 미리 생성된 실내 지도에 기반하여 처리하여 그 결과 데이터를 제공해줌으로써, 개별 서비스 로봇들이 제공된 결과 데이터에 기반하여 자율 주행을 처리할 수 있어 서비스 로봇의 제작 비용을 혁신적으로 줄일 수 있다. 또한, 하나의 시설물 내에 다수의 서비스 로봇들이 동작하는 경우, 상기 클라우드 서비스를 통해 다수의 서비스 로봇들을 위한 서비스 계획을 관제함으로써, 다수의 서비스 로봇들이 하나의 시설물 내에서 보다 효율적으로 목적하는 서비스를 분담하여 처리할 수 있다. 또한, 이용자들의 시설물들의 실내 지도를 제작함에 있어서 서비스 제공자 측에서 사람이 직접 관측 장비를 제어하여 실내 지도를 제작하는 것이 아니라, 실내 자율 주행을 위한 기능과 맵핑 기능을 모두 포함하여 자동적으로 실내 지도를 제작할 수 있다.
이상에서 설명된 시스템 또는 장치는 하드웨어 구성요소, 소프트웨어 구성요소 또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 어플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록매체에 저장될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.

Claims (20)

  1. 클라우드 시스템에서 로봇의 실내 자율 주행을 제어하는 방법에 있어서,
    목표 시설물의 내부에서 자율 주행하는 맵핑 로봇에서 센서를 통해 상기 목표 시설물의 내부에 대해 생성한 제1 센싱 데이터를, 상기 클라우드 시스템에서 수신하는 단계;
    상기 제1 센싱 데이터를 이용하여 상기 목표 시설물의 실내 지도를 생성하는 단계;
    상기 목표 시설물의 내부에 위치한 서비스 로봇으로부터, 상기 서비스 로봇이 센서를 통해 상기 목표 시설물의 내부에 대해 생성한 제2 센싱 데이터를, 네트워크를 통해 수신하는 단계; 및
    상기 제2 센싱 데이터 및 상기 생성된 실내 지도를 이용하여 상기 서비스 로봇의 상기 목표 시설물에 대한 실내 자율 주행을 제어하는 단계
    를 포함하는 것을 특징으로 하는 제어 방법.
  2. 제1항에 있어서,
    상기 맵핑 로봇은 상기 클라우드 시스템을 통해 상기 서비스 로봇의 실내 자율 주행을 제어하기 위한 클라우드 서비스를 제공하는 서비스 제공자 측에서 운용하는 장비이고,
    상기 서비스 로봇은 상기 목표 시설물과 연관하여 상기 클라우드 서비스를 요청한 이용자 측에서 운용하는 장비인 것을 특징으로 하는 제어 방법.
  3. 제2항에 있어서,
    상기 실내 지도를 생성하는 단계는,
    상기 클라우드 서비스를 요청하는 복수의 이용자들 각각의 목표 시설물들에 대한 실내 지도를 생성하여 대응하는 이용자의 식별자, 대응하는 목표 시설물의 식별자 및 상기 대응하는 이용자의 서비스 로봇의 식별자 중 적어도 하나의 식별자와 연관하여 저장 및 관리하고,
    상기 실내 자율 주행을 제어하는 단계는,
    상기 복수의 이용자들 중 제1 이용자의 서비스 로봇의 실내 자율 주행을, 상기 적어도 하나의 식별자와 연관하여 관리되는 실내 지도를 이용하여 제어하는 것을 특징으로 하는 제어 방법.
  4. 제1항에 있어서,
    상기 제2 센싱 데이터를, 네트워크를 통해 수신하는 단계는,
    상기 목표 시설물에 복수의 서비스 로봇들이 존재하는 경우, 상기 복수의 서비스 로봇들 각각으로부터 제2 센싱 데이터를 수신하고,
    상기 실내 자율 주행을 제어하는 단계는,
    상기 복수의 서비스 로봇들 각각으로부터 수신된 제2 센싱 데이터를 통해 파악되는 상기 복수의 서비스 로봇들의 위치를 이용하여 상기 생성된 실내 지도의 구획에 따라 또는 상기 서비스 로봇이 상기 목표 시설물에서 제공하는 서비스에 따라 상기 복수의 서비스 로봇들 각각의 실내 자율 주행을 제어하는 것을 특징으로 하는 제어 방법.
  5. 제1항에 있어서,
    상기 실내 자율 주행을 제어하는 단계는,
    상기 제2 센싱 데이터 및 상기 생성된 실내 지도를 이용하여 상기 서비스 로봇의 경로 데이터를 생성하여 네트워크를 통해 상기 서비스 로봇으로 전송하고,
    상기 서비스 로봇은 상기 전송된 경로 데이터에 기반하여 상기 목표 시설물의 내부를 주행하는 것을 특징으로 하는 제어 방법.
  6. 제1항에 있어서,
    상기 제1 센싱 데이터 및 상기 제2 센싱 데이터는 상기 목표 시설물의 내부 이미지 정보 및 상기 목표 시설물의 특정 구역에서 발생하여 상기 특정 구역을 식별하기 위한 신호 정보를 포함하고,
    상기 실내 자율 주행을 제어하는 단계는,
    상기 신호 정보를 통해 상기 서비스 로봇이 위치하는 구역을 한정하고, 상기 한정된 구역의 이미지 정보에 대한 매칭을 통해 상기 서비스 로봇의 위치를 결정하는 것을 특징으로 하는 제어 방법.
  7. 제1항에 있어서,
    상기 클라우드 시스템을 통해 상기 서비스 로봇의 실내 자율 주행을 제어하도록 제공되는 클라우드 서비스를 위한 IDE(Integrated Development Environment)가 상기 클라우드 서비스를 요청한 이용자 또는 상기 서비스 로봇의 제작자에게 제공되고,
    상기 IDE를 통해 상기 서비스 로봇이 상기 목표 시설물에서 제공하는 서비스를 제어하기 위한 소프트웨어를 등록받는 단계; 및
    상기 등록된 소프트웨어를 이용하여 상기 서비스 로봇이 상기 목표 시설물에서 제공하는 서비스를 제어하는 단계
    를 더 포함하는 것을 특징으로 하는 제어 방법.
  8. 맵핑 로봇의 제어 방법에 있어서,
    목표 시설물의 내부를 자율 주행하면서 센서를 통해 상기 목표 시설물의 내부에 대한 제1 센싱 데이터를 생성하는 단계; 및
    상기 생성된 제1 센싱 데이터를 네트워크를 통해 클라우드 시스템으로 전송하는 단계
    를 포함하고,
    상기 클라우드 시스템은,
    상기 제1 센싱 데이터를 이용하여 상기 목표 시설물의 실내 지도를 생성하고,
    상기 목표 시설물의 내부에 위치한 서비스 로봇으로부터, 상기 서비스 로봇이 센서를 통해 상기 목표 시설물의 내부에 대해 생성한 제2 센싱 데이터를 수신하고,
    상기 제2 센싱 데이터와 상기 생성된 실내 지도를 이용하여 상기 서비스 로봇의 상기 목표 시설물에 대한 실내 자율 주행을 제어하도록 구현되는 것
    을 특징으로 하는 제어 방법.
  9. 제8항에 있어서,
    상기 맵핑 로봇은 상기 클라우드 시스템을 통해 상기 서비스 로봇의 실내 자율 주행을 제어하기 위한 클라우드 서비스를 제공하는 서비스 제공자 측에서 운용하는 장비이고,
    상기 서비스 로봇은 상기 목표 시설물과 연관하여 상기 클라우드 서비스를 요청한 이용자 측에서 운용하는 장비인 것을 특징으로 하는 제어 방법
  10. 서비스 로봇의 제어 방법에 있어서,
    목표 시설물의 내부에서 센서를 통해 상기 목표 시설물의 내부에 대한 제2 센싱 데이터를 생성하는 단계;
    상기 생성된 제2 센싱 데이터를 네트워크를 통해 클라우드 시스템으로 전송하는 단계;
    상기 클라우드 시스템이 상기 목표 시설물의 실내 지도와 상기 제2 센싱 데이터를 이용하여 생성한 경로 데이터를 수신하는 단계; 및
    상기 생성된 경로 데이터에 기반하여 상기 서비스 로봇의 이동을 제어하는 단계
    를 포함하고,
    상기 클라우드 시스템은,
    상기 목표 시설물의 내부에서 자율 주행하는 맵핑 로봇에서 센서를 통해 상기 목표 시설물의 내부에 대해 생성한 제1 센싱 데이터를 이용하여 상기 목표 시설물의 실내 지도를 생성하도록 구현되는 것
    을 특징으로 하는 제어 방법.
  11. 제10항에 있어서,
    상기 클라우드 시스템을 통해 상기 서비스 로봇의 실내 자율 주행을 제어하도록 제공되는 클라우드 서비스를 위한 IDE(Integrated Development Environment)가 상기 클라우드 서비스를 요청한 이용자 또는 상기 서비스 로봇의 제작자에게 제공되고,
    상기 IDE를 통해 상기 서비스 로봇이 상기 목표 시설물에서 제공하는 서비스를 제어하기 위한 소프트웨어가 상기 클라우드 시스템에 등록되고,
    상기 등록된 소프트웨어를 이용하여 상기 클라우드 시스템이 제공하는 제어 명령에 따라 서비스를 제공하는 단계
    를 더 포함하는 것을 특징으로 하는 제어 방법.
  12. 제1항 내지 제11항 중 어느 한 항의 방법을 컴퓨터에 실행시키기 위한 프로그램이 기록되어 있는 것을 특징으로 하는 컴퓨터에서 판독 가능한 기록매체.
  13. 로봇의 실내 자율 주행을 제어하는 클라우드 시스템에 있어서,
    컴퓨터에서 판독 가능한 명령을 실행하도록 구현되는 적어도 하나의 프로세서
    를 포함하고,
    상기 적어도 하나의 프로세서는,
    목표 시설물의 내부에서 자율 주행하는 맵핑 로봇에서 센서를 통해 상기 목표 시설물의 내부에 대해 생성한 제1 센싱 데이터를 수신하도록 상기 클라우드 시스템을 제어하고,
    상기 제1 센싱 데이터를 이용하여 상기 목표 시설물의 실내 지도를 생성하고,
    상기 목표 시설물의 내부에 위치한 서비스 로봇으로부터, 상기 서비스 로봇이 센서를 통해 상기 목표 시설물의 내부에 대해 생성한 제2 센싱 데이터를 수신하도록 상기 클라우드 시스템을 제어하고,
    상기 제2 센싱 데이터 및 상기 생성된 실내 지도를 이용하여 상기 서비스 로봇의 상기 목표 시설물에 대한 실내 자율 주행을 제어하도록 상기 클라우드 시스템을 제어하는 것
    을 특징으로 하는 클라우드 시스템.
  14. 제13항에 있어서,
    상기 맵핑 로봇은 상기 클라우드 시스템을 통해 상기 서비스 로봇의 실내 자율 주행을 제어하기 위한 클라우드 서비스를 제공하는 서비스 제공자 측에서 운용하는 장비이고,
    상기 서비스 로봇은 상기 목표 시설물과 연관하여 상기 클라우드 서비스를 요청한 이용자 측에서 운용하는 장비인 것을 특징으로 하는 클라우드 시스템.
  15. 제14항에 있어서,
    상기 적어도 하나의 프로세서는,
    상기 실내 지도를 생성하기 위해, 상기 클라우드 서비스를 요청하는 복수의 이용자들 각각의 목표 시설물들에 대한 실내 지도를 생성하여 대응하는 이용자의 식별자, 대응하는 목표 시설물의 식별자 및 상기 대응하는 이용자의 서비스 로봇의 식별자 중 적어도 하나의 식별자와 연관하여 저장 및 관리하고,
    상기 실내 자율 주행을 제어하기 위해, 상기 복수의 이용자들 중 제1 이용자의 서비스 로봇의 실내 자율 주행을, 상기 적어도 하나의 식별자와 연관하여 관리되는 실내 지도를 이용하여 제어하도록 상기 클라우드 시스템을 제어하는 것
    을 특징으로 하는 클라우드 시스템.
  16. 제14항에 있어서,
    상기 적어도 하나의 프로세서는,
    상기 제2 센싱 데이터를 수신하기 위해, 상기 목표 시설물에 복수의 서비스 로봇들이 존재하는 경우, 상기 복수의 서비스 로봇들 각각으로부터 제2 센싱 데이터를 수신하도록 상기 클라우드 시스템을 제어하고,
    상기 실내 자율 주행을 제어하기 위해, 상기 복수의 서비스 로봇들 각각으로부터 수신된 제2 센싱 데이터를 통해 파악되는 상기 복수의 서비스 로봇들의 위치를 이용하여 상기 생성된 실내 지도의 구획에 따라 또는 상기 서비스 로봇이 상기 목표 시설물에서 제공하는 서비스에 따라 상기 복수의 서비스 로봇들 각각의 실내 자율 주행을 제어하도록 상기 클라우드 시스템을 제어하는 것을 특징으로 하는 클라우드 시스템.
  17. 제14항에 있어서,
    상기 적어도 하나의 프로세서는,
    상기 실내 자율 주행을 제어하기 위해, 상기 제2 센싱 데이터 및 상기 생성된 실내 지도를 이용하여 상기 서비스 로봇의 경로 데이터를 생성하여 네트워크를 통해 상기 서비스 로봇으로 전송하도록 상기 클라우드 시스템을 제어하고,
    상기 서비스 로봇은 상기 전송된 경로 데이터에 기반하여 상기 목표 시설물의 내부를 주행하는 것을 특징으로 하는 클라우드 시스템.
  18. 제14항에 있어서,
    상기 제1 센싱 데이터 및 상기 제2 센싱 데이터는 상기 목표 시설물의 내부 이미지 정보 및 상기 목표 시설물의 특정 구역에서 발생하여 상기 특정 구역을 식별하기 위한 신호 정보를 포함하고,
    상기 적어도 하나의 프로세서는,
    상기 실내 자율 주행을 제어하기 위해, 상기 신호 정보를 통해 상기 서비스 로봇이 위치하는 구역을 한정하고, 상기 한정된 구역의 이미지 정보에 대한 매칭을 통해 상기 서비스 로봇의 위치를 결정하는 것을 특징으로 하는 클라우드 시스템.
  19. 실내 자율 주행을 위한 맵핑 로봇에 있어서,
    복수의 센서들을 포함하고, 상기 복수의 센서들의 출력값을 포함하는 제1 센싱 데이터를 생성하는 센싱부;
    상기 맵핑 로봇을 이동시키는 구동부;
    상기 제1 센싱 데이터를 이용하여 목표 시설물의 내부를 자율 주행하도록 상기 구동부를 제어하는 제어부; 및
    상기 생성된 제1 센싱 데이터를 네트워크를 통해 클라우드 시스템으로 전송하는 통신부
    를 포함하고,
    상기 클라우드 시스템은,
    상기 제1 센싱 데이터를 이용하여 상기 목표 시설물의 실내 지도를 생성하고,
    상기 목표 시설물의 내부에 위치한 서비스 로봇으로부터, 상기 서비스 로봇이 센서를 통해 상기 목표 시설물의 내부에 대해 생성한 제2 센싱 데이터를 수신하고,
    상기 제2 센싱 데이터와 상기 생성된 실내 지도를 이용하여 상기 서비스 로봇의 상기 목표 시설물에 대한 실내 자율 주행을 제어하도록 구현되는 것
    을 특징으로 하는 맵핑 로봇.
  20. 실내 자율 주행을 위한 서비스 로봇에 있어서,
    복수의 센서들을 포함하고, 상기 복수의 센서들의 출력값을 포함하는 제2 센싱 데이터를 생성하는 센싱부;
    상기 서비스 로봇을 이동시키는 구동부;
    상기 제2 센싱 데이터를 네트워크를 통해 클라우드 시스템으로 전송하고, 상기 클라우드 시스템이 목표 시설물의 실내 지도와 상기 제2 센싱 데이터를 이용하여 생성한 경로 데이터를 수신하는 통신부; 및
    상기 생성된 경로 데이터에 기반하여 상기 목표 시설물의 내부를 자율 주행하도록 상기 구동부를 제어하는 제어부
    를 포함하고,
    상기 클라우드 시스템은,
    상기 목표 시설물의 내부에서 자율 주행하는 맵핑 로봇에서 센서를 통해 상기 목표 시설물의 내부에 대해 생성한 제1 센싱 데이터를 이용하여 상기 목표 시설물의 실내 지도를 생성하도록 구현되는 것
    을 특징으로 하는 서비스 로봇.
KR1020160137713A 2016-10-21 2016-10-21 실내 자율 주행 로봇을 위한 제어 방법 및 시스템 KR101876968B1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020160137713A KR101876968B1 (ko) 2016-10-21 2016-10-21 실내 자율 주행 로봇을 위한 제어 방법 및 시스템
US15/787,571 US10974395B2 (en) 2016-10-21 2017-10-18 Method and system for controlling indoor autonomous robot
JP2017201593A JP6731388B2 (ja) 2016-10-21 2017-10-18 室内自律走行ロボットのための制御方法、プログラム、システム、マッピングロボット及びサービスロボット

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160137713A KR101876968B1 (ko) 2016-10-21 2016-10-21 실내 자율 주행 로봇을 위한 제어 방법 및 시스템

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020180077735A Division KR102043421B1 (ko) 2018-07-04 2018-07-04 실내 자율 주행 로봇을 위한 제어 방법 및 시스템

Publications (2)

Publication Number Publication Date
KR20180044475A KR20180044475A (ko) 2018-05-03
KR101876968B1 true KR101876968B1 (ko) 2018-07-12

Family

ID=61971374

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160137713A KR101876968B1 (ko) 2016-10-21 2016-10-21 실내 자율 주행 로봇을 위한 제어 방법 및 시스템

Country Status (3)

Country Link
US (1) US10974395B2 (ko)
JP (1) JP6731388B2 (ko)
KR (1) KR101876968B1 (ko)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210001578A (ko) * 2019-06-28 2021-01-06 주식회사 엘지유플러스 이동체, 관리 서버 및 그 동작 방법
KR102262378B1 (ko) 2019-12-13 2021-06-08 주식회사 엘지씨엔에스 지도 관리 방법 및 시스템
KR20220151460A (ko) * 2021-05-06 2022-11-15 네이버랩스 주식회사 통신 기반 로봇 제어 방법 및 시스템
KR20230010974A (ko) 2021-07-13 2023-01-20 (주)디로펫 비콘 신호를 이용한 실내로봇 주행 제어 시스템
KR102585341B1 (ko) * 2023-03-24 2023-10-10 주식회사 클로봇 유동적인 이동경로 정보를 이용한 다수 무인이동체 제어 시스템, 장치 및 방법

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10816354B2 (en) 2017-08-22 2020-10-27 Tusimple, Inc. Verification module system and method for motion-based lane detection with multiple sensors
US10791358B2 (en) * 2017-12-07 2020-09-29 Enseo, Inc. Set-top box with interactive portal and system and method for use of same
US11009356B2 (en) * 2018-02-14 2021-05-18 Tusimple, Inc. Lane marking localization and fusion
US11009365B2 (en) 2018-02-14 2021-05-18 Tusimple, Inc. Lane marking localization
WO2019216016A1 (ja) * 2018-05-09 2019-11-14 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JP2021142572A (ja) * 2018-06-12 2021-09-24 ソニーグループ株式会社 制御装置、制御方法及びプログラム
US10698408B2 (en) * 2018-08-30 2020-06-30 Pony Ai Inc. Distributed sensing for vehicle navigation
CN108890614A (zh) * 2018-09-04 2018-11-27 郑州云海信息技术有限公司 一种数据中心智能机器人装置及实现方法
JP7437873B2 (ja) * 2018-11-19 2024-02-26 株式会社日建設計総合研究所 データ計測システム及び建物設備制御システム
CN109709966B (zh) * 2019-01-15 2021-12-07 阿波罗智能技术(北京)有限公司 用于无人车的控制方法和装置
CN109605383B (zh) * 2019-01-29 2021-05-28 达闼机器人有限公司 一种信息通信方法、机器人及存储介质
KR102224637B1 (ko) * 2019-07-05 2021-03-08 엘지전자 주식회사 이동 로봇 및 그 제어방법
KR20210033808A (ko) * 2019-09-19 2021-03-29 엘지전자 주식회사 아웃도어 영역에서 이종의 위치정보 획득 메커니즘을 적용하는 방법 및 이를 구현하는 로봇과 클라우드 서버
CN110834337B (zh) * 2019-10-29 2021-03-26 上海大学 可移动智能服务机器人系统及其安全高效服务工作方法
KR102341218B1 (ko) 2019-11-25 2021-12-20 (주)로보티즈 자율 주행 로봇
MX2022007859A (es) 2019-12-23 2022-09-27 Global Nutrient Conditioning Llc Acondicionador de desechos y metodo de uso del mismo..
JP7251467B2 (ja) * 2019-12-25 2023-04-04 トヨタ自動車株式会社 システムおよび情報処理装置
EP3893150A1 (en) 2020-04-09 2021-10-13 Tusimple, Inc. Camera pose estimation techniques
US11880209B2 (en) 2020-05-15 2024-01-23 Samsung Electronics Co., Ltd. Electronic apparatus and controlling method thereof
CN113934201A (zh) * 2020-06-29 2022-01-14 西门子股份公司 一种自动引导车集群的路径规划方法及其装置
CN112344945B (zh) * 2020-11-24 2022-12-16 山东大学 室内配送机器人路径规划方法、系统及室内配送机器人
KR102477929B1 (ko) * 2020-12-18 2022-12-14 한국기술교육대학교 산학협력단 자율주행 경로 생성 방법
CN113485330B (zh) * 2021-07-01 2022-07-12 苏州罗伯特木牛流马物流技术有限公司 基于蓝牙基站定位与调度的机器人物流搬运系统及方法
CN114310908B (zh) * 2022-01-25 2023-10-24 深圳市优必选科技股份有限公司 一种机器人控制方法、机器人控制装置及机器人
KR102555709B1 (ko) 2022-04-19 2023-07-13 호서대학교 산학협력단 문자 행렬 지도 기반의 타일 격자무늬 추적 자율주행 로봇의 제어방법
KR102555708B1 (ko) 2022-04-19 2023-07-13 호서대학교 산학협력단 타일 격자무늬 추적 자율주행 로봇을 위한 위치 인식 및 주행 제어 방법
KR102555707B1 (ko) 2022-04-19 2023-07-14 호서대학교 산학협력단 문자 인식을 통한 격자무늬 추적 로봇의 자율주행의 제어 방법
CN116358531B (zh) * 2023-06-01 2023-09-01 佛山市星曼信息科技有限公司 地图构建方法、装置、机器人和存储介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090044118A (ko) * 2007-10-31 2009-05-07 삼성전자주식회사 로봇맵 생성 방법 및 시스템

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100520049B1 (ko) 2003-09-05 2005-10-10 학교법인 인하학원 자율이동로봇을 위한 경로계획방법
WO2009102970A2 (en) * 2008-02-13 2009-08-20 Seegrid Corporation Distributed multi-robot system
JP2011076215A (ja) * 2009-09-29 2011-04-14 Nec Personal Products Co Ltd 自動走行ルートガイドツールおよび自動走行装置
WO2011055711A1 (ja) * 2009-11-06 2011-05-12 株式会社日立製作所 移動ロボットシステム
US9014848B2 (en) * 2010-05-20 2015-04-21 Irobot Corporation Mobile robot system
US8386078B1 (en) * 2011-05-06 2013-02-26 Google Inc. Methods and systems for providing a data library for robotic devices
US20160188977A1 (en) * 2014-12-24 2016-06-30 Irobot Corporation Mobile Security Robot
US11188096B2 (en) 2015-04-16 2021-11-30 Nec Corporation Control apparatus, control method, and storage medium
KR102393921B1 (ko) * 2015-05-12 2022-05-04 삼성전자주식회사 로봇 및 그의 제어 방법

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090044118A (ko) * 2007-10-31 2009-05-07 삼성전자주식회사 로봇맵 생성 방법 및 시스템

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
A real-time algorithm for mobile robot mapping wiht applications to multi-robot and 3D mapping, Proceedigns of the 2000 IEEE International Conference on Robotics & Automation, pp. 321-328 (2000. 4.) *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210001578A (ko) * 2019-06-28 2021-01-06 주식회사 엘지유플러스 이동체, 관리 서버 및 그 동작 방법
KR102324989B1 (ko) * 2019-06-28 2021-11-10 주식회사 엘지유플러스 이동체, 관리 서버 및 그 동작 방법
KR102262378B1 (ko) 2019-12-13 2021-06-08 주식회사 엘지씨엔에스 지도 관리 방법 및 시스템
KR20220151460A (ko) * 2021-05-06 2022-11-15 네이버랩스 주식회사 통신 기반 로봇 제어 방법 및 시스템
KR102578127B1 (ko) * 2021-05-06 2023-09-13 네이버랩스 주식회사 통신 기반 로봇 제어 방법 및 시스템
KR20230010974A (ko) 2021-07-13 2023-01-20 (주)디로펫 비콘 신호를 이용한 실내로봇 주행 제어 시스템
KR102585341B1 (ko) * 2023-03-24 2023-10-10 주식회사 클로봇 유동적인 이동경로 정보를 이용한 다수 무인이동체 제어 시스템, 장치 및 방법

Also Published As

Publication number Publication date
US20180111274A1 (en) 2018-04-26
KR20180044475A (ko) 2018-05-03
JP2018067314A (ja) 2018-04-26
US10974395B2 (en) 2021-04-13
JP6731388B2 (ja) 2020-07-29

Similar Documents

Publication Publication Date Title
KR101876968B1 (ko) 실내 자율 주행 로봇을 위한 제어 방법 및 시스템
KR102096875B1 (ko) 자율 주행 기술을 응용한 3차원 실내 정밀 지도 자동 생성 로봇 및 로봇의 제어 방법
KR102226350B1 (ko) 자율 시각 내비게이션
KR102043421B1 (ko) 실내 자율 주행 로봇을 위한 제어 방법 및 시스템
US9523986B1 (en) System and method for secure, privacy-aware and contextualised package delivery using autonomous vehicles
JP6769659B2 (ja) 移動体の管理システム、方法、およびコンピュータプログラム
KR102112162B1 (ko) 자율 주행 기술을 응용한 3차원 실내 정밀 지도 자동 생성 로봇 및 로봇의 제어 방법
CN103913162B (zh) 增强的移动平台定位
WO2010038353A1 (ja) 自律移動装置
CN112399813B (zh) 多个自主移动机器人及其控制方法
JP5157803B2 (ja) 自律移動装置
KR102092392B1 (ko) 실 공간에서 관심지점 관련 정보를 자동으로 수집 및 업데이트하는 방법 및 시스템
KR20210029586A (ko) 이미지 내의 특징적 객체에 기반하여 슬램을 수행하는 방법 및 이를 구현하는 로봇과 클라우드 서버
KR101959814B1 (ko) 발달 장애인을 위한 탑승형 실내 자율 주행 로봇을 활용한 물류 시스템 및 물류 운반 방법, 탑승형 실내 자율 주행 로봇
KR20190143524A (ko) 장애물 회피에 기반하여 경유 지점을 주행하는 로봇 및 주행하는 방법
JP6927937B2 (ja) 三次元骨格表現を生成するためのシステム及び方法
JP2008305255A (ja) 地図情報作成装置及びそれを備えた自律移動装置
JP2022524108A (ja) ロボット車両の積荷フットプリントの協働決定
US11785430B2 (en) System and method for real-time indoor navigation
KR20200013155A (ko) 관심 영역 변화를 검출하는 방법 및 시스템
CN111123340A (zh) 物流配送导航方法及系统、近场定位导航装置、存储介质
Zhang et al. Intelligent hotel ROS-based service robot
Peng et al. Tracking control of human-following robot with sonar sensors
KR20230135548A (ko) 통신 기반 로봇 제어 방법 및 시스템
US20220282987A1 (en) Information processing system, information processing device, and information processing method

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant