KR20190108087A - 슬레이브 로봇을 제어하는 마스터 로봇 및 그의 구동 방법 - Google Patents

슬레이브 로봇을 제어하는 마스터 로봇 및 그의 구동 방법 Download PDF

Info

Publication number
KR20190108087A
KR20190108087A KR1020190109024A KR20190109024A KR20190108087A KR 20190108087 A KR20190108087 A KR 20190108087A KR 1020190109024 A KR1020190109024 A KR 1020190109024A KR 20190109024 A KR20190109024 A KR 20190109024A KR 20190108087 A KR20190108087 A KR 20190108087A
Authority
KR
South Korea
Prior art keywords
robot
slave
slave robot
master
moving
Prior art date
Application number
KR1020190109024A
Other languages
English (en)
Inventor
이원희
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Publication of KR20190108087A publication Critical patent/KR20190108087A/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J3/00Manipulators of master-slave type, i.e. both controlling unit and controlled unit perform corresponding spatial movements
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L11/00Machines for cleaning floors, carpets, furniture, walls, or wall coverings
    • A47L11/40Parts or details of machines not provided for in groups A47L11/02 - A47L11/38, or not restricted to one of these groups, e.g. handles, arrangements of switches, skirts, buffers, levers
    • A47L11/4011Regulation of the cleaning machine by electric means; Control systems and remote control systems therefor
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • A47L9/28Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
    • A47L9/2857User input or output elements for control, e.g. buttons, switches or displays
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0084Programme-controlled manipulators comprising a plurality of manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • B25J9/1666Avoiding collision or forbidden zones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • B25J9/1676Avoiding collision or forbidden zones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1682Dual arm manipulator; Coordination of several manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/04Programme control other than numerical control, i.e. in sequence controllers or logic controllers
    • G05B19/042Programme control other than numerical control, i.e. in sequence controllers or logic controllers using digital processors
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0287Control of position or course in two dimensions specially adapted to land vehicles involving a plurality of land vehicles, e.g. fleet or convoy travelling
    • G05D1/0289Control of position or course in two dimensions specially adapted to land vehicles involving a plurality of land vehicles, e.g. fleet or convoy travelling with means for avoiding collisions between vehicles
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0287Control of position or course in two dimensions specially adapted to land vehicles involving a plurality of land vehicles, e.g. fleet or convoy travelling
    • G05D1/0291Fleet control
    • G05D1/0295Fleet control by at least one leading vehicle of the fleet
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L2201/00Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation
    • A47L2201/04Automatic control of the travelling movement; Automatic obstacle detection
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/20Pc systems
    • G05B2219/22Pc multi processor system
    • G05B2219/2231Master slave

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Automation & Control Theory (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Manipulator (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

하나 이상의 슬레이브 로봇을 제어하는 마스터 로봇이 개시된다. 본 마스터 로봇은 슬레이브 로봇이나 이동 단말과 통신하는 통신부, 하나 이상의 센싱부, 영상 신호나 오디오 신호의 입력을 위한 입력부 및 센싱부로부터 감지된 정보 또는 입력부를 통해 입력된 정보에 기초하여 마스터 로봇 및 슬레이브 로봇이 위치한 소정 공간에 대응되는 공간 맵을 생성하는 제어 모듈을 포함할 수 있다. 이에 따라, 인공 지능 및 5G 통신 모듈을 구비한 마스터 로봇이 제공될 수 있다.

Description

슬레이브 로봇을 제어하는 마스터 로봇 및 그의 구동 방법{MASTER ROBOT FOR CONTROLLING SLAVE ROBOT AND DRIVING METHOD THEREOF}
관련 출원들에 대한 상호-참조: 본 출원은, 2019년 5월 30일자로 출원된 PCT 출원 일련번호 제 PCT/KR2019/006529호의 이점을 주장 하며, 그 특허출원은 그 전체가 본 명세서에 인용에 의해 명백히 포함된다.
본 발명은 로봇 제어 시스템에서 슬레이브 로봇을 제어하는 마스터 로봇 및 그의 구동 방법에 관한 것이다.
로봇은 산업용으로 개발되어 공장 자동화의 일 부분을 담당하여 왔다. 최근에는 로봇을 응용한 분야가 더욱 확대되어, 의료용 로봇, 우주 항공 로봇 등이 개발되고, 일반 가정에서 사용할 수 있는 가정용 로봇도 만들어지고 있다.
종래 기술 1(KR101629649B)에는 인간의 모션을 감지하는 로봇, 로봇 간에 네트워크를 형성하여 오퍼레이션을 수행하는 협력적 로봇 시스템이 개시된다.
그러나, 종래 기술 1에는 특정 목적을 달성하기 위한 복수의 로봇이 개시되기는 하나, 특정 목적을 위해 하나의 로봇이 마스터가 되어 슬레이브 로봇들을 효율적으로 제어하지 못하는 문제점이 있다.
종래 기술 2(KR101503903B)의 이동 로봇은 경로를 제어하여 미지의 환경에 대한 장애물 지도 및 특징점 지도를 구성하고자 한다.
그러나, 종래 기술 2의 이동 로봇은 움직일 수 있는 자체 경로를 작성하기는 하나, 특정 목적을 위해 하나의 로봇이 마스터가 되어 슬레이브 로봇들을 효율적으로 제어하지 못하며, 다른 로봇의 경로를 생성하지 못하는 문제점이 있다.
본 발명이 해결하고자 하는 과제는 하나의 로봇이 복수의 로봇들을 제어함으로써, 로봇 제어의 효율이 향상된 마스터 로봇을 제공하는 것이다.
본 발명의 또 다른 과제는 슬레이브 로봇이 장애물을 회피하도록 슬레이브 로봇의 이동 경로를 결정하는 마스터 로봇을 제공하는 것이다.
본 발명의 또 다른 과제는 마스터 로봇과 슬레이브 로봇이 위치한 공간에 대응되는 공간 맵을 생성하여 슬레이브 로봇이 신속하게 이동 가능하게 하는 마스터 로봇을 제공하는 것이다.
본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
상기 과제를 달성하기 위하여, 본 발명의 일 실시 예에 따른 마스터 로봇은 슬레이브 로봇이나 이동 단말과 통신하는 통신부, 하나 이상의 센싱부, 영상 신호나 오디오 신호의 입력을 위한 입력부 및 센싱부로부터 감지된 정보 또는 입력부를 통해 입력된 정보에 기초하여 마스터 로봇 및 슬레이브 로봇이 위치한 소정 공간에 대응되는 공간 맵을 생성하는 제어 모듈을 포함할 수 있다.
구체적으로, 상기 제어 모듈은 소정 공간 상에서 슬레이브 로봇를 이동시키는 이동 명령을 입력부나 이동 단말을 통해 수신하면, 공간 맵에 기초하여 슬레이브 로봇을 이동시킬 수 있다.
상기 과제를 달성하기 위하여, 본 발명의 일 실시 예에 따른 마스터 로봇은 슬레이브 로봇이 이동하는 경로 상에 위치한 장애물이 검색되면, 슬레이브 로봇이 장애물을 회피하도록 슬레이브 로봇을 제어할 수 있다.
본 발명의 다양한 실시 예에 따르면 아래와 같은 효과가 도출될 수 있다.
첫째로, 하나의 로봇이 복수의 로봇을 제어함으로써, 로봇 제어의 효율이 향상될 수 있다.
둘째로, 슬레이브 로봇의 이동을 모니터링하는 마스터 로봇이 제공됨으로써, 슬레이브 로봇이 장애물을 회피하여 효과적으로 목적지에 도달할 수 있다.
셋째로, 슬레이브 로봇의 이동 경로를 설정할 때, 공간에 대응되는 공간 맵이 작성되어 슬레이브 로봇이 신속하고 안전하게 목적지에 도달할 수 있다.
도 1은 본 발명의 일 실시 예에 따른 로봇 제어 시스템에서 하나 이상의 슬레이브 로봇을 제어하는 마스터 로봇을 설명하기 위한 도면,
도 2는 본 발명의 일 실시 예에 따른 마스터 로봇의 구성을 나타내는 블록도,
도 3은 본 발명의 일 실시 예에 따른 슬레이브 로봇을 설명하기 위한 도면,
도 4 및 도 5는 본 발명의 일 실시 예에 따른 슬레이브 로봇을 제어하는 마스터 로봇을 설명하기 위한 도면들,
도 6은 본 발명의 일 실시 예에 따른 이동 단말과 통신하는 마스터 로봇을 설명하기 위한 도면,
도 7은 본 발명의 일 실시 예에 따른 이동 단말의 요청에 의해 슬레이브 로봇을 제어하는 마스터 로봇을 설명하기 위한 도면, 그리고,
도 8은 본 발명의 일 실시 예에 따른 마스터 로봇의 구동을 나타내는 시퀀스도이다.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 동일하거나 유사한 구성요소에는 동일유사한 도면 부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
도 1은 본 발명의 일 실시 예에 따른 로봇 제어 시스템(1000)에서 하나 이상의 슬레이브 로봇들(200a~200c)을 제어하는 마스터 로봇(100)을 설명하기 위한 도면이다. 로봇 제어 시스템(1000)은 하나 이상의 로봇을 제어하는 시스템이며, 상기 로봇 제어 시스템(1000)은 도 1에 도시된 마스터 로봇(100)보다 더 많은 수의 마스터 로봇을 포함할 수 있으며, 도시된 슬레이브 로봇들(200a~200c)보다 더 많거나 또는 더 적은 수의 슬레이브 로봇을 포함할 수 있다.
마스터 로봇(100)은 소정 공간에서 슬레이브 로봇들(200a~200c)을 제어할 수 있다. 소정 공간은 가정, 회사, 병원 등의 실내 공간이나 야외의 특정 공간을 포함할 수 있다.
일 예로, 마스터 로봇(100)은 로봇 청소기일 수 있다. 로봇 청소기(100)는 상부 카메라(121a) 및 전방 카메라(121b)를 구비하여 영상에 기반하여 공간을 공간 맵 상에 표시할 수 있다. 마스터 로봇(100)은 상기 카메라들(121a, 121b)을 이용하여 천장의 형상, 벽/기둥, 도어 등의 형상 등을 인식하여 공간 맵을 구현할 수 있다. 또한, 로봇 청소기(100)는 각종 센서(가령, 장애물 센서(131))를 포함하여 이동 중 충돌을 감지할 수 있다.
슬레이브 로봇들(200a~200c)은 특정 기능을 수행하는 전자기기를 운반할 수 있는데, 예를 들면, 제1 슬레이브 로봇(200a)은 공기 청정기를 운반할 수 있으며, 제2 슬레이브 로봇(200b)은 화분을 운반할 수 있고, 제3 슬레이브 로봇(200c)은 특정 기기를 운반하기 위해 대기할 수 있다.
다른 실시 예에 의하면, 슬레이브 로봇은 이동 모듈 및 상기 이동 모듈에 특정 기능을 수행하는 모듈(가령, 공기 청정 모듈, 가습 모듈, 스피커 모듈, 선풍기 모듈, 히터 모듈 등)이 결합된 형태로 구현될 수 있으며, 상기 특정 기능을 수행하는 모듈은 이동 모듈과 탈부착되는 형태로 구현될 수 있다.
슬레이브 로봇들(200a~200c)은 이동 수단(가령, 차륜) 및 통신부만 구비하여 마스터 로봇(100)의 제어에 따라 특정 구동(가령, 이동)을 수행할 수 있다.
이하에서는, 도 2를 참고하여 마스터 로봇(100)의 구성을 설명하기로 한다. 마스터 로봇(100)은 통신부(110), 입력부(120), 센싱부(130), 출력부(140), 저장부(150), 전원공급부(160), 이동 모듈(170) 및 제어 모듈(190)을 포함할 수 있다. 도 2에 도시된 구성요소들은 마스터 로봇(100)을 구현하는데 있어서 필수적인 것은 아니어서, 본 명세서 상에서 설명되는 마스터 로봇(100)은 위에서 열거된 구성요소들 보다 많거나, 또는 적은 구성요소들을 가질 수 있다.
보다 구체적으로, 상기 구성요소들 중 통신부(110)는 마스터 로봇(100)과 슬레이브 로봇(일 예로, 도 3의 200) 사이, 마스터 로봇(100)과 이동 단말(일 예로, 도 6의 300) 사이 및 마스터 로봇(100)과 통신 모듈을 구비한 장치 사이의 통신을 가능하게 하는 하나 이상의 유무선 통신 모듈을 포함할 수 있다.
우선, 통신부(110)는 이동 통신 모듈을 포함할 수 있다. 여기서, 이동 통신 모듈은 이동통신을 위한 기술표준들 또는 통신방식(예를 들어, GSM(Global System for Mobile communication), CDMA(Code Division Multi Access), CDMA2000(Code Division Multi Access 2000), EV-DO(Enhanced Voice-Data Optimized or Enhanced Voice-Data Only), WCDMA(Wideband CDMA), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced) 등) 및 5G(Generation) 통신에 따라 구축된 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다.
또한, 통신부(110)는 근거리 통신 모듈을 포함할 수 있다. 여기서, 근거리 통신 모듈은 근거리 통신(Short range communication)을 위한 것으로서, 블루투스(Bluetooth™), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra Wideband), ZigBee, NFC(Near Field Communication), Wi-Fi(Wireless-Fidelity), Wi-Fi Direct, Wireless USB(Wireless Universal Serial Bus) 기술 중 적어도 하나를 이용하여 근거리 통신을 수행할 수 있다.
입력부(120)는 영상 신호 입력을 위한 카메라(121) 또는 영상 입력부, 오디오 신호 입력을 위한 마이크로폰(microphone, 123), 또는 오디오 입력부, 사용자로부터 정보를 입력받기 위한 사용자 입력부(예를 들어, 터치키(touch key), 푸시키(mechanical key) 등)를 포함할 수 있는데, 카메라(121)는 도 1에 도시된 상부 카메라(121a) 및 전방 카메라(121b)를 포함할 수 있다.
상부 카메라(121a)는 상부 방향을 촬영하는 카메라로 공간에 대한 맵을 생성하는데 주로 사용될 수 있으며, 전방 카메라(121b)는 슬레이브 로봇(200)을 모니터링하는데 주로 사용될 수 있으나, 사용 예가 이에 국한되는 것은 아니다.
센싱부(130)는 마스터 로봇(100) 내 정보, 마스터 로봇(100)을 둘러싼 주변 환경 정보 및 사용자 정보 중 적어도 하나를 센싱하기 위한 하나 이상의 센서를 포함할 수 있다. 예를 들어, 센싱부(130)는 장애물 센서(131, 가령, 근접센서(proximity sensor), 라이다 센서((Lidar sensor) 등), 무게 감지 센서, 조도 센서(illumination sensor), 터치 센서(touch sensor), 가속도 센서(acceleration sensor), 자기 센서(magnetic sensor), 중력 센서(G-sensor), 자이로스코프 센서(gyroscope sensor), 모션 센서(motion sensor), RGB 센서, 적외선 센서(IR 센서: infrared sensor), 지문인식 센서(finger scan sensor), 초음파 센서(ultrasonic sensor), 광 센서(optical sensor, 예를 들어, 카메라(121 참조)), 마이크로폰(microphone, 123 참조), 배터리 게이지(battery gauge), 환경 센서(예를 들어, 기압계, 습도계, 온도계, 방사능 감지 센서, 열 감지 센서, 가스 감지 센서 등), 화학 센서(예를 들어, 전자 코, 헬스케어 센서, 생체 인식 센서 등) 중 적어도 하나를 포함할 수 있다. 한편, 본 명세서에 개시된 마스터 로봇(100)은, 이러한 센서들 중 적어도 둘 이상의 센서에서 센싱되는 정보들을 조합하여 활용할 수 있다.
출력부(140)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 디스플레이(복수 개 적용 가능), 하나 이상의 발광 소자, 음향 출력부 및 햅팁 모듈 중에서 적어도 하나를 포함할 수 있다. 디스플레이는 터치 센서와 상호 레이어 구조를 이루거나 일체형으로 형성됨으로써, 터치 스크린으로 구현될 수 있다. 이러한 터치 스크린은, 마스터 로봇(100)과 사용자 사이의 입력 인터페이스를 제공하는 사용자 입력부로써 기능함과 동시에, 마스터 로봇(100)과 사용자 사이의 출력 인터페이스를 제공할 수 있다.
저장부(150)는 마스터 로봇(100)의 다양한 기능을 지원하는 데이터를 저장한다. 저장부(150)는 마스터 로봇(100)에서 구동되는 다수의 응용 프로그램(application program 또는 애플리케이션(application)), 마스터 로봇(100)의 동작을 위한 데이터들, 명령어들을 저장할 수 있다. 이러한 응용 프로그램 중 적어도 일부는, 무선 통신을 통해 외부 서버로부터 다운로드 될 수 있다. 또한, 저장부(150)는 마스터 로봇(100)과 인터랙션을 수행하려는 사용자 정보를 저장할 수 있다. 상기 사용자 정보는 인식된 사용자가 누구인지 식별하는데 사용될 수 있다.
전원공급부(160)는 제어 모듈(190)의 제어 하에서, 외부의 전원, 내부의 전원을 인가 받아 마스터 로봇(100)의 각 구성요소들에 전원을 공급한다. 이러한 전원공급부(160)는 배터리를 포함하며, 상기 배터리는 내장형 배터리 또는 교체가능한 형태의 배터리가 될 수 있다. 상기 배터리는 유선 또는 무선 충전 방식으로 충전될 수 있는데, 무선 충전 방식은 자기 유도 방식 또는 자기 공진 방식을 포함할 수 있다.
이동 모듈(170)은 제어 모듈(190)의 제어에 따라 소정의 장소로 이동하기 위한 모듈이며, 하나 이상의 차륜(Wheel)을 포함하도록 구현될 수 있다.
제어 모듈(190)은 마스터 로봇(100) 및 슬레이브 로봇(예를 들면, 도 3의 200) 이 배치된 소정 공간에 대응되는 공간 맵을 생성할 수 있다. 제어 모듈(190)은 상부 카메라(121a) 및 전방 카메라(121b)를 이용하여 마스터 로봇(100) 및 슬레이브 로봇(200)이 배치된 영역을 입체적으로 저장할 수 있으며, 공간 맵 상의 마스터 로봇(100) 및 슬레이브 로봇(200)의 위치 정보를 특정하여 저장할 수 있다. 상기 공간 맵은 상기 제어 모듈(190)이 자체적으로 생성할 수 있으나, 외부 서버 연산에 의해 생성 또는 보완될 수 있다.
제어 모듈(190)은 슬레이브 로봇(200)의 식별 정보 또는 형상 정보를 통신부(110)를 통해 슬레이브 로봇(200)으로부터 수신하여 공간 맵 상에 적용할 수 있다.
여기서, 슬레이브 로봇(200)의 식별 정보는 슬레이브 로봇(200)의 고유하게 특정할 수 있는 정보를 포함하며, 형상 정보는 슬레이브 로봇(200)의 외관을 나타내는 정보를 포함할 수 있다. 상기 식별 정보 및 형상 정보가 상기 공간 맵 상에 적용되는 경우, 식별 효과 및 인식 효과가 시각적으로 발생될 수 있다.
제어 모듈(190)은 소정 공간 상에서 슬레이브 로봇(200)을 이동시키는 경우, 공간 맵에서 슬레이브 로봇들(200)의 위치 정보, 카메라(121)로부터 수집되는 영상 정보 등에 기초하여 슬레이브 로봇(200)을 이동시킬 수 있다. 마스터 로봇(100)은 슬레이브 로봇(200)을 이동시키는 이동 명령을 사용자 음성, 이동 단말(도 6의 300)의 터치 입력 등에 의해 수신할 수 있으나, 상기 이동 명령은 상술한 예에 국한되지 않는다.
제어 모듈(190)은 공간 맵에 기초하여 슬레이브 로봇(200)을 이동시키는 경우, 상기 슬레이브 로봇(200)의 이동을 모니터링하도록 상기 입력부(120) 또는 센싱부(130)를 제어할 수 있다. 이에, 마스터 로봇(100)이 슬레이브 로봇(200)을 인식하는 것이 직관적으로 구현될 수 있다.
만약, 슬레이브 로봇(200)이 상기 입력부(120)의 촬영 범위를 벗어나는 경우, 제어 모듈(190)은 슬레이브 로봇(200)이 입력부(120)의 촬영 범위 내로 진입하도록 상기 이동 모듈(170)을 제어하여 슬레이브 로봇(200)에 접근할 수 있다.
또한, 제어 모듈(190)은 슬레이브 로봇(200)과 입력된 목적지로 함께 이동하도록 이동 모듈(170)을 제어할 수 있다. 예를 들면, 제어 모듈(190)은 슬레이브 로봇(200)과 소정 거리를 유지하면서 마스터 로봇(100)이 함께 움직이도록 마스터 로봇(100) 및 슬레이브 로봇(200)을 제어할 수 있다.
또한, 제어 모듈(190)은 슬레이브 로봇(200)의 이동 명령을 수신하면, 목적지로 이동하는 다양한 경로 중에서 최단 거리 경로, 최단 시간 경로 등을 슬레이브 로봇(200)에 맞춤형으로 제공할 수 있다.
또한, 제어 모듈(190)은 입력부(120)를 통해 실시간으로 입력된 영상 신호에 기초하여 슬레이브 로봇들 간의 거리가 소정 범위 내로 배치되지 않게 슬레이브 로봇들을 제어할 수 있다. 즉, 마스터 로봇(100)은 슬레이브 로봇들 간의 충돌이 발생되지 않게 슬레이브 로봇들을 제어할 수 있다.
이하에서는 상술한 마스터 로봇(100)과 통신하는 슬레이브 로봇(200)을 도 3을 참고하여 설명하기로 한다.
슬레이브 로봇(200)은 전자기기를 지지하는 기기 지지부(250)와 복수의 차륜(260a~260c)를 포함하는 이동 모듈(260, 260a~260c)을 포함할 수 있다. 슬레이브 로봇(200)은 통신부를 포함하여 마스터 로봇(100)과 통신할 수 있으며, 외부 기기와도 이동 통신 또는 근거리 통신을 수행할 수 있다. 다른 실시 예에 의하면, 슬레이브 로봇(200)은 특정한 기능을 수행하는 전자기기를 내장하거나 특정 기능을 수행하는 모듈을 탈부착 형태로 포함할 수 있다.
슬레이브 로봇(200)은 슬레이브 로봇(200)의 외형 정보, 컨트롤 방법 정보 등을 마스터 로봇(100)에 제공할 수 있으며, 마스터 로봇(100)은 제공받은 정보에 기초하여 슬레이브 로봇(100)을 용이하게 인식하거나 제어할 수 있다. 마스터 로봇(100)은 상기 외형 정보에 기초하여 입력부(120)를 통해 보다 명확하게 슬레이브 로봇(200)을 인식할 수 있다.
그러면, 마스터 로봇(100)은 인식된 슬레이브 로봇(200)을 공간 맵 상에 적용하고, 적용된 공간 맵을 저장부(150)에 저장할 수 있다.
여기서, 슬레이브 로봇(200)에 보다 복잡한 기능(센싱 기능, 촬영 기능 등)이 구비되도록 구현될 수 있으나, 로봇 제어 시스템(1000)의 비용을 절감하고 여러 로봇을 효율적으로 이용하기 위해 마스터 로봇에만 상기 기능이 적용될 수 있다.
도 4 및 도 5는 본 발명의 일 실시 예에 따른 슬레이브 로봇(200)을 제어하는 마스터 로봇(100)을 설명하기 위한 도면이다.
도 4를 참고하면, 마스터 로봇(100)은 특정 슬레이브 로봇(200)의 이동 목적지 정보를 수신하면, 복수의 경로를 탐색할 수 있으며, 경로 중에서 장애물(410)을 회피하는 최적의 경로를 판단할 수 있다. 이때, 마스터 로봇(100)은 슬레이브 로봇(200)을 특정할 때, 슬레이브 로봇(200)과의 통신을 통해 슬레이브 로봇(200)의 외형 정보, 제어 방법 정보 등을 수신하여 슬레이브 로봇(200)을 특정할 수 있다.
마스터 로봇(100)은 슬레이브 로봇(200)이 장애물(410)을 회피하도록 상기 슬레이브 로봇(200)을 실시간 제어할 수 있으며, 슬레이브 로봇(200)은 마스터 로봇(100)의 제어에 따라 장애물(410)을 회피하여 이동할 수 있다.
구체적으로, 마스터 로봇(100)은 전방 카메라(121b)를 구비하여 슬레이브 로봇(200)의 이동 방향을 모니터링할 수 있으며, 기 생성된 공간 맵을 이용하여 슬레이브 로봇(200)이 정적 또는 동적인 장애물(410)을 회피하도록 슬레이브 로봇(200)을 제어할 수 있다.
아울러, 마스터 로봇(100)은 슬레이브 로봇(200)과 함께 목적지로 이동할 수 있다. 일 실시 예에 의하면, 슬레이브 로봇(200)에 탑재된 전자기기가 무선으로 동작하지 않고 유선으로 동작하는 경우, 마스터 로봇(100)은 슬레이브 로봇(200)에 전원을 공급하면서 슬레이브 로봇(200)을 이동시킬 수 있다.
도 5를 참고하면, 마스터 로봇(100)은 전방 카메라(121b)를 이용하여 슬레이브 로봇(200)의 이동 방향을 모니터링할 수 있다. 마스터 로봇(100)은 슬레이브 로봇(200)이 장애물(410)과 충돌하기 전에, 장애물(410)을 회피하도록 슬레이브 로봇(200)을 제어할 수 있다. 다른 실시 예에 의하면, 마스터 로봇(100)은 슬레이브 로봇(200)이 장애물(410)과 소정 거리 인접하는 경우, 이동 대기 명령을 슬레이브 로봇(200)에 전송할 수 있다.
마스터 로봇(100)은 슬레이브 로봇(200)이 장애물과 소정 거리로 인접한 경우, 슬레이브 로봇(200a)의 전방 방향(100b)으로 이동할 수 있다. 마스터 로봇(100)은 슬레이브 로봇(200a) 및 장애물(410)의 위치에 기초하여 슬레이브 로봇(200a)의 이동 방향을 가이드(100a~100c)하면서 슬레이브 로봇(200a~200b)과 함께 장애물(410)을 회피할 수 있다.
도 6은 본 발명의 일 실시 예에 따른 이동 단말(300)과 통신하는 마스터 로봇(100)을 설명하기 위한 도면이며, 도 7은 본 발명의 일 실시 예에 따른 이동 단말(300)의 요청에 의해 슬레이브 로봇(200)을 제어하는 마스터 로봇(100)을 설명하기 위한 도면이다.
마스터 로봇(100)은 이동 단말(300), 슬레이브 로봇들(200a, 200b)과 통신할 수 있다. 이동 단말(300)은 단순한 버튼 입력을 통해 슬레이브 로봇들(200a, 200b)을 제어할 수 있으며, 다른 실시 예에 의하면, 소프트웨어로 구동되는 어플리케이션을 통해 슬레이브 로봇들(200a, 200b) 각각을 마스터 로봇(100)을 통해 제어할 수 있다.
여기서, 상기 마스터 로봇(100)은 5G 통신 모듈을 구비할 수 있다. 마스터 로봇(100)은 100Mbps 내지 20Gbps 속도로 데이터를 전송할 수 있어서 대용량의 동영상을 이동 단말(300)로 전송할 수 있으며, 저전력으로 구동되어 전력 소비를 최소화할 수 있다.
이에 따라, 이동 단말(300)은 마스터 로봇(100)이 배치된 지점과 멀리 떨어져 있더라도 마스터 로봇(100)으로부터 공간 맵 정보, 촬영된 영상 정보 등을 신속하게 수신할 수 있다.
또한, 마스터 로봇(100)은 각종 사물 지능 통신(IoT(Internet of Things), IoE(Internet of Everything), IoST(Internet of Small Things) 등)을 지원할 수 있으며, 마스터 로봇(100)은 M2M(Machine to Machine) 통신, V2X(Vehicle to Everything Communication) 통신, D2D(Device to Device) 통신 등을 지원할 수 있다.
도 7을 참고하면, 마스터 로봇(100)은 마스터 로봇(100)이 위치한 소정 영역에 대한 공간 맵 정보를 이동 단말(300)로 제공할 수 있으며, 이동 단말(300)은 제1 위치(T1)에서 제2 위치(T2)로 슬레이브 로봇(200f)이 이동하도록 마스터 로봇(100)에 요청할 수 있다. 상기 요청은 터치 드래그 입력으로 수행될 수 있으나, 실시 예가 이에 국한되지 않는다.
마스터 로봇(100)은 이동 단말(300)에 표시된 공간 맵 상에서 상기 슬레이브 로봇(200f)을 소정의 스팟(T2)으로 이동시키는 이동 명령이 상기 통신부(110)를 통해 수신되면, 소정 공간(PL)에서 슬레이브 로봇(200)을 상기 스팟(T2)에 대응되는 위치로 슬레이브 로봇(200)을 이동시킬 수 있다.
마스터 로봇(100) 및 이동 단말(300)은 5G 통신 모듈을 구비하여 이동 단말(300)에서 입력된 제어 명령이 소정 공간(PL)에 배치된 마스터 로봇(100)에 신속하게 도달할 수 있다. 이에, 마스터 로봇(100)은 이동 단말(300)에서 이동 명령이 입력되자마자 실시간으로 슬레이브 로봇(200)이 이동하도록 슬레이브 로봇(200)을 제어할 수 있다.
도 8은 본 발명의 일 실시 예에 따른 마스터 로봇(100)의 구동을 설명하기 위한 시퀀스도이다.
먼저, 마스터 로봇(100)은 제어 대상인 슬레이브 로봇을 선택한다(S810).
여기서, 마스터 로봇(100)은 마스터 로봇(100)을 이동시킬 수 있는 이동 모듈을 포함할 수 있으며, 슬레이브 로봇은 이동 가능하거나 이동 가능하지 않더라도 특정 기능을 수행할 수 있다.
마스터 로봇(100)은 마스터 로봇(100)과 슬레이브 로봇(200)이 위치한 소정 공간에 대응되는 공간 맵을 생성할 수 있다. 그 후에, 마스터 로봇(100)은 슬레이브 로봇 중에서 제어할 로봇을 선택할 수 있다. 상기 선택은 사용자 입력에 의해 수행될 수 있으며, 다른 실시 예에 의하면, 자체적인 판단에 기초하여 슬레이브 로봇을 선택할 수 있다. 여기서 사용자 입력은 사용자 음성 입력, 사용자 터치 입력 등을 포함할 수 있다.
마스터 로봇(100)은 공간 맵을 생성할 때, 마스터 로봇(100) 및 슬레이브 로봇(200)의 위치 정보가 공간 맵 상에 적용되게 할 수 있으며, 슬레이브 로봇(200)의 식별 정보 또는 형상 정보를 슬레이브 로봇(200)으로부터 수신하여 수신된 식별 정보 또는 형상 정보를 공간 맵 상에 적용되게 할 수 있다.
여기서, 마스터 로봇(100)은 생성된 공간 맵에 관한 정보를 외부 이동 단말(300)로 전송할 수 있다.
그 다음, 마스터 로봇(100)은 이동 목적지 정보를 입력받는다(S820).
상기 이동 목적지 정보는 사용자 입력에 의해 수행될 수 있으나, 실시 예에 따라서는 마스터 로봇(100)의 자체적 판단에 기초하여 수행될 수 있다.
마스터 로봇(100)은 이동 단말(300)에 표시된 공간 맵 상에서 선택된 슬레이브 로봇(200)을 이동 목적지로 이동시키는 이동 명령을 이동 단말(300)로부터 수신할 수 있다.
그러면, 마스터 로봇(100)은 선택된 슬레이브 로봇을 이동 목적지로 이동시킨다(S830).
마스터 로봇(100)은 무선 통신에 따라 슬레이브 로봇(200)을 무선 조종할 수 있다. 구체적으로, 마스터 로봇(100)은 이동하지 않으면서 슬레이브 로봇(200)만 이동시킬 수 있고, 일정 거리를 두고 상기 슬레이브 로봇(200)과 함께 목적지로 이동할 수 있다. 다른 실시 예에 의하면, 마스터 로봇(100)은 슬레이브 로봇(200)보다 앞서 이동하면서 슬레이브(200) 로봇이 추종하는지 모니터링할 수 있다.
마스터 로봇(100)은 실시간으로 입력된 영상 신호에 기초하여 슬레이브 로봇들 간의 거리를 조절하여 슬레이브 로봇 간의 충돌을 방지할 수 있다. 또한, 마스터 로봇(100)은 추종하는 슬레이브 로봇(200)과의 거리가 소정 거리 이상인 경우, 슬레이브 로봇(200)의 이동 속도를 보다 빠르게 제어할 수 있다.
또한, 마스터 로봇(100)은 상기 슬레이브 로봇(200)이 이동하는 경로 상에 장애물이 검색되면, 상기 슬레이브 로봇(200)이 장애물을 회피하여 이동하도록 슬레이브 로봇(200)을 제어할 수 있다.
한편, 마스터 로봇(100)의 제어 모듈(190)은 인공지능 모듈을 추가로 탑재할 수 있는데, 인공지능 모듈은 카메라(121)가 촬영한 영상에 기초하여 공간 맵을 생성하고 공간 내의 마스터 로봇(100), 슬레이브 로봇(200) 및 사용자 등을 인식하여 상기 공간 맵에 저장 및 표시할 수 있다. 상기 인공지능 모듈은 슬레이브 로봇(200)이 장애물을 회피할 수 있도록 슬레이브 로봇(200)을 제어할 수 있다.
상기 인공지능 모듈은 기계학습(machine learning) 또는 딥러닝 네트워크(Deep Learning Network)에 기초한 연산을 수행할 수 있으며, 상황인식(Context Awareness) 기능을 수행할 수 있다. 또한, 제어 모듈(190)은 센싱된 값들, 사용자의 제어, 또는 다른 로봇들이나 서버로부터 수신된 정보 등을 인공지능 모듈의 입력값으로 하여 로봇의 상황을 인식할 수 있다. 또한, 제어 모듈(190)는 인공지능모듈을 이용하여 카메라(121)가 촬영한 영상을 판독하는 영상 프로세싱을 수행할 수 있다.
전술한 인공지능 모듈은 추론 엔진(inference engine), 뉴럴 네트워크(neural network) 모델, 확률 모델(probability model) 등을 포함할 수 있다. 그리고 인공지능 모듈은 다양한 데이터에 기반한 지도학습(supervised learning) 또는 비지도학습(unsupervised learning)을 수행할 수 있다.
또한, 인공지능 모듈은 사용자의 음성을 인식하여 이로부터 정보를 추출하기 위해 자연어 처리(natural language processing)을 수행할 수 있다.
전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있으며, 또한, 상기 컴퓨터는 마스터 로봇(100)의 제어 모듈(190)을 포함하도록 구현될 수 있다.
앞에서, 본 발명의 특정한 실시예가 설명되고 도시되었지만 본 발명은 기재된 실시예에 한정되는 것이 아니고, 이 기술 분야에서 통상의 지식을 가진 자는 본 발명의 사상 및 범위를 벗어나지 않고서 다른 구체적인 실시예로 다양하게 수정 및 변형할 수 있음을 이해할 수 있을 것이다. 따라서, 본 발명의 범위는 설명된 실시예에 의하여 정하여 질 것이 아니고 청구범위에 기재된 기술적 사상에 의해 정하여져야 할 것이다.

Claims (16)

  1. 하나 이상의 슬레이브 로봇을 제어하는 마스터 로봇으로서,
    상기 슬레이브 로봇이나 이동 단말과 통신하는 통신부;
    하나 이상의 센싱부;
    영상 신호나 오디오 신호의 입력을 위한 입력부; 및
    상기 센싱부로부터 감지된 정보 또는 상기 입력부를 통해 입력된 정보에 기초하여 상기 마스터 로봇 및 상기 슬레이브 로봇이 위치한 소정 공간에 대응되는 공간 맵을 생성하는 제어 모듈을 포함하며,
    상기 제어 모듈은,
    상기 슬레이브 로봇을 이동시키는 이동 명령을 상기 입력부나 상기 이동 단말을 통해 수신하면, 상기 공간 맵에 기초하여 상기 슬레이브 로봇을 이동시키는, 마스터 로봇.
  2. 제1항에 있어서,
    상기 제어 모듈은,
    상기 슬레이브 로봇을 이동시키는 경우, 상기 슬레이브 로봇의 이동을 모니터링하도록 상기 입력부 또는 상기 센싱부를 제어하는, 마스터 로봇.
  3. 제1항에 있어서,
    상기 제어 모듈은,
    상기 마스터 로봇 및 상기 슬레이브 로봇의 위치 정보를 상기 공간 맵 상에 적용하는, 마스터 로봇.
  4. 제3항에 있어서,
    상기 제어 모듈은,
    상기 슬레이브 로봇의 식별 정보 또는 형상 정보를 상기 통신부를 통해 수신하여, 상기 공간 맵 상에 적용하는, 마스터 로봇.
  5. 제3항에 있어서,
    상기 제어 모듈은,
    상기 입력부를 통해 실시간으로 입력된 영상 신호에 기초하여 상기 슬레이브 로봇 간의 거리가 소정 범위 내로 배치되지 않도록 상기 슬레이브 로봇을 제어하는, 마스터 로봇.
  6. 인공 지능을 이용하여 하나 이상의 슬레이브 로봇을 제어하는 마스터 로봇으로서,
    상기 슬레이브 로봇이나 이동 단말과 통신하는 통신부;
    이동 모듈;
    하나 이상의 센싱부;
    영상 신호나 오디오 신호의 입력을 위한 입력부; 및
    상기 센싱부로부터 감지된 정보 또는 상기 입력부를 통해 입력된 정보에 기초하여 상기 마스터 로봇 및 상기 슬레이브 로봇이 위치한 소정 공간에 대응되는 공간 맵을 생성하는 제어 모듈을 포함하며,
    상기 제어 모듈은,
    상기 슬레이브 로봇을 이동시키는 이동 명령이 상기 입력부나 상기 이동 단말을 통해 수신하면, 상기 공간 맵에 기초하여 상기 슬레이브 로봇을 이동시키며,
    상기 슬레이브 로봇이 상기 입력부의 촬영 범위를 이탈하는 경우, 상기 입력부의 촬영 범위 내로 상기 슬레이브 로봇을 포착하도록 상기 이동 모듈을 제어하는, 마스터 로봇.
  7. 제6항에 있어서,
    상기 제어 모듈은,
    상기 슬레이브 로봇이 이동하는 경로 상에 장애물이 검색되면, 상기 슬레이브 로봇이 상기 장애물을 회피하여 이동하도록 상기 슬레이브 로봇을 제어하는, 마스터 로봇.
  8. 제7항에 있어서,
    상기 제어 모듈은,
    상기 슬레이브 로봇이 이동하는 경로 상에 장애물이 검색되면, 상기 슬레이브 로봇의 전방 방향으로 이동하며, 상기 슬레이브 로봇과 함께 상기 장애물을 회피하도록 상기 이동 모듈 및 상기 슬레이브 로봇을 제어하는, 마스터 로봇.
  9. 제6항에 있어서,
    상기 제어 모듈은,
    상기 공간 맵에 관한 정보를 상기 통신부를 통해 상기 이동 단말로 전송하며,
    상기 이동 단말에 표시된 공간 맵 상에서 상기 슬레이브 로봇을 소정의 스팟(Spot)으로 이동시키는 이동 명령이 상기 통신부를 통해 수신되면, 상기 슬레이브 로봇을 상기 스팟으로 이동시키는, 마스터 로봇.
  10. 하나 이상의 슬레이브 로봇을 제어하는 마스터 로봇의 구동 방법으로서,
    상기 마스터 로봇 및 상기 슬레이브 로봇이 위치한 소정 공간에 대응되는 공간 맵을 생성하는 단계;
    선택된 슬레이브 로봇의 이동 목적지 정보를 입력받는 단계; 및
    상기 공간 맵에 기초하여 선택된 상기 슬레이브 로봇을 이동 목적지로 이동시키는 단계를 포함하는, 마스터 로봇의 구동 방법.
  11. 제10항에 있어서,
    상기 공간 맵을 생성하는 단계는,
    상기 마스터 로봇 및 상기 슬레이브 로봇의 위치 정보를 상기 공간 맵 상에 적용하는 단계를 포함하는, 마스터 로봇의 구동 방법.
  12. 제11항에 있어서,
    상기 공간 맵을 생성하는 단계는,
    상기 슬레이브 로봇의 식별 정보 또는 형상 정보를 상기 슬레이브 로봇으로부터 수신하는 단계; 및
    수신된 상기 슬레이브 로봇의 식별 정보 또는 형상 정보를 상기 공간 맵 상에 적용하는 단계를 포함하는, 마스터 로봇의 구동 방법.
  13. 제10항에 있어서,
    실시간으로 입력된 영상 신호에 기초하여 상기 슬레이브 로봇 간의 거리가 소정 범위 내로 배치되지 않도록 상기 슬레이브 로봇을 제어하는 단계를 더 포함하는, 마스터 로봇의 구동 방법.
  14. 제10항에 있어서,
    상기 슬레이브 로봇을 이동 목적지로 이동시키는 단계는,
    상기 슬레이브 로봇이 이동하는 경로 상에 장애물이 검색되면, 상기 슬레이브 로봇이 상기 장애물을 회피하여 이동하도록 상기 슬레이브 로봇을 제어하는 단계를 포함하는, 마스터 로봇의 구동 방법.
  15. 제10항에 있어서,
    상기 슬레이브 로봇을 이동 목적지로 이동시키는 단계는,
    상기 슬레이브 로봇이 이동하는 경로 상에 장애물이 검색되면, 상기 슬레이브 로봇의 전방 방향으로 이동하며, 상기 슬레이브 로봇과 함께 상기 장애물을 회피하도록 상기 마스터 로봇 및 상기 슬레이브 로봇을 이동시키는 단계를 포함하는, 마스터 로봇의 구동 방법.
  16. 제10항에 있어서,
    생성된 공간 맵에 관한 정보를 이동 단말로 전송하는 단계를 더 포함하며,
    이동 목적지 정보를 입력받는 단계는,
    상기 이동 단말에 표시된 공간 맵 상에서 선택된 슬레이브 로봇을 이동 목적지로 이동시키는 이동 명령을 수신하는 단계를 포함하는, 마스터 로봇의 구동 방법.
KR1020190109024A 2019-05-30 2019-09-03 슬레이브 로봇을 제어하는 마스터 로봇 및 그의 구동 방법 KR20190108087A (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
WOPCT/KR2019/006529 2019-05-30
PCT/KR2019/006529 WO2020241933A1 (ko) 2019-05-30 2019-05-30 슬레이브 로봇을 제어하는 마스터 로봇 및 그의 구동 방법

Publications (1)

Publication Number Publication Date
KR20190108087A true KR20190108087A (ko) 2019-09-23

Family

ID=68069197

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190109024A KR20190108087A (ko) 2019-05-30 2019-09-03 슬레이브 로봇을 제어하는 마스터 로봇 및 그의 구동 방법

Country Status (3)

Country Link
US (1) US11260525B2 (ko)
KR (1) KR20190108087A (ko)
WO (1) WO2020241933A1 (ko)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11128035B2 (en) 2019-04-19 2021-09-21 Echodyne Corp. Phase-selectable antenna unit and related antenna, subsystem, system, and method
US11779183B2 (en) * 2020-07-08 2023-10-10 Guangdong Lesheng Intelligent Technology Co., Ltd. Floor sweeping robot system with automatic dust collection function
CN112247987A (zh) * 2020-09-29 2021-01-22 深圳优地科技有限公司 一种机器人调度方法、装置、机器人和存储介质
US20220138612A1 (en) * 2020-10-29 2022-05-05 Micron Technology, Inc. Anomaly detection and resolution
SE2150996A1 (en) * 2021-08-12 2023-02-13 Husqvarna Ab Improved cooperation of robotic working tools in a robotic working tool system

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6374155B1 (en) * 1999-11-24 2002-04-16 Personal Robotics, Inc. Autonomous multi-platform robot system
KR101503903B1 (ko) 2008-09-16 2015-03-19 삼성전자 주식회사 이동 로봇의 지도 구성 장치 및 방법
KR101094465B1 (ko) * 2010-05-11 2011-12-15 포항공과대학교 산학협력단 다중 이동체의 동시 조작 방법 및 장치 및 그를 수행하는 컴퓨터 판독가능 프로그램을 저장한 기록매체
KR20130051679A (ko) * 2011-11-10 2013-05-21 한국전자통신연구원 군집지능 라우팅 로봇 장치와 이를 포함하는 이동경로 제어 시스템
US9552503B2 (en) * 2012-05-01 2017-01-24 5D Robotics, Inc. Distributed positioning and collaborative behavior determination
KR101629649B1 (ko) 2014-09-30 2016-06-13 엘지전자 주식회사 로봇 청소기 및 로봇 청소기의 제어방법
US10874274B2 (en) * 2015-09-03 2020-12-29 Aktiebolaget Electrolux System of robotic cleaning devices
KR102521493B1 (ko) * 2015-10-27 2023-04-14 삼성전자주식회사 청소 로봇 및 그 제어방법
US9637310B1 (en) * 2016-08-02 2017-05-02 Amazon Technologies, Inc. Mobile robot group for moving an item
KR102012549B1 (ko) * 2017-01-25 2019-08-20 엘지전자 주식회사 이동 객체를 식별하여 맵을 작성하는 방법 및 이를 구현하는 로봇
US11331796B2 (en) * 2018-02-12 2022-05-17 Brain Corporation Autonomous multi-tasking modular robotic system

Also Published As

Publication number Publication date
US20200023511A1 (en) 2020-01-23
WO2020241933A1 (ko) 2020-12-03
US11260525B2 (en) 2022-03-01

Similar Documents

Publication Publication Date Title
KR20190108087A (ko) 슬레이브 로봇을 제어하는 마스터 로봇 및 그의 구동 방법
EP3664974B1 (en) Mobile home robot and controlling method of the mobile home robot
JP6440745B2 (ja) ロボット装置の行為の仮想表現を表示する拡張現実のための方法及びシステム
KR102567525B1 (ko) 이동 로봇 시스템, 이동 로봇 및 이동 로봇 시스템의 제어 방법
KR102280798B1 (ko) 카트 로봇 및 로봇 관제 시스템
US20200009734A1 (en) Robot and operating method thereof
US11169601B2 (en) Methods and systems for determining teleoperating user intent via eye tracking
US20170203439A1 (en) System for operating mobile robot based on complex map information and operating method thereof
US11989835B2 (en) Augmented reality overlay
US20200171667A1 (en) Vision-based robot control system
US11847822B2 (en) Information processing device and information processing method
US9477302B2 (en) System and method for programing devices within world space volumes
US11110603B2 (en) Systems and methods for naïve physics for contact and contact-awareness in robotic teleoperation
US20220163334A1 (en) Method for providing navigation service using mobile terminal, and mobile terminal
WO2020077025A1 (en) Systems and methods for conditional robotic teleoperation
KR20190104488A (ko) 인공 지능을 이용하여, 오브젝트의 이동을 관리하는 인공 지능 로봇 및 그의 동작 방법
JP2015066621A (ja) ロボット制御システム、ロボット、出力制御プログラムおよび出力制御方法
KR102639904B1 (ko) 공항용 로봇 및 그의 동작 방법
KR20190094311A (ko) 인공 지능 로봇 및 그의 동작 방법
KR20220014509A (ko) 로봇 원격 제어 방법 및 시스템
KR20210056019A (ko) 인공 지능 장치 및 그의 동작 방법
JP2020017206A (ja) 情報処理装置、行動決定方法及びプログラム
CN212241058U (zh) 智能平台装置、电路系统与其智能系统
US11548154B2 (en) Systems and methods for dimensionally-restricted robotic teleoperation
KR20170002048A (ko) 피사체 이동 제어 장치 및 방법

Legal Events

Date Code Title Description
E902 Notification of reason for refusal