KR20190108087A - 슬레이브 로봇을 제어하는 마스터 로봇 및 그의 구동 방법 - Google Patents
슬레이브 로봇을 제어하는 마스터 로봇 및 그의 구동 방법 Download PDFInfo
- Publication number
- KR20190108087A KR20190108087A KR1020190109024A KR20190109024A KR20190108087A KR 20190108087 A KR20190108087 A KR 20190108087A KR 1020190109024 A KR1020190109024 A KR 1020190109024A KR 20190109024 A KR20190109024 A KR 20190109024A KR 20190108087 A KR20190108087 A KR 20190108087A
- Authority
- KR
- South Korea
- Prior art keywords
- robot
- slave
- slave robot
- master
- moving
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 21
- 238000004891 communication Methods 0.000 claims abstract description 35
- 238000013473 artificial intelligence Methods 0.000 claims abstract description 9
- 230000005236 sound signal Effects 0.000 claims abstract description 5
- 230000006870 function Effects 0.000 description 13
- 238000010295 mobile communication Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004140 cleaning Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000006698 induction Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000001646 magnetic resonance method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J3/00—Manipulators of master-slave type, i.e. both controlling unit and controlled unit perform corresponding spatial movements
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
- G05D1/0274—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
-
- A—HUMAN NECESSITIES
- A47—FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
- A47L—DOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
- A47L11/00—Machines for cleaning floors, carpets, furniture, walls, or wall coverings
- A47L11/40—Parts or details of machines not provided for in groups A47L11/02 - A47L11/38, or not restricted to one of these groups, e.g. handles, arrangements of switches, skirts, buffers, levers
- A47L11/4011—Regulation of the cleaning machine by electric means; Control systems and remote control systems therefor
-
- A—HUMAN NECESSITIES
- A47—FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
- A47L—DOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
- A47L9/00—Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
- A47L9/28—Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
- A47L9/2857—User input or output elements for control, e.g. buttons, switches or displays
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/0084—Programme-controlled manipulators comprising a plurality of manipulators
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
- B25J9/1666—Avoiding collision or forbidden zones
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1674—Programme controls characterised by safety, monitoring, diagnostic
- B25J9/1676—Avoiding collision or forbidden zones
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
- B25J9/1682—Dual arm manipulator; Coordination of several manipulators
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B19/00—Programme-control systems
- G05B19/02—Programme-control systems electric
- G05B19/04—Programme control other than numerical control, i.e. in sequence controllers or logic controllers
- G05B19/042—Programme control other than numerical control, i.e. in sequence controllers or logic controllers using digital processors
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0287—Control of position or course in two dimensions specially adapted to land vehicles involving a plurality of land vehicles, e.g. fleet or convoy travelling
- G05D1/0289—Control of position or course in two dimensions specially adapted to land vehicles involving a plurality of land vehicles, e.g. fleet or convoy travelling with means for avoiding collisions between vehicles
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0287—Control of position or course in two dimensions specially adapted to land vehicles involving a plurality of land vehicles, e.g. fleet or convoy travelling
- G05D1/0291—Fleet control
- G05D1/0295—Fleet control by at least one leading vehicle of the fleet
-
- A—HUMAN NECESSITIES
- A47—FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
- A47L—DOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
- A47L2201/00—Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation
- A47L2201/04—Automatic control of the travelling movement; Automatic obstacle detection
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/20—Pc systems
- G05B2219/22—Pc multi processor system
- G05B2219/2231—Master slave
Landscapes
- Engineering & Computer Science (AREA)
- Mechanical Engineering (AREA)
- Robotics (AREA)
- Automation & Control Theory (AREA)
- Radar, Positioning & Navigation (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Remote Sensing (AREA)
- Aviation & Aerospace Engineering (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Electromagnetism (AREA)
- Manipulator (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
하나 이상의 슬레이브 로봇을 제어하는 마스터 로봇이 개시된다. 본 마스터 로봇은 슬레이브 로봇이나 이동 단말과 통신하는 통신부, 하나 이상의 센싱부, 영상 신호나 오디오 신호의 입력을 위한 입력부 및 센싱부로부터 감지된 정보 또는 입력부를 통해 입력된 정보에 기초하여 마스터 로봇 및 슬레이브 로봇이 위치한 소정 공간에 대응되는 공간 맵을 생성하는 제어 모듈을 포함할 수 있다. 이에 따라, 인공 지능 및 5G 통신 모듈을 구비한 마스터 로봇이 제공될 수 있다.
Description
관련 출원들에 대한 상호-참조: 본 출원은, 2019년 5월 30일자로 출원된 PCT 출원 일련번호 제 PCT/KR2019/006529호의 이점을 주장 하며, 그 특허출원은 그 전체가 본 명세서에 인용에 의해 명백히 포함된다.
본 발명은 로봇 제어 시스템에서 슬레이브 로봇을 제어하는 마스터 로봇 및 그의 구동 방법에 관한 것이다.
로봇은 산업용으로 개발되어 공장 자동화의 일 부분을 담당하여 왔다. 최근에는 로봇을 응용한 분야가 더욱 확대되어, 의료용 로봇, 우주 항공 로봇 등이 개발되고, 일반 가정에서 사용할 수 있는 가정용 로봇도 만들어지고 있다.
종래 기술 1(KR101629649B)에는 인간의 모션을 감지하는 로봇, 로봇 간에 네트워크를 형성하여 오퍼레이션을 수행하는 협력적 로봇 시스템이 개시된다.
그러나, 종래 기술 1에는 특정 목적을 달성하기 위한 복수의 로봇이 개시되기는 하나, 특정 목적을 위해 하나의 로봇이 마스터가 되어 슬레이브 로봇들을 효율적으로 제어하지 못하는 문제점이 있다.
종래 기술 2(KR101503903B)의 이동 로봇은 경로를 제어하여 미지의 환경에 대한 장애물 지도 및 특징점 지도를 구성하고자 한다.
그러나, 종래 기술 2의 이동 로봇은 움직일 수 있는 자체 경로를 작성하기는 하나, 특정 목적을 위해 하나의 로봇이 마스터가 되어 슬레이브 로봇들을 효율적으로 제어하지 못하며, 다른 로봇의 경로를 생성하지 못하는 문제점이 있다.
본 발명이 해결하고자 하는 과제는 하나의 로봇이 복수의 로봇들을 제어함으로써, 로봇 제어의 효율이 향상된 마스터 로봇을 제공하는 것이다.
본 발명의 또 다른 과제는 슬레이브 로봇이 장애물을 회피하도록 슬레이브 로봇의 이동 경로를 결정하는 마스터 로봇을 제공하는 것이다.
본 발명의 또 다른 과제는 마스터 로봇과 슬레이브 로봇이 위치한 공간에 대응되는 공간 맵을 생성하여 슬레이브 로봇이 신속하게 이동 가능하게 하는 마스터 로봇을 제공하는 것이다.
본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
상기 과제를 달성하기 위하여, 본 발명의 일 실시 예에 따른 마스터 로봇은 슬레이브 로봇이나 이동 단말과 통신하는 통신부, 하나 이상의 센싱부, 영상 신호나 오디오 신호의 입력을 위한 입력부 및 센싱부로부터 감지된 정보 또는 입력부를 통해 입력된 정보에 기초하여 마스터 로봇 및 슬레이브 로봇이 위치한 소정 공간에 대응되는 공간 맵을 생성하는 제어 모듈을 포함할 수 있다.
구체적으로, 상기 제어 모듈은 소정 공간 상에서 슬레이브 로봇를 이동시키는 이동 명령을 입력부나 이동 단말을 통해 수신하면, 공간 맵에 기초하여 슬레이브 로봇을 이동시킬 수 있다.
상기 과제를 달성하기 위하여, 본 발명의 일 실시 예에 따른 마스터 로봇은 슬레이브 로봇이 이동하는 경로 상에 위치한 장애물이 검색되면, 슬레이브 로봇이 장애물을 회피하도록 슬레이브 로봇을 제어할 수 있다.
본 발명의 다양한 실시 예에 따르면 아래와 같은 효과가 도출될 수 있다.
첫째로, 하나의 로봇이 복수의 로봇을 제어함으로써, 로봇 제어의 효율이 향상될 수 있다.
둘째로, 슬레이브 로봇의 이동을 모니터링하는 마스터 로봇이 제공됨으로써, 슬레이브 로봇이 장애물을 회피하여 효과적으로 목적지에 도달할 수 있다.
셋째로, 슬레이브 로봇의 이동 경로를 설정할 때, 공간에 대응되는 공간 맵이 작성되어 슬레이브 로봇이 신속하고 안전하게 목적지에 도달할 수 있다.
도 1은 본 발명의 일 실시 예에 따른 로봇 제어 시스템에서 하나 이상의 슬레이브 로봇을 제어하는 마스터 로봇을 설명하기 위한 도면,
도 2는 본 발명의 일 실시 예에 따른 마스터 로봇의 구성을 나타내는 블록도,
도 3은 본 발명의 일 실시 예에 따른 슬레이브 로봇을 설명하기 위한 도면,
도 4 및 도 5는 본 발명의 일 실시 예에 따른 슬레이브 로봇을 제어하는 마스터 로봇을 설명하기 위한 도면들,
도 6은 본 발명의 일 실시 예에 따른 이동 단말과 통신하는 마스터 로봇을 설명하기 위한 도면,
도 7은 본 발명의 일 실시 예에 따른 이동 단말의 요청에 의해 슬레이브 로봇을 제어하는 마스터 로봇을 설명하기 위한 도면, 그리고,
도 8은 본 발명의 일 실시 예에 따른 마스터 로봇의 구동을 나타내는 시퀀스도이다.
도 2는 본 발명의 일 실시 예에 따른 마스터 로봇의 구성을 나타내는 블록도,
도 3은 본 발명의 일 실시 예에 따른 슬레이브 로봇을 설명하기 위한 도면,
도 4 및 도 5는 본 발명의 일 실시 예에 따른 슬레이브 로봇을 제어하는 마스터 로봇을 설명하기 위한 도면들,
도 6은 본 발명의 일 실시 예에 따른 이동 단말과 통신하는 마스터 로봇을 설명하기 위한 도면,
도 7은 본 발명의 일 실시 예에 따른 이동 단말의 요청에 의해 슬레이브 로봇을 제어하는 마스터 로봇을 설명하기 위한 도면, 그리고,
도 8은 본 발명의 일 실시 예에 따른 마스터 로봇의 구동을 나타내는 시퀀스도이다.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 동일하거나 유사한 구성요소에는 동일유사한 도면 부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
도 1은 본 발명의 일 실시 예에 따른 로봇 제어 시스템(1000)에서 하나 이상의 슬레이브 로봇들(200a~200c)을 제어하는 마스터 로봇(100)을 설명하기 위한 도면이다. 로봇 제어 시스템(1000)은 하나 이상의 로봇을 제어하는 시스템이며, 상기 로봇 제어 시스템(1000)은 도 1에 도시된 마스터 로봇(100)보다 더 많은 수의 마스터 로봇을 포함할 수 있으며, 도시된 슬레이브 로봇들(200a~200c)보다 더 많거나 또는 더 적은 수의 슬레이브 로봇을 포함할 수 있다.
마스터 로봇(100)은 소정 공간에서 슬레이브 로봇들(200a~200c)을 제어할 수 있다. 소정 공간은 가정, 회사, 병원 등의 실내 공간이나 야외의 특정 공간을 포함할 수 있다.
일 예로, 마스터 로봇(100)은 로봇 청소기일 수 있다. 로봇 청소기(100)는 상부 카메라(121a) 및 전방 카메라(121b)를 구비하여 영상에 기반하여 공간을 공간 맵 상에 표시할 수 있다. 마스터 로봇(100)은 상기 카메라들(121a, 121b)을 이용하여 천장의 형상, 벽/기둥, 도어 등의 형상 등을 인식하여 공간 맵을 구현할 수 있다. 또한, 로봇 청소기(100)는 각종 센서(가령, 장애물 센서(131))를 포함하여 이동 중 충돌을 감지할 수 있다.
슬레이브 로봇들(200a~200c)은 특정 기능을 수행하는 전자기기를 운반할 수 있는데, 예를 들면, 제1 슬레이브 로봇(200a)은 공기 청정기를 운반할 수 있으며, 제2 슬레이브 로봇(200b)은 화분을 운반할 수 있고, 제3 슬레이브 로봇(200c)은 특정 기기를 운반하기 위해 대기할 수 있다.
다른 실시 예에 의하면, 슬레이브 로봇은 이동 모듈 및 상기 이동 모듈에 특정 기능을 수행하는 모듈(가령, 공기 청정 모듈, 가습 모듈, 스피커 모듈, 선풍기 모듈, 히터 모듈 등)이 결합된 형태로 구현될 수 있으며, 상기 특정 기능을 수행하는 모듈은 이동 모듈과 탈부착되는 형태로 구현될 수 있다.
슬레이브 로봇들(200a~200c)은 이동 수단(가령, 차륜) 및 통신부만 구비하여 마스터 로봇(100)의 제어에 따라 특정 구동(가령, 이동)을 수행할 수 있다.
이하에서는, 도 2를 참고하여 마스터 로봇(100)의 구성을 설명하기로 한다. 마스터 로봇(100)은 통신부(110), 입력부(120), 센싱부(130), 출력부(140), 저장부(150), 전원공급부(160), 이동 모듈(170) 및 제어 모듈(190)을 포함할 수 있다. 도 2에 도시된 구성요소들은 마스터 로봇(100)을 구현하는데 있어서 필수적인 것은 아니어서, 본 명세서 상에서 설명되는 마스터 로봇(100)은 위에서 열거된 구성요소들 보다 많거나, 또는 적은 구성요소들을 가질 수 있다.
보다 구체적으로, 상기 구성요소들 중 통신부(110)는 마스터 로봇(100)과 슬레이브 로봇(일 예로, 도 3의 200) 사이, 마스터 로봇(100)과 이동 단말(일 예로, 도 6의 300) 사이 및 마스터 로봇(100)과 통신 모듈을 구비한 장치 사이의 통신을 가능하게 하는 하나 이상의 유무선 통신 모듈을 포함할 수 있다.
우선, 통신부(110)는 이동 통신 모듈을 포함할 수 있다. 여기서, 이동 통신 모듈은 이동통신을 위한 기술표준들 또는 통신방식(예를 들어, GSM(Global System for Mobile communication), CDMA(Code Division Multi Access), CDMA2000(Code Division Multi Access 2000), EV-DO(Enhanced Voice-Data Optimized or Enhanced Voice-Data Only), WCDMA(Wideband CDMA), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced) 등) 및 5G(Generation) 통신에 따라 구축된 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다.
또한, 통신부(110)는 근거리 통신 모듈을 포함할 수 있다. 여기서, 근거리 통신 모듈은 근거리 통신(Short range communication)을 위한 것으로서, 블루투스(Bluetooth™), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra Wideband), ZigBee, NFC(Near Field Communication), Wi-Fi(Wireless-Fidelity), Wi-Fi Direct, Wireless USB(Wireless Universal Serial Bus) 기술 중 적어도 하나를 이용하여 근거리 통신을 수행할 수 있다.
입력부(120)는 영상 신호 입력을 위한 카메라(121) 또는 영상 입력부, 오디오 신호 입력을 위한 마이크로폰(microphone, 123), 또는 오디오 입력부, 사용자로부터 정보를 입력받기 위한 사용자 입력부(예를 들어, 터치키(touch key), 푸시키(mechanical key) 등)를 포함할 수 있는데, 카메라(121)는 도 1에 도시된 상부 카메라(121a) 및 전방 카메라(121b)를 포함할 수 있다.
상부 카메라(121a)는 상부 방향을 촬영하는 카메라로 공간에 대한 맵을 생성하는데 주로 사용될 수 있으며, 전방 카메라(121b)는 슬레이브 로봇(200)을 모니터링하는데 주로 사용될 수 있으나, 사용 예가 이에 국한되는 것은 아니다.
센싱부(130)는 마스터 로봇(100) 내 정보, 마스터 로봇(100)을 둘러싼 주변 환경 정보 및 사용자 정보 중 적어도 하나를 센싱하기 위한 하나 이상의 센서를 포함할 수 있다. 예를 들어, 센싱부(130)는 장애물 센서(131, 가령, 근접센서(proximity sensor), 라이다 센서((Lidar sensor) 등), 무게 감지 센서, 조도 센서(illumination sensor), 터치 센서(touch sensor), 가속도 센서(acceleration sensor), 자기 센서(magnetic sensor), 중력 센서(G-sensor), 자이로스코프 센서(gyroscope sensor), 모션 센서(motion sensor), RGB 센서, 적외선 센서(IR 센서: infrared sensor), 지문인식 센서(finger scan sensor), 초음파 센서(ultrasonic sensor), 광 센서(optical sensor, 예를 들어, 카메라(121 참조)), 마이크로폰(microphone, 123 참조), 배터리 게이지(battery gauge), 환경 센서(예를 들어, 기압계, 습도계, 온도계, 방사능 감지 센서, 열 감지 센서, 가스 감지 센서 등), 화학 센서(예를 들어, 전자 코, 헬스케어 센서, 생체 인식 센서 등) 중 적어도 하나를 포함할 수 있다. 한편, 본 명세서에 개시된 마스터 로봇(100)은, 이러한 센서들 중 적어도 둘 이상의 센서에서 센싱되는 정보들을 조합하여 활용할 수 있다.
출력부(140)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 디스플레이(복수 개 적용 가능), 하나 이상의 발광 소자, 음향 출력부 및 햅팁 모듈 중에서 적어도 하나를 포함할 수 있다. 디스플레이는 터치 센서와 상호 레이어 구조를 이루거나 일체형으로 형성됨으로써, 터치 스크린으로 구현될 수 있다. 이러한 터치 스크린은, 마스터 로봇(100)과 사용자 사이의 입력 인터페이스를 제공하는 사용자 입력부로써 기능함과 동시에, 마스터 로봇(100)과 사용자 사이의 출력 인터페이스를 제공할 수 있다.
저장부(150)는 마스터 로봇(100)의 다양한 기능을 지원하는 데이터를 저장한다. 저장부(150)는 마스터 로봇(100)에서 구동되는 다수의 응용 프로그램(application program 또는 애플리케이션(application)), 마스터 로봇(100)의 동작을 위한 데이터들, 명령어들을 저장할 수 있다. 이러한 응용 프로그램 중 적어도 일부는, 무선 통신을 통해 외부 서버로부터 다운로드 될 수 있다. 또한, 저장부(150)는 마스터 로봇(100)과 인터랙션을 수행하려는 사용자 정보를 저장할 수 있다. 상기 사용자 정보는 인식된 사용자가 누구인지 식별하는데 사용될 수 있다.
전원공급부(160)는 제어 모듈(190)의 제어 하에서, 외부의 전원, 내부의 전원을 인가 받아 마스터 로봇(100)의 각 구성요소들에 전원을 공급한다. 이러한 전원공급부(160)는 배터리를 포함하며, 상기 배터리는 내장형 배터리 또는 교체가능한 형태의 배터리가 될 수 있다. 상기 배터리는 유선 또는 무선 충전 방식으로 충전될 수 있는데, 무선 충전 방식은 자기 유도 방식 또는 자기 공진 방식을 포함할 수 있다.
이동 모듈(170)은 제어 모듈(190)의 제어에 따라 소정의 장소로 이동하기 위한 모듈이며, 하나 이상의 차륜(Wheel)을 포함하도록 구현될 수 있다.
제어 모듈(190)은 마스터 로봇(100) 및 슬레이브 로봇(예를 들면, 도 3의 200) 이 배치된 소정 공간에 대응되는 공간 맵을 생성할 수 있다. 제어 모듈(190)은 상부 카메라(121a) 및 전방 카메라(121b)를 이용하여 마스터 로봇(100) 및 슬레이브 로봇(200)이 배치된 영역을 입체적으로 저장할 수 있으며, 공간 맵 상의 마스터 로봇(100) 및 슬레이브 로봇(200)의 위치 정보를 특정하여 저장할 수 있다. 상기 공간 맵은 상기 제어 모듈(190)이 자체적으로 생성할 수 있으나, 외부 서버 연산에 의해 생성 또는 보완될 수 있다.
제어 모듈(190)은 슬레이브 로봇(200)의 식별 정보 또는 형상 정보를 통신부(110)를 통해 슬레이브 로봇(200)으로부터 수신하여 공간 맵 상에 적용할 수 있다.
여기서, 슬레이브 로봇(200)의 식별 정보는 슬레이브 로봇(200)의 고유하게 특정할 수 있는 정보를 포함하며, 형상 정보는 슬레이브 로봇(200)의 외관을 나타내는 정보를 포함할 수 있다. 상기 식별 정보 및 형상 정보가 상기 공간 맵 상에 적용되는 경우, 식별 효과 및 인식 효과가 시각적으로 발생될 수 있다.
제어 모듈(190)은 소정 공간 상에서 슬레이브 로봇(200)을 이동시키는 경우, 공간 맵에서 슬레이브 로봇들(200)의 위치 정보, 카메라(121)로부터 수집되는 영상 정보 등에 기초하여 슬레이브 로봇(200)을 이동시킬 수 있다. 마스터 로봇(100)은 슬레이브 로봇(200)을 이동시키는 이동 명령을 사용자 음성, 이동 단말(도 6의 300)의 터치 입력 등에 의해 수신할 수 있으나, 상기 이동 명령은 상술한 예에 국한되지 않는다.
제어 모듈(190)은 공간 맵에 기초하여 슬레이브 로봇(200)을 이동시키는 경우, 상기 슬레이브 로봇(200)의 이동을 모니터링하도록 상기 입력부(120) 또는 센싱부(130)를 제어할 수 있다. 이에, 마스터 로봇(100)이 슬레이브 로봇(200)을 인식하는 것이 직관적으로 구현될 수 있다.
만약, 슬레이브 로봇(200)이 상기 입력부(120)의 촬영 범위를 벗어나는 경우, 제어 모듈(190)은 슬레이브 로봇(200)이 입력부(120)의 촬영 범위 내로 진입하도록 상기 이동 모듈(170)을 제어하여 슬레이브 로봇(200)에 접근할 수 있다.
또한, 제어 모듈(190)은 슬레이브 로봇(200)과 입력된 목적지로 함께 이동하도록 이동 모듈(170)을 제어할 수 있다. 예를 들면, 제어 모듈(190)은 슬레이브 로봇(200)과 소정 거리를 유지하면서 마스터 로봇(100)이 함께 움직이도록 마스터 로봇(100) 및 슬레이브 로봇(200)을 제어할 수 있다.
또한, 제어 모듈(190)은 슬레이브 로봇(200)의 이동 명령을 수신하면, 목적지로 이동하는 다양한 경로 중에서 최단 거리 경로, 최단 시간 경로 등을 슬레이브 로봇(200)에 맞춤형으로 제공할 수 있다.
또한, 제어 모듈(190)은 입력부(120)를 통해 실시간으로 입력된 영상 신호에 기초하여 슬레이브 로봇들 간의 거리가 소정 범위 내로 배치되지 않게 슬레이브 로봇들을 제어할 수 있다. 즉, 마스터 로봇(100)은 슬레이브 로봇들 간의 충돌이 발생되지 않게 슬레이브 로봇들을 제어할 수 있다.
이하에서는 상술한 마스터 로봇(100)과 통신하는 슬레이브 로봇(200)을 도 3을 참고하여 설명하기로 한다.
슬레이브 로봇(200)은 전자기기를 지지하는 기기 지지부(250)와 복수의 차륜(260a~260c)를 포함하는 이동 모듈(260, 260a~260c)을 포함할 수 있다. 슬레이브 로봇(200)은 통신부를 포함하여 마스터 로봇(100)과 통신할 수 있으며, 외부 기기와도 이동 통신 또는 근거리 통신을 수행할 수 있다. 다른 실시 예에 의하면, 슬레이브 로봇(200)은 특정한 기능을 수행하는 전자기기를 내장하거나 특정 기능을 수행하는 모듈을 탈부착 형태로 포함할 수 있다.
슬레이브 로봇(200)은 슬레이브 로봇(200)의 외형 정보, 컨트롤 방법 정보 등을 마스터 로봇(100)에 제공할 수 있으며, 마스터 로봇(100)은 제공받은 정보에 기초하여 슬레이브 로봇(100)을 용이하게 인식하거나 제어할 수 있다. 마스터 로봇(100)은 상기 외형 정보에 기초하여 입력부(120)를 통해 보다 명확하게 슬레이브 로봇(200)을 인식할 수 있다.
그러면, 마스터 로봇(100)은 인식된 슬레이브 로봇(200)을 공간 맵 상에 적용하고, 적용된 공간 맵을 저장부(150)에 저장할 수 있다.
여기서, 슬레이브 로봇(200)에 보다 복잡한 기능(센싱 기능, 촬영 기능 등)이 구비되도록 구현될 수 있으나, 로봇 제어 시스템(1000)의 비용을 절감하고 여러 로봇을 효율적으로 이용하기 위해 마스터 로봇에만 상기 기능이 적용될 수 있다.
도 4 및 도 5는 본 발명의 일 실시 예에 따른 슬레이브 로봇(200)을 제어하는 마스터 로봇(100)을 설명하기 위한 도면이다.
도 4를 참고하면, 마스터 로봇(100)은 특정 슬레이브 로봇(200)의 이동 목적지 정보를 수신하면, 복수의 경로를 탐색할 수 있으며, 경로 중에서 장애물(410)을 회피하는 최적의 경로를 판단할 수 있다. 이때, 마스터 로봇(100)은 슬레이브 로봇(200)을 특정할 때, 슬레이브 로봇(200)과의 통신을 통해 슬레이브 로봇(200)의 외형 정보, 제어 방법 정보 등을 수신하여 슬레이브 로봇(200)을 특정할 수 있다.
마스터 로봇(100)은 슬레이브 로봇(200)이 장애물(410)을 회피하도록 상기 슬레이브 로봇(200)을 실시간 제어할 수 있으며, 슬레이브 로봇(200)은 마스터 로봇(100)의 제어에 따라 장애물(410)을 회피하여 이동할 수 있다.
구체적으로, 마스터 로봇(100)은 전방 카메라(121b)를 구비하여 슬레이브 로봇(200)의 이동 방향을 모니터링할 수 있으며, 기 생성된 공간 맵을 이용하여 슬레이브 로봇(200)이 정적 또는 동적인 장애물(410)을 회피하도록 슬레이브 로봇(200)을 제어할 수 있다.
아울러, 마스터 로봇(100)은 슬레이브 로봇(200)과 함께 목적지로 이동할 수 있다. 일 실시 예에 의하면, 슬레이브 로봇(200)에 탑재된 전자기기가 무선으로 동작하지 않고 유선으로 동작하는 경우, 마스터 로봇(100)은 슬레이브 로봇(200)에 전원을 공급하면서 슬레이브 로봇(200)을 이동시킬 수 있다.
도 5를 참고하면, 마스터 로봇(100)은 전방 카메라(121b)를 이용하여 슬레이브 로봇(200)의 이동 방향을 모니터링할 수 있다. 마스터 로봇(100)은 슬레이브 로봇(200)이 장애물(410)과 충돌하기 전에, 장애물(410)을 회피하도록 슬레이브 로봇(200)을 제어할 수 있다. 다른 실시 예에 의하면, 마스터 로봇(100)은 슬레이브 로봇(200)이 장애물(410)과 소정 거리 인접하는 경우, 이동 대기 명령을 슬레이브 로봇(200)에 전송할 수 있다.
마스터 로봇(100)은 슬레이브 로봇(200)이 장애물과 소정 거리로 인접한 경우, 슬레이브 로봇(200a)의 전방 방향(100b)으로 이동할 수 있다. 마스터 로봇(100)은 슬레이브 로봇(200a) 및 장애물(410)의 위치에 기초하여 슬레이브 로봇(200a)의 이동 방향을 가이드(100a~100c)하면서 슬레이브 로봇(200a~200b)과 함께 장애물(410)을 회피할 수 있다.
도 6은 본 발명의 일 실시 예에 따른 이동 단말(300)과 통신하는 마스터 로봇(100)을 설명하기 위한 도면이며, 도 7은 본 발명의 일 실시 예에 따른 이동 단말(300)의 요청에 의해 슬레이브 로봇(200)을 제어하는 마스터 로봇(100)을 설명하기 위한 도면이다.
마스터 로봇(100)은 이동 단말(300), 슬레이브 로봇들(200a, 200b)과 통신할 수 있다. 이동 단말(300)은 단순한 버튼 입력을 통해 슬레이브 로봇들(200a, 200b)을 제어할 수 있으며, 다른 실시 예에 의하면, 소프트웨어로 구동되는 어플리케이션을 통해 슬레이브 로봇들(200a, 200b) 각각을 마스터 로봇(100)을 통해 제어할 수 있다.
여기서, 상기 마스터 로봇(100)은 5G 통신 모듈을 구비할 수 있다. 마스터 로봇(100)은 100Mbps 내지 20Gbps 속도로 데이터를 전송할 수 있어서 대용량의 동영상을 이동 단말(300)로 전송할 수 있으며, 저전력으로 구동되어 전력 소비를 최소화할 수 있다.
이에 따라, 이동 단말(300)은 마스터 로봇(100)이 배치된 지점과 멀리 떨어져 있더라도 마스터 로봇(100)으로부터 공간 맵 정보, 촬영된 영상 정보 등을 신속하게 수신할 수 있다.
또한, 마스터 로봇(100)은 각종 사물 지능 통신(IoT(Internet of Things), IoE(Internet of Everything), IoST(Internet of Small Things) 등)을 지원할 수 있으며, 마스터 로봇(100)은 M2M(Machine to Machine) 통신, V2X(Vehicle to Everything Communication) 통신, D2D(Device to Device) 통신 등을 지원할 수 있다.
도 7을 참고하면, 마스터 로봇(100)은 마스터 로봇(100)이 위치한 소정 영역에 대한 공간 맵 정보를 이동 단말(300)로 제공할 수 있으며, 이동 단말(300)은 제1 위치(T1)에서 제2 위치(T2)로 슬레이브 로봇(200f)이 이동하도록 마스터 로봇(100)에 요청할 수 있다. 상기 요청은 터치 드래그 입력으로 수행될 수 있으나, 실시 예가 이에 국한되지 않는다.
마스터 로봇(100)은 이동 단말(300)에 표시된 공간 맵 상에서 상기 슬레이브 로봇(200f)을 소정의 스팟(T2)으로 이동시키는 이동 명령이 상기 통신부(110)를 통해 수신되면, 소정 공간(PL)에서 슬레이브 로봇(200)을 상기 스팟(T2)에 대응되는 위치로 슬레이브 로봇(200)을 이동시킬 수 있다.
마스터 로봇(100) 및 이동 단말(300)은 5G 통신 모듈을 구비하여 이동 단말(300)에서 입력된 제어 명령이 소정 공간(PL)에 배치된 마스터 로봇(100)에 신속하게 도달할 수 있다. 이에, 마스터 로봇(100)은 이동 단말(300)에서 이동 명령이 입력되자마자 실시간으로 슬레이브 로봇(200)이 이동하도록 슬레이브 로봇(200)을 제어할 수 있다.
도 8은 본 발명의 일 실시 예에 따른 마스터 로봇(100)의 구동을 설명하기 위한 시퀀스도이다.
먼저, 마스터 로봇(100)은 제어 대상인 슬레이브 로봇을 선택한다(S810).
여기서, 마스터 로봇(100)은 마스터 로봇(100)을 이동시킬 수 있는 이동 모듈을 포함할 수 있으며, 슬레이브 로봇은 이동 가능하거나 이동 가능하지 않더라도 특정 기능을 수행할 수 있다.
마스터 로봇(100)은 마스터 로봇(100)과 슬레이브 로봇(200)이 위치한 소정 공간에 대응되는 공간 맵을 생성할 수 있다. 그 후에, 마스터 로봇(100)은 슬레이브 로봇 중에서 제어할 로봇을 선택할 수 있다. 상기 선택은 사용자 입력에 의해 수행될 수 있으며, 다른 실시 예에 의하면, 자체적인 판단에 기초하여 슬레이브 로봇을 선택할 수 있다. 여기서 사용자 입력은 사용자 음성 입력, 사용자 터치 입력 등을 포함할 수 있다.
마스터 로봇(100)은 공간 맵을 생성할 때, 마스터 로봇(100) 및 슬레이브 로봇(200)의 위치 정보가 공간 맵 상에 적용되게 할 수 있으며, 슬레이브 로봇(200)의 식별 정보 또는 형상 정보를 슬레이브 로봇(200)으로부터 수신하여 수신된 식별 정보 또는 형상 정보를 공간 맵 상에 적용되게 할 수 있다.
여기서, 마스터 로봇(100)은 생성된 공간 맵에 관한 정보를 외부 이동 단말(300)로 전송할 수 있다.
그 다음, 마스터 로봇(100)은 이동 목적지 정보를 입력받는다(S820).
상기 이동 목적지 정보는 사용자 입력에 의해 수행될 수 있으나, 실시 예에 따라서는 마스터 로봇(100)의 자체적 판단에 기초하여 수행될 수 있다.
마스터 로봇(100)은 이동 단말(300)에 표시된 공간 맵 상에서 선택된 슬레이브 로봇(200)을 이동 목적지로 이동시키는 이동 명령을 이동 단말(300)로부터 수신할 수 있다.
그러면, 마스터 로봇(100)은 선택된 슬레이브 로봇을 이동 목적지로 이동시킨다(S830).
마스터 로봇(100)은 무선 통신에 따라 슬레이브 로봇(200)을 무선 조종할 수 있다. 구체적으로, 마스터 로봇(100)은 이동하지 않으면서 슬레이브 로봇(200)만 이동시킬 수 있고, 일정 거리를 두고 상기 슬레이브 로봇(200)과 함께 목적지로 이동할 수 있다. 다른 실시 예에 의하면, 마스터 로봇(100)은 슬레이브 로봇(200)보다 앞서 이동하면서 슬레이브(200) 로봇이 추종하는지 모니터링할 수 있다.
마스터 로봇(100)은 실시간으로 입력된 영상 신호에 기초하여 슬레이브 로봇들 간의 거리를 조절하여 슬레이브 로봇 간의 충돌을 방지할 수 있다. 또한, 마스터 로봇(100)은 추종하는 슬레이브 로봇(200)과의 거리가 소정 거리 이상인 경우, 슬레이브 로봇(200)의 이동 속도를 보다 빠르게 제어할 수 있다.
또한, 마스터 로봇(100)은 상기 슬레이브 로봇(200)이 이동하는 경로 상에 장애물이 검색되면, 상기 슬레이브 로봇(200)이 장애물을 회피하여 이동하도록 슬레이브 로봇(200)을 제어할 수 있다.
한편, 마스터 로봇(100)의 제어 모듈(190)은 인공지능 모듈을 추가로 탑재할 수 있는데, 인공지능 모듈은 카메라(121)가 촬영한 영상에 기초하여 공간 맵을 생성하고 공간 내의 마스터 로봇(100), 슬레이브 로봇(200) 및 사용자 등을 인식하여 상기 공간 맵에 저장 및 표시할 수 있다. 상기 인공지능 모듈은 슬레이브 로봇(200)이 장애물을 회피할 수 있도록 슬레이브 로봇(200)을 제어할 수 있다.
상기 인공지능 모듈은 기계학습(machine learning) 또는 딥러닝 네트워크(Deep Learning Network)에 기초한 연산을 수행할 수 있으며, 상황인식(Context Awareness) 기능을 수행할 수 있다. 또한, 제어 모듈(190)은 센싱된 값들, 사용자의 제어, 또는 다른 로봇들이나 서버로부터 수신된 정보 등을 인공지능 모듈의 입력값으로 하여 로봇의 상황을 인식할 수 있다. 또한, 제어 모듈(190)는 인공지능모듈을 이용하여 카메라(121)가 촬영한 영상을 판독하는 영상 프로세싱을 수행할 수 있다.
전술한 인공지능 모듈은 추론 엔진(inference engine), 뉴럴 네트워크(neural network) 모델, 확률 모델(probability model) 등을 포함할 수 있다. 그리고 인공지능 모듈은 다양한 데이터에 기반한 지도학습(supervised learning) 또는 비지도학습(unsupervised learning)을 수행할 수 있다.
또한, 인공지능 모듈은 사용자의 음성을 인식하여 이로부터 정보를 추출하기 위해 자연어 처리(natural language processing)을 수행할 수 있다.
전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있으며, 또한, 상기 컴퓨터는 마스터 로봇(100)의 제어 모듈(190)을 포함하도록 구현될 수 있다.
앞에서, 본 발명의 특정한 실시예가 설명되고 도시되었지만 본 발명은 기재된 실시예에 한정되는 것이 아니고, 이 기술 분야에서 통상의 지식을 가진 자는 본 발명의 사상 및 범위를 벗어나지 않고서 다른 구체적인 실시예로 다양하게 수정 및 변형할 수 있음을 이해할 수 있을 것이다. 따라서, 본 발명의 범위는 설명된 실시예에 의하여 정하여 질 것이 아니고 청구범위에 기재된 기술적 사상에 의해 정하여져야 할 것이다.
Claims (16)
- 하나 이상의 슬레이브 로봇을 제어하는 마스터 로봇으로서,
상기 슬레이브 로봇이나 이동 단말과 통신하는 통신부;
하나 이상의 센싱부;
영상 신호나 오디오 신호의 입력을 위한 입력부; 및
상기 센싱부로부터 감지된 정보 또는 상기 입력부를 통해 입력된 정보에 기초하여 상기 마스터 로봇 및 상기 슬레이브 로봇이 위치한 소정 공간에 대응되는 공간 맵을 생성하는 제어 모듈을 포함하며,
상기 제어 모듈은,
상기 슬레이브 로봇을 이동시키는 이동 명령을 상기 입력부나 상기 이동 단말을 통해 수신하면, 상기 공간 맵에 기초하여 상기 슬레이브 로봇을 이동시키는, 마스터 로봇. - 제1항에 있어서,
상기 제어 모듈은,
상기 슬레이브 로봇을 이동시키는 경우, 상기 슬레이브 로봇의 이동을 모니터링하도록 상기 입력부 또는 상기 센싱부를 제어하는, 마스터 로봇. - 제1항에 있어서,
상기 제어 모듈은,
상기 마스터 로봇 및 상기 슬레이브 로봇의 위치 정보를 상기 공간 맵 상에 적용하는, 마스터 로봇. - 제3항에 있어서,
상기 제어 모듈은,
상기 슬레이브 로봇의 식별 정보 또는 형상 정보를 상기 통신부를 통해 수신하여, 상기 공간 맵 상에 적용하는, 마스터 로봇. - 제3항에 있어서,
상기 제어 모듈은,
상기 입력부를 통해 실시간으로 입력된 영상 신호에 기초하여 상기 슬레이브 로봇 간의 거리가 소정 범위 내로 배치되지 않도록 상기 슬레이브 로봇을 제어하는, 마스터 로봇. - 인공 지능을 이용하여 하나 이상의 슬레이브 로봇을 제어하는 마스터 로봇으로서,
상기 슬레이브 로봇이나 이동 단말과 통신하는 통신부;
이동 모듈;
하나 이상의 센싱부;
영상 신호나 오디오 신호의 입력을 위한 입력부; 및
상기 센싱부로부터 감지된 정보 또는 상기 입력부를 통해 입력된 정보에 기초하여 상기 마스터 로봇 및 상기 슬레이브 로봇이 위치한 소정 공간에 대응되는 공간 맵을 생성하는 제어 모듈을 포함하며,
상기 제어 모듈은,
상기 슬레이브 로봇을 이동시키는 이동 명령이 상기 입력부나 상기 이동 단말을 통해 수신하면, 상기 공간 맵에 기초하여 상기 슬레이브 로봇을 이동시키며,
상기 슬레이브 로봇이 상기 입력부의 촬영 범위를 이탈하는 경우, 상기 입력부의 촬영 범위 내로 상기 슬레이브 로봇을 포착하도록 상기 이동 모듈을 제어하는, 마스터 로봇. - 제6항에 있어서,
상기 제어 모듈은,
상기 슬레이브 로봇이 이동하는 경로 상에 장애물이 검색되면, 상기 슬레이브 로봇이 상기 장애물을 회피하여 이동하도록 상기 슬레이브 로봇을 제어하는, 마스터 로봇. - 제7항에 있어서,
상기 제어 모듈은,
상기 슬레이브 로봇이 이동하는 경로 상에 장애물이 검색되면, 상기 슬레이브 로봇의 전방 방향으로 이동하며, 상기 슬레이브 로봇과 함께 상기 장애물을 회피하도록 상기 이동 모듈 및 상기 슬레이브 로봇을 제어하는, 마스터 로봇. - 제6항에 있어서,
상기 제어 모듈은,
상기 공간 맵에 관한 정보를 상기 통신부를 통해 상기 이동 단말로 전송하며,
상기 이동 단말에 표시된 공간 맵 상에서 상기 슬레이브 로봇을 소정의 스팟(Spot)으로 이동시키는 이동 명령이 상기 통신부를 통해 수신되면, 상기 슬레이브 로봇을 상기 스팟으로 이동시키는, 마스터 로봇. - 하나 이상의 슬레이브 로봇을 제어하는 마스터 로봇의 구동 방법으로서,
상기 마스터 로봇 및 상기 슬레이브 로봇이 위치한 소정 공간에 대응되는 공간 맵을 생성하는 단계;
선택된 슬레이브 로봇의 이동 목적지 정보를 입력받는 단계; 및
상기 공간 맵에 기초하여 선택된 상기 슬레이브 로봇을 이동 목적지로 이동시키는 단계를 포함하는, 마스터 로봇의 구동 방법. - 제10항에 있어서,
상기 공간 맵을 생성하는 단계는,
상기 마스터 로봇 및 상기 슬레이브 로봇의 위치 정보를 상기 공간 맵 상에 적용하는 단계를 포함하는, 마스터 로봇의 구동 방법. - 제11항에 있어서,
상기 공간 맵을 생성하는 단계는,
상기 슬레이브 로봇의 식별 정보 또는 형상 정보를 상기 슬레이브 로봇으로부터 수신하는 단계; 및
수신된 상기 슬레이브 로봇의 식별 정보 또는 형상 정보를 상기 공간 맵 상에 적용하는 단계를 포함하는, 마스터 로봇의 구동 방법. - 제10항에 있어서,
실시간으로 입력된 영상 신호에 기초하여 상기 슬레이브 로봇 간의 거리가 소정 범위 내로 배치되지 않도록 상기 슬레이브 로봇을 제어하는 단계를 더 포함하는, 마스터 로봇의 구동 방법. - 제10항에 있어서,
상기 슬레이브 로봇을 이동 목적지로 이동시키는 단계는,
상기 슬레이브 로봇이 이동하는 경로 상에 장애물이 검색되면, 상기 슬레이브 로봇이 상기 장애물을 회피하여 이동하도록 상기 슬레이브 로봇을 제어하는 단계를 포함하는, 마스터 로봇의 구동 방법. - 제10항에 있어서,
상기 슬레이브 로봇을 이동 목적지로 이동시키는 단계는,
상기 슬레이브 로봇이 이동하는 경로 상에 장애물이 검색되면, 상기 슬레이브 로봇의 전방 방향으로 이동하며, 상기 슬레이브 로봇과 함께 상기 장애물을 회피하도록 상기 마스터 로봇 및 상기 슬레이브 로봇을 이동시키는 단계를 포함하는, 마스터 로봇의 구동 방법. - 제10항에 있어서,
생성된 공간 맵에 관한 정보를 이동 단말로 전송하는 단계를 더 포함하며,
이동 목적지 정보를 입력받는 단계는,
상기 이동 단말에 표시된 공간 맵 상에서 선택된 슬레이브 로봇을 이동 목적지로 이동시키는 이동 명령을 수신하는 단계를 포함하는, 마스터 로봇의 구동 방법.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
WOPCT/KR2019/006529 | 2019-05-30 | ||
PCT/KR2019/006529 WO2020241933A1 (ko) | 2019-05-30 | 2019-05-30 | 슬레이브 로봇을 제어하는 마스터 로봇 및 그의 구동 방법 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20190108087A true KR20190108087A (ko) | 2019-09-23 |
Family
ID=68069197
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190109024A KR20190108087A (ko) | 2019-05-30 | 2019-09-03 | 슬레이브 로봇을 제어하는 마스터 로봇 및 그의 구동 방법 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11260525B2 (ko) |
KR (1) | KR20190108087A (ko) |
WO (1) | WO2020241933A1 (ko) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11128035B2 (en) | 2019-04-19 | 2021-09-21 | Echodyne Corp. | Phase-selectable antenna unit and related antenna, subsystem, system, and method |
US11779183B2 (en) * | 2020-07-08 | 2023-10-10 | Guangdong Lesheng Intelligent Technology Co., Ltd. | Floor sweeping robot system with automatic dust collection function |
CN112247987A (zh) * | 2020-09-29 | 2021-01-22 | 深圳优地科技有限公司 | 一种机器人调度方法、装置、机器人和存储介质 |
US20220138612A1 (en) * | 2020-10-29 | 2022-05-05 | Micron Technology, Inc. | Anomaly detection and resolution |
SE2150996A1 (en) * | 2021-08-12 | 2023-02-13 | Husqvarna Ab | Improved cooperation of robotic working tools in a robotic working tool system |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6374155B1 (en) * | 1999-11-24 | 2002-04-16 | Personal Robotics, Inc. | Autonomous multi-platform robot system |
KR101503903B1 (ko) | 2008-09-16 | 2015-03-19 | 삼성전자 주식회사 | 이동 로봇의 지도 구성 장치 및 방법 |
KR101094465B1 (ko) * | 2010-05-11 | 2011-12-15 | 포항공과대학교 산학협력단 | 다중 이동체의 동시 조작 방법 및 장치 및 그를 수행하는 컴퓨터 판독가능 프로그램을 저장한 기록매체 |
KR20130051679A (ko) * | 2011-11-10 | 2013-05-21 | 한국전자통신연구원 | 군집지능 라우팅 로봇 장치와 이를 포함하는 이동경로 제어 시스템 |
US9552503B2 (en) * | 2012-05-01 | 2017-01-24 | 5D Robotics, Inc. | Distributed positioning and collaborative behavior determination |
KR101629649B1 (ko) | 2014-09-30 | 2016-06-13 | 엘지전자 주식회사 | 로봇 청소기 및 로봇 청소기의 제어방법 |
US10874274B2 (en) * | 2015-09-03 | 2020-12-29 | Aktiebolaget Electrolux | System of robotic cleaning devices |
KR102521493B1 (ko) * | 2015-10-27 | 2023-04-14 | 삼성전자주식회사 | 청소 로봇 및 그 제어방법 |
US9637310B1 (en) * | 2016-08-02 | 2017-05-02 | Amazon Technologies, Inc. | Mobile robot group for moving an item |
KR102012549B1 (ko) * | 2017-01-25 | 2019-08-20 | 엘지전자 주식회사 | 이동 객체를 식별하여 맵을 작성하는 방법 및 이를 구현하는 로봇 |
US11331796B2 (en) * | 2018-02-12 | 2022-05-17 | Brain Corporation | Autonomous multi-tasking modular robotic system |
-
2019
- 2019-05-30 WO PCT/KR2019/006529 patent/WO2020241933A1/ko active Application Filing
- 2019-09-03 KR KR1020190109024A patent/KR20190108087A/ko not_active Application Discontinuation
- 2019-09-18 US US16/574,786 patent/US11260525B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US20200023511A1 (en) | 2020-01-23 |
WO2020241933A1 (ko) | 2020-12-03 |
US11260525B2 (en) | 2022-03-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR20190108087A (ko) | 슬레이브 로봇을 제어하는 마스터 로봇 및 그의 구동 방법 | |
EP3664974B1 (en) | Mobile home robot and controlling method of the mobile home robot | |
JP6440745B2 (ja) | ロボット装置の行為の仮想表現を表示する拡張現実のための方法及びシステム | |
KR102567525B1 (ko) | 이동 로봇 시스템, 이동 로봇 및 이동 로봇 시스템의 제어 방법 | |
KR102280798B1 (ko) | 카트 로봇 및 로봇 관제 시스템 | |
US20200009734A1 (en) | Robot and operating method thereof | |
US11169601B2 (en) | Methods and systems for determining teleoperating user intent via eye tracking | |
US20170203439A1 (en) | System for operating mobile robot based on complex map information and operating method thereof | |
US11989835B2 (en) | Augmented reality overlay | |
US20200171667A1 (en) | Vision-based robot control system | |
US11847822B2 (en) | Information processing device and information processing method | |
US9477302B2 (en) | System and method for programing devices within world space volumes | |
US11110603B2 (en) | Systems and methods for naïve physics for contact and contact-awareness in robotic teleoperation | |
US20220163334A1 (en) | Method for providing navigation service using mobile terminal, and mobile terminal | |
WO2020077025A1 (en) | Systems and methods for conditional robotic teleoperation | |
KR20190104488A (ko) | 인공 지능을 이용하여, 오브젝트의 이동을 관리하는 인공 지능 로봇 및 그의 동작 방법 | |
JP2015066621A (ja) | ロボット制御システム、ロボット、出力制御プログラムおよび出力制御方法 | |
KR102639904B1 (ko) | 공항용 로봇 및 그의 동작 방법 | |
KR20190094311A (ko) | 인공 지능 로봇 및 그의 동작 방법 | |
KR20220014509A (ko) | 로봇 원격 제어 방법 및 시스템 | |
KR20210056019A (ko) | 인공 지능 장치 및 그의 동작 방법 | |
JP2020017206A (ja) | 情報処理装置、行動決定方法及びプログラム | |
CN212241058U (zh) | 智能平台装置、电路系统与其智能系统 | |
US11548154B2 (en) | Systems and methods for dimensionally-restricted robotic teleoperation | |
KR20170002048A (ko) | 피사체 이동 제어 장치 및 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal |