WO2024117451A1 - 복수개의 로봇과 통신 가능한 클라우드 서버의 제어 방법 - Google Patents

복수개의 로봇과 통신 가능한 클라우드 서버의 제어 방법 Download PDF

Info

Publication number
WO2024117451A1
WO2024117451A1 PCT/KR2023/011234 KR2023011234W WO2024117451A1 WO 2024117451 A1 WO2024117451 A1 WO 2024117451A1 KR 2023011234 W KR2023011234 W KR 2023011234W WO 2024117451 A1 WO2024117451 A1 WO 2024117451A1
Authority
WO
WIPO (PCT)
Prior art keywords
robot
cloud server
robots
condition
communicating
Prior art date
Application number
PCT/KR2023/011234
Other languages
English (en)
French (fr)
Inventor
이성원
김영재
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Publication of WO2024117451A1 publication Critical patent/WO2024117451A1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/003Programme-controlled manipulators having parallel kinematics
    • B25J9/0045Programme-controlled manipulators having parallel kinematics with kinematics chains having a rotary joint at the base
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/20Control system inputs

Definitions

  • the present invention relates to cloud servers, robots, etc.
  • it is about technology that can make crossing as smooth as possible in areas where it is difficult for two robots to cross at the same time.
  • AGVs automated guided vehicles
  • AMRs autonomous mobile robots
  • the foot print usually has no choice but to be larger than the space actually occupied by the robot. In this case, since the robot is judged to be occupying an area that is not occupied by the actual robot, there is a width through which the robot can actually pass. Even if you do this, an error occurs that cannot be passed.
  • the present invention seeks to solve the above-mentioned problems, and is a system that allows multiple robots to drive safely while crossing each other even in a narrow space by changing the footprint size in real time according to the robot and road conditions, etc. I would like to propose.
  • a method of controlling a cloud server capable of communicating with a plurality of robots includes the steps of allocating footprints of the same size to a plurality of robots that are running, and determining whether at least one condition is satisfied. It includes a step of determining, and if the at least one condition is satisfied, a step of reducing the size of the foot print of a specific robot.
  • the at least one condition includes, for example, at least one of the first to third conditions.
  • the first condition includes, for example, a case where the plurality of robots enter a narrow passage, and a case where the width of the narrow passage is less than 10% different from the sum of the foot prints of the two robots.
  • the second condition includes, for example, a state in which the specific robot is rotated 90 degrees from the traveling direction.
  • the third condition includes, for example, a state in which the specific robot is parked at a specific point within the narrow passage.
  • a method of controlling a robot capable of communicating with a cloud server includes the steps of initiating communication with the cloud server, allocating a footprint of a first size from the cloud server, and , and when at least one condition is satisfied, reducing the size of the foot print from the first size to the second size.
  • FIG. 1 is a block diagram showing internal components of a robot, according to an embodiment of the present invention.
  • Figure 2 is a flow chart showing a method of controlling a cloud server and a robot, according to an embodiment of the present invention.
  • Figure 3 is a diagram schematically showing the outermost lines of a robot and a trailer, according to an embodiment of the present invention.
  • Figure 4 is a diagram for explaining a footprint including a robot and a trailer, according to an embodiment of the present invention.
  • Figure 5 illustrates a process for varying the size of a foot print, according to one embodiment of the present invention.
  • Figure 6 is a diagram to explain the technical effect of the present invention compared to the prior art.
  • Figure 7 illustrates specific areas where the robot reduces foot print, according to one embodiment of the present invention.
  • Figure 8 roughly shows a case where a robot rotates, according to an embodiment of the present invention.
  • Figure 9 shows the specific size of the foot print according to the rotation direction of the robot, according to an embodiment of the present invention.
  • FIG. 1 is a block diagram showing internal components of a robot, according to an embodiment of the present invention.
  • the robot shown in FIG. 1 can be connected to a server through communication technology (eg, 5G, etc.), and can transmit and request necessary information to the server and provide it to the user.
  • a server through communication technology (eg, 5G, etc.), and can transmit and request necessary information to the server and provide it to the user.
  • the suction unit 70 serves to suck in air around the robot and detect fine dust, etc.
  • the robot can receive commands directly from the user.
  • a command can be received directly from the user through a touch input or voice input on the display unit 152 provided on the robot.
  • the voice output unit 151 which outputs events occurring in the robot as voices
  • the above-described display unit 152 may also be named the event output unit 150.
  • the voice recognition function is activated in response to the startup word uttered by the user, and the voice command received from the user is transmitted to the AI processor installed in the robot or a server connected through 5G communication technology, and is recognized. It operates to execute specific commands requested by the user.
  • a robot is a robot that includes a 3D Depth sensor, RGB camera, and Odometry (wheel encoder, gyro sensor, etc.) that can estimate driving distance, and can also be defined as an autonomous mobile robot that can move freely in space within its domain.
  • the processor 110 is a microcomputer that manages the power supply unit 60 including a battery, etc., the obstacle recognition unit 180 including various sensors, and the travel driving unit 130 including a plurality of motors and wheels among the robot hardware. It can be included.
  • the processor 110 may include an Application Processor (AP) that performs a function of managing the entire hardware module system of the robot.
  • the AP uses location information acquired through various sensors to move application programs for driving and transmit user input/output information to the microcomputer to move motors, etc.
  • the user input unit 140, image acquisition unit 160, location recognition unit 170, etc. may be managed by the AP.
  • the processor 110 may include an AI processor.
  • AI processors can learn neural networks using programs stored in memory.
  • the AI processor can learn a neural network to recognize data around the robot.
  • the neural network may include a deep learning model developed from a neural network model.
  • a deep learning model multiple network nodes are located in different layers and can exchange data according to convolutional connection relationships.
  • Examples of neural network models include deep neural networks (DNN), convolutional deep neural networks (CNN), Recurrent Boltzmann Machine (RNN), Restricted Boltzmann Machine (RBM), and deep trust.
  • DNN deep neural networks
  • CNN convolutional deep neural networks
  • RNN Recurrent Boltzmann Machine
  • RBM Restricted Boltzmann Machine
  • It includes various deep learning techniques such as deep belief networks (DBN) and Deep Q-Network, and can be applied to fields such as computer vision, speech recognition, natural language processing, and voice/signal processing.
  • DNN deep belief networks
  • Deep Q-Network Deep Q-Network
  • the robot can implement at least one function among voice recognition, object recognition, location recognition, obstacle recognition, and/or movement control by applying a deep learning model through an AI processor. Additionally, the robot may implement at least one of the functions described above by receiving AI processing results from an external server through a communication unit.
  • the power supply unit 60 may include a battery driver and a lithium-ion battery.
  • Battery drivers can manage the charging and discharging of lithium-ion batteries.
  • Lithium-ion batteries can provide power for robot movement.
  • a lithium-ion battery can be constructed by connecting two 24V/102A lithium-ion batteries in parallel.
  • the communication unit not only receives signals/data from external inputs, but also, depending on the design method of the robot, includes a wireless communication module (not shown) for wireless communication or a tuner (not shown) for tuning broadcast signals. It may further include various additional components such as. In addition to receiving signals from external devices, the communication unit) can also transmit robot information/data/signals to external devices. In other words, the communication unit cannot be limited to only receiving signals from external devices, and can be implemented as an interface capable of two-way communication. The communication unit may receive control signals for selecting a UI from a plurality of control devices.
  • the communication unit consists of communication modules for known short-range wireless communication such as wireless LAN (WiFi), Bluetooth, IR (Infrared), UWB (Ultra Wideband), and Zigbee, or 3G, 4G, LTE, 5G, etc. It may be composed of a mobile communication module, and may also be composed of a known communication port for wired communication.
  • the communication unit can be used for various purposes, such as commands for display manipulation and data transmission and reception, in addition to control signals for selecting the UI.
  • the travel driving unit 130 may include a wheel motor 131, a driving wheel 61, etc.
  • the wheel motor 131 can move a plurality of wheels for the robot to travel.
  • the rotation motor may be moved to rotate the main body of the robot or the head of the robot left and right, up and down, or may be moved to change direction or rotate the wheels of the robot.
  • the user input unit 140 transmits various preset control commands or information to the processor 110 according to the user's manipulation and input.
  • the user input unit 140 may be implemented as a menu key or input panel installed outside the display device, or as a remote controller separated from the robot. Alternatively, the user input unit 140 may be implemented integrally with the display unit (not shown). In the case where the display unit is a touchscreen, the user touches the input menu (not shown) displayed on the display unit to enter a preset menu. A command may be transmitted to the processor 110.
  • the user input unit 140 can detect the user's gesture through a sensor that detects the area and transmit the user's command to the processor 110, and transmits the user's voice command to the processor 110 to perform operations and settings. You may.
  • the image acquisition unit 160 may include a 2D camera 161 and an RGBD camera 162.
  • the 2D camera 161 may be a sensor for recognizing people or objects based on two-dimensional images.
  • RGBD camera Red, Green, Blue, Distance, 162
  • RGBD camera is for tracking people or objects using captured images with depth data obtained from cameras with RGBD sensors or other similar 3D imaging devices. It could be a sensor.
  • the location recognition unit 170 may include a lidar (Lidar) 171 and a SLAM camera 172.
  • SLAM cameras Simultaneous Localization And Mapping cameras, 172
  • the robot can use the SLAM camera 172 to track information about the surrounding environment and process the obtained information to create a map corresponding to the mission performance space and at the same time estimate its absolute position.
  • Lidar Light Detection and Ranging: Lidar, 171
  • the location recognition unit 170 may process and process sensing data collected from the lidar 171 and the SLAM camera 172 and manage data for robot location recognition and obstacle recognition.
  • the obstacle recognition unit 180 may include an IR remote control receiver 181, USS 182, Cliff PSD 183, ARS 184, Bumper 185, and OFS 186.
  • the IR remote control receiver 181 may include a sensor that receives a signal from an IR (Infrared) remote control for remotely controlling the robot.
  • USS Ultrasonic sensor, 182
  • Cliff PSD 183 may include a sensor to detect cliffs or cliffs in the 360-degree omnidirectional robot driving range.
  • ARS Attitude Reference System, 184
  • the ARS 184 may include a sensor consisting of 3 axes of acceleration and 3 axes of a gyro for tracking the rotation amount of the robot.
  • Bumper 185 may include a sensor that detects collision between the robot and an obstacle.
  • the sensor included in Bumper (185) can detect collisions between the robot and obstacles in a 360-degree range.
  • OFS Optical Flow Sensor, 186) may include a sensor that can measure the robot's spinning phenomenon and the robot's traveling distance on various floor surfaces while the robot is running.
  • FIG. 2 is a flow chart showing a method of controlling a cloud server and a robot, according to an embodiment of the present invention.
  • FIG. 2 exemplarily illustrates operation from the perspective of a cloud server, but performing some or all of the steps in FIG. 2 from the perspective of a robot also falls within the scope of other rights of the present invention.
  • the cloud server allocates foot prints of the same size to a plurality of running robots (S201).
  • the cloud server determines whether at least one condition is satisfied (S202).
  • the cloud server reduces the size of the foot print of the specific robot (S203).
  • the foot print of a robot is not changed once it is set, a problem arises in which multiple robots cannot cross on a narrow road. Embodiments related to this will be described in more detail with reference to FIG. 6 below.
  • At least one condition mentioned in step S202 includes, for example, at least one of the first to third conditions.
  • the first condition includes, for example, a case where a plurality of robots enter a narrow passage, and a case where the width of the narrow passage is less than 10% different from the sum of the foot prints of the two robots.
  • the foot print of a specific robot is designed to be reduced to a size smaller than the initially assigned size.
  • the actual space occupied by the robot has not been reduced at all, there is still a problem that there is a risk of collision if the foot print is reduced.
  • the second condition is designed to include a state in which a specific robot is rotated 90 degrees from the traveling direction. Embodiments related to this will be described in more detail with reference to FIG. 5 below.
  • the foot print of a specific robot is designed to be reduced to a size smaller than the initially assigned size.
  • the actual space occupied by the robot has decreased, there is still a problem of the risk of collision if the robot still moves.
  • the third condition includes a state in which a specific robot is parked at a specific point within the narrow passage. Embodiments related to this will be described in more detail with reference to FIG. 7 below.
  • Figure 3 is a diagram schematically showing the outermost lines of a robot and a trailer, according to an embodiment of the present invention.
  • FIG. 3 In case of use in a logistics warehouse, etc., as shown in FIG. 3, a movable robot 301 and a general trailer 302 are combined.
  • FIG. 3 a case where the robot 301 and the trailer 302 do not overlap at all is illustrated, but as shown in FIG. 8, the case where the robot and the trailer are designed to partially overlap also falls within the scope of the present invention.
  • Figure 4 is a diagram for explaining a footprint including a robot and a trailer, according to an embodiment of the present invention.
  • the foot print 403 is set in the shape of a circle to prevent these groups from colliding with other groups.
  • Figure 5 illustrates a process for varying the size of a foot print, according to one embodiment of the present invention.
  • the robots shown in FIG. 5 move only in the left or right direction.
  • the foot print 503 including the robot/trailer is designed to be circular.
  • Figure 6 is a diagram to explain the technical effect of the present invention compared to the prior art.
  • Figure 6(a) shows a problem in which a plurality of robots stop unexpectedly in a narrow path when using a foot print (corresponding to a robot or corresponding to a robot/trailer) that does not change according to the prior art.
  • the first robot 620 moves to a specific destination in order to prevent a collision with the second robot 610 coming from the opposite direction. Upon arrival, turn 90 degrees downward.
  • the space in which the second robot 610 can move is expanded by rotating the first robot 620 by 90 degrees, the size of the foot print of the first robot 620 does not change. No, it is recognized as a situation in which a conflict may occur. Therefore, there is a problem in that the second robot 610 cannot run even though it does not collide with the first robot 620.
  • the first robot 621 is traveling to prevent collision with the second robot 611 coming from the opposite direction. To arrive at a specific destination, turn 90 degrees downward.
  • the second robot 611 has the technical effect of being able to continue traveling without stopping.
  • Figure 7 illustrates specific areas where the robot reduces foot print, according to one embodiment of the present invention.
  • number 710 shown in FIG. 7 refers to a general road on which a robot can move.
  • number 720 shown in FIG. 7 refers to an area where a specific robot avoids and reduces its footprint after turning in case another robot approaches from the opposite side.
  • Figure 8 roughly shows a case where a robot rotates, according to an embodiment of the present invention.
  • the robot according to one embodiment of the present invention can move and rotate by attaching a trailer (cart).
  • the radius of the foot print is 80cm (diameter of 1.6m), taking into account the position recognition error and the rotation width of the robot.
  • Figure 9 shows the specific size of the foot print according to the rotation direction of the robot, according to an embodiment of the present invention.

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

본 발명의 일실시예에 따른, 복수개의 로봇과 통신 가능한 클라우드 서버의 제어 방법은, 주행 중인 복수개의 로봇에 동일한 사이즈의 푸트 프린트(foot print)를 할당하는 단계와, 적어도 하나 이상의 조건을 만족하였는지 여부를 판단하는 단계와, 그리고 상기 적어도 하나 이상의 조건이 만족된 경우, 특정 로봇의 푸트 프린트의 사이즈를 감소시키는 단계를 포함한다.

Description

복수개의 로봇과 통신 가능한 클라우드 서버의 제어 방법
본 발명은 클라우드 서버 및 로봇(robot) 등에 관한 것이다. 특히, 좁은 공간에서 다중 로봇 경로 계획을 수립할 때, 2개의 로봇이 동시에 교차하기 어려운 지역에서 교차가 최대한 원활하게 이루어질 수 있는 기술에 대한 것이다.
코로나 (COVID-19) 팬더믹 (pandemic) 등의 영향으로 다양한 환경에서 사람 대신 로봇(robot)으로 대체하는 사업장이 증가하고 있다.
예를 들어, 로봇의 본체 뒤에 대량의 물건을 적재해 목적지로 운반하는데 특화된 물류 로봇 등이 사용되고 있다. 그리고, 정해진 동선을 따라 이동하는 무인운반차(AGV, Automated Guided Vehicle) 및 스스로 경로를 찾아 이동하는 자율주행로봇(AMR, Autonomous Mobile Robot) 등에 대한 연구가 지속적으로 이루어 지고 있는 실정이다.
다만, 로봇의 이동을 제어하기 위하여, 로봇을 감싸는 큰 원을 푸트 프린트(footprint)로 정의한다. 종래 기술에 의하면, 푸트 프린트는 원 형태로 한번 정해지면, 도로 상황 등에 따라 변경되지 않는다.
또한, 푸트 프린트는 실제 로봇이 차지하고 있는 공간 보다 통상적으로 더 크게 지정할 수 밖에 없는데, 이 경우, 실제 로봇이 차지하지 않고 있는 영역까지 로봇이 차지하고 있다고 판단되기에, 로봇이 실제 지나갈 수 있는 폭이 존재하여도 지나가지 못하는 오류가 발생한다.
본 발명은, 전술한 문제점들을 해결하고자 하며, 로봇 및 도로의 상황 등에 따라, 푸트 프린트(footprint) 사이즈(size)를 실시간으로 변경함으로써, 좁은 공간에서도 복수개의 로봇이 교차하면서 안전하게 주행할 수 있는 시스템을 제안하고자 한다.
물론, 당업자는 당해 명세서 전체를 참조하여 또 다른 실시예를 구현하는 것도 본 발명의 권리범위에 속한다.
본 발명의 일실시예에 의한 복수개의 로봇과 통신 가능한 클라우드 서버의 제어 방법은, 주행 중인 복수개의 로봇에 동일한 사이즈의 푸트 프린트(footprint)를 할당하는 단계와, 적어도 하나 이상의 조건을 만족하였는지 여부를 판단하는 단계와, 그리고 상기 적어도 하나 이상의 조건이 만족된 경우, 특정 로봇의 푸트 프린트의 사이지를 감소시키는 단계를 포함한다.
상기 적어도 하나 이상의 조건은, 예를 들어, 제1 내지 제3 조건 중 적어도 하나를 포함한다.
상기 제1 조건은, 예를 들어, 상기 복수개의 로봇이 협로에 진입한 경우를 포함하고, 상기 협로의 폭은 2개의 로봇의 푸트 프린트의 합과 10% 이내 차이인 경우를 포함한다.
상기 제2 조건은, 예를 들어, 상기 특정 로봇이 주행 방향과 90도 회전한 상태를 포함한다.
상기 제3 조건은, 예를 들어, 상기 협로내 특정 지점에, 상기 특정 로봇이 주정차 되어 있는 상태를 포함한다.
본 발명의 일실시예에 의한 클라우드 서버와 통신 가능한 로봇의 제어 방법은, 상기 클라우드 서버와의 통신을 개시하는 단계와, 상기 클라우드 서버로부터, 제1 사이즈의 푸트 프린트(footprint)를 할당하는 단계와, 그리고 적어도 하나 이상의 조건이 만족된 경우, 푸트 프린트의 사이즈를 제1 사이즈에서 제2 사이즈로 감소키시는 단계를 포함한다.
본 발명의 일실시예에 의하면, 좁은 공간에서 다중 로봇 경로 계획을 수립할 때, 2개의 로봇이 동시에 교차하기 어려운 지역에서 교차가 최대한 원활하게 이루어질 수 있는 기술적 효과가 있다.
본 발명의 다른 일실시예에 의하면, 상황에 따라 각 로봇의 푸트 프린트를 가변함으로써, 한대의 로봇이 회피하여 다른 로봇을 지나갈 수 있는 기술적 효과가 있다.
본 발명의 적용 가능성의 추가적인 범위는 이하의 상세한 설명으로부터 명백해질 것이다.
그러나 본 발명의 사상 및 범위 내에서 다양한 변경 및 수정은 당업자에게 명확하게 이해될 수 있으므로, 상세한 설명 및 본 발명의 바람직한 실시 예와 같은 특정 실시 예는 단지 예시로 주어진 것으로 이해되어야 한다.
도 1은 본 발명의 일실시예에 따라, 로봇의 내부 구성요소들을 도시한 블록도이다.
도 2는 본 발명의 일실시예에 따라, 클라우드 서버 및 로봇의 제어 방법을 도시한 플로우 차트이다.
도 3은 본 발명의 일실시예에 따라, 로봇과 트레일러의 최외곽선을 대략적으로 도시한 도면이다.
도 4는 본 발명의 일실시예에 따라, 로봇과 트레일러를 포함하는 푸트 프린트(footprint)를 설명하기 위한 도면이다.
도 5는 본 발명의 일실시예에 따라, 푸트 프린트의 사이즈를 가변하는 프로세스를 도시하고 있다.
도 6은 종래 기술과 대비하여, 본 발명의 기술적 효과를 설명하기 위한 도면이다.
도 7은 본 발명의 일실시예에 따라, 로봇이 푸트 프린트를 줄이는 특정 영역을 도시하고 있다.
도 8은 본 발명의 일실시예에 따라, 로봇이 회전하는 경우를 대략적으로 도시하고 있다.
그리고, 도 9는 본 발명의 일실시예에 따라, 로봇의 회전 방향에 따른 구체적인 푸트 프린트의 사이즈를 도시하고 있다.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.
본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
도 1은 본 발명의 일실시예에 따라, 로봇의 내부 구성요소들을 도시한 블록도이다.
도 1에 도시된 로봇은 통신 기술(예를 들어, 5G 등)을 통해 서버와 연결될 수 있고, 필요한 정보를 서버로 전송 및 요청해서 사용자에게 제공할 수가 있다.
흡입부(70)는, 로봇 주변의 공기를 흡입하고, 미세먼지 등을 검출하는 역할을 수행한다.
나아가, 로봇은 사용자로부터 직접 명령을 수신할 수 있다. 예를 들어, 로봇에 구비된 디스플레이부(152)를 터치하는 입력 또는 음성 입력 등을 통해 사용자로부터 명령을 직접 수신할 수 있다.
물론, 로봇에서 발생한 이벤트를 음성으로 출력하는 음성 출력부(151) 및 전술한 디스플레이부(152)를 이벤트 출력부(150)로 명명할 수도 있다.
음성 입력된 경우에, 로봇은 사용자가 발화한 기동어에 응답해 음성인식 기능이 활성화되고, 사용자로부터 수신된 음성 명령은 로봇에 설치된 AI 프로세서 또는 5G 통신 기술을 통해 연결된 서버로 전달되고, 인식되어 사용자가 요구한 특정 명령을 수행할 수 있도록 동작한다.
로봇은 3D Depth 센서, RGB 카메라, 주행거리 추정 가능한 Odometry(휠 엔코더, 자이로 센서 등)를 포함한 로봇으로서, 영역 내 공간에서 이동이 자유로운 자율 이동로봇으로 정의될 수도 있다.
프로세서(110)는 로봇의 하드웨어 중 배터리 등을 포함하는 전원 공급부(60), 각종 센서들을 포함하는 장애물 인식부(180) 및 복수의 모터 및 휠을 포함하는 주행 구동부(130)를 관리하는 마이컴을 포함할 수 있다.
또한, 프로세서(110)는 로봇의 하드웨어 모듈 전체 시스템을 관리하는 기능을 수행하는 AP(Application Processor)를 포함할 수 있다. 상기 AP는 각종 센서들을 통해 획득된 위치 정보를 이용하여 주행을 위한 응용 프로그램 이동과 사용자 입출력 정보를 마이컴 측으로 전송하여 모터 등의 이동을 수행하도록 한다. 또한, 사용자 입력부(140), 영상 획득부(160), 위치 인식부(170) 등이 AP에 의해 관리될 수 있다.
또한, 프로세서(110)는 AI 프로세서를 포함할 수 있다. AI 프로세서는 메모리에 저장된 프로그램을 이용하여 신경망을 학습할 수 있다. 특히, AI 프로세서는 로봇 주변의 데이터를 인식하기 위한 신경망을 학습할 수 있다. 여기서 신경망은 신경망 모델에서 발전한 딥러닝 모델을 포함할 수 있다. 딥 러닝 모델에서 복수의 네트워크 노드들은 서로 다른 레이어에 위치하면서 컨볼루션(convolution) 연결 관계에 따라 데이터를 주고 받을 수 있다. 신경망 모델의 예는 심층 신경망(DNN, deep neural networks), 합성곱 신경망(CNN, convolutional deep neural networks), 순환 신경망(RNN, Recurrent Boltzmann Machine), 제한 볼츠만 머신 (RBM, Restricted Boltzmann Machine), 심층 신뢰 신경망(DBN, deep belief networks), 심층 Q-네트워크(Deep Q-Network)와 같은 다양한 딥 러닝 기법들을 포함하며, 컴퓨터비젼, 음성인식, 자연어처리, 음성/신호처리 등의 분야에 적용될 수 있다.
상기 로봇은 AI 프로세서를 통한 딥러닝 모델을 적용함으로써, 음성 인식, 사물 인식, 위치 인식, 장애물 인식 및/또는 이동 제어 중 적어도 하나의 기능을 구현할 수 있다. 또한, 상기 로봇은 통신부를 통해 외부 서버로부터 AI 프로세싱 결과를 수신함으로써, 전술한 적어도 하나의 기능을 구현할 수도 있다.
전원 공급부(60)는 배터리 드라이버(battery Driver) 및 리튬-이온 배터리(Li-Ion Battery)를 포함할 수 있다. 배터리 드라이버는 리튬-이온 배터리의 충전과 방전을 관리할 수 있다. 리튬-이온 배터리는 로봇의 이동을 위한 전원을 공급할 수 있다. 리튬-이온 배터리는 24V/102A 리튬-이온 배터리 2개를 병렬로 연결하여 구성될 수 있다.
통신부(미도시)는 외부입력으로부터의 신호/데이터를 수신하는 구성뿐 아니라, 로봇의 설계 방식에 따라서, 무선 통신을 위한 무선통신모듈(미도시)이나 방송신호의 튜닝을 위한 튜너(미도시)와 같은 다양한 부가적인 구성을 더 포함할 수 있다. 통신부)는 외부장치로부터 신호를 수신하는 것 이외에도, 로봇의 정보/데이터/신호를 외부장치에 전송할 수도 있다. 즉, 통신부는 외부장치의 신호를 수신하는 구성으로만 한정할 수 없으며, 양방향 통신이 가능한 인터페이스(interface)로 구현될 수 있다. 통신부는 복수의 제어장치로부터 UI를 선택하기 위한 제어신호를 수신할 수 있다. 통신부는 무선랜 (WiFi), 블루투스(Bluetooth), IR(Infrared), UWB(Ultra Wideband), 지그비(Zigbee) 등 공지의 근거리 무선통신을 위한 통신모듈로 구성되거나, 3G, 4G, LTE, 5G 등의 이동통신 모듈로 구성될 수 있으며, 유선통신을 위한 공지의 통신포트로 구성될 수도 있다. 통신부는 UI를 선택하기 위한 제어신호 이외에, 디스플레이의 조작을 위한 명령, 데이터의 송수신 등 다양한 목적으로 활용될 수 있다.
주행 구동부(130)는 휠 모터(131), 구동 바퀴(61) 등을 포함할 수 있다. 휠 모터(131)는 로봇의 주행을 위한 복수개의 바퀴를 이동시킬 수 있다. 회전 모터는 로봇의 메인 바디 또는 로봇의 헤드부의 좌우 회전, 상하 회전을 위해 이동되거나 로봇의 바퀴의 방향 전환 또는 회전을 위하여 이동될 수 있다.
한편, 특정 기능이 수행되도록 프로그램된 로봇의 경우, 상기 특정 기능을 수행하기 위한 주행 이동부의 추가적인 기능이 제공될 수 있다.
사용자 입력부(140)는 사용자의 조작 및 입력에 따라서 기 설정된 다양한 제어 커맨드 또는 정보를 프로세서(110)에 전달한다. 사용자 입력부(140)는 디스플레이장치 외측에 설치된 메뉴 키(menu-key) 또는 입력 패널(panel)이나, 로봇과 분리 이격된 리모트 컨트롤러(remote controller) 등으로 구현될 수 있다. 또는, 사용자 입력부(140)는 디스플레이부(미도시)와 일체형으로 구현될 수 있는 바, 디스플레이부가 터치스크린(touchscreen)인 경우에 사용자는 디스플레이부에 표시된 입력메뉴(미도시)를 터치함으로써 기 설정된 커맨드를 프로세서(110)에 전달할 수 있다.
사용자 입력부(140)는 영역 내를 감지하는 센서를 통하여 사용자의 제스처를 감지하여 사용자의 명령을 프로세서(110)로 전달할 수 있으며, 사용자의 음성명령을 프로세서(110)로 전달하여 동작 및 설정을 수행할 수도 있다.
영상 획득부(160)는 2D 카메라(161) 및 RGBD 카메라(162)를 포함할 수 있다. 2D 카메라(161)는 2차원 영상을 기반으로 사람 또는 사물을 인식하기 위한 센서일 수 있다. RGBD 카메라(Red, Green, Blue, Distance, 162)는, RGBD 센서들을 갖는 카메라 또는 다른 유사한 3D 이미징 디바이스들로부터 획득되는 깊이(Depth) 데이터를 갖는 캡처된 이미지들을 이용하여 사람 또는 사물을 추적하기 위한 센서일 수 있다.
위치 인식부(170)는 라이더(Lidar, 171) 및 SLAM 카메라(172)를 포함할 수 있다. SLAM 카메라(Simultaneous Localization And Mapping 카메라, 172)는 동시간 위치 추적 및 지도 작성 기술을 구현할 수 있다. 로봇은 SLAM 카메라(172)를 이용하여 주변 환경 정보를 추적하고 얻어진 정보를 가공하여 임무 수행 공간에 대응되는 지도를 작성함과 동시에 자신의 절대 위치를 추정할 수 있다. 라이더(Light Detection and Ranging : Lidar, 171)는 레이저 레이더로서, 레이저 빔을 조사하고 에어로졸에 의해 흡수 혹은 산란된 빛 중 후방 산란된 빛을 수집, 분석하여 위치 인식을 수행하는 센서일 수 있다. 위치 인식부(170)는 라이더(171) 및 SLAM 카메라(172) 등으로부터 수집되는 센싱 데이터를 처리 및 가공하여 로봇의 위치 인식과 장애물 인식을 위한 데이터 관리를 담당할 수 있다.
장애물 인식부(180)는 IR 리모콘 수신부(181), USS(182), Cliff PSD(183), ARS(184), Bumper(185) 및 OFS(186)를 포함할 수 있다. IR 리모콘 수신부(181)는 로봇을 원격 조정하기 위한 IR(Infrared) 리모콘의 신호를 수신하는 센서를 포함할 수 있다. USS(Ultrasonic sensor, 182)는 초음파 신호를 이용하여 장애물과 로봇 이의 거리를 판단하기 위한 센서를 포함할 수 있다. Cliff PSD(183)는 360도 전방향의 로봇 주행 범위에서 낭떠러지 또는 절벽 등을 감지하기 위한 센서를 포함할 수 있다. ARS(Attitude Reference System, 184)는 로봇의 자세를 추적할 수 있는 센서를 포함할 수 있다. ARS(184)는 로봇의 회전량 추적을 위한 가속도 3축 및 자이로 3축으로 구성되는 센서를 포함할 수 있다. Bumper(185)는 로봇과 장애물 사이의 충돌을 감지하는 센서를 포함할 수 있다.
Bumper(185)에 포함되는 센서는 360도 범위에서 로봇과 장애물 사이의 충돌을 감지할 수 있다. OFS(Optical Flow Sensor, 186)는 로봇의 주행 시 헛바퀴가 도는 현상 및 다양한 바닥 면에서 로봇의 주행거리를 측정할 수 있는 센서를 포함할 수 있다.
도 2는 본 발명의 일실시예에 따라, 클라우드 서버 및 로봇의 제어 방법을 도시한 플로우 차트이다. 도 2는, 예시적으로 클라우드 서버 관점에서 동작하는 것을 설명하였으나, 로봇의 관점에서 도 2의 단계들 일부 또는 전부를 수행하는 것도 본 발명의 다른 권리범위에 속한다.
우선, 본 발명의 일실시예에 따르면, 이전 도 1에서도 전술한 바와 같이, 로봇과 클라우드 서버와 수시로 통신 가능한 것을 전제로 한다.
클라우드 서버는, 주행 중인 복수개의 로봇에 동일한 사이즈의 푸트 프린트(foot print)를 할당한다(S201).
나아가, 클라우드 서버는, 적어도 하나 이상의 조건을 만족하였는지 여부를 판단한다(S202).
그리고, 클라우드 서버는, 상기 적어도 하나 이상의 조건이 만족된 경우, 특정 로봇의 푸트 프린트의 사이즈를 감소시킨다(S203). 종래 기술에서는, 한번 정해진 로봇의 푸트 프린트를 변경하지 않기 때문에, 협소한 도로에서 복수개의 로봇이 교차하지 못하는 문제점이 발생한다. 이와 관련된 실시예는 이하 도 6에서 보다 상세히 후술하도록 하겠다.
한편, S202 단계에서 언급한 적어도 하나 이상의 조건은, 예를 들어, 제1 내지 제3 조건 중 적어도 하나를 포함한다.
상기 제1 조건은, 예를 들어 복수개의 로봇이 협로에 진입한 경우를 포함하고, 상기 협로의 폭은 2개의 로봇의 푸트 프린트의 합과 10% 이내 차이인 경우를 포함한다.
즉, 전술한 제1 조건을 만족한 경우, 특정 로봇의 푸트 프린트를 최초 부여된 사이즈 보다 작게 줄이도록 설계된다. 다만, 실제 로봇이 차지하는 공간이 전혀 줄지 않았다면, 푸트 프린트를 줄일 경우, 충돌 위험성이 존재하는 문제가 여전히 있다. 이와 같은 문제점 해결을 위해, 이하 제2 조건이 만족되었는지 여부를 추가적으로 판단한다.
제2 조건은, 특정 로봇이 주행 방향과 90도 회전한 상태를 포함하도록 설계된다. 이와 관련된 실시예는 이하 도 5에서 보다 상세히 후술하도록 하겠다.
즉, 전술한 제2 조건을 만족한 경우, 특정 로봇의 푸트 프린트를 최초 부여된 사이즈 보다 작게 줄이도록 설계된다. 다만, 실제 로봇이 차지하는 공간이 감소하기는 하였으나, 로봇의 움직임이 여전히 존재하는 경우, 충돌 위험성이 존재하는 문제가 여전히 있다. 이와 같은 문제점 해결을 위해, 이하 제3 조건이 만족되었는지 여부를 추가적으로 판단한다.
제3 조건은, 협로내 특정 지점에, 특정 로봇이 주정차 되어 있는 상태를 포함한다. 이와 관련된 실시예는, 이하 도 7에서 보다 상세히 후술하도록 하겠다.
전술한 제1 조건 내지 제3 조건을 모두 만족하는 경우로 제한되지는 않으나, 3가지 조건을 모두 만족할 경우에 한하여 푸트 프린트를 줄일 경우, 로봇의 충돌 가능성이 감소하고 교차 진행에 문제가 없다. 한편, 푸트 프린트를 어느 정도 수준으로 감소시키는 것이 바람직할지 여부에 대해서는, 이하 도 8 및 도 9를 참조하여 후술하도록 하겠다.
도 3은 본 발명의 일실시예에 따라, 로봇과 트레일러의 최외곽선을 대략적으로 도시한 도면이다.
물류 창고 등에서 사용하고자 하는 경우, 도 3에 도시된 바와 같이, 이동 가능한 로봇(301)과 일반적인 트레일러(302)를 결합하게 된다. 도 3에서는 로봇(301)과 트레일러(302)가 전혀 중복되지 않는 경우를 예시하였으나, 도 8에 도시된 바와 같이, 로봇과 트레일러가 일부 겹치도록 설계하는 경우도 본 발명의 권리범위에 속한다.
도 4는 본 발명의 일실시예에 따라, 로봇과 트레일러를 포함하는 푸트 프린트(footprint)를 설명하기 위한 도면이다.
도 4에 도시된 바와 같이, 로봇(401)과 트레일러(402)가 결합된 상태에서, 이들 그룹이 다른 그룹과 충돌하지 않도록 하나의 원 형태로 푸트 프린트(403)를 설정하게 된다.
종래 기술에 의하면, 로봇이나 로봇/트레일러에 푸트 프린트가 부여되면, 주행 중에 변경하지 않고 계속 동일한 모양 및 동일한 사이즈의 푸트 프린트를 계속 사용하였다.
그러나, 이와 같이 설계할 경우, 협로에서 서로 반대 방향으로 주행하는 로봇이 충돌하지 않아도 충돌하는 경우로 서버, 시스템 등이 예상하는 오류가 발생하게 된다. 이와 관련된 종래 기술의 문제점은 이하 도 6에서 보다 상세히 설명하도록 하겠다.
반면, 종래 기술과 달리, 여러 조건들에 따라, 푸트 프린트를 실시간으로 가변하는 솔루션을 이하 도 5를 참조하여 설명하도록 하겠다.
도 5는 본 발명의 일실시예에 따라, 푸트 프린트의 사이즈를 가변하는 프로세스를 도시하고 있다.
도 5에 도시된 로봇들은 좌 또는 우측 방향으로만 이동하는 것으로 가정한다. 평상시에는, 도 5의 (a)에 도시된 바와 같이, 로봇/트레일러를 포함하는 푸트 프린트(503)를 원형으로 설계한다.
다만, 전술한 특정 조건들 중 어느 하나 또는 모든 조건을 만족한 경우, 특히 주행 중이던 로봇이 90도로 회전 후 주/정차 상태인 경우에는, 도 5의 (b)에 도시된 바와 같이, 로봇/트레일러의 푸트 프린트(513)의 사이즈가 자동으로 감소되도록 설계한다. 이와 같이 설계할 경우, 종래 기술 대비 본 발명의 기술적 효과는, 이하 도 6에서 설명하도록 하겠다.
도 6은 종래 기술과 대비하여, 본 발명의 기술적 효과를 설명하기 위한 도면이다.
도 6의 (a)는 종래 기술에 따라 변하지 않는 푸트 프린트(로봇에 대응 또는 로봇/트레일러에 대응)를 사용할 경우, 복수개의 로봇이 협로에서 예상치 못하게 멈추는 문제점을 도시하고 있다.
반면, 도 6의 (b)는 본 발명의 일실시예에 따라 특정 조건을 만족시, 푸트 프린트(로봇에 대응 또는 로봇/트레일러에 대응)의 사이즈를 실시간으로 가변함으로써, 복수개의 로봇이 협로에서도 원활하게 주행할 수 있도록 하는 기술적 효과가 있다.
우선, 도 6의 (a) 및 도 6의 (b)는 모두 로봇이 좌/우로만 이동할 수 있는 도로라고 가정한다.
나아가, 도 6의 (a)에 도시된 도로 및 도 6의 (b)에 도시된 도로는 모두 동일한 크기이고, 2개 로봇이 함께 주행시 닿을 정도로 협소한 도로임을 추가적으로 가정한다.
우선, 도 6의 (a)에 도시된 바와 같이, 종래 기술에 의하면, 제1 로봇(620)은 주행하다가, 반대 방향에서 오고 있는 제2 로봇(610)과의 충돌을 방지하기 위하여 특정 목적지에 도착하여 아래 방향으로 90도 회전한다.
다만, 종래 기술에 의하면, 제1 로봇(620)이 90도 회전함으로써, 제2 로봇(610)이 이동할 수 있는 공간이 넓어졌음에도 불구하고, 제1 로봇(620)의 푸트 프린트 크기가 변경되지 않아, 충돌할 수 있는 상황으로 인식한다. 따라서, 제2 로봇(610)은 제1 로봇(620)과 충돌하지 않는 상황임에도 불구하고, 주행이 불가능한 문제점이 있다.
반면, 도 6의 (b)에 도시된 바와 같이, 본 발명의 일실시예에 의하면,제1 로봇(621)은 주행하다가, 반대 방향에서 오고 있는 제2 로봇(611)과의 충돌을 방지하기 위하여 특정 목적지에 도착하여 아래 방향으로 90도 회전한다.
나아가, 종래 기술과 다르게, 제1 로봇(621)이 90도 회전한 순간 푸트 프린트의 사이즈도 감소한다. 따라서, 제2 로봇(611)은 멈추지 않고 계속 주행이 가능한 기술적 효과가 있다.
추가적으로 다중 로봇 경로 계획 수행시, 도 6의 (b)에 도시된 바와 같이 제1 로봇(621)이 회전 후 푸트 프린트를 줄이는 공간을 마련해 줄 필요가 있다. 이와 관련된 실시예는 이하 도 7에서 설명하도록 하겠다.
도 7은 본 발명의 일실시예에 따라, 로봇이 푸트 프린트를 줄이는 특정 영역을 도시하고 있다.
우선, 도 7에 도시된 710번은, 로봇이 이동할 수 있는 일반적인 도로를 의미한다.
반면, 도 7에 도시된 720번은, 반대쪽에서 다른 로봇이 다가오는 경우를 대비하여, 특정 로봇이 회피하여 회전 후 푸트 프린트(footprint)를 줄이는 영역을 의미한다.
도 8은 본 발명의 일실시예에 따라, 로봇이 회전하는 경우를 대략적으로 도시하고 있다.
전술한 바와 같이, 본 발명의 일실시예에 의한 로봇은 트레일러(카트)를 부착하여 이동하고 회전할 수가 있다.
트레일러(카트)가 가로폭 100cm이고, 세로폭 70cm인 경우, 위치 인식 오차 및 로봇이 회전하는 회전폭 등을 감안하여 푸트 프린트의 반지름이 80cm(지름 1.6m)가 되도록 설정한다. 이와 같이 설계할 경우, 협로에서 양방향으로 이동하는 로봇들의 충돌 가능성을 감소시킬 수 있는 기술적 효과가 있다.
그리고, 도 9는 본 발명의 일실시예에 따라, 로봇의 회전 방향에 따른 구체적인 푸트 프린트의 사이즈를 도시하고 있다.
도 9의 (a)에 도시된 바와 같이, 로봇과 연결된 트레일러(카트)의 가로폭이 140cm인 경우, 로봇의 회전폭을 고려하여 로봇/트레일러에 반지름 80cm(지름 160cm)인 푸트프린트(footprint)를 할당한다.
한편, 도 9의 (b)에 도시된 바와 같이, 로봇/트레일러가 90도로 회전한 경우(반대편에서 오는 로봇과의 충돌 방지를 위해), 이 때는 로봇의 회전폭을 고려하지 않고 로봇/트레일러에 반지름 40cm의 푸트프린트를 할당한다. 90도 회전 후 로봇은 정차 상태이기 때문에, 회전폭을 고려하여 푸트프린트를 넉넉하게 잡지 않아도 되고, 이와 같이 설계할 경우 협로에서 양방향 로봇 주행 가능성을 높일 수 있는 기술적 효과가 있다.
상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.
발명의 실시를 위한 다양한 형태(실시예들)에 대하여 이전 목차에서 상세히 서술하였다.
본 발명은 다양한 형태들의 로봇 및 관련 서버 등에 모두 적용 가능하므로, 산업상 이용 가능성이 인정된다.

Claims (10)

  1. 복수개의 로봇과 통신 가능한 클라우드 서버의 제어 방법에 있어서,
    주행 중인 복수개의 로봇에 동일한 사이즈의 푸트 프린트(foot print)를 할당하는 단계;
    적어도 하나 이상의 조건을 만족하였는지 여부를 판단하는 단계; 그리고
    상기 적어도 하나 이상의 조건이 만족된 경우, 특정 로봇의 푸트 프린트의 사이즈를 감소시키는 단계
    를 포함하는 것을 특징으로 하는 복수개의 로봇과 통신 가능한 클라우드 서버의 제어 방법.
  2. 제1항에 있어서,
    상기 적어도 하나 이상의 조건은, 제1 내지 제3 조건 중 적어도 하나를 포함하는 것을 특징으로 하는 복수개의 로봇과 통신 가능한 클라우드 서버의 제어 방법.
  3. 제2항에 있어서,
    상기 제1 조건은,
    상기 복수개의 로봇이 협로에 진입한 경우를 포함하고,
    상기 협로의 폭은 2개의 로봇의 푸트 프린트의 합과 10% 이내 차이인 경우를 포함하는 것을 특징으로 하는 복수개의 로봇과 통신 가능한 클라우드 서버의 제어 방법.
  4. 제3항에 있어서,
    상기 제2 조건은,
    상기 특정 로봇이 주행 방향과 90도 회전한 상태를 포함하는 것을 특징으로 하는 복수개의 로봇과 통신 가능한 클라우드 서버의 제어 방법.
  5. 제4항에 있어서,
    상기 제3 조건은,
    상기 협로내 특정 지점에, 상기 특정 로봇이 주정차 되어 있는 상태를 포함하는 것을 특징으로 하는 복수개의 로봇과 통신 가능한 클라우드 서버의 제어 방법.
  6. 클라우드 서버와 통신 가능한 로봇의 제어 방법에 있어서,
    상기 클라우드 서버와의 통신을 개시하는 단계;
    상기 클라우드 서버로부터, 제1 사이즈의 푸트 프린트(foot print)를 할당하는 단계; 그리고
    적어도 하나 이상의 조건이 만족된 경우, 푸트 프린트의 사이즈를 제1 사이즈에서 제2 사이즈로 감소시키는 단계
    를 포함하는 것을 특징으로 하는 클라우드 서버와 통신 가능한 로봇의 제어 방법.
  7. 제6항에 있어서,
    상기 적어도 하나 이상의 조건은, 제1 내지 제3 조건 중 적어도 하나를 포함하는 것을 특징으로 하는 클라우드 서버와 통신 가능한 로봇의 제어 방법.
  8. 제7항에 있어서,
    상기 제1 조건은,
    상기 로봇이 협로에 진입한 경우를 포함하고,
    상기 협로의 폭은 2개의 로봇의 푸트 프린트의 합과 10% 이내 차이인 경우를 포함하는 것을 특징으로 하는 클라우드 서버와 통신 가능한 로봇의 제어 방법.
  9. 제8항에 있어서,
    상기 제2 조건은,
    상기 로봇이 주행 방향과 90도 회전한 상태를 포함하는 것을 특징으로 하는 클라우드 서버와 통신 가능한 로봇의 제어 방법.
  10. 제9항에 있어서,
    상기 제3조건은,
    상기 협로내 특정 지점에, 상기 로봇이 주정차 되어 있는 상태를 포함하는 것을 특징으로 하는 클라우드 서버와 통신 가능한 로봇의 제어 방법.
PCT/KR2023/011234 2022-11-28 2023-08-01 복수개의 로봇과 통신 가능한 클라우드 서버의 제어 방법 WO2024117451A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2022-0161607 2022-11-28
KR1020220161607A KR20240079281A (ko) 2022-11-28 2022-11-28 복수개의 로봇과 통신 가능한 클라우드 서버의 제어 방법

Publications (1)

Publication Number Publication Date
WO2024117451A1 true WO2024117451A1 (ko) 2024-06-06

Family

ID=91324324

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2023/011234 WO2024117451A1 (ko) 2022-11-28 2023-08-01 복수개의 로봇과 통신 가능한 클라우드 서버의 제어 방법

Country Status (2)

Country Link
KR (1) KR20240079281A (ko)
WO (1) WO2024117451A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170042547A (ko) * 2014-06-05 2017-04-19 소프트뱅크 로보틱스 유럽 충돌 회피 및 궤도 복원 기능을 가진 휴머노이드 로봇
US20200055594A1 (en) * 2017-04-27 2020-02-20 Flyon Aerosystems Ltd. Aerial Transportation System
KR20220027746A (ko) * 2020-08-27 2022-03-08 네이버랩스 주식회사 로봇 주행에 따른 안전 가이드 라인을 제공하는 건물
KR20220115247A (ko) * 2021-02-10 2022-08-17 현대자동차주식회사 자율주행로봇 및 그 제어 방법
KR20220137474A (ko) * 2021-04-02 2022-10-12 네이버랩스 주식회사 로봇 원격 제어 방법 및 시스템

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170042547A (ko) * 2014-06-05 2017-04-19 소프트뱅크 로보틱스 유럽 충돌 회피 및 궤도 복원 기능을 가진 휴머노이드 로봇
US20200055594A1 (en) * 2017-04-27 2020-02-20 Flyon Aerosystems Ltd. Aerial Transportation System
KR20220027746A (ko) * 2020-08-27 2022-03-08 네이버랩스 주식회사 로봇 주행에 따른 안전 가이드 라인을 제공하는 건물
KR20220115247A (ko) * 2021-02-10 2022-08-17 현대자동차주식회사 자율주행로봇 및 그 제어 방법
KR20220137474A (ko) * 2021-04-02 2022-10-12 네이버랩스 주식회사 로봇 원격 제어 방법 및 시스템

Also Published As

Publication number Publication date
KR20240079281A (ko) 2024-06-05

Similar Documents

Publication Publication Date Title
WO2018128292A1 (ko) 공항용 로봇 및 그의 동작 방법
US11099561B1 (en) Control of an autonomous vehicle in unmapped regions
JP7236749B2 (ja) 環境アクティブセンシングタイプの駐車場自動駐車システム
CN206532138U (zh) 一种无人车自动驾驶智能系统
US20190294181A1 (en) Vehicle, management device, and vehicle management system
US11427188B2 (en) Automated valet parking system
WO2018052204A1 (ko) 공항 로봇 및 그를 포함하는 공항 로봇 시스템
KR20180039977A (ko) 공항용 보조 로봇 및 그의 동작 방법
US11787395B2 (en) Automated valet parking system
WO2020231080A1 (ko) 이동로봇의 센서 데이터를 활용한 교차점 패턴 인식모델 생성 방법 및 교차점 패턴 인식 시스템
CN112401747B (zh) 通过人工智能避开卡住情况的机器人清洁器及其操作方法
US20210122361A1 (en) Automated valet parking system
JP6354296B2 (ja) 無人搬送車走行システム
US11807224B2 (en) Automated valet parking system
US11468770B2 (en) Travel control apparatus, travel control method, and computer program
EP3879857B1 (en) Parking information management server, parking assist device, and parking assist system
WO2019059307A1 (ja) 移動体および移動体システム
JP2024533966A (ja) 充電ステーションにおける電気車両の駐車支援
US11635759B2 (en) Method of moving robot in administrator mode and robot of implementing method
WO2024117451A1 (ko) 복수개의 로봇과 통신 가능한 클라우드 서버의 제어 방법
KR20180038884A (ko) 공항 로봇 및 그를 포함하는 공항 로봇 시스템
JP7438502B2 (ja) 自律走行車両を用いた自動船積方法及び装置
JP7411185B2 (ja) 通行人追従型の移動ロボットの誘導
WO2024075959A1 (ko) 로봇, 서버 및 그 제어 방법
WO2023027252A1 (ko) 시맨틱 지도 기반 주행 및 작업 계획을 이용한 건물 간 이동이 가능한 모바일 로봇 제어 장치 및 방법