WO2023243748A1 - 운송 로봇, 운송 수단 및 그 제어방법 - Google Patents

운송 로봇, 운송 수단 및 그 제어방법 Download PDF

Info

Publication number
WO2023243748A1
WO2023243748A1 PCT/KR2022/008561 KR2022008561W WO2023243748A1 WO 2023243748 A1 WO2023243748 A1 WO 2023243748A1 KR 2022008561 W KR2022008561 W KR 2022008561W WO 2023243748 A1 WO2023243748 A1 WO 2023243748A1
Authority
WO
WIPO (PCT)
Prior art keywords
trailer
robot
bracket
location information
obstacle
Prior art date
Application number
PCT/KR2022/008561
Other languages
English (en)
French (fr)
Inventor
차바우
서재홍
신성민
김문찬
김우진
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to PCT/KR2022/008561 priority Critical patent/WO2023243748A1/ko
Publication of WO2023243748A1 publication Critical patent/WO2023243748A1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62BHAND-PROPELLED VEHICLES, e.g. HAND CARTS OR PERAMBULATORS; SLEDGES
    • B62B5/00Accessories or details specially adapted for hand carts

Definitions

  • the present invention relates to an exercise robot, a transportation means, and a control method for transporting one or more goods to a destination.
  • Robots have been developed for industrial use to play a part in factory automation. Recently, the field of application of robots has been expanding, and not only medical robots and aerospace robots, but also robots that can be used in daily life are being developed.
  • robots that perform precise assembly work repeatedly perform the same movements and repeat the same movements at designated locations without unexpected situations, so automation using robots took precedence.
  • robots that perform transportation functions are attracting attention, and competition is intensifying day by day.
  • robots that transport bulk or large items there is a need for robots that can perform services such as transporting small items to their destination.
  • the present invention relates to a transportation robot that moves by pulling a cart.
  • the purpose of the present invention is to provide a transportation robot that senses the position of the cart, calculates a driving path, and drives, a transportation means, and a method of controlling the same.
  • a transportation robot includes a body including a traveling unit; and a connector holder located on the body and coupled to the connector of the trailer, wherein the connector holder includes: a fixing bracket fixed to the body; a rotating bracket rotatably coupled to the fixed bracket; A fastening pin that penetrates the connector of the trailer and fastens to the rotation bracket; and an encoder that detects rotation of the rotation bracket.
  • It is located on one side of the rotation bracket and may further include a stopper that limits the rotation range of the rotation bracket.
  • the stopper may be located in a traveling direction of the traveling portion of the rotation bracket and may be left and right symmetrical with respect to the traveling direction.
  • It may further include a control unit that calculates location information of the trailer based on rotation amount data of the rotation bracket measured by the encoder.
  • the control unit calculates the location information of the trailer based on the rotation amount data of the rotation bracket and the length and width information of the trailer, and the location information of the trailer includes location information of the four corners of the bottom surface of the trailer. can do.
  • It may further include a sensor unit that detects surrounding obstacles, and the control unit may calculate location information of the obstacle based on surrounding information recognized by the sensor unit.
  • the control unit calculates a driving path to reach the destination based on fixed map information about the destination, and calculates a modified path and driving speed to avoid the obstacle based on the location information of the trailer and the location information of the obstacle. You can.
  • the control unit calculates the expected position of the trailer based on the wheel position information of the trailer and the weight information of the trailer and the goods unloaded on the trailer, and determines the corrected path and the predicted position of the trailer to prevent collision with the obstacle. Driving speed can be calculated.
  • the control unit may measure the distance of the trailer based on the location information of the obstacle and the location information of the trailer, and set the speed to 0 when the trailer is located within a predetermined distance from the obstacle.
  • the control unit may rotate the body so that the direction of the encoder is 180 degrees from the driving direction, and calculate a correction path to drive in a straight line until the distance between the obstacle and the trailer is more than a predetermined distance.
  • a transportation means includes a transportation robot including a body including a traveling unit and a connector holder coupled to the body; and a trailer including a connector rotatably coupled to the connector holder of the transport robot, wherein the connector holder includes: a fixing bracket fixed to the body; a rotating bracket rotatably coupled to the fixed bracket; A fastening pin that penetrates the connector of the trailer and fastens to the rotation bracket; And it may include an encoder that detects rotation of the rotation bracket.
  • the connector includes a connection bracket rotatably coupled to the frame of the trailer in a vertical direction; and a rod end bearing located at an end of the connection bracket and through which the fastening pin passes.
  • connection bracket an auxiliary roller rotatably coupled to a lower portion of the connection bracket about a rotation axis parallel to the direction in which the connection bracket extends; And it may further include a handle located on top of the connection bracket.
  • the transportation robot may further include a control unit that calculates location information of the trailer based on rotation amount data of the rotation bracket measured by the encoder.
  • It includes a sensor unit that detects surrounding obstacles, and the control unit calculates location information of the obstacle based on surrounding information recognized by the sensor unit, and calculates a driving route to reach the destination based on fixed map information about the destination. And, based on the location information of the trailer and the location information of the obstacle, a corrected path and driving speed to avoid the obstacle can be calculated.
  • a transportation robot control method includes receiving a movement command to a destination; calculating a driving route to reach the destination; Calculating driving speed; Controlling the traveling unit to allow the transportation robot to travel at the traveling speed along the traveling path; Calculating location information of the connected trailer; Recognizing surrounding obstacles; and calculating a corrected path to prevent the trailer from colliding with the obstacle based on the location information of the trailer.
  • the speed can be set to 0 to stop driving.
  • the transport robot can be rotated so that the connection direction between the trailer and the transport robot is 180° from the driving direction, and the corrected path can be calculated to drive straight until the obstacle and the trailer are separated by a predetermined distance or more.
  • Calculating the location information of the trailer includes receiving an angle between the trailer and the transport robot; And the expected position of the trailer can be calculated based on the angle, wheel position information of the trailer, and weight information of the trailer and goods unloaded on the trailer.
  • the estimated position of the trailer may include calculating the corrected path and driving speed to prevent collision with the obstacle.
  • the transportation robot of the present invention can monitor the angle with the connected trailer in real time, thereby securing real-time location information of the connected trailer.
  • the distance between a trailer without a sensor and an obstacle can be determined based on the location information of the trailer, so the transport robot can control the connected trailer to run without colliding with obstacles.
  • an escape route can be designed to avoid it, allowing driving while avoiding obstacles that are not on the fixed map.
  • Figure 1 is a diagram showing a 5G network-based cloud system according to an embodiment of the present invention.
  • Figure 2 is a diagram schematically explaining the appearance of a transportation robot according to an embodiment of the present invention.
  • Figure 3 is a diagram showing a robot control system according to an embodiment of the present invention.
  • Figure 4 is a perspective view of a transportation robot according to an embodiment of the present invention.
  • Figure 5 is a diagram showing internal parts of a transportation robot according to an embodiment of the present invention.
  • Figure 6 is a diagram illustrating a transportation means according to an embodiment of the present invention.
  • Figure 7 is a diagram showing the position of the trailer according to the driving path of the transportation robot according to an embodiment of the present invention.
  • Figure 8 is a diagram showing a connection part of a transportation means according to an embodiment of the present invention.
  • Figure 9 is a cross-sectional view taken along line A-A of Figure 8.
  • Figure 10 is a diagram showing the rotation range of the rotation bracket according to an embodiment of the present invention.
  • 11 to 13 are flowcharts showing a control method for a transportation robot of the present invention.
  • a robot is a mechanical device that can automatically perform certain tasks or operations.
  • the robot may be controlled by an external control device or may have a built-in control device. It can perform tasks that are difficult for humans to perform, such as repeating only preset movements, lifting heavy objects, performing precise tasks, and working in extreme environments.
  • a driving unit including an actuator or motor can be provided to perform various physical movements such as moving robot joints.
  • a driving part In order to perform driving functions, it is equipped with a driving part and can include wheels, brackets, casters, motors, etc., and robots equipped with artificial intelligence are emerging to identify surrounding obstacles and drive around them.
  • Machine learning refers to the field of defining various problems dealt with in the field of artificial intelligence and researching methodologies to solve them. do.
  • Machine learning is also defined as an algorithm that improves the performance of a task through consistent experience.
  • ANN Artificial Neural Network
  • ANN is a model used in machine learning. It can refer to an overall model with problem-solving capabilities that is composed of artificial neurons (nodes) that form a network through the combination of synapses. Artificial neural networks can be defined by connection patterns between neurons in different layers, a learning process that updates model parameters, and an activation function that generates output values.
  • An artificial neural network may include an input layer, an output layer, and optionally one or more hidden layers. Each layer includes one or more neurons, and the artificial neural network may include synapses connecting neurons.
  • each neuron can output the function value of the activation function for the input signals, weight, and bias input through the synapse.
  • Model parameters refer to parameters determined through learning and include the weight of synaptic connections and the bias of neurons.
  • Hyperparameters refer to parameters that must be set before learning in a machine learning algorithm and include learning rate, number of repetitions, mini-batch size, initialization function, etc.
  • the purpose of artificial neural network learning can be seen as determining model parameters that minimize the loss function depending on the purpose or field of use of the robot.
  • the loss function can be used as an indicator to determine optimal model parameters in the learning process of an artificial neural network.
  • Machine learning can be classified into supervised learning, unsupervised learning, and reinforcement learning depending on the learning method.
  • Supervised learning refers to a method of training an artificial neural network with a given label for the learning data.
  • a label refers to the correct answer (or result value) that the artificial neural network must infer when learning data is input to the artificial neural network. It can mean.
  • Unsupervised learning can refer to a method of training an artificial neural network in a state where no labels for training data are given.
  • Reinforcement learning can refer to a learning method in which an agent defined within an environment learns to select an action or action sequence that maximizes the cumulative reward in each state.
  • machine learning implemented with a deep neural network is also called deep learning, and deep learning is a part of machine learning.
  • machine learning is used to include deep learning.
  • robots can be implemented as guide robots, transport robots, cleaning robots, wearable robots, entertainment robots, pet robots, and unmanned flying robots.
  • a robot may include a robot control module to control its movements, and the robot control module may mean a software module or a chip implementing it as hardware.
  • the robot uses sensor information obtained from various types of sensors to obtain status information of the robot, detect (recognize) the surrounding environment and objects, generate map data, determine movement path and driving plan, or provide information to the user. It can determine a response to an interaction or determine an action.
  • the robot can perform the above operations using a learning model composed of at least one artificial neural network.
  • a robot can recognize the surrounding environment and objects using a learning model, and can determine an action using the recognized surrounding environment information or object information.
  • the learning model may be learned directly from the robot or from an external device such as an AI server.
  • the robot can perform actions by directly generating results using a learning model, but it can also perform actions by transmitting sensor information to an external device such as an AI server and receiving the results generated accordingly.
  • Artificial intelligence allows robots to perform autonomous driving. It refers to a technology that can determine the optimal path on its own and move around while avoiding obstacles.
  • Currently applied autonomous driving technologies include technology that maintains the driving lane, technology that automatically adjusts speed such as adaptive cruise control, and technology that automatically follows a set path. This can include driving technology that automatically sets the route once the destination is set.
  • Sensors include proximity sensors, illumination sensors, acceleration sensors, magnetic sensors, gyro sensors, inertial sensors, RGB sensors, IR sensors, fingerprint recognition sensors, ultrasonic sensors, light sensors, microphones, lidar, and radar.
  • autonomous driving can be performed using image information collected through RGBC cameras, infrared cameras, etc., and sound information collected through microphones. Additionally, the vehicle can be driven based on information input through the user input unit. Map data, location information, and surrounding situation information collected through the wireless communication unit are also necessary information for autonomous driving.
  • Map data may include object identification information about various objects placed in the space where the robot moves.
  • map data may include object identification information for fixed objects such as walls and doors and movable objects such as flower pots and desks.
  • object identification information may include name, type, distance, location, etc.
  • robots are essentially equipped with sensors, various input units, and wireless communication units to collect data that can be learned by artificial intelligence, and can perform optimal operations by combining various types of information.
  • the learning processor that performs artificial intelligence can be mounted on the control unit of the robot to perform learning, or the collected information can be transmitted to the servo and learned through the server, and the learning results can be sent back to the robot to perform autonomous driving based on this. You can.
  • Robots equipped with artificial intelligence can collect surrounding information even in new places to create an entire map, and the large amount of information accumulated in places within the main activity radius allows for more accurate autonomous driving.
  • a touch screen or buttons can be provided to receive user input, and commands can also be received by recognizing the user's voice.
  • the processor uses at least one of a STT (Speech To Text) engine to convert voice input into a string or a Natural Language Processing (NLP) engine to obtain intent information of natural language, and the intent corresponding to the user input. Information can be obtained.
  • STT Seech To Text
  • NLP Natural Language Processing
  • At this time, at least one of the STT engine or the NLP engine may be composed of at least a portion of an artificial neural network learned according to a machine learning algorithm.
  • at least one of the STT engine or the NLP engine may be learned by a learning processor, a learning processor of an AI server, or distributed processing thereof.
  • Figure 1 shows a 5G network-based cloud system 1000 according to an embodiment of the present invention.
  • the cloud system 1000 may include a transportation robot 100, a mobile terminal 300, a robot control system 200, various devices 400, and a 5G network 500.
  • the transport robot 100 is a robot that transports goods from a starting point to a destination.
  • the transport robot 100 can move directly from the logistics center to the destination, and can be loaded into a vehicle and moved from the logistics center to the vicinity of the goods destination, then get off near the destination and move to the destination.
  • the transport robot 100 can move goods to their destination not only outdoors but also indoors.
  • the transportation robot 100 may be implemented as an Automated Guided Vehicle (AGV), and the AGV may be a transportation device moved by sensors on the floor, magnetic fields, vision devices, etc.
  • AGV Automated Guided Vehicle
  • the transport robot 100 may include a storage area for storing goods, and the storage area may be divided to load various goods, and various types of goods may be stored in the plurality of divided partial storage areas. can be placed. Accordingly, mixing of goods can be prevented.
  • the mobile terminal 300 can communicate with the transportation robot 100 through the 5G network 500.
  • the mobile terminal 300 may be a device owned by a user who installs a partition in a storage area to load goods, or a device owned by a recipient of the loaded goods.
  • the mobile terminal 300 can provide information based on images, and the mobile terminal 300 can be a mobile phone, a smart phone, or a wearable device (e.g., a watch-type terminal (smartwatch), a glass-type device). It may include mobile devices such as terminals (smart glass) and head mounted displays (HMDs).
  • HMDs head mounted displays
  • the robot control system 200 can remotely control the transportation robot 100 and respond to various requests from the transportation robot 100.
  • the robot control system 200 may perform calculations using artificial intelligence based on a request from the transportation robot 100.
  • the robot control system 200 can set the movement path of the transport robot 100, and when there are multiple destinations, the robot control system 200 can set the movement order of the destinations.
  • Various devices 400 may include a personal computer (PC, 400a), an autonomous vehicle (400b), a home robot (400c), etc.
  • PC, 400a personal computer
  • 400b autonomous vehicle
  • 400c home robot
  • Various devices 400 can be connected wired or wirelessly with the transportation robot 100, mobile terminal 300, robot control system 200, etc. through the 5G network 500.
  • the transportation robot 100, mobile terminal 300, robot control system 200, and various devices 400 are all equipped with a 5G module and can transmit and receive data at a speed of 100Mbps to 20Gbps (or higher), thereby providing high capacity Video files can be transmitted to various devices and can be operated at low power to minimize power consumption.
  • the transmission speed may be implemented differently depending on the embodiment.
  • the 5G network 500 may include a 5G mobile communication network, a local area network, the Internet, etc., and may provide a communication environment for devices in a wired or wireless manner.
  • Figure 2 is a diagram for explaining the configuration of a transportation robot 100 according to an embodiment of the present invention. The description will be made with reference to FIGS. 3 to 5 showing a transportation robot 100 according to an embodiment of the present invention.
  • the transportation robot 100 may include a body 101 (see FIG. 3) including a storage area 50, and components described later may be included in the body.
  • the transportation robot 100 includes a communication unit 110, an input unit 120, a sensor unit 140, an output unit 150, a memory 185, a wheel drive unit 170, a control unit 180, and a power supply unit 190. It can be included.
  • the components shown in FIG. 2 are not essential for implementing the transportation robot 100, so the transportation robot 100 described herein may have more or fewer components than those listed above. there is.
  • the communication unit 110 may include a wired or wireless communication module capable of communicating with the robot control system 200.
  • the communication unit 110 may include Global System for Mobile communication (GSM), Code Division Multi Access (CDMA), Long Term Evolution (LTE), 5G, Wireless LAN (WLAN), Wireless-Fidelity (Wi-Fi), It can be equipped with modules for Bluetooth, RFID (Radio Frequency Identification), Infrared Data Association (IrDA), ZigBee, and NFC (Near Field Communication) communication.
  • GSM Global System for Mobile communication
  • CDMA Code Division Multi Access
  • LTE Long Term Evolution
  • 5G Fifth Generation
  • WLAN Wireless LAN
  • Wi-Fi Wireless-Fidelity
  • Bluetooth Bluetooth
  • RFID Radio Frequency Identification
  • IrDA Infrared Data Association
  • ZigBee ZigBee
  • NFC Near Field Communication
  • the input unit 120 may include a user input unit 122 for receiving information from a user.
  • the input unit 120 may include a camera 121 for inputting video signals and a microphone 123 (hereinafter referred to as a microphone) for receiving audio signals.
  • the camera 121 or the microphone 123 may be treated as a sensor, and the signal obtained from the camera 121 or the microphone 123 may be referred to as sensing data or sensor information.
  • the input unit 120 may acquire learning data for model learning and input data to be used when obtaining an output using the learning model.
  • the input unit 120 may acquire unprocessed input data, and in this case, the control unit 180 may extract input features by preprocessing the input data.
  • the cameras 121 are located in front to detect obstacles in front, and as shown in FIG. 3, a plurality of cameras 121 may be arranged at different angles. A plurality of cameras 121 with different shooting directions may be provided, such as a camera that recognizes the wide front and a camera that photographs the floor.
  • cameras with different functions may be provided.
  • a wide-angle camera, an infrared camera, etc. may be provided.
  • the camera acts as a sensor unit 140 and can serve to detect surrounding objects.
  • the user input unit 122 may include buttons or a touch panel for touch input. Alternatively, a user command may be input remotely through the communication unit 110. In this case, the user input unit 122 may include a personal computer 400 or a remote control device provided separately from the transport robot 100.
  • the user input unit 122 includes all methods for receiving user commands, the user commands can be recognized through voice recognition. That is, a voice recognition device that extracts user commands by analyzing the voice collected by the microphone 123 can also serve as the user input unit 122.
  • the input unit 120 may include a product information input unit, which can receive product size information, weight information, destination information, and information on the transport requester. At this time, the product information input unit may include a code reader.
  • the sensor unit 140 may use various sensors to obtain at least one of internal information of the transportation robot 100, information about the surrounding environment of the transportation robot 100, and user information.
  • the sensor unit 140 may include various types of sensors to recognize the surroundings for autonomous driving. Representative examples include a distance sensor or proximity sensor 141 and LIDAR 142.
  • the proximity sensor 141 may include an ultrasonic sensor that recognizes a nearby object and determines the distance to the object based on the return time of the emitted ultrasonic waves.
  • a plurality of proximity sensors may be provided along the circumference, and may also be provided on the upper side to detect obstacles on the upper side.
  • Lidar is a device that emits a laser pulse and receives the light reflected from surrounding objects to accurately depict the surroundings. Like radar, the principle is similar, but the electromagnetic waves used are different, so the technology and scope of use are different.
  • LIDAR uses a longer wavelength than this and is used to measure not only the distance to the target object, but also the speed and direction of movement, temperature, and analysis and concentration of surrounding atmospheric substances.
  • the sensor unit 140 may include an illumination sensor, an acceleration sensor, a magnetic sensor, a gyro sensor, an inertial sensor, an RGB sensor, an infrared sensor, a fingerprint recognition sensor, an ultrasonic sensor, an optical sensor, a hall sensor, etc.
  • the output unit 150 may generate output related to vision, hearing, or tactile sensation.
  • the output unit 150 may include an optical output unit that outputs visual information, a display 151, etc., and outputs auditory information. It may include a speaker 152 that outputs an ultrasonic signal belonging to an inaudible frequency, an ultrasonic output unit that outputs an ultrasonic signal belonging to an inaudible frequency, and a haptic module that outputs tactile information.
  • the memory 185 stores data supporting various functions of the transportation robot 100.
  • the memory 185 may store a number of application programs (application programs or applications) running on the transport robot 100, data for operating the transport robot 100, and commands.
  • the memory 185 can store information necessary to perform calculations using artificial intelligence, machine learning, and artificial neural networks.
  • Memory 150 may store a deep neural network model.
  • the deep neural network model can be used to infer a result value for new input data other than learning data, and the inferred value can be used as the basis for a decision to perform a certain operation.
  • the power supply unit 190 receives external power and internal power under the control of the processor 190 and supplies power to each component of the transportation robot 100.
  • This power supply unit 190 includes a battery 191, and the battery 191 may be a built-in battery or a replaceable battery.
  • the battery can be charged using a wired or wireless charging method, and the wireless charging method may include a magnetic induction method or a magnetic resonance method.
  • the traveling unit 170 is a means for moving the transport robot 100 and may include wheels or legs, and may include a wheel driving unit and a leg driving unit that control them.
  • the transport robot 100 including the body can be moved by controlling a plurality of wheels provided on the bottom surface of the wheel drive unit.
  • the wheel includes a caster that includes a main axis that rotates by combining with the body 101, and an auxiliary caster that reinforces the support to prevent the loaded item (L) from falling during driving. (173), etc. may be included.
  • the leg driving unit may control a plurality of legs according to the control of the control unit 180 to move the body.
  • the plurality of legs may correspond to a configuration that allows the transportation robot 100 to walk or run.
  • the plurality of legs may be implemented as four, but the embodiment is not limited to this.
  • the plurality of legs may be combined with the body to form an integrated body, and may be implemented as detachable from the body.
  • the transportation robot 100 may move its body through a traveling unit 170 including at least one of a wheel driving unit and/or a leg driving unit.
  • a traveling unit 170 including at least one of a wheel driving unit and/or a leg driving unit.
  • the wheel drive unit is mounted on the mobile robot 100 will mainly be described.
  • the control unit 180 is a module that controls the components of the transportation robot 100.
  • the control unit 180 may refer to a data processing device built into hardware that has a physically structured circuit to perform functions expressed by codes or commands included in a program. Examples of data processing devices built into hardware include a microprocessor, central processing unit (CPU), processor core, multiprocessor, and application-specific integrated (ASIC). circuit) and FPGA (field programmable gate array), etc., but the scope of the present invention is not limited thereto.
  • the control unit 180 is.
  • the control unit 180 may collect the above information through the input unit 120.
  • the input of the input unit 120 may also include a touch input on the display.
  • control unit 180 may transmit information on the article L loaded in the loading area 50 to the mobile terminal (200 in FIG. 1) through the communication unit 110.
  • the robot control system 200 may include an AI server.
  • An AI server may refer to a device that trains an artificial neural network using a machine learning algorithm or uses a learned artificial neural network.
  • the robot control system 200 may be composed of a plurality of servers to perform distributed processing, and may be defined as a 5G network.
  • the AI server may be included as a part of the transportation robot 100 and may perform at least part of the AI processing in the transportation robot 100 itself.
  • the robot control system 200 may include a communication unit 210, a memory 230, a learning processor 240, and a processor 260.
  • the communication unit 210 can transmit and receive data with an external device such as the transportation robot 100.
  • Memory 230 may include a model storage unit 231.
  • the model storage unit 231 may store a model (or artificial neural network, 231a) that is being trained or has been learned through the learning processor 240.
  • the learning processor 240 can train the artificial neural network 231a using training data.
  • the learning model may be used while mounted on the artificial neural network robot control system 200, or may be mounted and used on an external device such as a transportation robot 100.
  • Learning models can be implemented in hardware, software, or a combination of hardware and software.
  • the learning model When part or all of the learning model is implemented as software, one or more instructions constituting the learning model may be stored in the memory 230.
  • the processor 260 may infer a result value for new input data using a learning model and generate a response or control command based on the inferred result value.
  • FIG. 4 is a perspective view of the transportation robot 100 according to an embodiment of the present invention
  • FIG. 5 is a diagram showing internal parts of the transportation robot 100 according to an embodiment of the present invention.
  • the transportation robot 100 of the present invention can move through the traveling unit 170 located at the lower part of the body 101.
  • the main body of the transport robot 100 may have a box shape and there is no area for loading goods, so the body 101 only needs to be equipped with parts such as the traveling unit 170, battery 191, and substrate assembly 181. Since it is sufficient, it can have a flat shape.
  • the display 151 may be placed in a spaced position on the upper side of the body 101 through a vertical bracket 102 in consideration of the user's eye level.
  • the display 151 has a touch sensor and functions as an input unit, and the user can input a destination and change function settings of the transport robot 100 through the display 151.
  • the connector 630 of the trailer 600 coupled to the trailer 600 is coupled in the opposite direction to the traveling direction.
  • the vertical bracket 102 on which the display 151 is located may be located in the front direction in the driving direction so as not to interfere with the connector 630 of the trailer 600.
  • the vertical bracket 102 can position a camera or sensor. Considering the height of the trailer 600, it is necessary to detect the presence or absence of obstacles up to the top. When a camera or sensor is located in the upper direction, the detectable range is expanded, so the vertical bracket 102 can be used to place the camera and sensor at a certain height.
  • This embodiment may include a camera located at a predetermined height, and the camera of this embodiment may include a camera facing the front and a pair of cameras located diagonally downward.
  • a speaker 152 may be further provided to provide a warning sound or notification to the user, and may be positioned on the vertical bracket 102 in consideration of the position of the user's ears.
  • Lidar 142 and proximity sensor 141 can be located on the body 101, and since Lidar has a wide sensing range, it is positioned horizontally as shown in FIG. 4 to expand the sensing range of Lidar 142. It may include long grooves in each direction.
  • a plurality of proximity sensors 141 may be located along the circumference of the body 101 to precisely detect the position. Since obstacles in the driving direction are mainly a problem and the trailer 600 is located at the rear, the proximity sensor can only be located at the front.
  • a frame is provided to mount components inside the body 101, and a running part 170 is located at the bottom of the frame, and components such as a board assembly 181, a battery 191, and a lidar 142 are located on the upper part of the frame. It is mounted.
  • the main wheel 171 constituting the traveling unit 170 is connected to a motor to directly transmit driving force, and can control the speed of the transportation robot 100 by adjusting the speed of the motor.
  • the caster 173 includes an axle, which is the rotation axis of the wheel, and a main axis that is disposed perpendicular to the axle and rotates with respect to the body 101.
  • the moving direction of the traveling robot can be controlled using the caster 173, or the traveling direction can be changed by adjusting the left and right rotation speed of the main wheel.
  • the body 101 can rotate in place by adjusting the direction of the caster 173, and this type of traveling part 170 helps the transportation robot 100 move to avoid obstacles in a limited space.
  • the battery 191 and the substrate assembly 181 account for most of the weight of the transport robot 100, they can be located on the bottom and controlled to move stably.
  • transport robot 100 There is a type of transport robot 100 that can load goods on its own, but the transport robot 100 of the present invention is a type of transport robot that connects to a trailer 600 loaded with goods and tows the trailer 600 ( 100).
  • the body 101 may be provided with a connector holder 130 for fastening the connector 630 of the trailer 600.
  • a connector holder 130 for fastening the connector 630 of the trailer 600.
  • it since there is no separate loading space and the height of the body 101 is low, it can be located at the top of the body 101, and in some cases, it can be located toward the rear of the body 101.
  • FIG. 6 is a diagram illustrating a transportation means according to an embodiment of the present invention.
  • the transportation means refers to both the transportation robot 100 and the trailer 600.
  • the trailer 600 includes a loading space at the top and may have a layered structure to stably load a large amount of goods.
  • a trailer 600 consisting of only a frame without side walls can be used to facilitate loading and unloading of goods.
  • the connector 630 located on one side of the trailer 600 is coupled to the connector holder 130 of the transportation robot 100 and can move along the traveling direction of the transportation robot 100.
  • the trailer 600 may include a plurality of wheels 670 at the bottom of the frame.
  • the wheel 670 may include four casters 671 and 672 located on at least four corners for stable transportation.
  • the wheels 670 of the trailer 600 may have a caster shape so that they can move naturally according to the moving direction of the transport robot 100. Since the caster's main axis is located at an angle to the axle, the wheel 670 can naturally rotate according to the direction of the frame 610.
  • an additional auxiliary wheel 673 may be provided in the middle in the longitudinal direction.
  • the auxiliary wheel 673 supplements the support force of the frame 610 when the trailer 600 is lengthened on one side, and the center of rotation may vary due to the auxiliary wheel 673.
  • FIG. 7 is a diagram showing the position of the trailer 600 along the driving path of the transportation robot 100 according to an embodiment of the present invention. Referring to FIG. 7, the movement of the trailer 600 varies depending on the presence or absence of the auxiliary wheel 673. (a) is a trailer 600 without an auxiliary wheel 673, and (b) is a trailer 600 with an auxiliary wheel 673.
  • the trailer 600 may collide with the corner C, so the driving path must be designed to rotate with sufficient space in the turning direction (right direction in this embodiment).
  • FIG. 8 is a diagram illustrating connection portions 130 and 630 of transportation means 100 and 600 according to an embodiment of the present invention
  • FIG. 9 is a cross-sectional view taken along line A-A of FIG. 8 .
  • the connector 630 of the trailer 600 is located on the front of the trailer 600 and can be hinged to the frame 610 of the trailer 600 to be rotatable about a horizontal axis. It can be combined with the connector holder 130 of the transport robot 100 regardless of the height of the transport robot 100.
  • the connector 630 includes a bar-shaped connection bracket, one end of the connection bracket is hinged to the frame of the trailer 600, and the other side may be provided with a rod end bearing 635 for coupling to the connector holder 130. .
  • the rod end bearing 635 includes an inner bearing 6351 that penetrates the sphere to form a coupling hole and an outer bearing that has an inner surface corresponding to the curved surface of the inner bearing 6351. Since the inner bearing 6351 has a curved surface that forms part of a sphere, the coupling hole of the inner bearing 6351 can rotate in three axes. Even if the height of the connector holder 130 of the transportation robot 100 is different from that of the connector 630, it can be coupled, and it can rotate and run on an incline.
  • An auxiliary roller 636 may be included at the lower part of the connection bracket.
  • the auxiliary roller 636 is in contact with the upper surface of the transport robot 100 and serves as a cushion to prevent the transport robot 100 from being damaged when the connection bracket collides with the upper surface of the transport robot 100.
  • the connection bracket can be provided in the form of a wheel so as not to interfere with the rotation.
  • connection bracket has a form that can rotate around an axis parallel to the extension direction of the connection bracket and can assist the rotation of the connection bracket without interfering with it.
  • the connector holder 130 of the transport robot 100 may include a fixing bracket 131 coupled to the main body of the transport robot 100 and a rotation bracket 133 rotatably coupled to the fixing bracket 131.
  • a rolling bearing 132 may be provided for rotation between the fixed bracket 131 and the rotating bracket 133.
  • the connector 630 can be coupled to the rotation bracket 133 using a fastening pin 134.
  • the fastening pin 134 is inserted into the coupling hole of the inner bearing 6351 of the rod end bearing 635 and is fixed to the rotating bracket 133.
  • the rotation bracket 133 may have side walls that surround the left and right sides of the connector 630 in the horizontal direction so that the rotation coupling portion and the connector 630 do not rotate separately.
  • the trailer 600 rotates by the same angle as the connector 630 and the rotation bracket 133, and the trailer 600 can stably move along the transportation robot 100 without moving while shaking.
  • Figure 10 is a diagram showing the rotation range of the rotation bracket 133 according to an embodiment of the present invention. If the trailer 600 is located in the front of the driving direction, it may be difficult to drive and the vertical bracket 102 may be damaged, and a stopper 135 that restricts the rotation of the rotation bracket 133 within a certain range is further included. can do.
  • the stopper 135 may have a shape that abuts the rotation bracket 133, or may have a shape that abuts the connector 630 to limit rotation, as shown in FIG. 10 .
  • the transportation robot 100 of the present invention can detect the rotation amount of the rotation bracket 133 and limit the rotation of the rotation bracket 133 through software. However, when the trailer 600 is heavy or rotates at high speed, it may rotate beyond the angle limit of the software control method.
  • a physical stopper 135 is provided, and the position of the stopper 135 can be set so that it can rotate to an angle slightly larger than the limit angle in the software.
  • the stopper 135 is positioned relative to the rotation bracket 133, and can be provided symmetrically left and right based on the travel angle.
  • the connector holder 130 may further include an encoder 136 that detects the rotation amount of the rotation bracket 133.
  • the encoder 136 is a sensor that detects rotation speed or direction and detects the rotation amount of the rotation bracket 133 and transmits it to the control unit 180.
  • the control unit 180 may estimate the position of the trailer 600 based on the rotation amount detected by the encoder 136.
  • the angle of the connector 630 can be estimated based on the rotation amount of the rotation bracket 133, and the trailer 600 is connected to the connector 630 based on information about the size (length and width) of the trailer 600 coupled to the connector 630.
  • the location can be calculated.
  • the control unit 180 of the transport robot 100 can track the position of the trailer 600 in real time using the encoder 136, and can drive by modifying the driving path even in a changed driving path or unexpected situation.
  • 11 to 13 are flowcharts showing a control method of the transportation robot 100 of the present invention.
  • FIG. 11 it is an overall flow chart of the transport robot 100 of the present invention moving to its destination.
  • the control unit 180 receives a command to move to the destination (S110), it establishes a global path plan (S120). .
  • the destination may be entered through a user input unit, or may be entered through the robot control system 200 or terminal 300 through remote control.
  • the entire route can be designed based on fixed map information to the destination if you have it in advance.
  • an overall route plan can be established using fixed map information including the locations of warehouse walls and already installed racks.
  • the overall route plan may be set to prioritize the shortest distance to the destination, but since it is difficult to move with the trailer 600 in areas with many curves or in narrow spaces, a short-distance route with easy movement can be designed by taking this into consideration. .
  • the entire path must be designed considering the length and width of the trailer 600, and as reviewed in FIG. 7, the turning radius depends on the position and number of wheels. Since this varies, it is necessary to plan the overall route taking this into account. In other words, the overall route plan changes depending on the type of connected trailer 600.
  • the target speed for movement can be calculated according to the overall route plan (S130).
  • the speed can be set considering the size and weight of the connected trailer 600 and the characteristics of the loaded goods. If the trailer 600 is heavy, centrifugal force increases when rotating, so if the path is changed at high speed, the goods may fall.
  • Appropriate speed can be calculated using DWA (Dynamic Window Approach).
  • DWA is an algorithm that selects a speed that can quickly reach the target point while avoiding obstacles that can collide with the robot in the robot's velocity search space.
  • DWA changes the existing position and velocity domain into a velocity-angular velocity domain and can determine the maximum velocity and angular velocity by considering the robot's velocity, direction, and collision.
  • the appropriate speed may not be calculated. For example, if the transport robot 100 cannot drive according to the overall route plan because there are loaded goods or another trailer 600 is parked, the appropriate speed calculated by the control unit 180 through DWA becomes 0.
  • a local path plan can be established (S140).
  • Local route planning can recognize obstacles located in the surrounding area through sensors and calculate a route that can be taken without colliding with them. Let's call the route reflecting the local route plan a modified route.
  • the corrected path is a path that allows movement to the destination while avoiding obstacles. Since it allows movement to avoid obstacles, the appropriate speed can be calculated through DWA (S130).
  • the vehicle drives at the selected speed (S150).
  • the transportation robot 100 of the present invention can receive posture information of the trailer 600 while traveling at a selected speed (S160).
  • Figure 12 is a detailed procedure for collecting attitude information of the trailer 600.
  • the angle data of the connector 630 obtained from the encoder 136 is received (S161), and if the data is not valid, the encoder 136 (sensor ) is determined to be an error (S163) and the user can be notified of a defective sensor.
  • the position/attitude of the trailer 600 can be estimated based on this (S164).
  • control in FIG. 11 is performed in the transport robot 100 itself, it can be transmitted to the path planning module of the transport robot 100 (S165), and transmitted to the robot control system to determine a path to avoid collision in the robot control system. It can be calculated.
  • Calculating the position of the trailer 600 based on the encoder 136 data can continue until the route planning and driving process ends (S166).
  • the control unit 180 calculates the distance of the trailer 600 to surrounding obstacles by combining the attitude information of the trailer 600 and data about obstacles collected through sensors, and the distance to the obstacles is the standard for the trailer 600. Since the trailer 600 is located within a distance, it can be determined whether there is a risk of colliding with an obstacle or whether a collision has occurred (S170).
  • control unit 180 can drive until it reaches the destination (S190).
  • the path and speed for escaping from the obstacle can be calculated (S180).
  • the method of calculating the escape route and speed is specifically shown in FIG. 13.
  • the speed is set to 0 to end the movement (S181), and the transport robot 100 rotates so that the angle of the encoder 136 is 180° (S182, S183). Rotate so that the direction of the encoder (136) and the traveling direction are aligned and change to a straight traveling path (S184)
  • V When converted to a straight driving path, V is set to a specified speed (S185) to calculate the escape route and speed.
  • the control unit 180 can drive at the modified escape route and speed (S150) and continue driving while monitoring whether or not there is a collision in real time.
  • Figures 14 and 15 are diagrams schematically showing the movement of the vehicle of the present invention, and in particular, show the process of stopping a collision when a collision occurs.
  • the arrow (D) of the transportation robot 100 represents the driving direction of the transportation robot 100
  • the straight line (C) between the transportation robot 100 and the trailer 600 represents the connector 630 and the encoder.
  • the angle detected by (136) becomes the angle between the traveling direction (D) and the connector 630 (C).
  • the wall (W) is recorded in the fixed map information, and a global path plan (GPP) was established based on this (S120), but since an obstacle (O) is detected, a local path plan is made to avoid it. You can drive on a modified route through (LPP) (S140).
  • GPS global path plan
  • LPP modified route through
  • the location of the trailer 600 is received in real time (S160) and the trailer 600, the obstacle (O), and the wall (W) located on the fixed map (hereinafter referred to as the obstacle (O) detected by the sensor and the wall on the fixed map) It creates a new correction path (LLP) that can be moved while avoiding obstacles (including all obstacles (O, W)).
  • S160 real time
  • the transportation robot 100 calculates the location information of the trailer 600 based on the angle information of the encoder 136 of the trailer 600 and detects the obstacle ( O, W) and continue driving while exploring the distance.
  • the trailer 600 and the transport robot 100 are driven in a straight line so that they are aligned side by side as shown in (b).
  • the distance between the obstacle (O, W) and the trailer 600 is continuously monitored, driven, and when a predetermined distance is separated, the driving direction (D) is changed as shown in (c) of FIG. 15 to plan the overall route or local route. You can travel to your destination by following one of the routes in your plan.
  • the transportation robot 100 of the present invention can monitor the angle with the connected trailer 600 in real time, thereby securing real-time location information of the connected trailer 600.
  • the distance between the trailer 600 without a sensor and an obstacle can be determined based on the location information of the trailer 600, so the transport robot can control the connected trailer 600 to run without colliding with obstacles. there is.
  • an escape route can be designed to avoid it, allowing driving while avoiding obstacles that are not on the fixed map.

Abstract

주행부를 포함하는 바디; 및 상기 바디에 위치하며 트레일러의 커넥터가 결합되는 커넥터 홀더를 포함하며, 상기 커넥터 홀더는, 상기 바디에 고정된 고정 브라켓; 상기 고정 브라켓에 회전 가능하게 결합된 회전 브라켓; 상기 트레일러의 커넥터를 관통하여 상기 회전 브라켓과 체결하는 체결핀; 및 상기 회전 브라켓의 회전을 감지하는 엔코더를 포함하는 운송 로봇은 연결된 트레일러가 장애물에 충돌 없이 주행하도록 제어할 수 있다.

Description

운송 로봇, 운송 수단 및 그 제어방법
본 발명은 하나 이상의 물품을 목적지로 운송하는 운동 로봇, 운송 수단 및 그 제어방법에 관한 것이다.
공장 자동화의 일 부분을 담당하기 위해, 로봇은 산업용으로 개발되어 왔다. 최근에는 로봇을 응용한 분야가 더욱 확대되고 있는바, 의료용 로봇과 우주항공용 로봇뿐만 아니라 일상 생활에서 사용될 수 있는 로봇도 개발되고 있다.
산업용 로봇 중 정밀화 된 조립작업을 수행하는 로봇은 동일한 동작을 반복적으로 수행하고, 정해진 위치에서 돌발상황 없이 동일한 동작을 반복하기 때문에 로봇을 이용한 자동화가 선행되었다.
그러나, 돌발상황에 대한 판단을 할 수 있는 영역인 주행을 포함하는 운송영역은 아직까지 로봇이 상용화가 활발히 이루어지고 있지는 않다. 다만, 최근 주변을 인식하는 센서의 성능이 우수해지고 인식된 정보를 빠르게 처리하여 대응할 수 있는 컴퓨터 파워가 향상되면서 주행용 로봇이 증가하고 있다.
산업적으로는 운송기능을 담당하는 로봇이 주목을 받고 있으며 경쟁이 나날이 심화되고 있다. 대량 또는 대형의 물건을 운송하는 로봇 이외에 작은 물건을 목적지까지 운송하는 서비스를 수행하 루 있는 로봇에 대한 니즈가 있다.
다만, 종래의 물품운송은 적재된 물품을 적재공간에서 운송장소로 하차하는 것에 어려움이 있다. 사람과 같이 팔 형태의 장치를 이용하면 비용이 증가하므로 보다 저렴하고 안정적으로 하차할 수 있는 방법에 대한 연구가 이루어지고 있다.
본 발명은 카트를 끌어서 이동하는 운송 로봇에 관한 것으로 카트의 위치를 감지하여 주행경로를 산출하여 주행하는 운송 로봇, 운송 수단 및 그 제어방법을 제공하는 것을 목적으로 한다.
본 발명의 일 측면에 따른 운송 로봇은 주행부를 포함하는 바디; 및 상기 바디에 위치하며 트레일러의 커넥터가 결합되는 커넥터 홀더를 포함하며, 상기 커넥터 홀더는, 상기 바디에 고정된 고정 브라켓; 상기 고정 브라켓에 회전 가능하게 결합된 회전 브라켓; 상기 트레일러의 커넥터를 관통하여 상기 회전 브라켓과 체결하는 체결핀; 및 상기 회전 브라켓의 회전을 감지하는 엔코더를 포함한다.
상기 회전 브라켓의 일측에 위치하며, 상기 회전 브라켓의 회전범위를 제한하는 스토퍼를 더 포함할 수 있다.
상기 스토퍼는 상기 회전 브라켓의 상기 주행부의 주행방향에 위치하며 상기 주행방향을 기준으로 좌우 대칭일 수 있다.
상기 엔코더에서 측정한 상기 회전 브라켓의 회전량 데이터를 기초로 상기 트레일러의 위치정보를 산출하는 제어부를 더 포함할 수 있다.
상기 제어부는 상기 회전 브라켓의 회전량 데이터 및 상기 트레일러의 길이 및 폭 정보를 기초로 상기 트레일러의 위치정보를 산출하며, 상기 트레일러의 위치정보는 상기 트레일러의 바닥면의 네 개 모서리의 위치정보를 포함할 수 있다.
주변 장애물을 감지하는 센서부를 더 포함하고, 상기 제어부는, 상기 센서부에서 인식한 주변정보를 기초로 장애물의 위치정보를 산출할 수 있다.
상기 제어부는, 목적지에 관한 고정지도정보를 기초로 목적지에 도달하는 주행경로를 산출하고, 상기 트레일러의 위치정보 및 상기 장애물의 위치정보를 기초로 상기 장애물을 회피하는 수정경로 및 주행속도를 산출할 수 있다.
상기 제어부는 상기 트레일러의 바퀴위치 정보 및 상기 트레일러 및 트레일러에 하적된 물품의 무게 정보를 기초로 상기 트레일러의 예상위치를 계산하고, 상기 트레일러의 예상위치가 상기 장애물과 충돌이 일어나지 않도록 상기 수정경로 및 주행속도를 산출할 수 있다.
상기 제어부는 상기 장애물의 위치정보와 상기 트레일러의 위치정보를 기초로 상기 트레일러의 거리를 측정하고, 상기 트레일러가 장애물과 소정거리 이내에 위치하는 경우 속도를 0으로 설정할 수 있다.
상기 제어부는 상기 엔코더의 방향이 주행방향과 180를 이루도록 상기 바디를 회전하고, 상기 장애물과 상기 트레일러의 거리가 소정거리 이상 이격될 때까지 직선주행하도록 수정경로를 계산 할 수 있다.
본 발명의 다른 측면에 따른 운송 수단은 주행부를 포함하는 바디 및 상기 바디에 결합된 커넥터 홀더를 포함하는 운송 로봇; 및 상기 운송 로봇의 커넥터 홀더에 회전가능하게 결합하는 커넥터를 포함하는 트레일러를 포함하며, 상기 커넥터 홀더는, 상기 바디에 고정된 고정 브라켓; 상기 고정 브라켓에 회전 가능하게 결합된 회전 브라켓; 상기 트레일러의 커넥터를 관통하여 상기 회전 브라켓과 체결하는 체결핀; 및 상기 회전 브라켓의 회전을 감지하는 엔코더를 포함할 수 있다.
상기 커넥터는 상기 트레일러의 프레임에 상하방향으로 회동 가능하게 결합하는 연결 브라켓; 및 상기 연결 브라켓의 단부에 위치하며, 상기 체결핀이 관통하는 로드엔드베어링을 포함할 수 있다.
상기 연결 브라켓의 하부에 상기 연결 브라켓의 연장방향과 수평한 회전축을 중심으로 회전 가능하게 결합된 보조롤러; 및 상기 연결 브라켓의 상부에 위치하는 손잡이를 더 포함할 수 있다.
상기 운송 로봇은, 상기 엔코더에서 측정한 상기 회전 브라켓의 회전량 데이터를 기초로 상기 트레일러의 위치정보를 산출하는 제어부를 더 포함할 수 있다.
주변 장애물을 감지하는 센서부를 포함하고, 상기 제어부는, 상기 센서부에서 인식한 주변정보를 기초로 장애물의 위치정보를 산출하며, 목적지에 관한 고정지도정보를 기초로 목적지에 도달하는 주행경로를 산출하고, 상기 트레일러의 위치정보 및 상기 장애물의 위치정보를 기초로 상기 장애물을 회피하는 수정경로 및 주행속도를 산출할 수 있다.
본 발명의 또 다른 측면에 따른 운송 로봇 제어방법은 목적지로 이동명령 수신하는 단계; 상기 목적지에 도달하는 주행경로를 산출하는 단계; 주행속도를 산출하는 단계; 상기 주행경로를 따라 상기 주행속도로 운송 로봇이 주행하도록 주행부를 제어하는 단계; 연결된 트레일러의 위치정보를 산출하는 단계; 주변의 장애물을 인식하는 단계; 및 상기 트레일러의 위치정보를 기초로 상기 트레일러가 상기 장애물에 충돌되지 않도록 수정경로를 산출하는 단계를 포함한다.
상기 장애물의 위치정보와 상기 트레일러의 위치정보를 기초로 상기 트레일러의 거리를 측정하는 단계; 및 상기 트레일러가 장애물과 소정거리 이내에 위치하는 경우 속도를 0으로 설정하여 주행을 정지할 수 있다.
상기 트레일러와 상기 운송 로봇의 연결 방향이 주행방향과 180°를 이루도록 상기 운송 로봇을 회전하고, 상기 장애물과 상기 트레일러의 거리가 소정거리 이상 이격될 때까지 직선주행하도록 수정경로를 계산할 수 있다.
상기 트레일러의 위치정보를 산출하는 단계는, 상기 트레일러와 상기 운송 로봇 사이의 각도를 수신하는 단계; 및 상기 각도, 상기 트레일러의 바퀴위치 정보 및 상기 트레일러 및 트레일러에 하적된 물품의 무게 정보를 기초로 상기 트레일러의 예상위치를 산출할 수 있다.
상기 트레일러의 예상위치가 상기 장애물과 충돌이 일어나지 않도록 상기 수정경로 및 주행속도를 산출하는 단계를 포함할 수 있다.
본 발명의 운송 로봇은 연결된 트레일러와의 각도를 실시간 모니터링 할 수 있어 연결된 트레일러의 위치정보를 실시간 확보할 수 있다.
또한, 트레일러의 위치정보를 기초로 센서가 부착되지 않은 트레일러와 장애물과의 거리를 판단할 수 있어, 운송 로봇은 연결된 트레일러가 장애물에 충돌 없이 주행하도록 제어할 수 있다.
충돌 위험이 있더라도 이를 빠져나갈 수 있는 방향으로 탈출경로를 설계할 수 있어, 고정지도상에 없는 장애물도 피하면서 주행할 수 있다.
본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
도 1은 본 발명의 일 실시예에 따른 5G 네트워크 기반의 클라우드 시스템을 나타내는 도면이다.
도 2는 본 발명의 일 실시 예에 따른 운송 로봇의 외관을 개략적으로 설명하기 위한 도면이다.
도 3은 본 발명의 일 실시 예에 따른 로봇 관제 시스템을 도시한 도면이다.
도 4는 본 발명의 일 실시예에 따른 운송 로봇의 사시도이다.
도 5는 본 발명의 일 실시예에 따른 운송 로봇의 내부 부품을 도시한 도면이다.
도 6는 본 발명의 일 실시예에 따른 운송 수단을 도시한 도면이다.
도 7은 본 발명의 일 실시예에 따른 운송 로봇의 주행경로에 따른 트레일러의 위치를 도시한 도면이다.
도 8은 본 발명의 일 실시예에 따른 운송 수단의 연결부를 도시한 도면이다.
도 9는 도 8 의 A-A단면도이다.
도 10은 본 발명의 일 실시예에 따른 회전 브라켓의 회전범위를 도시한 도면이다.
도 11 내지 도 13은 본 발명의 운송 로봇의 제어방법을 도시한 순서도이다.
도 14 및 도 15는 본 발명의 운송 수단의 이동을 개략적으로 도시한 도면이다.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.
본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
로봇은 어떤 작업이나 조작을 자동으로 할 수 있는 기계 장치로서, 로봇은 외부의 제어 장치에 의해 조종되거나 제어 장치가 내장될 수도 있다. 기 설정된 동작만 반복하여 처리하거나 무거운 물건을 들어올리거나, 정밀한 작업의 수행 및 극한의 환경에서의 작업과 같이 인간이 수행하기 어려운 작업을 수행할 수 있다.
작업수행을 위해 액츄에이터 또는 모터를 포함하는 구동부를 구비하여 로봇 관절을 움직이는 등의 다양한 물리적 동작을 수행할 수 있다.
로봇은 그 제조비용이 높고 조작의 전문성 등의 문제로 특정 작업에 특화된 외관을 가지는 산업용 로봇이나 의료용 로봇이 먼저 발달 되었다. 산업용, 의료용 로봇은 지정된 장소에서 동일한 동작을 반복수행하나,
최근에는 이동 가능한 로봇이 등장하고 있다. 특히 우주항공산업과 같이 인간이 직접 가기 어려운 먼 행성에서 탐사작업 등을 수행할 수 있으며 이러한 로봇은 주행기능이 추가된다.
주행기능을 수행하기 위해서는 구동부를 구비하며 휠, 브레이트, 캐스터, 모터 등을 포함할 수 있으며 주변의 장애물을 파악하고 이를 피해 주행하기 위해서는 인공지능을 탑재한 로봇이 등장하고 있다.
인공 지능은 인공적인 지능 또는 이를 만들 수 있는 방법론을 연구하는 분야를 의미하며, 머신 러닝(기계 학습, Machine Learning)은 인공 지능 분야에서 다루는 다양한 문제를 정의하고 그것을 해결하는 방법론을 연구하는 분야를 의미한다. 머신 러닝은 어떠한 작업에 대하여 꾸준한 경험을 통해 그 작업에 대한 성능을 높이는 알고리즘으로 정의하기도 한다.
인공 신경망(ANN: Artificial Neural Network)은 머신 러닝에서 사용되는 모델로써, 시냅스의 결합으로 네트워크를 형성한 인공 뉴런(노드)들로 구성되는, 문제 해결 능력을 가지는 모델 전반을 의미할 수 있다. 인공 신경망은 다른 레이어의 뉴런들 사이의 연결 패턴, 모델 파라미터를 갱신하는 학습 과정, 출력값을 생성하는 활성화 함수(Activation Function)에 의해 정의될 수 있다.
인공 신경망은 입력층(Input Layer), 출력층(Output Layer), 그리고 선택적으로 하나 이상의 은닉층(Hidden Layer)를 포함할 수 있다. 각 층은 하나 이상의 뉴런을 포함하고, 인공 신경망은 뉴런과 뉴런을 연결하는 시냅스를 포함할 수 있다.
인공 신경망에서 각 뉴런은 시냅스를 통해 입력되는 입력 신호들, 가중치, 편향에 대한 활성 함수의 함수값을 출력할 수 있다.
모델 파라미터는 학습을 통해 결정되는 파라미터를 의미하며, 시냅스 연결의 가중치와 뉴런의 편향 등이 포함된다. 그리고, 하이퍼파라미터는 머신 러닝 알고리즘에서 학습 전에 설정되어야 하는 파라미터를 의미하며, 학습률(Learning Rate), 반복 횟수, 미니 배치 크기, 초기화 함수 등이 포함된다.
인공 신경망의 학습의 목적은 손실 함수를 최소화하는 모델 파라미터를 로봇의 목적이나 사용 분야에 따라 결정하는 것으로 볼 수 있다. 손실 함수는 인공 신경망의 학습 과정에서 최적의 모델 파라미터를 결정하기 위한 지표로 이용될 수 있다.
머신 러닝은 학습 방식에 따라 지도 학습(Supervised Learning), 비지도 학습(Unsupervised Learning), 강화 학습(Reinforcement Learning)으로 분류할 수 있다.
지도 학습은 학습 데이터에 대한 레이블(label)이 주어진 상태에서 인공 신경망을 학습시키는 방법을 의미하며, 레이블이란 학습 데이터가 인공 신경망에 입력되는 경우 인공 신경망이 추론해 내야 하는 정답(또는 결과 값)을 의미할 수 있다. 비지도 학습은 학습 데이터에 대한 레이블이 주어지지 않는 상태에서 인공 신경망을 학습시키는 방법을 의미할 수 있다. 강화 학습은 어떤 환경 안에서 정의된 에이전트가 각 상태에서 누적 보상을 최대화하는 행동 혹은 행동 순서를 선택하도록 학습시키는 학습 방법을 의미할 수 있다.
인공 신경망 중에서 복수의 은닉층을 포함하는 심층 신경망(DNN: Deep Neural Network)으로 구현되는 머신 러닝을 딥 러닝(심층 학습, Deep Learning)이라 부르기도 하며, 딥 러닝은 머신 러닝의 일부이다. 이하에서, 머신 러닝은 딥러닝을 포함하는 의미로 사용된다.
로봇은 AI 기술이 적용되어, 안내 로봇, 운반 로봇, 청소 로봇, 웨어러블 로봇, 엔터테인먼트 로봇, 펫 로봇, 무인 비행 로봇 등으로 구현될 수 있다.
로봇은 동작을 제어하기 위한 로봇 제어 모듈을 포함할 수 있고, 로봇 제어 모듈은 소프트웨어 모듈 또는 이를 하드웨어로 구현한 칩을 의미할 수 있다.
로봇은 다양한 종류의 센서들로부터 획득한 센서 정보를 이용하여 로봇의 상태 정보를 획득하거나, 주변 환경 및 객체를 검출(인식)하거나, 맵 데이터를 생성하거나, 이동 경로 및 주행 계획을 결정하거나, 사용자 상호작용에 대한 응답을 결정하거나, 동작을 결정할 수 있다.
로봇은 적어도 하나 이상의 인공 신경망으로 구성된 학습 모델을 이용하여 상기한 동작들을 수행할 수 있다. 예컨대, 로봇은 학습 모델을 이용하여 주변 환경 및 객체를 인식할 수 있고, 인식된 주변 환경 정보 또는 객체 정보를 이용하여 동작을 결정할 수 있다. 여기서, 학습 모델은 로봇에서 직접 학습되거나, AI 서버등의 외부 장치에서 학습된 것일 수 있다.
이때, 로봇은 직접 학습 모델을 이용하여 결과를 생성하여 동작을 수행할수도 있지만, AI 서버 등의 외부 장치에 센서 정보를 전송하고 그에 따라 생성된 결과를 수신하여 동작을 수행할 수도 있다.
인공 지능을 통해 로봇은 자율주행을 수행할 수 있다. 스스로 최적의 경로를 판단하고 장애물을 피해서 이동 가능한 기술을 의미하며 현재 적용되고 있는 자율주행 기술은 주행중인 차선을 유지하는 기술, 어댑티브 크루즈 컨트롤과 같이 속도를 자동으로 조절하는 기술, 정해진 경로를 따라 자동으로 주행하는 기술, 목적지가 설정되면 자동으로 경로를 설정해주는 주행기술 등이 모두 포함될 수 있다.
자율주행을 수행하기 위해서는 주변상황의 데이터를 인지하기 위해 수많은 센서를 포함할 수 있다. 센서로는 근접 센서, 조도 센서, 가속도 센서, 자기센서, 자이로 센서, 관성 센서, RGB 센서, IR 센서, 지문 인식 센서, 초음파 센서, 광 센서, 마이크로폰, 라이다, 레이더 등을 들 수 있다.
센서에서 수집한 정보 이외에 RGBC카메라, 적외선 카메라 등을 통해 수집한 영상정보와 마이크로폰을 통해 수집한 음향정보를 통해 자율주행을 수행할 수 있다. 또한, 사용자 입력부를 통해 입력된 정보에 기초하여 주행할 수 있다. 무선통신부를 통해 수집한 맵 데이터, 위치정보 및 주변 상황의 정보 등 또한 자율주행 수행에 필요한 정보들이다.
맵 데이터에는 로봇이 이동하는 공간에 배치된 다양한 객체들에 대한 객체 식별 정보가 포함될 수 있다. 예컨대, 맵 데이터에는 벽, 문 등의 고정 객체들과 화분, 책상 등의 이동 가능한 객체들에 대한 객체 식별 정보가 포함될 수 있다. 그리고, 객체 식별 정보에는 명칭, 종류, 거리, 위치 등이 포함될 수 있다.
따라서 로봇은 인공지능이 학습할 수 있는 데이터를 수집하기 위해 센서 및 다양한 입력부 그리고 무선통신부 등을 필수적으로 구비하고 각종정보를 종합하여 최적의 동작을 수행할 수 있다. 인공지능을 수행하는 러닝 프로세서는 로봇내의 제어부에 탑재하여 학습을 수행할 수도 있고, 수집한 정보를 서보로 전송하고 서버를 통해 학습하여 학습결과를 로봇에 다시 전송하여 이를 기초로 자율주행을 수행할 수 있다.
인공지능을 구비한 로보트는 새로운 장소에서도 주변 정보를 수집하여 전체 맵을 구현할 수 있으며, 주요활동반경의 장소는 누적되는 정보량이 많아 보다 정확한 자율주행을 수행할 수 있다.
사용자 입력을 받기위해 터치스크린이나 버튼을 구비할 수 있으며 사용자의 음성을 인식하여 명령을 입력받을 수도 있다. 프로세서는 음성입력을 문자열로 변환하기 위해 STT(Speech To Text) 엔진 또는 자연어의 의도 정보를 획득하기 위한 자연어 처리(NLP: Natural Language Processing) 엔진 중에서 적어도 하나 이상을 이용하여, 사용자 입력에 상응하는 의도 정보를 획득할 수 있다.
이때, STT 엔진 또는 NLP 엔진 중에서 적어도 하나 이상은 적어도 일부가 머신 러닝 알고리즘에 따라 학습된 인공 신경망으로 구성될 수 있다. 그리고, STT 엔진 또는 NLP 엔진 중에서 적어도 하나 이상은 러닝 프로세서에 의해 학습된 것이나, AI 서버의 러닝 프로세서에 의해 학습된 것이거나, 또는 이들의 분산 처리에 의해 학습된 것일 수 있다.
[도 1- 22RBZ007]
도 1은 본 발명의 일 실시 예에 따른 5G 네트워크 기반의 클라우드 시스템(1000)을 나태낸다.
도 1을 참고하면, 클라우드 시스템(1000)은 운송 로봇(100), 이동 단말(300), 로봇 관제 시스템(200), 각종 기기(400) 및 5G 네트워크(500)를 포함할 수 있다.
운송 로봇(100)은 물품을 출발지에서 목적지로 운반하는 로봇이다. 운송 로봇(100)은 물류 센터에서 직접 목적지까지 이동할 수 있으며, 물류 센터에서 물품 목적지 주변까지 차량에 적재되어 이동한 후, 목적지 주변에서 하차하여 목적지까지 이동할 수 있다.
또한, 운송 로봇(100)은 실외뿐만 아니라 실내에서도 물품을 목적지로 이동할 수 있다. 운송 로봇(100)은 AGV(Automated Guided Vehicle)로 구현될 수 있으며, AGV는 바닥면의 센서, 자기장, 비전기기 등에 의해 움직이는 운송 장치일 수 있다.
운송 로봇(100)은 물품을 저장하는 보관 영역(Storage Area)을 포함할 수 있으며, 상기 보관 영역은 다양한 물품을 적재하기 위해 분할될 수 있으며, 분할된 복수의 부분 보관 영역에는 다양한 종류의 물품이 배치될 수 있다. 이에 따라, 물품의 혼입이 방지될 수 있다.
이동 단말(300)은 5G 네트워크(500)를 통해 운송 로봇(100)과 통신할 수 있다. 이동 단말(300)은 물품을 적재하기 위해 파티션을 보관 영역에 설치하는 사용자가 소지한 기기 또는 적재된 물품의 수령자가 소지한 기기일 수 있다. 이동 단말(300)은 영상 기반으로 정보를 제공할 수 있으며, 이동 단말(300)은 휴대폰, 스마트 폰(smart phone), 웨어러블 디바이스(wearable device, 예를 들어, 워치형 단말기 (smartwatch), 글래스형 단말기 (smart glass), HMD(head mounted display)) 등의 이동형 기기들을 포함할 수 있다.
로봇 관제 시스템(200)는 운송 로봇(100)을 원격으로 제어할 수 있으며, 운송 로봇(100)의 다양한 요청에 응답할 수 있다. 예를 들면, 로봇 관제 시스템(200)은 운송 로봇(100)의 요청에 기초하여, 인공 지능을 이용한 연산을 수행할 수 있다.
또한, 로봇 관제 시스템(200)은 운송 로봇(100)의 이동 경로를 설정할 수 있으며, 로봇 관제 시스템(200)은 복수의 목적지가 있는 경우, 목적지의 이동 순서를 설정할 수 있다.
각종 기기(400)는 개인 컴퓨터(PC, 400a), 자율 주행차(400b), 홈 로봇(400c) 등을 포함할 수 있다. 운송 로봇(100)은 물품의 운송 목적지에 도착하는 경우, 홈 로봇(400c)과의 통신을 통해 홈 로봇(400c)에 직접 물품을 전달할 수 있다.
각종 기기(400)는 운송 로봇(100), 이동 단말(300), 로봇 관제 시스템(200) 등과 5G 네트워크(500)를 통해 유무선으로 연결될 수 있다.
상기 운송 로봇(100), 이동 단말(300), 로봇 관제 시스템(200) 및 각종 기기(400)는 모두 5G 모듈을 탑재하여 100Mbps 내지 20Gbps(또는, 그 이상) 속도로 데이터를 송수신할 수 있어서 대용량의 동영상 파일을 다양한 기기로 전송할 수 있으며, 저전력으로 구동되어 전력 소비가 최소화되게 할 수 있다. 다만, 상기 전송 속도는 실시 예에 따라 달리 구현될 수 있다.
5G 네트워크(500)는 5G 이동 통신 네트워크, 근거리 네트워크, 인터넷 등을 포함할 수 있으며, 유무선으로 기기들의 통신 환경을 제공할 수 있다.
[도 2-22RBZ007]
도 2은 본 발명의 일 실시 예에 따른 운송 로봇(100)의 구성을 설명하기 위한 도면이다. 본 발명의 일 실시예에 따른 운송 로봇(100)을 도시한 도 3 내지 5를 함께 참고하여 설명하기로 한다.
도 2을 참고하면, 운송 로봇(100)은 보관 영역(50)을 포함하는 바디(101, 도 3 참고)를 포함할 수 있으며, 후술하는 구성들이 바디(Body)에 포함될 수 있다. 운송 로봇(100)은 통신부(110), 입력부(120), 센서부(140), 출력부(150), 메모리(185), 휠 구동부(170), 제어부(180) 및 전원공급부(190)를 포함할 수 있다. 도 2에 도시된 구성요소들은 운송 로봇(100)을 구현하는데 있어서 필수적인 것은 아니어서, 본 명세서 상에서 설명되는 운송 로봇(100)은 위에서 열거된 구성요소들 보다 많거나, 또는 적은 구성요소들을 가질 수 있다.
통신부(110, Transceiver)는 로봇 관제 시스템(200)과 통신할 수 있는 유무선의 통신 모듈을 포함할 수 있다.
선택적 실시 예로 상기 통신부(110)는 GSM(Global System for Mobile communication), CDMA(Code Division Multi Access), LTE(Long Term Evolution), 5G, WLAN(Wireless LAN), Wi-Fi(Wireless-Fidelity), 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association;IrDA), ZigBee, NFC(Near Field Communication) 통신에 관한 모듈을 탑재할 수 있다.
입력부(120)는 사용자로부터 정보를 입력 받기 위한 사용자 입력부(122)를 포함할 수 있다. 선택적 실시 예로 입력부(120)는 영상 신호 입력을 위한 카메라(121), 오디오 신호를 수신하기 위한 마이크로폰(123, "이하, 마이크로 칭함")을 포함할 수 있다. 여기서, 카메라(121)나 마이크(123)를 센서로 취급하여, 카메라(121)나 마이크(123)에서 획득한 신호를 센싱 데이터 또는 센서 정보라고 할 수도 있다.
입력부(120)는 모델 학습을 위한 학습 데이터 및 학습 모델을 이용하여 출력을 획득할 때, 사용될 입력 데이터 등을 획득할 수 있다. 입력부(120)는 가공되지 않은 입력 데이터를 획득할 수도 있으며, 이 경우 제어부(180)는 입력 데이터에 대하여 전처리로써 입력 특징점(input feature)을 추출할 수 있다.
카메라(121)는 전방의 장애물을 감지하기 위해 전방에 위치하며, 도 3에 도시된 바와 같이 각도가 상이하게 복수개가 배치될 수 있다. 전방을 넓게 인식하는 카메라와 바닥을 촬영하는 카메라와 같이 촬영 방향이 상이한 복수개의 카메라(121)를 구비할 수 있다.
또는 상이한 기능을 가지는 카메라를 구비할 수 있다. 예를 들어 광각카메라, 적외선 카메라 등을 구비할 수 있다. 카메라는 센서부(140)로서 주변의 사물을 감지하는 역할을 할 수 있다.
사용자 입력부(122)는 버튼이나 터치입력을 위한 터치패널을 구비할 수 있다. 또는 원격으로 통신부(110)를 통해 사용자 명령을 입력할 수도 있으며, 이 경우 사용자 입력부(122)는 운송 로봇(100)과 별도로 구비된 개인 컴퓨터(400)나 원격제어장치를 포함할 수 있다.
사용자 입력부(122)는 사용자 명령을 입력받는 방식을 모두 포함하므로 음성인식을 통해 사용자 명령을 인식할 수 있다. 즉 마이크(123)서 수집한 음성을 분석하여 사용자 명령을 추출하는 음성인식장치도 사용자 입력부(122)로서 역할을 할 수 있다.
입력부(120)는 물품 정보 입력부를 포함할 수 있는데, 상기 물품 정보 입력부는 물품의 사이즈 정보, 무게 정보, 목적지 정보, 운송 의뢰자에 대한 정보 등을 입력받을 수 있다. 이때, 상기 물품 정보 입력부는 코드 리더를 포함할 수 있다.
센서부(140)는 다양한 센서들을 이용하여 운송 로봇(100)의 내부 정보, 운송 로봇(100)의 주변 환경 정보 및 사용자 정보 중 적어도 하나를 획득할 수 있다.
이때, 센서부(140)는 자율주행을 위해 주변을 인식하기 위한 다양한 종류의 센서를 포함할 수 있다. 대표적으로 거리 감지 센서 또는 근접센서(141)와 라이다(142)를 들 수 있다.
근접센서(141)는 사출한 초음파가 돌아오는 시간을 기초로 근처의 사물을 인식하고 사물과의 거리를 판단하는 초음파 센서를 포함할 수 있다. 근접센서는 둘레를 따라 복수개를 구비할 수 있으며, 상측의 장애물을 감지하기 위해 상측에도 구비할 수 있다.
라이다(Lidar, 142)는 레이저 펄스를 발사하고 그 빛이 주위의 대상물체에 반사되어 돌아오는 것을 받아 주변의 모습을 정밀하게 그려내는 장치이다. 레이다와 같이 그 원리는 유사하나 사용하는 전자기파가 달라 이용 기술과 활용범위가 상이하다.
레이저는 600~1000nm 파장의 빛을 사용하기 때문에 사람의 시력을 손상시킬 수 있다. 라이다(342)는 이보다 더 긴 파장을 이용하며, 대상 물체까지의 거리뿐 아니라 움직이는 속도와 방향, 온도, 주변의 대기 물질 분석 및 농도 측정 등에 쓰인다.
그 외에 센서부(140)는 조도 센서, 가속도 센서, 자기 센서, 자이로 센서, 관성 센서, RGB 센서, 적외선 센서, 지문 인식 센서, 초음파 센서, 광 센서, 홀센서 등을 포함할 수 있다.
출력부(150)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시킬 수 있는데, 출력부(150)는 시각 정보를 출력하는 광 출력부, 디스플레이 (151) 등을 포함할 수 있으며, 청각 정보를 출력하는 스피커 (152), 비가청 주파수에 속하는 초음파 신호를 출력하는 초음파 출력부 등을 포함할 수 있고, 촉각 정보를 출력하는 햅틱 모듈을 포함할 수 있다.
메모리(185)는 운송 로봇(100)의 다양한 기능을 지원하는 데이터를 저장한다. 메모리(185)는 운송 로봇(100)에서 구동되는 다수의 응용 프로그램(application program 또는 애플리케이션(application)), 운송 로봇(100)의 동작을 위한 데이터들, 명령어들을 저장할 수 있다.
아울러, 메모리(185)는 인공 지능, 머신 러닝, 인공 신경망을 이용하여 연산을 수행하는데 필요한 정보를 저장할 수 있다. 메모리(150)는 심층 신경망 모델을 저장할 수 있다. 상기 심층 신경망 모델은 학습 데이터가 아닌 새로운 입력 데이터에 대하여 결과 값을 추론해 내는데 사용될 수 있고, 추론된 값은 어떠한 동작을 수행하기 위한 판단의 기초로 이용될 수 있다.
전원공급부(190)는 프로세서(190)의 제어 하에서, 외부의 전원, 내부의 전원을 인가 받아 운송 로봇(100)의 각 구성요소들에 전원을 공급한다. 이러한 전원공급부(190)는 배터리(191)를 포함하며, 상기 배터리(191)는 내장형 배터리 또는 교체가능한 형태의 배터리가 될 수 있다. 상기 배터리는 유선 또는 무선 충전 방식으로 충전될 수 있는데, 무선 충전 방식은 자기 유도 방식 또는 자기 공진 방식을 포함할 수 있다.
주행부(170)는 운송 로봇(100)을 이동시키기 위한 수단으로서, 휠 또는 레그를 포함할 수 있으며 이를 제어하는 휠 구동부 및 레그 구동부를 포함할 수 있다. 휠 구동부 바닥면에 구비된 복수의 휠을 제어하여 바디(Body)를 포함하는 운송 로봇(100)을 이동시킬 수 있다.
휠은 빠른 주행을 위한 메인휠(171)과 휠이 회전하는 차축 이외에 바디(101)와 결합되어 회전하는 주축을 포함하는캐스터 그리고 주행 중 적재된 물품(L)이 떨어지지 않도록 지지력을 보강하는 보조 캐스터(173) 등을 포함할 수 있다.
레그 구동부(미도시)는 제어부(180)의 제어에 따라 복수의 레그를 제어하여 바디를 이동시킬 수 있다. 복수의 레그는 운송 로봇(100)이 걷거나 뛸 수 있도록 형성된 구성에 해당될 수 있다. 복수의 레그는 4 개로 구현될 수 있으나, 실시 예가 이에 국한되는 것은 아니다. 복수의 레그는 바디에 결합되어 일체형으로 형성될 수 있으며, 바디에 탈부착 형태로 구현될 수 있다.
운송 로봇(100)은 휠 구동부 및/또는 레그 구동부 중 적어도 하나를 구비하는 주행부(170)를 통해 바디를 이동시킬 수 있다. 다만, 본 명세서 상에서는 휠 구동부가 이동 로봇(100)에 탑재된 예를 주로 설명한다.
제어부(180)는 운송 로봇(100)의 구성들을 컨트롤하는 모듈이다. 상기 제어부(180)는 프로그램 내에 포함된 코드 또는 명령으로 표현된 기능을 수행하기 위해 물리적으로 구조화된 회로를 갖는, 하드웨어에 내장된 데이터 처리 장치를 의미할 수 있다. 이와 같이 하드웨어에 내장된 데이터 처리 장치의 일 예로써, 마이크로프로세서(microprocessor), 중앙처리장치(central processing unit: CPU), 프로세서 코어(processor core), 멀티프로세서(multiprocessor), ASIC(application-specific integrated circuit), FPGA(field programmable gate array) 등의 처리 장치를 망라할 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다.
제어부(180)는. 가령, 제어부(180)는 입력부(120)를 통해 상기 정보들을 수집할 수 있다. 상기 입력부(120)의 입력은 디스플레이 상의 터치 입력도 포함할 수 있다.
제어부(180)는 수집된 상기 정보들에 기초하여, 적재 영역(50)에 적재된 물품(L)의 정보를 통신부(110)를 통해 이동 단말(도 1의 200)으로 전송할 수 있다.
[도 3 -기계학습 표준]
도 3를 참조하면, 로봇 관제 시스템(200)은 AI서버를 포함할 수있다. AI 서버는 머신 러닝 알고리즘을 이용하여 인공 신경망을 학습시키거나 학습된 인공 신경망을 이용하는 장치를 의미할 수 있다. 여기서, 로봇 관제 시스템(200)는 복수의 서버들로 구성되어 분산 처리를 수행할 수도 있고, 5G 네트워크로 정의될 수 있다. 이때, AI 서버는 운송 로봇(100)의 일부의 구성으로 포함되어, 운송 로봇(100) 자체에서 AI 프로세싱 중 적어도 일부를 함께 수행할 수도 있다.
로봇 관제 시스템(200)는 통신부(210), 메모리(230), 러닝 프로세서(240) 및 프로세서(260) 등을 포함할 수 있다.
통신부(210)는 운송 로봇(100) 등의 외부 장치와 데이터를 송수신할 수 있다.
메모리(230)는 모델 저장부(231)를 포함할 수 있다. 모델 저장부(231)는 러닝 프로세서(240)을 통하여 학습 중인 또는 학습된 모델(또는 인공 신경망, 231a)을 저장할 수 있다.
러닝 프로세서(240)는 학습 데이터를 이용하여 인공 신경망(231a)을 학습시킬 수 있다. 학습 모델은 인공 신경망의 로봇 관제 시스템(200)에 탑재된 상태에서 이용되거나, 운송 로봇(100) 등의 외부 장치에 탑재되어 이용될 수도 있다.
학습 모델은 하드웨어, 소프트웨어 또는 하드웨어와 소프트웨어의 조합으로 구현될 수 있다. 학습 모델의 일부 또는 전부가 소프트웨어로 구현되는 경우 학습 모델을 구성하는 하나 이상의 명령어(instruction)는 메모리(230)에 저장될 수 있다.
프로세서(260)는 학습 모델을 이용하여 새로운 입력 데이터에 대하여 결과 값을 추론하고, 추론한 결과 값에 기초한 응답이나 제어 명령을 생성할 수 있다.
[도 4]
도 4는 본 발명의 일 실시예에 따른 운송 로봇(100)의 사시도이고 도 5는 본 발명의 일 실시예에 따른 운송 로봇(100)의 내부 부품을 도시한 도면이다.
본 발명의 운송 로봇(100)은 바디(101)의 하부에 위치하는 주행부(170)를 통해 이동할 수 있다. 운송 로봇(100)의 본체는 박스 형상의 형태를 가질 수 있으며 물품을 적재하는 영역이 없으므로 바디(101)는 주행부(170), 배터리(191), 기판 조립체(181) 등의 부품만 실장되면 충분하므로 납작한 형태를 가질 수 있다.
다만, 사용자가 사용의 편의성을 위해 디스플레이(151)는 사용자의 눈높이를 고려하여 수직 브라켓(102)을 통해 바디(101)의 상측에 이격된 위치에 배치될 수 있다. 디스플레이(151)는 터치센서를 구비하여 입력부로서 기능을 수행하며, 사용자는 디스플레이(151)를 통해 목적지 입력 및 운송 로봇(100)의 기능 설정의 변경을 수행할 수 있다.
주행방향의 반대 방향으로 트레일러(600)가 위치하므로 트레일러(600)와 체결하는 트레일러(600)의 커넥터(630)는 주행방향의 반대방향에서 결합한다.
따라서, 트레일러(600)의 커넥터(630)와 간섭이 없도록 디스플레이(151)가 위치하는 수직 브라켓(102)은 주행방향의 전면 방향에 위치할 수 있다.
수직 브라켓(102)은 디스플레이(151)를 위치하는 기능 이외에 카메라나 센서가 위치할 수 있다. 트레일러(600)의 높이를 고려하면 상부까지 장애물의 유무를 감지할 필요가 있다. 상측방향에 카메라나 센서가 위치하면 감지가능한 범위가 확장되므로 일정 높이에 카메라와 센서를 배치하기 위해 수직 브라켓(102)을 이용할 수 있다.
본 실시예는 소정 높이에 위치하는 카메라를 구비할 수 있으며 본 실시예의 카메라는 전면을 향하는 카메라와 하측으로 비스듬하게 위치하는 카메라 한 쌍을 구비할 수 있다.
경고음이나 사용자에게 알림을 제공하기 위해 스피커(152)를 더 구비할 수 있으며 사용자의 귀의 위치를 고려하여 수직 브라켓(102) 상에 위치시킬 수 있다.
라이다(142)와 근접센서(141)는 바디(101)에 위치할 수 있으며, 라이다는 센싱 범위가 넓으므로 라이다(142)의 센싱범위를 확장하기 위해 도 4에 도시된 바와 같이 수평방향으로 긴 홈을 포함할 수 있다.
근접센서(141)는 정밀하게 위치를 감지하기 위해 바디(101)의 둘레를 따라 복수개가 위치할 수 있다. 주로 주행방향의 장애물이 문제가 되고 후방에는 트레일러(600)가 위치하므로 근접센서는 전방에만 위치할 수 있다.
도 5를 참고하면 바디(101) 내부에 위치하는 부품을 확인할 수 있다. 바디(101) 내부에 부품이 실장되기 위해 프레임을 구비하며, 프레임의 하부에 주행부(170)가 위치하고 그 상부에 기판 조립체(181)와 배터리(191) 및 라이다(142)와 같은 부품이 탑재된다.
주행부(170)를 구성하는 메인휠(171)은 모터가 연결되어 구동력을 직접적으로 전달하고, 모터의 속도를 조절하여 운송 로봇(100)의 속도를 제어할 수 있다.
캐스터(173)는 휠의 회전축인 차축과 차축에 수직방향으로 배치되며 바디(101)에 대해 회전하는 주축을 포함한다. 캐스터(173)를 이용하여 주행 로봇의 이동 방향을 제어할 수 있고, 또는 메인휠의 좌우 회전속도를 조절하여 주행방향을 변경할 수 있다.
캐스터(173)의 방향을 조절하여 바디(101)가 제자리에서 회전할 수 있으며, 이러한 형태의 주행부(170)는 제한된 공간에서 운송 로봇(100)이 장애물을 피해 이동할 수 있도록 도와준다.
배터리(191)와 기판 조립체(181)는 운송 로봇(100)의 중량 대부분을 차지하므로 바닥쪽에 위치하여 안정적으로 이동하도록 제어할 수 있다.
운송 로봇(100)은 자체적으로 물품을 탑재할 수 있는 타입도 있으나, 본 발명의 운송 로봇(100)은 물품이 적재된 트레일러(600)와 연결하여 트레일러(600)를 견인하는 타입의 운송 로봇(100)이다.
도 4에 도시된 바와 같이 바디(101)에 트레일러(600)의 커넥터(630)가 체결되기 위한 커넥터 홀더(130)를 구비할 수 있다. 본 실시예는 별도의 적재공간이 없어 바디(101)의 높이가 낮으므로 바디(101)의 상부에 위치할 수 있으며 경우에 따라 바디(101)의 배면 방향에 위치할 수도 있다.
도 6는 본 발명의 일 실시예에 따른 운송 수단을 도시한 도면이다. 운송 수단은 운송 로봇(100)과 트레일러(600)를 모두 지칭한다.
도 6에 도시된 바와 같이 트레일러(600)는 상부에 적재공간을 포함하며, 다량의 물품을 안정적으로 적재하기 위해 층상구조를 가질 수 있다.
실내나 제한된 공간에서 이동하는 경우 속도가 빠르지 않은 바, 물품의 상하차가 용이하도록 측벽이 없이 프레임만으로 구성된 형태의 트레일러(600)를 이용할 수 있다.
트레일러(600)의 일측에 위치하는 커넥터(630)는 운송 로봇(100)의 커넥터 홀더(130)와 결합하며 운송 로봇(100)의 주행방향을 따라 이동할 수 있다.
트레일러(600)는 프레임의 하부에 복수개의 휠(670)을 포함할 수 있다. 휠(670)은 안정적인 운송을 위해 적어도 4개의 모서리 상에 위치하는 4개의 캐스터(671, 672)를 포함할 수 있다.
트레일러(600)의 휠(670)은 운송 로봇(100)의 이동 방향에 따라 자연스럽게 이동할 수 있도록 캐스터 형태를 가질 수 있다. 캐스터는 주축이 차축과 비스듬하게 위치하므로 휠(670)이 프레임(610)의 방향에 따라 자연스럽게 회전할 수 있다.
4개 모서리 이외에 길이방향으로 중간에 추가적으로 보조휠(673)을 더 구비할 수 있다. 보조휠(673)은 트레일러(600)가 일측으로 길이가 길어지는 경우 프레임(610)의 지지력을 보완하며, 보조휠(673)로 인하여 회전 중심(center of rotation)이 달라질 수 있다.
도 7은 본 발명의 일 실시예에 따른 운송 로봇(100)의 주행 경로에 따른 트레일러(600)의 위치를 도시한 도면이다. 도 7을 참고하면 보조휠(673)의 유무에 따른 트레일러(600)의 이동 태양이 달라진다. (a)는 보조휠(673)이 없는 트레일러(600)이고 (b)는 보조휠(673)이 있는 트레일러(600)이다.
도 7의 (a)를 참고하면 코너에서 운송 로봇(100)이 90°로 방향을 전환하여 우측으로 이동하는 경우 트레일러(600)는 우측 후면의 휠(672)을 중심으로 회전하게 된다. 트레일러(600)는 운송 로봇(100)에 연결되어 있으므로 우측의 후면 휠(672)의 위치는 조금씩 이동하지만 회전방향의 후면 휠(672)을 중심으로 트레일러(600)의 각도가 변화한다.
이 경우 회전 반경이 커지므로 트레일러(600)가 코너(C)에 부딪칠 수 있는 바, 회전 방향(본 실시예에서 우측방향)의 공간을 충분히 확보하여 회전하도록 주행 경로를 설계해야한다.
도 7의 (b)를 참고하면 중앙에 위치하는 보조휠(673)을 중심으로 회전하게 되어 보조휠(673)이 없는 (a)의 경우보다 회전 반경이 작아진다. 따라서, 좁은 공간에서 코너(C)에 부딪치지 않고 회전 가능한 장점이 있다.
다만, 보조휠(673)의 후방에 위치하는 트레일러(600)가 원래 트레일러(600)의 왼쪽 위치보다 더 왼쪽 방향으로 돌출되므로 회전 방향의 반대 방향(본 실시예는 좌측방향)의 공간을 더 확보한 주행 경로를 설계해야 한다.
도 8은 본 발명의 일 실시예에 따른 운송 수단(100, 600)의 연결부(130, 630)를 도시한 도면이고, 도 9는 도 8 의 A-A단면도이다.
트레일러(600)의 커넥터(630)는 트레일러(600)의 전면에 위치하고, 트레일러(600)의 프레임(610)에 수평방향의 축을 중심으로 회전가능하게 힌지결합 할 수 있다. 운송 로봇(100)의 높이에 상관없이 운송 로봇(100)의 커넥터 홀더(130)와 결합 가능하다.
커넥터(630)는 바 형상의 연결 브라켓을 포함하고 연결 브라켓의 일단은 트레일러(600)의 프레임에 힌지결합하고 타측은 커넥터 홀더(130)에 결합하기 위한 로드엔드 베어링(635)을 구비할 수 있다.
로드엔드 베어링(635)은 구를 관통하여 결합홀을 형성한 이너 베어링(6351)과 이너 베어링(6351)의 곡면에 상응한 내측면을 가지는 아우터 베어링을 포함한다. 이너 베어링(6351)이 구의 일부를 구성하는 곡면을 가지고 있으므로 이너 베어링(6351)의 결합홀은 3축회전이 가능하다. 운송 로봇(100)의 커넥터 홀더(130)의 높이가 커넥터(630)와 다르더라도 결합 가능하고, 회전 및 경사로 주행이 가능하다.
연결 브라켓의 하부에 보조 롤러(636)를 포함할 수 있다. 보조 롤러(636)는 운송 로봇(100)의 상면에 접하여 연결 브라켓이 운송 로봇(100)의 상면에 부딪쳐 운송 로봇(100)이 파손되는 것을 막는 쿠션 역할을 한다. 또한, 운송 로봇(100)의 주행방향에 변경시 운송 로봇(100)과 트레일러(600)의 각도가 변화하며, 이때 연결 브라켓의 회전을 방해하지 않도록 휠 형태로 구비할 수 있다.
연결 브라켓의 연장방향과 평행한 축을 중심으로 회전가능한 형태를 가지며 연결 브라켓의 회전을 방해하지 않고 보조할 수 있다.
운송 로봇(100)의 커넥터 홀더(130)는 운송 로봇(100)의 본체에 결합하는 고정 브라켓(131)과 고정 브라켓(131)에 회전 가능하게 결합하는 회전 브라켓(133)을 포함할 수 있다. 고정 브라켓(131)과 회전 브라켓(133) 사이의 회전을 위해 구름 베어링(132)을 구비할 수 있다.
커넥터(630)는 회전 브라켓(133)에 체결핀(134)을 이용하여 결합할 수 있다. 체결핀(134)은 로드엔드 베어링(635)의 이너 베어링(6351)의 결합홀에 삽입되어 회전 브라켓(133)에 고정된다.
다만, 커넥터(630)에 로드엔드 베어링(635)은 3개 축으로 회전 가능하므로 회전 결합부에 대해서도 수직방향을 축으로 회전할 수 있다. 따라서, 회전 결합부와 커넥터(630)가 따로 회전하지 않도록 회전 브라켓(133)은 커넥터(630)의 수평방향 좌우를 감싸는 형태로 측벽을 가질 수 있다.
따라서 커넥터(630)와 회전 브라켓(133)과 동시에 동일한 각도만큼 회전하며, 트레일러(600)가 흔들거리면서 이동하지 않고 안정적으로 운송 로봇(100)을 따라 이동할 수 있다.
도 10은 본 발명의 일 실시예에 따른 회전 브라켓(133)의 회전범위를 도시한 도면이다. 트레일러(600)의 위치가 주행방향의 전방에 위치하는 경우 주행이 어렵고 수직 브라켓(102)이 파손될 수 있는 바, 일정 범위 내에서 회전 브라켓(133)이 회전하도록 제한하는 스토퍼(135)를 더 포함할 수 있다.
스토퍼(135)는 회전 브라켓(133)과 맞닿는 형태를 가질 수도 있고, 도 10에 도시된 바와 같이 커넥터(630)와 맞닿아 회전을 제한하는 형태를 가질 수 있다.
본 발명의 운송 로봇(100)은 회전 브라켓(133)의 회전량을 감지하여 소프트웨어적으로 회전 브라켓(133)의 회전을 제한할 수 있다. 다만, 트레일러(600)의 무게가 무겁거나 빠른 속도로 회전시 소프트웨어적인 제어방법의 제한 각도 이상으로 회전할 수 있다.
이를 방지하기 위해 물리적인 스토퍼(135)를 구비하여, 소프트웨어 상의 제한 각도보다 조금 더 큰 각도까지 회전할 수 있도록 스토퍼(135)의 위치를 설정할 수 있다.
스토퍼(135)는 회전 브라켓(133)에 대해 주행"눰讐却* 위치하며, 주행"눰戮* 기준으로 좌우 대칭으로 구비할 수 있다.
커넥터 홀더(130)는 회전 브라켓(133)의 회전량을 감지하는 엔코더(136)를 더 포함할 수 있다. 엔코더(136)는 회전속도 또는 방향을 감지하는 센서로 회전 브라켓(133)의 회전량을 감지하여 제어부(180)로 전송한다.
제어부(180)는 엔코더(136)에서 감지한 회전량을 기초로 트레일러(600)의 위치를 추정할 수 있다. 회전 브라켓(133)의 회전량을 기초로 커넥터(630)의 각도를 추정할 수 있으며 커넥터(630)에 결합된 트레일러(600)의 크기(길이 및 폭)에 관한 정보를 기초로 트레일러(600)의 위치를 산출할 수 있다.
운송 로봇(100)의 제어부(180)는 엔코더(136)를 이용하여 트레일러(600)의 위치를 실시간 트래킹할 수 있어, 변경된 주행경로나 돌발 상황에서도 주행경로를 수정하여 주행할 수 있다.
이하에서는 엔코드를 구비한 운송 로봇(100)이 트레일러(600) 위치를 추정하여 새로운 주행경로 및 속도를 계산하며 트레일러(600)를 끌어서 운송하는 제어방법에 대해 살펴보도록 한다.
도 11 내지 도 13은 본 발명의 운송 로봇(100)의 제어방법을 도시한 순서도이다.
도 11을 참고하면 본 발명의 운송 로봇(100)의 목적지까지 이동하는 전체 순서도로서, 제어부(180)는 목적지로 이동명령을 수신하면(S110) 전체경로계획(Global path plan)을 세운다(S120).
목적지의 입력은 사용자 입력부를 통해 입력될 수도 있고, 원격제어를 통해 로봇 제어 시스템(200)이나 단말기(300) 등을 통해 입력될 수 있다.
전체경로는 목적지까지의 고정지도정보를 미리 가지고 있는 경우 이를 기초로 설계할 수 있다. 예를 들어 창고의 경우 창고의 벽체 및 기 설치된 랙등의 위치를 포함하는 고정지도정보를 활용하여 전체경로계획을 수립할 수 있다.
전체경로계획은 목적지까지의 최단거리를 우선으로 설정될 수 있으나, 곡선구간이 많거나 좁은 공간에서는 트레일러(600)와 함께 이동이 어려우므로 이를 고려하여 이동이 용이하면서 단거리의 경로를 설계할 수 있다.
또한 꺾어지는 구간에서 운송 로봇(100)만 이동하는 것이 아니므로 트레일러(600)의 길이 및 폭을 고려하여 전체경로를 설계해야하고, 도 7에서 검토한 바와 같이 휠의 위치 및 개수에 따라 회전 반경이 달라지므로 이를 고려하여 전체경로계획을 세울 필요가 있다. 즉, 연결된 트레일러(600)의 종류에 따라 전체경로계획은 변동된다.
전체경로계획에 따라 이동하기 위한 타겟 속도를 산출할 수 있다(S130). 연결된 트레일러(600)의 크기 및 무게 그리고 적재된 물품의 특성을 고려하여 속도를 설정할 수 있다. 트레일러(600)가 무거운 경우 회전시 원심력이 커지므로 빠른속도로 경로를 변경하면 물품이 떨어질 수 있다.
DWA(Dynamic Window Approach)를 이용하여 적정속도를 산출할 수 있다. DWA는 로봇의 속도탐색 영역(velocity search space)에서 로봇과 충돌 가능한 장애물을 회피하면서 목표점까지 빠르게 다다를 수 있는 속도를 선택하는 알고리즙이다. DWA는 기존의 위치, 속도 영역을 속도-각속도 영역으로 바꾸어 로봇의 속도, 방향 및 충돌을 고려하여 최대 속도와 각속도를 알 수 있다.
다만 고정지도정보에 표시되지 않는 다른 장애물이 존재하여 전체경로계획에 따라 진행할 수 없어 적정속도를 산출할 수 없을 수 있다. 예를 들어 적재된 물품이 있거나 다른 트레일러(600)가 세워져 있어 운송 로봇(100)의 전체경로계획상 주행이 불가능하면 제어부(180)가 DWA를 통해 산출한 적정속도는 0이 된다.
선택된 적정 속도가 없으면(S135) 지엽적 경로계획(Local path plan)을 세울 수 있다(S140). 지엽적 경로계획은 주변에 위치하는 장애물을 센서를 통해 인식하고 이와 부딪치지 않고 이동할 수 있는 경로를 산출할 수 있으며 지엽적 경로계획이 반영된 경로를 수정경로라 하자.
수정경로는 장애물을 피하여 목적지로 이동할 수 있는 경로로서, 장애물을 피해 이동할 수 있으므로 DWA를 통해 적정속도를 산출할 수 있다(S130).
산출된 적정속도가 존재하면(S135) 선택된 속도로 주행한다(S150). 본 발명의 운송 로봇(100)은 선택된 속도로 주행하면서 트레일러(600)의 자세정보를 수신할 수 있다(S160).
도 12는 트레일러(600)의 자세정보를 수집하는 방법의 세부 절차로, 엔코더(136)에서 얻은 커넥터(630)의 각도 데이터를 수신하고(S161), 데이터가 유효하지 않다면 엔코더(136)(센서)의 에러로 판단(S163)하고 센서의 불량을 사용자에게 알릴 수 있다.
엔코더(136)로부터 수신한 데이터가 유효한 데이터인 경우 이를 기초로 트레일러(600)의 위치/자세를 추정할 수 있다(S164).
도 11의 제어를 운송 로봇(100) 자체에서 수행하는 경우 운송 로봇(100)의 경로계획 모듈로 전송(S165)할 수 있고, 로봇 관제 시스템으로 전송하여 로봇 관제 시스템에서 충돌을 피할 수 있는 경로를 산출할 수 있다.
엔코더(136) 데이터를 기초로 트레일러(600)의 위치를 산출하는 것은 경로계획 및 주행 프로세스가 종료할때까지 계속할 수 있다(S166).
제어부(180)는 트레일러(600)의 자세정보 및 센서를 통해 수집한 장애물에 관한 데이터를 종합하여 트레일러(600)가 주변의 장애물과의 거리를 산출하고, 트레일러(600)가 장애물의 거리가 기준거리 이내에 위치하여 트레일러(600)가 장애물에 충돌 위험이 있거나 충돌이 발생여부를 판단할 수 있다(S170).
장애물과 거리가 기준거리 이상이어서 충돌 위험이 없으면 제어부(180)는 목적지에 도착할 때까지 주행할 수 있다(S190).
그러나 장애물과 거리가 기준거리 이내여서 충돌 위험이 있거나 충돌이 발생하면 장애물로부터 탈출할 수 있는 경로 및 속도를 산출할 수 있다(S180). 탈출 경로 및 속도의 산출하는 방법은 도 13에 구체적으로 도시되어 있다.
도 13을 참고하면 일단 속도를 0으로 설정하여 이동을 종료하고(S181), 엔코더(136)의 각도가 180°가 되도록 운송 로봇(100)이 회전한다(S182, S183). 엔코더(136)의 방향과 주행방향이 나란히 배치되도록 회전하여 직선 주행경로로 변경한다(S184)
직선 주행경로로 전환되면 V를 지정된 속도로 설정하여(S185) 탈출 경로 및 속도를 산출한다. 제어부(180)는 수정된 탈출경로 및 속도로 주행하며 (S150) 충돌 여부를 실시간으로 모니터링하며 주행을 계속할 수 있다.
도 14 및 도 15는 본 발명의 운송 수단의 이동을 개략적으로 도시한 도면으로, 특히 충돌이 발생하는 경우 충돌을 중단하는 과정을 도시하고 있다.
도면상에 운송 로봇(100)의 화살표(D)는 운송 로봇(100)의 주행방향을 의미하며 운송 로봇(100)과 트레일러(600) 사이의 직선(C)은 커넥터(630)를 의미하며 엔코더(136)가 감지한 각도가 주행방향(D)과 커넥터(630)(C) 사이의 각도가 된다.
도 14의 (a)를 참고하면 벽체(W)는 고정지도정보에 기록되어 있는 것으로 이를 기초로 전체경로계획(GPP)를 세웠으나(S120), 장애물(O)이 감지되므로 이를 피하여 지엽적경로계획(LPP)를 통해 수정경로로 주행할 수 있다(S140).
이때 트레일러(600)의 위치를 실시간으로 수신하고(S160) 트레일러(600)와 장애물(O) 및 고정지도에 위치하는 벽체(W) (이하에서는 센서에서 감지한 장애물(O) 및 고정 지도상의 벽체 등의 장애물을 모두 포함하여 장애물(O, W)라 한다) 등을 회피하며 이동할 수 있는 새로운 수정경로(LLP)를 생성한다.
도 14의 (b)에 도시된 바와 같이, 운송 로봇(100)은 이동시 트레일러(600)의 엔코더(136) 각도정보를 기초로 트레일러(600)의 위치정보를 계산하고 트레일러(600)가 장애물(O, W) 과의 거리를 탐색하며 주행을 지속한다.
도 14의 (c)에 도시된 바와 같이, 운송 로봇(100) 또는 트레일러(600)가 장애물과 충돌 또는 기준거리 이내에 근접하여 충돌이 우려되는 경우 일단 주행을 멈춘다
도 15의 (a)와 같이 트레일러(600)의 방향과 주행방향(D)이 일치하도록 회전한 후에 (b)와 같이 트레일러(600)와 운송 로봇(100)이 나란히 배치되도록 직선주행을 한다. 이때, 장애물(O, W)와 트레일러(600)의 거리를 지속적으로 모니터링하며, 주행하고, 소정거리 이격되면 도 15의 (c)와 같이 주행방향(D)을 변경하여 전체경로계획 또는 지엽적 경로계획 중 하나의 경로를 따라 목적지로 이동할 수 있다.
최초에 입력된 목적지에 도착하면 주행을 종료한다(S190).
본 발명의 운송 로봇(100)은 연결된 트레일러(600)와의 각도를 실시간 모니터링 할 수 있어 연결된 트레일러(600)의 위치정보를 실시간 확보할 수 있다.
또한, 트레일러(600)의 위치정보를 기초로 센서가 부착되지 않은 트레일러(600)와 장애물과의 거리를 판단할 수 있어, 운송 로봇은 연결된 트레일러(600)가 장애물에 충돌 없이 주행하도록 제어할 수 있다.
충돌 위험이 있더라도 이를 빠져나갈 수 있는 방향으로 탈출경로를 설계할 수 있어, 고정지도상에 없는 장애물도 피하면서 주행할 수 있다.
상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.

Claims (20)

  1. 주행부를 포함하는 바디; 및
    상기 바디에 위치하며 트레일러의 커넥터가 결합되는 커넥터 홀더를 포함하며,
    상기 커넥터 홀더는,
    상기 바디에 고정된 고정 브라켓;
    상기 고정 브라켓에 회전 가능하게 결합된 회전 브라켓;
    상기 트레일러의 커넥터를 관통하여 상기 회전 브라켓과 체결하는 체결핀; 및
    상기 회전 브라켓의 회전을 감지하는 엔코더를 포함하는 운송 로봇.
  2. 제1항에 있어서,
    상기 회전 브라켓의 일측에 위치하며, 상기 회전 브라켓의 회전범위를 제한하는 스토퍼를 더 포함하는 운송 로봇.
  3. 제2항에 있어서,
    상기 스토퍼는 상기 회전 브라켓의 상기 주행부의 주행방향에 위치하며
    상기 주행방향을 기준으로 좌우 대칭인 것을 특징으로 하는 운송 로봇.
  4. 제1항에 있어서,
    상기 엔코더에서 측정한 상기 회전 브라켓의 회전량 데이터를 기초로 상기 트레일러의 위치정보를 산출하는 제어부를 더 포함하는 것을 특징으로 하는 운송 로봇.
  5. 제4항에 있어서,
    상기 제어부는 상기 회전 브라켓의 회전량 데이터 및 상기 트레일러의 길이 및 폭 정보를 기초로 상기 트레일러의 위치정보를 산출하며,
    상기 트레일러의 위치정보는
    상기 트레일러의 바닥면의 네 개 모서리의 위치정보를 포함하는 것을 특징으로 하는 운송 로봇.
  6. 제4항에 있어서,
    주변 장애물을 감지하는 센서부를 더 포함하고,
    상기 제어부는,
    상기 센서부에서 인식한 주변정보를 기초로 장애물의 위치정보를 산출하는 것을 특징으로 하는 운송 로봇.
  7. 제6항에 있어서,
    상기 제어부는,
    목적지에 관한 고정지도정보를 기초로 목적지에 도달하는 주행경로를 산출하고,
    상기 트레일러의 위치정보 및 상기 장애물의 위치정보를 기초로 상기 장애물을 회피하는 수정경로 및 주행속도를 산출하는 것을 특징으로 하는 운송 로봇.
  8. 제7항에 있어서,
    상기 제어부는 상기 트레일러의 바퀴위치 정보 및 상기 트레일러 및 트레일러에 하적된 물품의 무게 정보를 기초로 상기 트레일러의 예상위치를 계산하고,
    상기 트레일러의 예상위치가 상기 장애물과 충돌이 일어나지 않도록 상기 수정경로 및 주행속도를 산출하는 것을 특징으로 하는 운송 로봇.
  9. 제7항에 있어서,
    상기 제어부는
    상기 장애물의 위치정보와 상기 트레일러의 위치정보를 기초로 상기 트레일러의 거리를 측정하고,
    상기 트레일러가 장애물과 소정거리 이내에 위치하는 경우 속도를 0으로 설정하는 것을 특징으로 하는 운송 로봇.
  10. 제9항에 있어서,
    상기 제어부는
    상기 엔코더의 방향이 주행방향과 180를 이루도록 상기 바디를 회전하고,
    상기 장애물과 상기 트레일러의 거리가 소정거리 이상 이격될 때까지 직선주행하도록 수정경로를 계산하는 것을 특징으로 하는 운송 로봇.
  11. 주행부를 포함하는 바디 및 상기 바디에 결합된 커넥터 홀더를 포함하는 운송 로봇; 및
    상기 운송 로봇의 커넥터 홀더에 회전가능하게 결합하는 커넥터를 포함하는 트레일러를 포함하며,
    상기 커넥터 홀더는,
    상기 바디에 고정된 고정 브라켓;
    상기 고정 브라켓에 회전 가능하게 결합된 회전 브라켓; 및
    상기 트레일러의 커넥터를 관통하여 상기 회전 브라켓과 체결하는 체결핀을 포함하는 운송 수단.
  12. 제11항에 있어서,
    상기 커넥터는
    상기 트레일러의 프레임에 상하방향으로 회동 가능하게 결합하는 연결 브라켓; 및
    상기 연결 브라켓의 단부에 위치하며, 상기 체결핀이 관통하는 로드엔드베어링을 포함하는 것을 특징으로 하는 운송 수단.
  13. 제12항에 있어서,
    상기 연결 브라켓의 하부에 상기 연결 브라켓의 연장방향과 수평한 회전축을 중심으로 회전 가능하게 결합된 보조롤러를 포함하는 것을 특징으로 하는 운송 수단.
  14. 제11항에 있어서,
    상기 운송 로봇은,
    상기 회전 브라켓의 회전을 감지하는 엔코더; 및
    상기 엔코더에서 측정한 상기 회전 브라켓의 회전량 데이터를 기초로 상기 트레일러의 위치정보를 산출하는 제어부를 더 포함하는 것을 특징으로 하는 운송 수단.
  15. 제14항에 있어서,
    주변 장애물을 감지하는 센서부를 포함하고,
    상기 제어부는,
    상기 센서부에서 인식한 주변정보를 기초로 장애물의 위치정보를 산출하며,
    목적지에 관한 고정지도정보를 기초로 목적지에 도달하는 주행경로를 산출하고,
    상기 트레일러의 위치정보 및 상기 장애물의 위치정보를 기초로 상기 장애물을 회피하는 수정경로 및 주행속도를 산출하는 것을 특징으로 하는 운송 수단.
  16. 목적지로 이동명령 수신하는 단계;
    상기 목적지에 도달하는 주행경로를 산출하는 단계;
    주행속도를 산출하는 단계;
    상기 주행경로를 따라 상기 주행속도로 운송 로봇이 주행하도록 주행부를 제어하는 단계;
    연결된 트레일러의 위치정보를 산출하는 단계;
    주변의 장애물을 인식하는 단계; 및
    상기 트레일러의 위치정보를 기초로 상기 트레일러가 상기 장애물에 충돌되지 않도록 수정경로를 산출하는 단계를 포함하는 것을 특징으로 하는 운송 로봇 제어방법.
  17. 제16항에 있어서,
    상기 장애물의 위치정보와 상기 트레일러의 위치정보를 기초로 상기 트레일러의 거리를 측정하는 단계; 및
    상기 트레일러가 장애물과 소정거리 이내에 위치하는 경우 속도를 0으로 설정하여 주행을 정지하는 단계를 포함하는 운송 로봇 제어방법.
  18. 제16항에 있어서,
    상기 트레일러와 상기 운송 로봇의 연결 방향이 주행방향과 180를 이루도록 상기 운송 로봇을 회전하고,
    상기 장애물과 상기 트레일러의 거리가 소정거리 이상 이격될 때까지 직선주행하도록 수정경로를 계산하는 것을 특징으로 하는 운송 로봇 제어방법.
  19. 제16항에 있어서,
    상기 트레일러의 위치정보를 산출하는 단계는,
    상기 트레일러와 상기 운송 로봇 사이의 각도를 수신하는 단계; 및
    상기 각도, 상기 트레일러의 바퀴위치 정보 및 상기 트레일러 및 트레일러에 하적된 물품의 무게 정보를 기초로 상기 트레일러의 예상위치를 산출하는 것을 특징으로 하는 운송 로봇 제어방법.
  20. 제19항에 있어서,
    상기 트레일러의 예상위치가 상기 장애물과 충돌이 일어나지 않도록 상기 수정경로 및 주행속도를 산출하는 단계를 포함하는 것을 특징으로 하는 운송 로봇 제어방법.
PCT/KR2022/008561 2022-06-16 2022-06-16 운송 로봇, 운송 수단 및 그 제어방법 WO2023243748A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/KR2022/008561 WO2023243748A1 (ko) 2022-06-16 2022-06-16 운송 로봇, 운송 수단 및 그 제어방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2022/008561 WO2023243748A1 (ko) 2022-06-16 2022-06-16 운송 로봇, 운송 수단 및 그 제어방법

Publications (1)

Publication Number Publication Date
WO2023243748A1 true WO2023243748A1 (ko) 2023-12-21

Family

ID=89191523

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2022/008561 WO2023243748A1 (ko) 2022-06-16 2022-06-16 운송 로봇, 운송 수단 및 그 제어방법

Country Status (1)

Country Link
WO (1) WO2023243748A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009006415A (ja) * 2007-06-26 2009-01-15 Ihi Corp 搬送ロボットとその動作制御方法並びに協調搬送システム及び方法
KR20130002549U (ko) * 2011-10-19 2013-04-29 르노삼성자동차 주식회사 물건 이송용 견인대차의견인고리 어셈블리
US20180281178A1 (en) * 2015-04-13 2018-10-04 Mobile Industrial Robots Aps Robotic cart pulling vehicle for automated pulling of carts
JP2019117431A (ja) * 2017-12-26 2019-07-18 トヨタ自動車株式会社 自律移動ロボット
JP2021015415A (ja) * 2019-07-11 2021-02-12 オムロン株式会社 牽引装置および牽引装置を備えた搬送装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009006415A (ja) * 2007-06-26 2009-01-15 Ihi Corp 搬送ロボットとその動作制御方法並びに協調搬送システム及び方法
KR20130002549U (ko) * 2011-10-19 2013-04-29 르노삼성자동차 주식회사 물건 이송용 견인대차의견인고리 어셈블리
US20180281178A1 (en) * 2015-04-13 2018-10-04 Mobile Industrial Robots Aps Robotic cart pulling vehicle for automated pulling of carts
JP2019117431A (ja) * 2017-12-26 2019-07-18 トヨタ自動車株式会社 自律移動ロボット
JP2021015415A (ja) * 2019-07-11 2021-02-12 オムロン株式会社 牽引装置および牽引装置を備えた搬送装置

Similar Documents

Publication Publication Date Title
WO2020256159A1 (ko) 이동 로봇과 그의 제어 방법
WO2018093055A1 (en) Mobile robot system and mobile robot
WO2020032412A1 (en) Moving robot and following setting method thereof
WO2021002511A1 (ko) 마커, 마커 추종 모드로 이동하는 방법 및 이를 구현하는 카트로봇
US11559902B2 (en) Robot system and control method of the same
WO2021002499A1 (ko) 군집 로봇을 이용하여 사용자의 위치를 추적하는 방법, 태그장치 및 이를 구현하는 로봇
KR20190106909A (ko) 인공지능 이동 로봇과 그의 제어 방법
US11511634B2 (en) Charging system for robot and control method thereof
WO2020256180A1 (ko) 사용자 인식 기반의 유모차 로봇 및 그 제어 방법
WO2023243748A1 (ko) 운송 로봇, 운송 수단 및 그 제어방법
WO2021230503A1 (en) Electronic apparatus and controlling method thereof
KR20210026595A (ko) 로봇이 관리자 모드로 이동하는 방법 및 이를 구현하는 로봇
KR20190104943A (ko) 로봇 시스템 및 그 제어 방법
WO2023234447A1 (ko) 운송 로봇
WO2024025013A1 (ko) 자율 모바일 로봇 및 리프트 유닛
WO2024034710A1 (ko) 운송 로봇
WO2024019234A1 (ko) 장애물 인식 방법 및 주행로봇
WO2024071482A1 (ko) 리프트 유닛 및 자율 주행 로봇
WO2023074957A1 (ko) 배송 로봇
WO2024043370A1 (ko) 주행로봇
WO2024025010A1 (ko) 서빙 로봇
WO2024025012A1 (ko) 서빙 로봇
WO2024043367A1 (ko) 주행로봇
WO2024043368A1 (ko) 주행로봇
US11524404B2 (en) Robot system and control method thereof

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22946954

Country of ref document: EP

Kind code of ref document: A1