WO2024025013A1 - 자율 모바일 로봇 및 리프트 유닛 - Google Patents

자율 모바일 로봇 및 리프트 유닛 Download PDF

Info

Publication number
WO2024025013A1
WO2024025013A1 PCT/KR2022/011186 KR2022011186W WO2024025013A1 WO 2024025013 A1 WO2024025013 A1 WO 2024025013A1 KR 2022011186 W KR2022011186 W KR 2022011186W WO 2024025013 A1 WO2024025013 A1 WO 2024025013A1
Authority
WO
WIPO (PCT)
Prior art keywords
moving part
lift unit
pair
vertical
lower housing
Prior art date
Application number
PCT/KR2022/011186
Other languages
English (en)
French (fr)
Inventor
이상학
양선호
정충인
박준신
김선욱
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to PCT/KR2022/011186 priority Critical patent/WO2024025013A1/ko
Publication of WO2024025013A1 publication Critical patent/WO2024025013A1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J15/00Gripping heads and other end effectors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B66HOISTING; LIFTING; HAULING
    • B66FHOISTING, LIFTING, HAULING OR PUSHING, NOT OTHERWISE PROVIDED FOR, e.g. DEVICES WHICH APPLY A LIFTING OR PUSHING FORCE DIRECTLY TO THE SURFACE OF A LOAD
    • B66F7/00Lifting frames, e.g. for lifting vehicles; Platform lifts
    • B66F7/10Lifting frames, e.g. for lifting vehicles; Platform lifts with platforms supported directly by jacks
    • B66F7/16Lifting frames, e.g. for lifting vehicles; Platform lifts with platforms supported directly by jacks by one or more hydraulic or pneumatic jacks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B66HOISTING; LIFTING; HAULING
    • B66FHOISTING, LIFTING, HAULING OR PUSHING, NOT OTHERWISE PROVIDED FOR, e.g. DEVICES WHICH APPLY A LIFTING OR PUSHING FORCE DIRECTLY TO THE SURFACE OF A LOAD
    • B66F7/00Lifting frames, e.g. for lifting vehicles; Platform lifts
    • B66F7/22Lifting frames, e.g. for lifting vehicles; Platform lifts with tiltable platforms
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B66HOISTING; LIFTING; HAULING
    • B66FHOISTING, LIFTING, HAULING OR PUSHING, NOT OTHERWISE PROVIDED FOR, e.g. DEVICES WHICH APPLY A LIFTING OR PUSHING FORCE DIRECTLY TO THE SURFACE OF A LOAD
    • B66F7/00Lifting frames, e.g. for lifting vehicles; Platform lifts
    • B66F7/28Constructional details, e.g. end stops, pivoting supporting members, sliding runners adjustable to load dimensions

Definitions

  • the present invention relates to a lift unit mounted on the upper surface of a robot that transports one or more goods to a destination, changing the upper and lower thickness and supporting the lower part of the loading structure, and an autonomous mobile robot (AMR) including the same.
  • AMR autonomous mobile robot
  • Robots have been developed for industrial use to play a part in factory automation. Recently, the field of application of robots has been expanding, and not only medical robots and aerospace robots, but also robots that can be used in daily life are being developed.
  • robots that perform precise assembly work repeatedly perform the same movements and repeat the same movements at designated locations without unexpected situations, so automation using robots took precedence.
  • robots that perform transportation functions are attracting attention, and competition is intensifying day by day.
  • robots that transport bulk or large items there is a need for robots that can perform services such as transporting small items to their destination.
  • the purpose of the present invention is to provide a lift unit that is mounted on the upper surface of a robot that transports one or more goods to a destination, changes the upper and lower thickness, and supports the lower part of the loading structure, and an autonomous mobile robot (AMR) including the same. Do it as
  • the lower housing includes a horizontal moving part mounted on the upper surface of the lower housing; a vertical moving part that is engaged with the horizontal moving part and moves in a vertical direction when the horizontal moving part is driven; It includes an upper housing located on an upper part of the vertical moving part, and the horizontal moving part includes a pair of actuators whose lengths vary in opposite directions; and a pair of inclined modules located at ends of the pair of actuators, wherein the vertical moving part provides a lift unit including an inclined roller that moves along an inclined surface of the inclined module.
  • the pair of inclined portions may include inclined surfaces facing opposite directions and may include a slide roller in contact with the lower housing.
  • the vertical moving part protrudes toward the inclined surface of the inclined module, and may further include a roller bracket with the inclined roller coupled to an end.
  • the vertical moving part may include a pair of vertical guide rollers rotating about a parallel axis, and may include a vertical guide block coupled to the lower housing and positioned between the pair of vertical guide rollers.
  • the vertical guide block includes: a first guide block fixed to the lower housing; and a second guide block that includes a vertical guide rail engaged with the vertical guide roller and rotatably coupled to the first guide block.
  • the first guide block and the second guide block may be rotatably coupled about an axis perpendicular to the extension direction of the actuator.
  • It includes a control unit that drives the pair of actuators
  • the control unit can independently control changes in length of the pair of actuators.
  • the upper housing may further include a docking guide pin located on the upper surface.
  • the upper housing may further include a docking guide roller protruding from an edge.
  • It may include a bottom slide roller located on the lower surface of the inclined module and in contact with the lower housing.
  • the lower housing may include a horizontal guide rail located lateral to the moving direction of the inclined module, and a side slide roller located lateral to the inclined module and in contact with the horizontal guide rail.
  • a body including a running part; and a lift unit located on an upper part of the body and adjustable in height up and down, wherein the lift unit includes: a lower housing coupled to the upper part of the body; a horizontal moving part mounted on the upper surface of the lower housing; a vertical moving part that is engaged with the horizontal moving part and moves in the vertical direction when the horizontal moving part is driven; and an upper housing positioned above the vertical moving part, wherein the horizontal moving part includes a pair of actuators whose lengths vary in opposite directions; and a pair of inclined modules located at ends of the pair of actuators, wherein the vertical moving part includes an inclined roller that moves along an inclined surface of the inclined module.
  • the lift unit of the present invention can transport a loaded structure by driving in the horizontal direction using horizontal driving force.
  • Efficiency can be improved because the transportation robot can transport other loading structures even during the unloading time after transporting the loading structure.
  • the upper housing can support the load evenly by moving vertically rather than rising diagonally, allowing the weight of the loading structure to be transported stably.
  • the upper part of the lift unit can be maintained horizontal even on inclined surfaces, preventing items from falling during transportation.
  • Figure 1 is a diagram showing a 5G network-based cloud system according to an embodiment of the present invention.
  • Figure 2 is a block diagram showing the configuration of an autonomous mobile robot according to an embodiment of the present invention.
  • Figure 3 is a diagram showing a robot control system according to an embodiment of the present invention.
  • Figure 4 is a perspective view according to an embodiment of the autonomous mobile robot of the present invention.
  • Figure 5 is a diagram showing the driving mode of the lift unit of the present invention.
  • Figure 6 is a diagram showing the process of docking the transport robot of the present invention with a loading structure.
  • Figure 7 is an exploded perspective view of the lift unit of the present invention.
  • Figure 8 is a perspective view showing a horizontal moving part coupled to the base plate of the lift unit of the present invention.
  • Figure 9 is a diagram showing a state in which the vertical moving part is coupled in the structure of Figure 8.
  • Figure 10 is a cross-sectional view taken along line A-A of Figure 9.
  • Figure 11 is a cross-sectional view taken along line B-B of Figure 9.
  • Figure 12 is a diagram showing the vertical guide module of the lift unit of the present invention.
  • Figure 13 is a diagram showing asymmetric operation of the lift unit of the present invention.
  • a robot is a mechanical device that can automatically perform certain tasks or operations.
  • the robot may be controlled by an external control device or may have a built-in control device. It can perform tasks that are difficult for humans to perform, such as repeating only preset movements, lifting heavy objects, performing precise tasks, and working in extreme environments.
  • a horizontal moving part including an actuator or motor can be provided to perform various physical movements such as moving robot joints.
  • To perform driving functions it is equipped with horizontal moving parts and can include wheels, brackets, casters, motors, etc., and robots equipped with artificial intelligence are emerging to identify surrounding obstacles and drive around them.
  • Machine learning refers to the field of defining various problems dealt with in the field of artificial intelligence and researching methodologies to solve them. do.
  • Machine learning is also defined as an algorithm that improves the performance of a task through consistent experience.
  • ANN Artificial Neural Network
  • ANN is a model used in machine learning. It can refer to an overall model with problem-solving capabilities that is composed of artificial neurons (nodes) that form a network through the combination of synapses. Artificial neural networks can be defined by connection patterns between neurons in different layers, a learning process that updates model parameters, and an activation function that generates output values.
  • An artificial neural network may include an input layer, an output layer, and optionally one or more hidden layers. Each layer includes one or more neurons, and the artificial neural network may include synapses connecting neurons.
  • each neuron can output the function value of the activation function for the input signals, weight, and bias input through the synapse.
  • Model parameters refer to parameters determined through learning and include the weight of synaptic connections and the bias of neurons.
  • Hyperparameters refer to parameters that must be set before learning in a machine learning algorithm and include learning rate, number of repetitions, mini-batch size, initialization function, etc.
  • the purpose of artificial neural network learning can be seen as determining model parameters that minimize the loss function depending on the purpose or field of use of the robot.
  • the loss function can be used as an indicator to determine optimal model parameters in the learning process of an artificial neural network.
  • Machine learning can be classified into supervised learning, unsupervised learning, and reinforcement learning depending on the learning method.
  • Supervised learning refers to a method of training an artificial neural network with a given label for the learning data.
  • a label refers to the correct answer (or result value) that the artificial neural network must infer when learning data is input to the artificial neural network. It can mean.
  • Unsupervised learning can refer to a method of training an artificial neural network in a state where labels for training data are not given.
  • Reinforcement learning can refer to a learning method in which an agent defined within an environment learns to select an action or action sequence that maximizes the cumulative reward in each state.
  • machine learning implemented with a deep neural network is also called deep learning, and deep learning is a part of machine learning.
  • machine learning is used to include deep learning.
  • robots can be implemented as guide robots, transport robots, cleaning robots, wearable robots, entertainment robots, pet robots, and unmanned flying robots.
  • a robot may include a robot control module to control its movements, and the robot control module may mean a software module or a chip implementing it as hardware.
  • the robot uses sensor information obtained from various types of sensors to obtain status information of the robot, detect (recognize) the surrounding environment and objects, generate map data, determine movement path and driving plan, or provide information to the user. It can determine a response to an interaction or determine an action.
  • the robot can perform the above operations using a learning model composed of at least one artificial neural network.
  • a robot can recognize the surrounding environment and objects using a learning model, and can determine an action using the recognized surrounding environment information or object information.
  • the learning model may be learned directly from the robot or from an external device such as an AI server.
  • the robot can perform actions by directly generating results using a learning model, but it can also perform actions by transmitting sensor information to an external device such as an AI server and receiving the results generated accordingly.
  • Artificial intelligence allows robots to perform autonomous driving. It refers to a technology that can determine the optimal path on its own and move around while avoiding obstacles.
  • Currently applied autonomous driving technologies include technology that maintains the driving lane, technology that automatically adjusts speed such as adaptive cruise control, and technology that automatically follows a set path. This can include driving technology that automatically sets the route once the destination is set.
  • Sensors include proximity sensors, illumination sensors, acceleration sensors, magnetic sensors, gyro sensors, inertial sensors, RGB sensors, IR sensors, fingerprint recognition sensors, ultrasonic sensors, light sensors, microphones, lidar, and radar.
  • autonomous driving can be performed using image information collected through RGBC cameras, infrared cameras, etc., and sound information collected through microphones. Additionally, the vehicle can be driven based on information input through the user input unit. Map data, location information, and surrounding situation information collected through the wireless communication unit are also necessary information for autonomous driving.
  • Map data may include object identification information about various objects placed in the space where the robot moves.
  • map data may include object identification information for fixed objects such as walls and doors and movable objects such as flower pots and desks.
  • object identification information may include name, type, distance, location, etc.
  • robots are essentially equipped with sensors, various input units, and wireless communication units to collect data that can be learned by artificial intelligence, and can perform optimal operations by combining various types of information.
  • the learning processor that performs artificial intelligence can be mounted on the control unit of the robot to perform learning, or the collected information can be transmitted to the servo and learned through the server, and the learning results can be sent back to the robot to perform autonomous driving based on this. You can.
  • Robots equipped with artificial intelligence can collect surrounding information even in new places to create an entire map, and the large amount of information accumulated in places within the main activity radius allows for more accurate autonomous driving.
  • a touch screen or buttons can be provided to receive user input, and commands can also be received by recognizing the user's voice.
  • the processor uses at least one of a STT (Speech To Text) engine to convert voice input into a string or a Natural Language Processing (NLP) engine to obtain intent information of natural language, and the intent corresponding to the user input. Information can be obtained.
  • STT Seech To Text
  • NLP Natural Language Processing
  • At this time, at least one of the STT engine or the NLP engine may be composed of at least a portion of an artificial neural network learned according to a machine learning algorithm.
  • at least one of the STT engine or the NLP engine may be learned by a learning processor, a learning processor of an AI server, or distributed processing thereof.
  • Figure 1 shows a 5G network-based cloud system 1000 according to an embodiment of the present invention.
  • the cloud system 1000 may include an autonomous mobile robot 100, a mobile terminal 300, a robot control system 200, various devices 400, and a 5G network 500.
  • the autonomous mobile robot 100 is a robot that transports goods from a source to a destination.
  • the autonomous mobile robot 100 can move directly from the logistics center to the destination, and can be loaded into a vehicle and moved from the logistics center to the vicinity of the goods destination, then get off near the destination and move to the destination.
  • the autonomous mobile robot 100 can move goods to their destination not only outdoors but also indoors.
  • the autonomous mobile robot 100 may be implemented as an Automated Guided Vehicle (AGV), and the AGV may be a transportation device moved by sensors on the floor, magnetic fields, vision devices, etc.
  • AGV Automated Guided Vehicle
  • the autonomous mobile robot 100 may include a storage area for storing goods, and the storage area may be divided to load various goods, and various types of goods may be stored in the divided partial storage areas. This can be placed. Accordingly, mixing of goods can be prevented.
  • the mobile terminal 300 can communicate with the autonomous mobile robot 100 through the 5G network 500.
  • the mobile terminal 300 may be a device owned by a user who installs a partition in a storage area to load goods, or a device owned by a recipient of the loaded goods.
  • the mobile terminal 300 can provide information based on images, and the mobile terminal 300 can be a mobile phone, a smart phone, or a wearable device (e.g., a watch-type terminal (smartwatch), a glass-type device). It may include mobile devices such as terminals (smart glass) and head mounted displays (HMDs).
  • HMDs head mounted displays
  • the robot control system 200 can remotely control the autonomous mobile robot 100 and respond to various requests from the autonomous mobile robot 100.
  • the robot control system 200 may perform calculations using artificial intelligence based on a request from the autonomous mobile robot 100.
  • the robot control system 200 can set the movement path of the autonomous mobile robot 100, and when there are multiple destinations, the robot control system 200 can set the movement order of the destinations.
  • Various devices 400 may include a personal computer (PC, 400a), an autonomous vehicle (400b), a home robot (400c), etc.
  • PC, 400a personal computer
  • autonomous vehicle 400b
  • home robot 400c
  • the autonomous mobile robot 100 arrives at the transport destination of the goods, it can directly deliver the goods to the home robot 400c through communication with the home robot 400c.
  • Various devices 400 can be connected wired or wirelessly with the autonomous mobile robot 100, mobile terminal 300, robot control system 200, etc. through the 5G network 500.
  • the autonomous mobile robot 100, mobile terminal 300, robot control system 200, and various devices 400 are all equipped with a 5G module and can transmit and receive data at a speed of 100Mbps to 20Gbps (or higher). Large video files can be transmitted to a variety of devices, and power consumption can be minimized by running at low power. However, the transmission speed may be implemented differently depending on the embodiment.
  • the 5G network 500 may include a 5G mobile communication network, a local area network, the Internet, etc., and may provide a communication environment for devices in a wired or wireless manner.
  • FIG. 2 is a diagram for explaining the configuration of an autonomous mobile robot 100 according to an embodiment of the present invention. The description will be made with reference to FIGS. 3 to 5 showing an autonomous mobile robot 100 according to an embodiment of the present invention.
  • the autonomous mobile robot 100 may include a body 101 (see FIG. 3) including a storage area 50, and components described later may be included in the body.
  • the autonomous mobile robot 100 includes a communication unit 110, an input unit 120, a sensor unit 140, an output unit 150, a memory 185, a wheel horizontal movement unit 170, a control unit 180, and a power supply unit ( 190) may be included.
  • the components shown in FIG. 2 are not essential for implementing the autonomous mobile robot 100, so the autonomous mobile robot 100 described herein may include more or fewer components than the components listed above. You can have it.
  • the communication unit 110 may include a wired or wireless communication module capable of communicating with the robot control system 200.
  • the communication unit 110 may include Global System for Mobile communication (GSM), Code Division Multi Access (CDMA), Long Term Evolution (LTE), 5G, Wireless LAN (WLAN), Wireless-Fidelity (Wi-Fi), It can be equipped with modules for Bluetooth, RFID (Radio Frequency Identification), Infrared Data Association (IrDA), ZigBee, and NFC (Near Field Communication) communication.
  • GSM Global System for Mobile communication
  • CDMA Code Division Multi Access
  • LTE Long Term Evolution
  • 5G Fifth Generation
  • WLAN Wireless LAN
  • Wi-Fi Wireless-Fidelity
  • Bluetooth Bluetooth
  • RFID Radio Frequency Identification
  • IrDA Infrared Data Association
  • ZigBee ZigBee
  • NFC Near Field Communication
  • the input unit 120 may include a user input unit 122 for receiving information from a user.
  • the input unit 120 may include a camera 121 for inputting video signals and a microphone 123 (hereinafter referred to as a microphone) for receiving audio signals.
  • the camera 121 or the microphone 123 may be treated as a sensor, and the signal obtained from the camera 121 or the microphone 123 may be referred to as sensing data or sensor information.
  • the input unit 120 may acquire learning data for model learning and input data to be used when obtaining an output using the learning model.
  • the input unit 120 may acquire unprocessed input data, and in this case, the control unit 180 may extract input features by preprocessing the input data.
  • the cameras 121 are located in front to detect obstacles in front, and as shown in FIG. 3, a plurality of cameras 121 may be arranged at different angles. A plurality of cameras 121 with different shooting directions may be provided, such as a camera that recognizes the wide front and a camera that photographs the floor.
  • cameras with different functions may be provided.
  • a wide-angle camera, an infrared camera, etc. may be provided.
  • the camera acts as a sensor unit 140 and can serve to detect surrounding objects.
  • the user input unit 122 may include buttons or a touch panel for touch input. Alternatively, a user command may be input remotely through the communication unit 110. In this case, the user input unit 122 may include a personal computer 400 or a remote control device provided separately from the autonomous mobile robot 100.
  • the user input unit 122 includes all methods for receiving user commands, the user commands can be recognized through voice recognition. That is, a voice recognition device that extracts user commands by analyzing the voice collected by the microphone 123 can also serve as the user input unit 122.
  • the input unit 120 may include a product information input unit, which can receive product size information, weight information, destination information, and information on the transport requester. At this time, the product information input unit may include a code reader.
  • the sensor unit 140 may use various sensors to obtain at least one of internal information of the autonomous mobile robot 100, information on the surrounding environment of the autonomous mobile robot 100, and user information.
  • the sensor unit 140 may include various types of sensors to recognize the surroundings for autonomous driving. Representative examples include a distance sensor or proximity sensor 141 and LIDAR 142.
  • the proximity sensor 141 may include an ultrasonic sensor that recognizes a nearby object and determines the distance to the object based on the return time of the emitted ultrasonic waves.
  • a plurality of proximity sensors may be provided along the circumference, and may also be provided on the upper side to detect obstacles on the upper side.
  • Lidar is a device that emits a laser pulse and receives the light reflected from surrounding objects to accurately depict the surroundings. Like radar, the principle is similar, but the electromagnetic waves used are different, so the technology and scope of use are different.
  • LIDAR uses a longer wavelength than this and is used to measure not only the distance to the target object, but also the speed and direction of movement, temperature, and analysis and concentration of surrounding atmospheric substances.
  • the sensor unit 140 may include an illumination sensor, an acceleration sensor, a magnetic sensor, a gyro sensor, an inertial sensor, an RGB sensor, an infrared sensor, a fingerprint recognition sensor, an ultrasonic sensor, an optical sensor, a hall sensor, etc.
  • the output unit 150 may generate output related to vision, hearing, or tactile sensation.
  • the output unit 150 may include an optical output unit that outputs visual information, a display 151, etc., and outputs auditory information. It may include a speaker 152 that outputs an ultrasonic signal belonging to an inaudible frequency, an ultrasonic output unit that outputs an ultrasonic signal belonging to an inaudible frequency, and a haptic module that outputs tactile information.
  • the memory 185 stores data supporting various functions of the autonomous mobile robot 100.
  • the memory 185 may store a number of application programs (application programs or applications) running on the autonomous mobile robot 100, data for operation of the autonomous mobile robot 100, and commands.
  • the memory 185 can store information necessary to perform calculations using artificial intelligence, machine learning, and artificial neural networks.
  • Memory 150 may store a deep neural network model.
  • the deep neural network model can be used to infer a result value for new input data other than learning data, and the inferred value can be used as the basis for a decision to perform a certain operation.
  • the power supply unit 190 receives external power and internal power under the control of the processor 190 and supplies power to each component of the autonomous mobile robot 100.
  • This power supply unit 190 includes a battery 191, and the battery 191 may be a built-in battery or a replaceable battery.
  • the battery can be charged using a wired or wireless charging method, and the wireless charging method may include a magnetic induction method or a magnetic resonance method.
  • the traveling unit 170 is a means for moving the autonomous mobile robot 100 and may include wheels or legs, and may include a wheel driving unit and a leg driving unit that control them.
  • the autonomous mobile robot 100 including a body can be moved by controlling a plurality of wheels provided on the bottom surface of the wheel drive unit.
  • the wheel includes a caster that includes a main axis that rotates by combining with the body 101, and an auxiliary caster that reinforces the support to prevent the loaded item (L) from falling during driving. (173), etc. may be included.
  • the leg driving unit may control a plurality of legs according to the control of the control unit 180 to move the body.
  • the plurality of legs may correspond to a configuration that allows the autonomous mobile robot 100 to walk or run.
  • the plurality of legs may be implemented as four, but the embodiment is not limited to this.
  • the plurality of legs may be combined with the body to form an integrated body, and may be implemented as detachable from the body.
  • the autonomous mobile robot 100 may move its body through a traveling unit 170 including at least one of a wheel driving unit and/or a leg driving unit.
  • a traveling unit 170 including at least one of a wheel driving unit and/or a leg driving unit.
  • the wheel drive unit is mounted on the mobile robot 100 will mainly be described.
  • the control unit 180 is a module that controls the components of the autonomous mobile robot 100.
  • the control unit 180 may refer to a data processing device built into hardware that has a physically structured circuit to perform functions expressed by codes or commands included in a program. Examples of data processing devices built into hardware include a microprocessor, central processing unit (CPU), processor core, multiprocessor, and application-specific integrated (ASIC). circuit) and FPGA (field programmable gate array), etc., but the scope of the present invention is not limited thereto.
  • the control unit 180 is.
  • the control unit 180 may collect the above information through the input unit 120.
  • Input from the input unit 120 may also include touch input on the display.
  • control unit 180 may transmit information on the article L loaded in the loading area 50 to the mobile terminal (200 in FIG. 1) through the communication unit 110.
  • the robot control system 200 may include an AI server.
  • An AI server may refer to a device that trains an artificial neural network using a machine learning algorithm or uses a learned artificial neural network.
  • the robot control system 200 may be composed of a plurality of servers to perform distributed processing, and may be defined as a 5G network.
  • the AI server may be included as a part of the autonomous mobile robot 100 and may perform at least part of the AI processing in the autonomous mobile robot 100 itself.
  • the robot control system 200 may include a communication unit 210, a memory 230, a learning processor 240, and a processor 260.
  • the communication unit 210 can transmit and receive data with an external device such as the autonomous mobile robot 100.
  • Memory 230 may include a model storage unit 231.
  • the model storage unit 231 may store a model (or artificial neural network, 231a) that is being trained or has been learned through the learning processor 240.
  • the learning processor 240 can train the artificial neural network 231a using training data.
  • the learning model may be used while mounted on the artificial neural network robot control system 200, or may be mounted and used on an external device such as an autonomous mobile robot 100.
  • Learning models can be implemented in hardware, software, or a combination of hardware and software.
  • the learning model When part or all of the learning model is implemented as software, one or more instructions constituting the learning model may be stored in the memory 230.
  • the processor 260 may infer a result value for new input data using a learning model and generate a response or control command based on the inferred result value.
  • Figure 4 is a perspective view according to an embodiment of the autonomous mobile robot 100 of the present invention.
  • the autonomous mobile robot 100 of the present invention can move through the traveling unit 170 located at the lower part of the body 101.
  • the main body of the autonomous mobile robot 100 may have a box shape and may have an upper surface with a predetermined area for mounting the lift unit 600 thereon.
  • a running unit 170, a power supply unit 190, a control unit 180, a sensing unit 140, etc. may be mounted on the flat box-shaped body 101.
  • the control unit 180 creates a driving route to the destination using a map previously stored or received from a server, and recognizes surrounding objects through the sensor unit 140 to avoid obstacles that are not on the map and move to the destination.
  • LiDAR 142 and proximity sensor can be located on the body 101, and since LiDAR 142 has a wide sensing range, it can be positioned horizontally as shown in FIG. 4 to expand the sensing range of LiDAR 142. It may include long grooves in each direction.
  • a plurality of proximity sensors 141 may be located along the circumference of the body 101 to precisely detect the position.
  • the autonomous mobile robot 100 of the present invention may have a lift unit 600 mounted on its upper surface.
  • the lift unit 600 has a thin box shape and may have a flat upper surface to lift the lower part of the loading structure 10 on which objects 20, such as shelves and pallet carts, can be loaded.
  • a docking guide roller 615 that guides the lift unit 600 to be positioned at an accurate position when docked at the lower part of the loading structure 10 may be located at the edge of the upper housing 610. For example, as shown in FIG. 4, it may be located at a corner of the upper housing 610.
  • the upper surface may include docking guide irregularities 614 that engage with the lower part of the loading structure 10 to align the position
  • FIG. 4 shows docking guide irregularities (docking guide pins) 614 in a protruding form. there is. If the docking guide irregularities 614 are groove-shaped rather than protruding, the loading structure 10 without a guide structure corresponding to the docking guide irregularities 614 can be lifted by the lift unit 600.
  • Figure 5 is a diagram showing the driving mode of the lift unit 600.
  • the height of the lift unit 600 can be increased as shown in (b) while the height of the lift unit 600 is low as shown in (a) (a) ->b).
  • the upper housing 610 of the lift unit 600 moves upward while being spaced apart from the lower housing 650, and the thickness of the lift unit 600 may increase.
  • the height change of the lift unit 600 includes driving units 620 and 630 therein, and may include an emergency switch 613 for resetting the driving units 620 and 630 when they malfunction.
  • Figure 6 is a diagram showing the process of docking the autonomous mobile robot 100 of the present invention with the loading structure 10.
  • the autonomous mobile robot 100 enters the lower part of the loading structure 10, such as a shelf or pallet cart, as shown in FIG. 6, the height of the upper housing 610 is raised and the upper surface is placed on the lower surface of the loading structure 10. (611) can be brought into contact to lift the loading structure (10).
  • the loading structure 10 has wheels, it can be moved with the wheels in contact. However, for stable driving, the height of the upper housing 610 can be increased until the loading structure 10 falls off the floor.
  • the sensor unit 140 of the autonomous mobile robot 100 can be used to find the location under the loading structure 10, and the lift unit 600 can be controlled by receiving location information from the autonomous mobile robot 100.
  • the autonomous mobile robot 100 moves to the destination, and at the destination, the height of the lift unit 600 is lowered again as shown in (a) of FIG. 5. It can later be moved from the lower part of the loading structure 10.
  • the autonomous mobile robot 100 can continue to transport even during the time of loading or unloading the goods, so that one autonomous mobile robot (100) ) can increase the amount of goods that can be transported.
  • the lift unit 600 must be designed to withstand a weight of 300 kg or more, so when the actuator supports force in the vertical direction, a large load can be applied, and when the actuator is placed in the vertical direction, the height of the lift unit 600 becomes thick. .
  • the thickness of the lift unit 600 can be adjusted by moving the upper housing 610 in the vertical direction using a horizontal moving part 630 including an actuator 632 that moves in the horizontal direction.
  • Figure 7 is an exploded perspective view of the lift unit 600 of the present invention
  • Figure 8 is a perspective view showing the horizontal moving part 630 coupled to the base plate
  • Figure 9 is a state in which the vertical moving part 620 is coupled. This is a drawing.
  • the lift unit 600 includes a lower housing 650 and an upper housing 610 that form an exterior, where the lower housing 650 is fixed to the upper part of the autonomous mobile robot 100 and the upper housing 610 is attached to the lower housing. It is spaced apart from 650 to form an internal space and may be located on the upper side of the lower housing 650.
  • the upper housing 610 may include an upper surface portion 611 and a first side portion 612 that support the lower surface of the loading structure 10.
  • the lower housing 650 may include a base plate 651 on which the horizontal driving unit is mounted and a second side portion 652 surrounding the base plate 651.
  • a vertical moving part 620 that moves the upper housing 610 in the vertical direction in the space between the upper housing 610 and the lower housing 650, and a horizontal moving part 630 that provides power to the vertical moving part 620. is located.
  • the vertical moving unit 620 is a moving frame ( 621) can be implemented. Stiffness can be further secured by arranging multiple metal beams in different directions.
  • the horizontal moving part 630 is coupled to the vertical moving part 620 and can directly provide force in the vertical direction for vertical movement of the vertical moving part 620, but since the thickness of the lift unit 600 is thin, it can move in the vertical direction. There is not enough space to place the actuator 632 that directly applies force.
  • the actuator 632 may be arranged to provide force in the horizontal direction, and may include a tilt module 633 that can convert the horizontal force of the actuator 632 into the vertical direction.
  • the tilt module 633 includes an inclined surface that faces obliquely upward and can be coupled to the end of the actuator 632.
  • the tilt module 633 can switch to vertical movement when the actuator 632 moves force in the horizontal direction.
  • the vertical moving unit 620 includes an inclined roller 623 located on the inclined surface of the inclined module 633, and the inclined roller may be provided in a form protruding from the lower part of the moving frame 621.
  • the roller bracket 622 connecting the moving frame 621 and the inclined roller 623 so that force is transmitted to the moving frame 621 may extend in a direction perpendicular to the inclined surface of the inclined module 633.
  • the actuator 632 may be provided as one, but may be provided as a pair symmetrically arranged to move the moving frame 621 in the vertical direction without tilting.
  • the actuator 632 may include a first actuator 632a extending forward and a second actuator 632b extending backward.
  • a pair of actuators 632 are provided, a pair of incline modules 633 can also be located, and an incline roller can also be located at the front and rear of the moving frame 621, respectively.
  • the direction of the inclined surface of the inclined module 633 is also directed upward from the front, and the inclined surface of the inclined module 633 connected to the first actuator 632a is directed upward from the front and the second actuator 632b )
  • the inclined surface of the inclined module 633 connected to is directed upward from the rear.
  • the force of a pair of actuators 632 extending in different directions can all be converted to the upper side.
  • the actuator 632 includes hydraulic, pneumatic and electric types, and there is also an electro-pneumatic and electro-hydraulic actuator 632 that is used in combination.
  • the pneumatic type operates the piston in the cylinder by compressing and expanding air, and is inexpensive and easy to maintain.
  • the hydraulic type can easily achieve high-speed response by operating the piston in the cylinder using hydraulic pressure, but it is expensive and takes up space.
  • the electric type has high positioning accuracy and can produce large output with a small structure. Although it is more expensive and complicated than the pneumatic type, the electric actuator 632 is used in this embodiment because it is easy to control speed and output and is small in size.
  • the actuator 632 of this embodiment includes a motor 631 that provides rotational force, a screw shaft that rotates by receiving the rotational force of the motor 631, and when the screw shaft rotates, it moves along the screw shaft and the extended portion moves to actuator ( 632) can change in length.
  • FIG. 10 is a cross-sectional view taken along line A-A of FIG. 9, and FIG. 11 is a cross-sectional view taken along line B-B of FIG. 9.
  • Figure 10 is a cross-section of the part where the inclination module 633 is visible
  • Figure 11 is a view of the vertical moving part 620 and the horizontal moving part 630 viewed from the side with the housing removed.
  • the inclined module 633 may be provided with a slide roller so that the inclined module 633 can move according to a change in the length of the actuator 632.
  • a bottom slide roller 636 may be provided in contact with the lower housing 650 to guide horizontal movement. (see Figure 10)
  • the tilt module 633 may include horizontal guide rails 657 located on the left and right sides of the tilt module 633 (see FIG. 8).
  • the horizontal guide rail 657 may be coupled to the base plate 651 of the lower housing 650, and as shown in FIG. 11, the horizontal moving part 630 has a side slide roller (side slide roller) in contact with the horizontal guide rail 657. 634) can be provided.
  • the vertical moving unit 620 may further include a vertical guide module that limits shaking in the horizontal direction and allows only vertical movement so that it can move in the vertical direction instead of moving in the horizontal direction.
  • the vertical guide module may be located at the left and right ends of the moving frame 621, as shown in FIG. 11.
  • FIG. 9 is a diagram showing the vertical guide module of the lift unit 600 of the present invention. Referring to (a) and (b) of Figure 12, the vertical guide module is in contact with the vertical guide roller 625 located on the moving frame 621 and the vertical guide coupled to the lower housing 650. May include rail 6552.
  • the vertical guide rail 6552 may be placed in contact with the vertical guide roller 625 on both sides of the vertical guide block 655 located between a pair of manual guide rollers.
  • the vertical guide roller 625 is rotatably fixed to the moving frame 621 about an axis extending in the horizontal direction, and a pair of vertical guide rollers 625 can be arranged to be spaced apart in the vertical direction to the axis so that the axis is parallel. there is.
  • the vertical guide block 655 may further include an auxiliary roller 6533 to prevent friction at a portion that contacts the first side 612 of the upper housing 610.
  • the vertical guide block 655 of the present invention may include a first guide block 6551 and a second guide block 6555 that are rotatably coupled as shown in (c) of FIG. 12.
  • the first guide block 6551 is a fixed part to the lower housing 650
  • the second guide block 6555 is a block rotatably coupled to the first guide block 6551 and equipped with a vertical guide rail 6552. .
  • the vertical guide block 655 is composed of a pair of rotatable guide blocks and can independently drive the first actuator 632a and the second actuator 632b.
  • Figure 13 is a diagram showing asymmetric driving of the lift unit 600 of the present invention.
  • the upper surface of the lift may also be inclined corresponding to the inclined surface.
  • the objects 20 located on the loading structure 10 may spill along the inclined surface, so the upper surface of the lift unit 600 needs to be maintained in a direction perpendicular to the direction of gravity.
  • the gap between the upper housing 610 and the lower housing 650 of the lift unit 600 may be configured to be different at the front and rear.
  • the length of the first actuator 632a located in the front is reduced and the length of the second actuator 632b located in the rear is reduced. By driving it long, the moving distance of the rear vertical moving part 620 can be realized longer.
  • the vertical guide block 655 may be tilted obliquely with respect to the vertical guide roller 625, as shown in (b) of FIG. 13. Since the contact positions between the vertical guide roller 625 and the vertical guide rail 6552 are different at the front and rear, a situation may occur in which the vertical guide block 655 cannot move on the vertical guide roller 625.
  • the angle between the first guide block 6551 and the second guide block 6555 is the same as the base plate 651 and the moving block. It spreads according to the angle between the frames 621 and can offset errors caused by asymmetric driving.
  • the length of the second actuator 632b located at the rear is shortened and the length of the first actuator 632a located at the front is controlled to be long to control the upper surface portion 611 of the upper housing 610. This level can be achieved.
  • the lift unit of the present invention can transport a loaded structure by driving in the horizontal direction using horizontal driving force.
  • Efficiency can be improved because the transportation robot can transport other loading structures even during the unloading time after transporting the loading structure.
  • the upper housing can support the load evenly by moving vertically rather than rising diagonally, allowing the weight of the loading structure to be transported stably.
  • the upper part of the lift unit can be maintained horizontal even on inclined surfaces, preventing items from falling during transportation.

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Geology (AREA)
  • Structural Engineering (AREA)
  • Manipulator (AREA)

Abstract

하부 하우징; 상기 하부 하우징의 상면에 안착되는 수평 이동부; 상기 수평 이동부와 체결되며 상기 수평 이동부가 구동시 수직방향으로 이동하는 수직 이동부; 상기 수직 이동부의 상부에 위치하는 상부 하우징을 포함하며, 상기 수평 이동부는, 서로 반대 방향으로 길이가 가변하는 한 쌍의 액추에이터; 및 상기 한 쌍의 액추에이터의 단부에 위치하는 한 쌍의 경사모듈을 포함하며, 상기 수직 이동부는 상기 경사모듈의 경사면을 따라 이동하는 경사 롤러를 포함하는 리프트 유닛은 수평방향의 구동력을 이용하여 수평방향으로 구동하며 적재 구조물을 이송할 수 있다.

Description

자율 모바일 로봇 및 리프트 유닛
본 발명은 하나 이상의 물품을 목적지로 운송하는 로봇의 상면에 탑재되어 상하 두께가 변화하며 적재 구조물의 하부를 지지하는 리프트 유닛 및 이를 포함하는 자율 모바일 로봇 (AMR: Autonomous Mobile Robot)에 관한 것이다.
공장 자동화의 일 부분을 담당하기 위해, 로봇은 산업용으로 개발되어 왔다. 최근에는 로봇을 응용한 분야가 더욱 확대되고 있는바, 의료용 로봇과 우주항공용 로봇뿐만 아니라 일상 생활에서 사용될 수 있는 로봇도 개발되고 있다.
산업용 로봇 중 정밀화 된 조립작업을 수행하는 로봇은 동일한 동작을 반복적으로 수행하고, 정해진 위치에서 돌발상황 없이 동일한 동작을 반복하기 때문에 로봇을 이용한 자동화가 선행되었다.
그러나, 돌발상황에 대한 판단을 할 수 있는 영역인 주행을 포함하는 운송영역은 아직까지 로봇이 상용화가 활발히 이루어지고 있지는 않다. 다만, 최근 주변을 인식하는 센서의 성능이 우수해지고 인식된 정보를 빠르게 처리하여 대응할 수 있는 컴퓨터 파워가 향상되면서 주행용 로봇이 증가하고 있다.
산업적으로는 운송기능을 담당하는 로봇이 주목을 받고 있으며 경쟁이 나날이 심화되고 있다. 대량 또는 대형의 물건을 운송하는 로봇 이외에 작은 물건을 목적지까지 운송하는 서비스를 수행하 루 있는 로봇에 대한 니즈가 있다.
다만, 종래의 물품운송은 적재된 물품을 적재공간에서 운송장소로 하차하는 것에 어려움이 있다. 사람과 같이 팔 형태의 장치를 이용하면 비용이 증가하므로 보다 저렴하고 안정적으로 하차할 수 있는 방법에 대한 연구가 이루어지고 있다.
본 발명은 하나 이상의 물품을 목적지로 운송하는 로봇의 상면에 탑재되어 상하 두께가 변화하며 적재 구조물의 하부를 지지하는 리프트 유닛 및 이를 포함하는 자율 모바일 로봇(AMR: Autonomous Mobile Robot)을 제공하는 것을 목적으로 한다.
하부 하우징; 상기 하부 하우징의 상면에 안착되는 수평 이동부; 상기 수평 이동부와 체결되며 상기 수평 이동부가 구동시 수직방향으로 이동하는 수직 이동부; 상기 수직 이동부의 상부에 위치하는 상부 하우징을 포함하며, 상기 수평 이동부는, 서로 반대 방향으로 길이가 가변하는 한 쌍의 액추에이터; 및 상기 한 쌍의 액추에이터의 단부에 위치하는 한 쌍의 경사모듈을 포함하며, 상기 수직 이동부는 상기 경사모듈의 경사면을 따라 이동하는 경사 롤러를 포함하는 리프트 유닛을 제공한다.
상기 한 쌍의 경사부는 서로 반대 방향을 향하는 경사면을 포함하며, 상기 하부 하우징과 접하는 슬라이드 롤러를 포함할 수 있다.
상기 수직 이동부는 상기 경사모듈의 경사면을 향하여 돌출되며, 상기 경사 롤러가 단부에 결합된 롤러 브라켓을 더 포함할 수 있다.
상기 수직 이동부는 평행한 축을 중심으로 회전하는 한 쌍의 수직 가이드 롤러를 포함하고, 상기 하부 하우징에 결합하며 상기 한 쌍의 수직 가이드 롤러 사이에 위치하는 수직 가이드 블록을 포함할 수 있다.
상기 수직 가이드 블록은 상기 하부 하우징에 고정된 제1 가이드 블록; 및 상기 수직 가이드 롤러와 맞물리는 수직 가이드 레일을 포함하며 상기 제1 가이드 블록에 대해 회전 가능하게 결합하는 제2 가이드 블록을 포함할 수 있다.
상기 제1 가이드 블록과 상기 제2 가이드 블록은 상기 액추에이터의 연장 방향에 수직방향을 축으로 회전 가능하게 결합할 수 있다.
상기 한 쌍의 액추에이터를 구동하는 제어부를 포함하고,
상기 제어부는 상기 한 쌍의 액추에이터는 길이 변화를 독립적으로 제어할 수 있다.
상기 하부 하우징의 경사도를 감지하는 자세감지부를 더 포함하고, 상기 제어부는, 상기 상부 하우징이 상기 하부 하우징에 대해 상기 하부 하우징이 중력방향에 대해 기울어진 방향의 반대 방향으로 기울어지도록 상기 한 쌍의 액추에이터를 제어할 수 있다.
상기 상부 하우징은 상면에 위치하는 도킹 가이드 핀을 더 포함할 수 있다.
상기 상부 하우징은 모서리에 돌출된 도킹 가이드 롤러를 더 포함할 수 있다.
상기 경사모듈의 하면에 위치하며 상기 하부 하우징과 접하는 버텀 슬라이드 롤러를 포함할 수 있다.
상기 하부 하우징은 상기 경사모듈의 이동방향의 측방향에 위치하는 수평 가이드 레일를 포함하고, 상기 경사모듈의 측방향에 위치하며 상기 수평 가이드 레일과 접하는 사이드 슬라이드 롤러를 포함할 수 있다.
주행부를 포함하는 바디; 및 상기 바디의 상부에 위치하며 상하로 높이가 조절가능한 리프트 유닛을 포함하고, 상기 리프트 유닛은, 상기 바디의 상부에 결합되는 하부 하우징; 상기 하부 하우징의 상면에 안착되는 수평 이동부; 상기 수평 이동부와 체결되며 상기 수평 이동부 구동시 수직방향으로 이동하는 수직 이동부; 및 상기 수직 이동부의 상부에 위치하는 상부 하우징을 포함하며, 상기 수평 이동부는, 서로 반대 방향으로 길이가 가변하는 한 쌍의 액추에이터; 및 상기 한 쌍의 액추에이터의 단부에 위치하는 한 쌍의 경사모듈을 포함하며, 상기 수직 이동부는 상기 경사모듈의 경사면을 따라 이동하는 경사 롤러를 포함하는 자율 모바일 로봇을 제공한다.
본 발명의 리프트 유닛은 수평방향의 구동력을 이용하여 수평방향으로 구동하며 적재 구조물을 이송할 수 있다.
적재 구조물의 운송 이후 물건 하차하는 시간에도 운송로봇이 다른 적재 구조물을 이송할 수 있어, 효율이 향상될 수 있다.
또한, 상부 하우징이 비스듬하게 상승하는 것이 아니라 수직방향으로 이동하여 균일하게 하중을 지지할 수 있어 적재 구조물의 무게를 안정적으로 운송할 수 있다.
비스듬한 경사면에서도 리프트 유닛의 상면부는 수평을 유지할 수 있어, 운송중에 물건이 떨어지는 것을 방지할 수 있다.
본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
도 1은 본 발명의 일 실시예에 따른 5G 네트워크 기반의 클라우드 시스템을 나타내는 도면이다.
도 2는 본 발명의 일 실시 예에 따른 자율 모바일 로봇의 구성을 도시한 블록도이다.
도 3은 본 발명의 일 실시 예에 따른 로봇 관제 시스템을 도시한 도면이다.
도 4는 본 발명의 자율 모바일 로봇의 일 실시예에 따른 사시도이다.
도 5는 본 발명의 리프트 유닛의 구동 태양을 도시한 도면이다.
도 6은 본 발명의 운송로봇이 적재 구조물과 도킹하는 과정을 도시한 도면이다.
도 7은 본 발명의 리프트 유닛의 분해 사시도이다.
도 8은 본 발명의 리프트 유닛의 베이스 플레이트에 결합된 수평 이동부를 도시한 사시도이다.
도 9는 도 8의 구조에서 수직 이동부가 결합된 상태를 도시한 도면이다.
도 10은 도 9의 A-A의 단면도이다.
도 11은 도 9의 B-B 단면도이다.
도 12는 본 발명의 리프트 유닛의 수직 가이드 모듈을 도시한 도면이다.
도 13은 본 발명의 리프트 유닛의 비대칭 구동을 도시한 도면이다.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.
본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
로봇은 어떤 작업이나 조작을 자동으로 할 수 있는 기계 장치로서, 로봇은 외부의 제어 장치에 의해 조종되거나 제어 장치가 내장될 수도 있다. 기 설정된 동작만 반복하여 처리하거나 무거운 물건을 들어올리거나, 정밀한 작업의 수행 및 극한의 환경에서의 작업과 같이 인간이 수행하기 어려운 작업을 수행할 수 있다.
작업수행을 위해 액츄에이터 또는 모터를 포함하는 수평 이동부를 구비하여 로봇 관절을 움직이는 등의 다양한 물리적 동작을 수행할 수 있다.
로봇은 그 제조비용이 높고 조작의 전문성 등의 문제로 특정 작업에 특화된 외관을 가지는 산업용 로봇이나 의료용 로봇이 먼저 발달 되었다. 산업용, 의료용 로봇은 지정된 장소에서 동일한 동작을 반복수행하나,
최근에는 이동 가능한 로봇이 등장하고 있다. 특히 우주항공산업과 같이 인간이 직접 가기 어려운 먼 행성에서 탐사작업 등을 수행할 수 있으며 이러한 로봇은 주행기능이 추가된다.
주행기능을 수행하기 위해서는 수평 이동부를 구비하며 휠, 브레이트, 캐스터, 모터 등을 포함할 수 있으며 주변의 장애물을 파악하고 이를 피해 주행하기 위해서는 인공지능을 탑재한 로봇이 등장하고 있다.
인공 지능은 인공적인 지능 또는 이를 만들 수 있는 방법론을 연구하는 분야를 의미하며, 머신 러닝(기계 학습, Machine Learning)은 인공 지능 분야에서 다루는 다양한 문제를 정의하고 그것을 해결하는 방법론을 연구하는 분야를 의미한다. 머신 러닝은 어떠한 작업에 대하여 꾸준한 경험을 통해 그 작업에 대한 성능을 높이는 알고리즘으로 정의하기도 한다.
인공 신경망(ANN: Artificial Neural Network)은 머신 러닝에서 사용되는 모델로써, 시냅스의 결합으로 네트워크를 형성한 인공 뉴런(노드)들로 구성되는, 문제 해결 능력을 가지는 모델 전반을 의미할 수 있다. 인공 신경망은 다른 레이어의 뉴런들 사이의 연결 패턴, 모델 파라미터를 갱신하는 학습 과정, 출력값을 생성하는 활성화 함수(Activation Function)에 의해 정의될 수 있다.
인공 신경망은 입력층(Input Layer), 출력층(Output Layer), 그리고 선택적으로 하나 이상의 은닉층(Hidden Layer)를 포함할 수 있다. 각 층은 하나 이상의 뉴런을 포함하고, 인공 신경망은 뉴런과 뉴런을 연결하는 시냅스를 포함할 수 있다.
인공 신경망에서 각 뉴런은 시냅스를 통해 입력되는 입력 신호들, 가중치, 편향에 대한 활성 함수의 함수값을 출력할 수 있다.
모델 파라미터는 학습을 통해 결정되는 파라미터를 의미하며, 시냅스 연결의 가중치와 뉴런의 편향 등이 포함된다. 그리고, 하이퍼파라미터는 머신 러닝 알고리즘에서 학습 전에 설정되어야 하는 파라미터를 의미하며, 학습률(Learning Rate), 반복 횟수, 미니 배치 크기, 초기화 함수 등이 포함된다.
인공 신경망의 학습의 목적은 손실 함수를 최소화하는 모델 파라미터를 로봇의 목적이나 사용 분야에 따라 결정하는 것으로 볼 수 있다. 손실 함수는 인공 신경망의 학습 과정에서 최적의 모델 파라미터를 결정하기 위한 지표로 이용될 수 있다.
머신 러닝은 학습 방식에 따라 지도 학습(Supervised Learning), 비지도 학습(Unsupervised Learning), 강화 학습(Reinforcement Learning)으로 분류할 수 있다.
지도 학습은 학습 데이터에 대한 레이블(label)이 주어진 상태에서 인공 신경망을 학습시키는 방법을 의미하며, 레이블이란 학습 데이터가 인공 신경망에 입력되는 경우 인공 신경망이 추론해 내야 하는 정답(또는 결과 값)을 의미할 수 있다. 비지도 학습은 학습 데이터에 대한 레이블이 주어지지 않는 상태에서 인공 신경망을 학습시키는 방법을 의미할 수 있다. 강화 학습은 어떤 환경 안에서 정의된 에이전트가 각 상태에서 누적 보상을 최대화하는 행동 혹은 행동 순서를 선택하도록 학습시키는 학습 방법을 의미할 수 있다.
인공 신경망 중에서 복수의 은닉층을 포함하는 심층 신경망(DNN: Deep Neural Network)으로 구현되는 머신 러닝을 딥 러닝(심층 학습, Deep Learning)이라 부르기도 하며, 딥 러닝은 머신 러닝의 일부이다. 이하에서, 머신 러닝은 딥러닝을 포함하는 의미로 사용된다.
로봇은 AI 기술이 적용되어, 안내 로봇, 운반 로봇, 청소 로봇, 웨어러블 로봇, 엔터테인먼트 로봇, 펫 로봇, 무인 비행 로봇 등으로 구현될 수 있다.
로봇은 동작을 제어하기 위한 로봇 제어 모듈을 포함할 수 있고, 로봇 제어 모듈은 소프트웨어 모듈 또는 이를 하드웨어로 구현한 칩을 의미할 수 있다.
로봇은 다양한 종류의 센서들로부터 획득한 센서 정보를 이용하여 로봇의 상태 정보를 획득하거나, 주변 환경 및 객체를 검출(인식)하거나, 맵 데이터를 생성하거나, 이동 경로 및 주행 계획을 결정하거나, 사용자 상호작용에 대한 응답을 결정하거나, 동작을 결정할 수 있다.
로봇은 적어도 하나 이상의 인공 신경망으로 구성된 학습 모델을 이용하여 상기한 동작들을 수행할 수 있다. 예컨대, 로봇은 학습 모델을 이용하여 주변 환경 및 객체를 인식할 수 있고, 인식된 주변 환경 정보 또는 객체 정보를 이용하여 동작을 결정할 수 있다. 여기서, 학습 모델은 로봇에서 직접 학습되거나, AI 서버등의 외부 장치에서 학습된 것일 수 있다.
이때, 로봇은 직접 학습 모델을 이용하여 결과를 생성하여 동작을 수행할수도 있지만, AI 서버 등의 외부 장치에 센서 정보를 전송하고 그에 따라 생성된 결과를 수신하여 동작을 수행할 수도 있다.
인공 지능을 통해 로봇은 자율주행을 수행할 수 있다. 스스로 최적의 경로를 판단하고 장애물을 피해서 이동 가능한 기술을 의미하며 현재 적용되고 있는 자율주행 기술은 주행중인 차선을 유지하는 기술, 어댑티브 크루즈 컨트롤과 같이 속도를 자동으로 조절하는 기술, 정해진 경로를 따라 자동으로 주행하는 기술, 목적지가 설정되면 자동으로 경로를 설정해주는 주행기술 등이 모두 포함될 수 있다.
자율주행을 수행하기 위해서는 주변상황의 데이터를 인지하기 위해 수많은 센서를 포함할 수 있다. 센서로는 근접 센서, 조도 센서, 가속도 센서, 자기센서, 자이로 센서, 관성 센서, RGB 센서, IR 센서, 지문 인식 센서, 초음파 센서, 광 센서, 마이크로폰, 라이다, 레이더 등을 들 수 있다.
센서에서 수집한 정보 이외에 RGBC카메라, 적외선 카메라 등을 통해 수집한 영상정보와 마이크로폰을 통해 수집한 음향정보를 통해 자율주행을 수행할 수 있다. 또한, 사용자 입력부를 통해 입력된 정보에 기초하여 주행할 수 있다. 무선통신부를 통해 수집한 맵 데이터, 위치정보 및 주변 상황의 정보 등 또한 자율주행 수행에 필요한 정보들이다.
맵 데이터에는 로봇이 이동하는 공간에 배치된 다양한 객체들에 대한 객체 식별 정보가 포함될 수 있다. 예컨대, 맵 데이터에는 벽, 문 등의 고정 객체들과 화분, 책상 등의 이동 가능한 객체들에 대한 객체 식별 정보가 포함될 수 있다. 그리고, 객체 식별 정보에는 명칭, 종류, 거리, 위치 등이 포함될 수 있다.
따라서 로봇은 인공지능이 학습할 수 있는 데이터를 수집하기 위해 센서 및 다양한 입력부 그리고 무선통신부 등을 필수적으로 구비하고 각종정보를 종합하여 최적의 동작을 수행할 수 있다. 인공지능을 수행하는 러닝 프로세서는 로봇내의 제어부에 탑재하여 학습을 수행할 수도 있고, 수집한 정보를 서보로 전송하고 서버를 통해 학습하여 학습결과를 로봇에 다시 전송하여 이를 기초로 자율주행을 수행할 수 있다.
인공지능을 구비한 로보트는 새로운 장소에서도 주변 정보를 수집하여 전체 맵을 구현할 수 있으며, 주요활동반경의 장소는 누적되는 정보량이 많아 보다 정확한 자율주행을 수행할 수 있다.
사용자 입력을 받기위해 터치스크린이나 버튼을 구비할 수 있으며 사용자의 음성을 인식하여 명령을 입력받을 수도 있다. 프로세서는 음성입력을 문자열로 변환하기 위해 STT(Speech To Text) 엔진 또는 자연어의 의도 정보를 획득하기 위한 자연어 처리(NLP: Natural Language Processing) 엔진 중에서 적어도 하나 이상을 이용하여, 사용자 입력에 상응하는 의도 정보를 획득할 수 있다.
이때, STT 엔진 또는 NLP 엔진 중에서 적어도 하나 이상은 적어도 일부가 머신 러닝 알고리즘에 따라 학습된 인공 신경망으로 구성될 수 있다. 그리고, STT 엔진 또는 NLP 엔진 중에서 적어도 하나 이상은 러닝 프로세서에 의해 학습된 것이나, AI 서버의 러닝 프로세서에 의해 학습된 것이거나, 또는 이들의 분산 처리에 의해 학습된 것일 수 있다.
도 1은 본 발명의 일 실시 예에 따른 5G 네트워크 기반의 클라우드 시스템(1000)을 나태낸다.
도 1을 참고하면, 클라우드 시스템(1000)은 자율 모바일 로봇(100), 이동 단말(300), 로봇 관제 시스템(200), 각종 기기(400) 및 5G 네트워크(500)를 포함할 수 있다.
자율 모바일 로봇(100)은 물품을 출발지에서 목적지로 운반하는 로봇이다. 자율 모바일 로봇(100)은 물류 센터에서 직접 목적지까지 이동할 수 있으며, 물류 센터에서 물품 목적지 주변까지 차량에 적재되어 이동한 후, 목적지 주변에서 하차하여 목적지까지 이동할 수 있다.
또한, 자율 모바일 로봇(100)은 실외뿐만 아니라 실내에서도 물품을 목적지로 이동할 수 있다. 자율 모바일 로봇(100)은 AGV(Automated Guided Vehicle)로 구현될 수 있으며, AGV는 바닥면의 센서, 자기장, 비전기기 등에 의해 움직이는 운송 장치일 수 있다.
자율 모바일 로봇(100)은 물품을 저장하는 보관 영역(Storage Area)을 포함할 수 있으며, 상기 보관 영역은 다양한 물품을 적재하기 위해 분할될 수 있으며, 분할된 복수의 부분 보관 영역에는 다양한 종류의 물품이 배치될 수 있다. 이에 따라, 물품의 혼입이 방지될 수 있다.
이동 단말(300)은 5G 네트워크(500)를 통해 자율 모바일 로봇(100)과 통신할 수 있다. 이동 단말(300)은 물품을 적재하기 위해 파티션을 보관 영역에 설치하는 사용자가 소지한 기기 또는 적재된 물품의 수령자가 소지한 기기일 수 있다. 이동 단말(300)은 영상 기반으로 정보를 제공할 수 있으며, 이동 단말(300)은 휴대폰, 스마트 폰(smart phone), 웨어러블 디바이스(wearable device, 예를 들어, 워치형 단말기 (smartwatch), 글래스형 단말기 (smart glass), HMD(head mounted display)) 등의 이동형 기기들을 포함할 수 있다.
로봇 관제 시스템(200)는 자율 모바일 로봇(100)을 원격으로 제어할 수 있으며, 자율 모바일 로봇(100)의 다양한 요청에 응답할 수 있다. 예를 들면, 로봇 관제 시스템(200)은 자율 모바일 로봇(100)의 요청에 기초하여, 인공 지능을 이용한 연산을 수행할 수 있다.
또한, 로봇 관제 시스템(200)은 자율 모바일 로봇(100)의 이동 경로를 설정할 수 있으며, 로봇 관제 시스템(200)은 복수의 목적지가 있는 경우, 목적지의 이동 순서를 설정할 수 있다.
각종 기기(400)는 개인 컴퓨터(PC, 400a), 자율 주행차(400b), 홈 로봇(400c) 등을 포함할 수 있다. 자율 모바일 로봇(100)은 물품의 운송 목적지에 도착하는 경우, 홈 로봇(400c)과의 통신을 통해 홈 로봇(400c)에 직접 물품을 전달할 수 있다.
각종 기기(400)는 자율 모바일 로봇(100), 이동 단말(300), 로봇 관제 시스템(200) 등과 5G 네트워크(500)를 통해 유무선으로 연결될 수 있다.
상기 자율 모바일 로봇(100), 이동 단말(300), 로봇 관제 시스템(200) 및 각종 기기(400)는 모두 5G 모듈을 탑재하여 100Mbps 내지 20Gbps(또는, 그 이상) 속도로 데이터를 송수신할 수 있어서 대용량의 동영상 파일을 다양한 기기로 전송할 수 있으며, 저전력으로 구동되어 전력 소비가 최소화되게 할 수 있다. 다만, 상기 전송 속도는 실시 예에 따라 달리 구현될 수 있다.
5G 네트워크(500)는 5G 이동 통신 네트워크, 근거리 네트워크, 인터넷 등을 포함할 수 있으며, 유무선으로 기기들의 통신 환경을 제공할 수 있다.
도 2은 본 발명의 일 실시 예에 따른 자율 모바일 로봇(100)의 구성을 설명하기 위한 도면이다. 본 발명의 일 실시예에 따른 자율 모바일 로봇(100)을 도시한 도 3 내지 5를 함께 참고하여 설명하기로 한다.
도 2을 참고하면, 자율 모바일 로봇(100)은 보관 영역(50)을 포함하는 바디(101, 도 3 참고)를 포함할 수 있으며, 후술하는 구성들이 바디(Body)에 포함될 수 있다. 자율 모바일 로봇(100)은 통신부(110), 입력부(120), 센서부(140), 출력부(150), 메모리(185), 휠 수평 이동부(170), 제어부(180) 및 전원공급부(190)를 포함할 수 있다. 도 2에 도시된 구성요소들은 자율 모바일 로봇(100)을 구현하는데 있어서 필수적인 것은 아니어서, 본 명세서 상에서 설명되는 자율 모바일 로봇(100)은 위에서 열거된 구성요소들 보다 많거나, 또는 적은 구성요소들을 가질 수 있다.
통신부(110, Transceiver)는 로봇 관제 시스템(200)과 통신할 수 있는 유무선의 통신 모듈을 포함할 수 있다.
선택적 실시 예로 상기 통신부(110)는 GSM(Global System for Mobile communication), CDMA(Code Division Multi Access), LTE(Long Term Evolution), 5G, WLAN(Wireless LAN), Wi-Fi(Wireless-Fidelity), 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association;IrDA), ZigBee, NFC(Near Field Communication) 통신에 관한 모듈을 탑재할 수 있다.
입력부(120)는 사용자로부터 정보를 입력 받기 위한 사용자 입력부(122)를 포함할 수 있다. 선택적 실시 예로 입력부(120)는 영상 신호 입력을 위한 카메라(121), 오디오 신호를 수신하기 위한 마이크로폰(123, "이하, 마이크로 칭함")을 포함할 수 있다. 여기서, 카메라(121)나 마이크(123)를 센서로 취급하여, 카메라(121)나 마이크(123)에서 획득한 신호를 센싱 데이터 또는 센서 정보라고 할 수도 있다.
입력부(120)는 모델 학습을 위한 학습 데이터 및 학습 모델을 이용하여 출력을 획득할 때, 사용될 입력 데이터 등을 획득할 수 있다. 입력부(120)는 가공되지 않은 입력 데이터를 획득할 수도 있으며, 이 경우 제어부(180)는 입력 데이터에 대하여 전처리로써 입력 특징점(input feature)을 추출할 수 있다.
카메라(121)는 전방의 장애물을 감지하기 위해 전방에 위치하며, 도 3에 도시된 바와 같이 각도가 상이하게 복수개가 배치될 수 있다. 전방을 넓게 인식하는 카메라와 바닥을 촬영하는 카메라와 같이 촬영 방향이 상이한 복수개의 카메라(121)를 구비할 수 있다.
또는 상이한 기능을 가지는 카메라를 구비할 수 있다. 예를 들어 광각카메라, 적외선 카메라 등을 구비할 수 있다. 카메라는 센서부(140)로서 주변의 사물을 감지하는 역할을 할 수 있다.
사용자 입력부(122)는 버튼이나 터치입력을 위한 터치패널을 구비할 수 있다. 또는 원격으로 통신부(110)를 통해 사용자 명령을 입력할 수도 있으며, 이 경우 사용자 입력부(122)는 자율 모바일 로봇(100)과 별도로 구비된 개인 컴퓨터(400)나 원격제어장치를 포함할 수 있다.
사용자 입력부(122)는 사용자 명령을 입력받는 방식을 모두 포함하므로 음성인식을 통해 사용자 명령을 인식할 수 있다. 즉 마이크(123)서 수집한 음성을 분석하여 사용자 명령을 추출하는 음성인식장치도 사용자 입력부(122)로서 역할을 할 수 있다.
입력부(120)는 물품 정보 입력부를 포함할 수 있는데, 상기 물품 정보 입력부는 물품의 사이즈 정보, 무게 정보, 목적지 정보, 운송 의뢰자에 대한 정보 등을 입력받을 수 있다. 이때, 상기 물품 정보 입력부는 코드 리더를 포함할 수 있다.
센서부(140)는 다양한 센서들을 이용하여 자율 모바일 로봇(100)의 내부 정보, 자율 모바일 로봇(100)의 주변 환경 정보 및 사용자 정보 중 적어도 하나를 획득할 수 있다.
이때, 센서부(140)는 자율주행을 위해 주변을 인식하기 위한 다양한 종류의 센서를 포함할 수 있다. 대표적으로 거리 감지 센서 또는 근접센서(141)와 라이다(142)를 들 수 있다.
근접센서(141)는 사출한 초음파가 돌아오는 시간을 기초로 근처의 사물을 인식하고 사물과의 거리를 판단하는 초음파 센서를 포함할 수 있다. 근접센서는 둘레를 따라 복수개를 구비할 수 있으며, 상측의 장애물을 감지하기 위해 상측에도 구비할 수 있다.
라이다(Lidar, 142)는 레이저 펄스를 발사하고 그 빛이 주위의 대상물체에 반사되어 돌아오는 것을 받아 주변의 모습을 정밀하게 그려내는 장치이다. 레이다와 같이 그 원리는 유사하나 사용하는 전자기파가 달라 이용 기술과 활용범위가 상이하다.
레이저는 600~1000nm 파장의 빛을 사용하기 때문에 사람의 시력을 손상시킬 수 있다. 라이다(342)는 이보다 더 긴 파장을 이용하며, 대상 물체까지의 거리뿐 아니라 움직이는 속도와 방향, 온도, 주변의 대기 물질 분석 및 농도 측정 등에 쓰인다.
그 외에 센서부(140)는 조도 센서, 가속도 센서, 자기 센서, 자이로 센서, 관성 센서, RGB 센서, 적외선 센서, 지문 인식 센서, 초음파 센서, 광 센서, 홀센서 등을 포함할 수 있다.
출력부(150)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시킬 수 있는데, 출력부(150)는 시각 정보를 출력하는 광 출력부, 디스플레이 (151) 등을 포함할 수 있으며, 청각 정보를 출력하는 스피커 (152), 비가청 주파수에 속하는 초음파 신호를 출력하는 초음파 출력부 등을 포함할 수 있고, 촉각 정보를 출력하는 햅틱 모듈을 포함할 수 있다.
메모리(185)는 자율 모바일 로봇(100)의 다양한 기능을 지원하는 데이터를 저장한다. 메모리(185)는 자율 모바일 로봇(100)에서 구동되는 다수의 응용 프로그램(application program 또는 애플리케이션(application)), 자율 모바일 로봇(100)의 동작을 위한 데이터들, 명령어들을 저장할 수 있다.
아울러, 메모리(185)는 인공 지능, 머신 러닝, 인공 신경망을 이용하여 연산을 수행하는데 필요한 정보를 저장할 수 있다. 메모리(150)는 심층 신경망 모델을 저장할 수 있다. 상기 심층 신경망 모델은 학습 데이터가 아닌 새로운 입력 데이터에 대하여 결과 값을 추론해 내는데 사용될 수 있고, 추론된 값은 어떠한 동작을 수행하기 위한 판단의 기초로 이용될 수 있다.
전원공급부(190)는 프로세서(190)의 제어 하에서, 외부의 전원, 내부의 전원을 인가 받아 자율 모바일 로봇(100)의 각 구성요소들에 전원을 공급한다. 이러한 전원공급부(190)는 배터리(191)를 포함하며, 상기 배터리(191)는 내장형 배터리 또는 교체가능한 형태의 배터리가 될 수 있다. 상기 배터리는 유선 또는 무선 충전 방식으로 충전될 수 있는데, 무선 충전 방식은 자기 유도 방식 또는 자기 공진 방식을 포함할 수 있다.
주행부(170)는 자율 모바일 로봇(100)을 이동시키기 위한 수단으로서, 휠 또는 레그를 포함할 수 있으며 이를 제어하는 휠 구동부 및 레그 구동부를 포함할 수 있다. 휠 구동부 바닥면에 구비된 복수의 휠을 제어하여 바디(Body)를 포함하는 자율 모바일 로봇(100)을 이동시킬 수 있다.
휠은 빠른 주행을 위한 메인휠(171)과 휠이 회전하는 차축 이외에 바디(101)와 결합되어 회전하는 주축을 포함하는캐스터 그리고 주행 중 적재된 물품(L)이 떨어지지 않도록 지지력을 보강하는 보조 캐스터(173) 등을 포함할 수 있다.
레그 구동부(미도시)는 제어부(180)의 제어에 따라 복수의 레그를 제어하여 바디를 이동시킬 수 있다. 복수의 레그는 자율 모바일 로봇(100)이 걷거나 뛸 수 있도록 형성된 구성에 해당될 수 있다. 복수의 레그는 4 개로 구현될 수 있으나, 실시 예가 이에 국한되는 것은 아니다. 복수의 레그는 바디에 결합되어 일체형으로 형성될 수 있으며, 바디에 탈부착 형태로 구현될 수 있다.
자율 모바일 로봇(100)은 휠 구동부 및/또는 레그 구동부 중 적어도 하나를 구비하는 주행부(170)를 통해 바디를 이동시킬 수 있다. 다만, 본 명세서 상에서는 휠 구동부가 이동 로봇(100)에 탑재된 예를 주로 설명한다.
제어부(180)는 자율 모바일 로봇(100)의 구성들을 컨트롤하는 모듈이다. 상기 제어부(180)는 프로그램 내에 포함된 코드 또는 명령으로 표현된 기능을 수행하기 위해 물리적으로 구조화된 회로를 갖는, 하드웨어에 내장된 데이터 처리 장치를 의미할 수 있다. 이와 같이 하드웨어에 내장된 데이터 처리 장치의 일 예로써, 마이크로프로세서(microprocessor), 중앙처리장치(central processing unit: CPU), 프로세서 코어(processor core), 멀티프로세서(multiprocessor), ASIC(application-specific integrated circuit), FPGA(field programmable gate array) 등의 처리 장치를 망라할 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다.
제어부(180)는. 가령, 제어부(180)는 입력부(120)를 통해 상기 정보들을 수집할 수 있다. 상기 입력부(120)의 입력은 디스플레이 상의 터치 입력도 포함할 수 있다.
제어부(180)는 수집된 상기 정보들에 기초하여, 적재 영역(50)에 적재된 물품(L)의 정보를 통신부(110)를 통해 이동 단말(도 1의 200)으로 전송할 수 있다.
도 3를 참조하면, 로봇 관제 시스템(200)은 AI서버를 포함할 수있다. AI 서버는 머신 러닝 알고리즘을 이용하여 인공 신경망을 학습시키거나 학습된 인공 신경망을 이용하는 장치를 의미할 수 있다. 여기서, 로봇 관제 시스템(200)는 복수의 서버들로 구성되어 분산 처리를 수행할 수도 있고, 5G 네트워크로 정의될 수 있다. 이때, AI 서버는 자율 모바일 로봇(100)의 일부의 구성으로 포함되어, 자율 모바일 로봇(100) 자체에서 AI 프로세싱 중 적어도 일부를 함께 수행할 수도 있다.
로봇 관제 시스템(200)는 통신부(210), 메모리(230), 러닝 프로세서(240) 및 프로세서(260) 등을 포함할 수 있다.
통신부(210)는 자율 모바일 로봇(100) 등의 외부 장치와 데이터를 송수신할 수 있다.
메모리(230)는 모델 저장부(231)를 포함할 수 있다. 모델 저장부(231)는 러닝 프로세서(240)을 통하여 학습 중인 또는 학습된 모델(또는 인공 신경망, 231a)을 저장할 수 있다.
러닝 프로세서(240)는 학습 데이터를 이용하여 인공 신경망(231a)을 학습시킬 수 있다. 학습 모델은 인공 신경망의 로봇 관제 시스템(200)에 탑재된 상태에서 이용되거나, 자율 모바일 로봇(100) 등의 외부 장치에 탑재되어 이용될 수도 있다.
학습 모델은 하드웨어, 소프트웨어 또는 하드웨어와 소프트웨어의 조합으로 구현될 수 있다. 학습 모델의 일부 또는 전부가 소프트웨어로 구현되는 경우 학습 모델을 구성하는 하나 이상의 명령어(instruction)는 메모리(230)에 저장될 수 있다.
프로세서(260)는 학습 모델을 이용하여 새로운 입력 데이터에 대하여 결과 값을 추론하고, 추론한 결과 값에 기초한 응답이나 제어 명령을 생성할 수 있다.
도 4는 본 발명의 자율 모바일 로봇(100)의 일 실시예에 따른 사시도이다.
본 발명의 자율 모바일 로봇(100)은 바디(101)의 하부에 위치하는 주행부(170)를 통해 이동할 수 있다. 자율 모바일 로봇(100)의 본체는 박스 형상의 형태를 가질 수 있으며 상부에 리프트 유닛(600)을 거치하기 위해 소정의 면적을 가지는 상면을 가질 수 있다.
납작한 박스 형상의 바디(101)에 주행부(170), 전원 공급부(190), 제어부(180), 센싱부(140) 등이 실장 될 수 있다. 제어부(180)는 기 저장된 또는 서버로부터 받은 지도를 이용하여 목적지까지 도달하는 주행경로를 생성하고, 센서부(140)를 통해 주변 사물을 인지하여 지도상에 없는 장애물을 피해 목적지까지 이동할 수 있다.
라이다(142)와 근접센서는 바디(101)에 위치할 수 있으며, 라이다(142)는 센싱 범위가 넓으므로 라이다(142)의 센싱범위를 확장하기 위해 도 4에 도시된 바와 같이 수평방향으로 긴 홈을 포함할 수 있다. 근접센서(141)는 정밀하게 위치를 감지하기 위해 바디(101)의 둘레를 따라 복수개가 위치할 수 있다.
본 발명의 자율 모바일 로봇(100)은 상면에 리프트 유닛(600)이 안착될 수 있다. 리프트 유닛(600)은 얇은 박스형상을 가지며 상면에 선반, 팔레트 카트 등 물건(20)을 적재할 수 있는 가능한 적재 구조물(10)의 하부를 들어 올리기 위해 편평한 상면을 가질 수 있다.
적재 구조물(10)의 하부에 도킹 시 정확한 위치에 리프트 유닛(600)이 위치하도록 가이드하는 도킹 가이드 롤러(615)가 상부 하우징(610)의 엣지에 위치할 수 있다. 예를 들어 도 4에 도시된 바와 같이 상부 하우징(610)의 모서리 부분에 위치할 수 있다.
또한, 상면에 적재 구조물(10)의 하부와 맞물려 위치를 정렬하는 도킹 가이드 요철(614)을 포함할 수 있으며, 도 4에는 돌출된 형태의 도킹 가이드 요철(도킹 가이드 핀) (614)이 도시되어 있다. 돌출된 형태가 아닌 홈 형태의 도킹 가이드 요철(614)을 구비한 경우 도킹 가이드 요철(614)에 상응하는 가이드 구조가 없는 적재 구조물(10)도 리프트 유닛(600)으로 들어 올릴 수 있다.
도 5는 리프트 유닛(600)의 구동 태양을 도시한 도면으로 (a)와 같이 리프트 유닛(600)의 높이가 낮은 상태에서 (b)와 같이 리프트 유닛(600)의 높이가 높아질 수 있다(a->b). 리프트 유닛(600)의 상부 하우징(610)이 하부 하우징(650)으로부터 이격되면서 상부로 이동하며 리프트 유닛(600)의 두께가 증가할 수 있다.
리프트 유닛(600)의 높이 변화는 내부에 구동부(620, 630)를 구비하고 있으며, 구동부(620, 630)가 오작동하는 경우 리셋하기 위한 비상 스위치(613)를 포함할 수 있다.
도 6은 본 발명의 자율 모바일 로봇(100)이 적재 구조물(10)과 도킹하는 과정을 도시한 도면이다. 도 6에 도시된 바와 같은 선반, 팔레트 카트 등의 적재 구조물(10)의 하부로 자율 모바일 로봇(100)이 진입한 후에 상부 하우징(610)의 높이를 높여 적재 구조물(10)의 하면에 상면부(611)가 접하여 적재 구조물(10)을 들어올릴 수 있다.
적재 구조물(10)이 바퀴가 있는 경우 바퀴가 닿은 채로 이동 가능하나, 안정적인 주행을 위해 적재 구조물(10)이 바닥에서 떨어질 때까지 상부 하우징(610)의 높이를 높일 수 있다.
적재 구조물(10) 하부에 위치를 찾기 위해 자율 모바일 로봇(100)의 센서부(140)를 이용할 수 있으며 자율 모바일 로봇(100)으로부터 위치정보를 전달 받아 리프트 유닛(600)을 제어할 수 있다.
리프트 유닛(600)의 상부에 적재 구조물(10)을 거치한 상태로 자율 모바일 로봇(100)은 목적지로 이동하고, 목적지에서 리프트 유닛(600)의 높이를 다시 도 5의 (a)와 같이 낮춘 후에 적재 구조물(10)의 하부에서 이동할 수 있다.
이와 같이 적재 구조물(10)과 자율 모바일 로봇(100)을 개별적으로 구성하면, 자율 모바일 로봇(100)은 물건을 적치 또는 내리는 시간 동안에도 계속 운송을 수행할 수 있어, 한 대의 자율 모바일 로봇(100)이 운송 가능한 물건의 양을 증가시킬 수 있다.
리프트 유닛(600)은 300kg이상의 무게를 견딜 수 있도록 설계되어야 하므로 액추에이터가 수직방향으로 힘을 지지하는 경우 부하가 크게 적용될 수 있고, 수직 방향으로 액추에이터를 배치 시 리프트 유닛(600)의 높이가 두꺼워진다.
본 발명은 수평방향으로 움직이는 액추에이터(632)를 포함하는 수평 이동부(630)를 이용하여 수직방향으로 상부 하우징(610)을 이동시켜 리프트 유닛(600)의 두께를 조절할 수 있다.
도 7은 본 발명의 리프트 유닛(600)의 분해 사시도이고, 도 8은 베이스 플레이트에 결합된 수평 이동부(630)를 도시한 사시도이며, 도 9는 수직 이동부(620)까지 결합된 상태를 도시한 도면이다.
리프트 유닛(600)은 외관을 형성하는 하부 하우징(650)과 상부 하우징(610)을 포함하며, 하부 하우징(650)은 자율 모바일 로봇(100)의 상부에 고정되고 상부 하우징(610)은 하부 하우징(650)과 이격되어 내부 공간을 형성하며 하부 하우징(650)의 상측에 위치할 수 있다.
상부 하우징(610)은 적재 구조물(10)의 하면을 지지하는 상면부(611)과 제1 측부(612)를 포함할 수 있다. 하부 하우징(650)은 수평 구동부가 안착되는 베이스 플레이트(651)와 베이스 플레이트(651)의 주변을 감싸는 제2 측부(652)를 포함할 수 있다.
리프트의 두께가 얇은 상태에서는 상부 하우징(610)의 제1 측부(612)와 하부 하우징(650)의 제2 측부(652)는 중첩되고 상부 하우징(610)이 도 5의 (b)처럼 상측으로 이동시 하부 하우징(650)의 제2 측부(652)가 노출될 수 있다.
상부 하우징(610)과 하부 하우징(650) 사이의 공간에 상부 하우징(610)을 수직방향으로 이동시키는 수직 이동부(620) 및 수직 이동부(620)에 동력을 제공하는 수평 이동부(630)가 위치한다.
수직 이동부(620)는 프레임 형태로 수평 이동부(630)의 힘을 상부 하우징(610)에 전달하면서 적재 구조물(10)을 지지할 수 있는 강성을 가질 수 있도록 금속 빔을 이용하여 무빙 프레임(621)을 구현할 수 있다. 복수개의 금속빔을 서로 다른 방향으로 교차배치하여 강성을 더욱 확보할 수 있다. 수평 이동부(630)는 수직 이동부(620)와 체결되며 수직 이동부(620)의 수직 이동을 위해 수직방향으로 힘을 직접 제공할 수 있으나, 리프트 유닛(600)의 두께가 얇으므로 수직방향으로 직접 힘을 인가하는 액추에이터(632)를 배치하기 공간적으로 부족하다.
수평방향으로 힘을 제공하도록 액추에이터(632)를 배치하고, 액추에이터(632)의 수평 방향의 힘을 수직 방향으로 전환할 수 있는 경사모듈(633)을 포함할 수 있다. 경사모듈(633)은 비스듬히 상측을 향하는 경사면을 포함하며 액추에이터(632)의 단부에 결합할 수 있다.
경사모듈(633)은 액추에이터(632)가 수평방향으로 힘을 이동시 수직방향의 이동으로 전환할 수 있다.
수직 이동부(620)는 상기 경사모듈(633)의 경사면 상에 위치하는 경사 롤러(623)를 포함하고, 경사롤러는 무빙 프레임(621)의 하부에서 돌출된 형태로 구비할 수 있다. 무빙 프레임(621)에 힘이 전달되도록 무빙 프레임(621)과 경사 롤러(623)를 연결하는 롤러 브라켓(622)은 경사모듈(633)의 경사면에 수직방향으로 연장될 수 있다.
액추에이터(632)는 하나만 구비할 수도 있으나 무빙 프레임(621)을 기울어짐 없이 수직방향으로 이동시키기 위해 대칭으로 배치된 한 쌍을 구비할 수 있다. 본 실시예에서는 액추에이터(632)는 전방으로 연장되는 제1 액추에이터(632a)와 후방으로 연장되는 제2 액추에이터(632b)를 포함할 수 있다.
액추에이터(632)가 한 쌍 구비하므로 경사모듈(633)도 한 쌍이 위치하고, 경사롤러도 무빙 프레임(621)의 전면과 후면에 각각 위치할 수 있다.
한 쌍의 액추에이터(632)의 이동 방향이 서로 다르므로 경사모듈(633)의 경사면의 방향도 제1 액추에이터(632a)에 연결된 경사모듈(633)의 경사면은 전방에서 상부를 향하고 제2 액추에이터(632b)에 연결된 경사모듈(633)의 경사면은 후방에서 상부를 향한다.
서로 다른 방향으로 연장되는 한 쌍의 액추에이터(632)의 힘을 모두 상측으로 전환할 수 있다.
액추에이터(632)는 유압식, 공압식 전동식이 있으며 복합적으로 이용하는 전동공압식 전동 유압식 액추에이터(632)도 있다.
공압식은 공기를 압축 팽창시켜 실린더 안의 피스톤을 작동시키는 것이고 저렴하고 유지보수가 용이하다. 유압식은 유압에 의해 실린더 안의 피스톤을 작동시키는 것으로 고속응답을 용이하게 얻을 수 있으나 가격이 비싸고 공간을 차지하는 문제가 있다.
전동식은 위치결정정도가 높으며 작은 구조로 대용량을 출력을 얻을 수 있다. 공압식에 비해 가격이 비싸고 복잡하나 속도 및 출력조절이 용이하고 크기가 작기 때문에 본 실시예는 전동 액추에이터(632)를 적용하였다.
본 실시예의 액추에이터(632)는 회전력을 제공하는 모터(631)를 포함하고, 모터(631)의 회전력을 받아 회전하는 스크류 샤프트와 스크류 사프트의 회전시 스크류 샤프트를 따라 이동하며 확장부가 이동하여 액추에이터(632)의 길이가 변화할 수 있다.
도 10은 도 9의 A-A의 단면도이고, 도 11은 도 9의 B-B 단면도이다. 도 10은 경사모듈(633)이 보이는 부분의 단면이고, 도 11은 하우징이 제거된 상태에서 수직 이동부(620)와 수평 이동부(630)를 측방향에서 바라본 도면이다.
(a)는 리프트의 두께가 얇은 상태 (b)는 수평 이동부(630)와 수직 이동부(620)가 이동하여 리프트의 두께가 두꺼워진 상태(리프트 모드)를 도시한 도면이다. 액추에이터(632)가 길어지면 한 쌍의 경사모듈(633)이 서로 다른 방향으로 이동하고, 수직 이동부(620)의 경사롤러는 경사모듈(633)의 경사면을 따라 이동하며 무빙 프레임(621)을 상측으로 리프트시킨다.
액추에이터(632)의 길이변화에 따라 경사모듈(633)이 이동할 수 있도록 경사모듈(633)은 슬라이드 롤러를 구비할 수 있다. 하부 하우징(650)과 접하여 수평방향의 이동을 가이드하는 버텀 슬라이드 롤러(636)를 구비할 수 있다. (도 10 참조)
경사모듈(633)이 액추에이터(632)의 연장방향이 아닌 좌우 방향으로 흔들리는 것을 방지하기 위해 경사모듈(633)의 좌우에 위치하는 수평 가이드 레일(657)을 포함할 수 있다(도 8 참조).
수평 가이드 레일(657)은 하부 하우징(650)의 베이스 플레이트(651)에 결합될 수 있으며, 도 11에 도시된 바와 같이 수평 이동부(630)는 수평 가이드 레일(657)과 접하는 사이드 슬라이드 롤러(634)를 구비할 수 있다.
수직 이동부(620)가 수평방향으로 이동하지 않고 수직방향으로 이동할 수 있도록 수평방향의 흔들림을 제한하고 수직방향의 이동만 허용하는 수직 가이드 모듈을 더 포함할 수 있다. 본 실시예에서 수직 가이드 모듈은 도 11에 도시된 바와 같이 무빙 프레임(621)의 좌우 단부에 위치할 수 있다.
수직 가이드 모듈은 복수개를 구비할 수 있으며 본 실시예에서는 도 9에 도시된 바와 같이, 우측에 2개 좌측에 2개로 4개를 구비할 수 있다. 도 12는 본 발명의 리프트 유닛(600)의 수직 가이드 모듈을 도시한 도면이다. 도 12의 (a) 및 (b)를 참고하면 수직 가이드 모듈은 무빙 프레임(621)에 위치하는 수직 가이드 롤러(625)와 수직 가이드 롤러(625)와 접하며 하부 하우징(650)에 결합된 수직 가이드 레일(6552)을 포함할 수 있다.
수직 가이드 레일(6552)은 한 쌍의 수작 가이드 롤러 사이에 위치하는 수직 가이드 블록(655)의 양측에 수직 가이드 롤러(625)와 접하도록 배치될 수 있다.
수직 가이드 롤러(625)는 수평방향으로 연장된 축을 중심으로 회전 가능하게 무빙 프레임(621)에 고정되고 한 쌍의 수직 가이드 롤러(625)는 축이 평행하도록 축에 수직방향으로 이격되어 배치될 수 있다.
수직 가이드 블록(655)은 상부 하우징(610)의 제1 측부(612)와 접하는 부분에서 마찰이 발생하지 않도록 보조롤러(6533)을 더 구비할 수 있다.
본 발명의 수직 가이드 블록(655)은 도 12의 (c)에 도시된 바와 같이 회전 가능하게 결합된 제1 가이드 블록(6551)과 제2 가이드 블록(6555)을 포함할 수 있다. 제1 가이드 블록(6551)은 하부 하우징(650)에 고정된 부분이고 제2 가이드 블록(6555)은 제1 가이드 블록(6551)에 회전 가능하도록 결합하면서 수직 가이드 레일(6552)을 구비한 블록이다.
이렇게 수직 가이드 블록(655)이 회전 가능한 한 쌍의 가이드 블록으로 구성되는 겨우 제1 액추에이터(632a)와 제2 액추에이터(632b)를 각각 독립적으로 구동할 수 있다.
도 13은 본 발명의 리프트 유닛(600)의 비대칭 구동을 도시한 도면이다. 도 13의 (a)에 도시된 바와 같이 경사면을 자율 모바일 로봇(100)이 이동시에 리프트의 상면도 경사면에 상응하여 기울어질 수 있다. 이때 적재 구조물(10)에 위치하는 물건(20)이 기울어진 면을 따라 쏟아질 수 있어, 리프트 유닛(600)의 상면은 중력방향에 수직 방향을 이루도록 유지할 필요가 있다.
이에 도 13의 (a)에 도시된 바와 같이 리프트 유닛(600)의 상부 하우징(610)과 하부 하우징(650)의 간격이 전방과 후방이 상이하도록 구성할 수 있다. 경사면을 올라가는 경우를 기준으로 설명하면, 도 13의 (b)에 도시된 바와 같이, 전방에 위치하는 제1 액추에이터(632a)의 길이를 작게 하고 후방에 위치하는 제2 액추에이터(632b)의 길이를 길게 구동하여 후방의 수직 이동부(620)의 이동거리를 더 길게 구현할 수 있다.
이때 수직 가이드 블록(655)이 도 13의 (b)에 도시된 바와 같이 수직 가이드 롤러(625)에 대해 비스듬하게 기울어질 수 있다. 수직 가이드 롤러(625)와 수직 가이드 레일(6552)이 접하는 위치가 전방과 후방이 상이하여 수직 가이드 블록(655)이 수직 가이드 롤러(625)에서 움직이지 못하는 상황이 발생할 수 있다.
수직 가이드 모듈이 액추에이터(632)의 비대칭 구동을 허용하도록 회전 가능하게 2개의 블록으로 구분하면, 제1 가이드 블록(6551)과 제2 가이드 블록(6555) 사이의 각도가 베이스 플레이트(651)와 무빙 프레임(621) 사이의 각도에 상응하여 벌어지며 비대칭 구동에 의한 오차를 상쇄할 수 있다.
반대로 하측으로 기울어진 경사면의 경우 후방에 위치하는 제2 액추에이터(632b)의 길이를 짧게 하고 전방에 위치하는 제1 액추에이터(632a)의 길이를 길게 제어하여 상부 하우징(610)의 상면부(611)이 수평을 이룰 수 있다.
이상에서 살펴본 바와 같이, 본 발명의 리프트 유닛은 수평방향의 구동력을 이용하여 수평방향으로 구동하며 적재 구조물을 이송할 수 있다.
적재 구조물의 운송 이후 물건 하차하는 시간에도 운송로봇이 다른 적재 구조물을 이송할 수 있어, 효율이 향상될 수 있다.
또한, 상부 하우징이 비스듬하게 상승하는 것이 아니라 수직방향으로 이동하여 균일하게 하중을 지지할 수 있어 적재 구조물의 무게를 안정적으로 운송할 수 있다.
비스듬한 경사면에서도 리프트 유닛의 상면부는 수평을 유지할 수 있어, 운송중에 물건이 떨어지는 것을 방지할 수 있다.
상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.

Claims (13)

  1. 하부 하우징;
    상기 하부 하우징의 상면에 안착되는 수평 이동부;
    상기 수평 이동부와 체결되며 상기 수평 이동부가 구동시 수직방향으로 이동하는 수직 이동부;
    상기 수직 이동부의 상부에 위치하는 상부 하우징을 포함하며,
    상기 수평 이동부는,
    서로 반대 방향으로 길이가 가변하는 한 쌍의 액추에이터; 및
    상기 한 쌍의 액추에이터의 단부에 위치하는 한 쌍의 경사모듈을 포함하며,
    상기 수직 이동부는
    상기 경사모듈의 경사면을 따라 이동하는 경사 롤러를 포함하는 리프트 유닛.
  2. 제1항에 있어서,
    상기 한 쌍의 경사부는 서로 반대 방향을 향하는 경사면을 포함하며,
    상기 하부 하우징과 접하는 슬라이드 롤러를 포함하는 것을 특징으로 하는 리프트 유닛.
  3. 제2항에 있어서,
    상기 수직 이동부는
    상기 경사모듈의 경사면을 향하여 돌출되며, 상기 경사 롤러가 단부에 결합된 롤러 브라켓을 더 포함하는 것을 특징으로 하는 리프트 유닛.
  4. 제1항에 있어서,
    상기 수직 이동부는 평행한 축을 중심으로 회전하는 한 쌍의 수직 가이드 롤러를 포함하고,
    상기 하부 하우징에 결합하며 상기 한 쌍의 수직 가이드 롤러 사이에 위치하는 수직 가이드 블록을 포함하는 것을 특징으로 하는 리프트 유닛.
  5. 제4항에 있어서,
    상기 수직 가이드 블록은
    상기 하부 하우징에 고정된 제1 가이드 블록; 및
    상기 수직 가이드 롤러와 맞물리는 수직 가이드 레일을 포함하며 상기 제1 가이드 블록에 대해 회전 가능하게 결합하는 제2 가이드 블록을 포함하는 것을 특징으로 하는 리프트 유닛.
  6. 제5항에 있어서,
    상기 제1 가이드 블록과 상기 제2 가이드 블록은 상기 액추에이터의 연장 방향에 수직방향을 축으로 회전 가능하게 결합한 것을 특징으로 하는 리프트 유닛.
  7. 제5항에 있어서,
    상기 한 쌍의 액추에이터를 구동하는 제어부를 포함하고,
    상기 제어부는 상기 한 쌍의 액추에이터는 길이 변화를 독립적으로 제어할 수 있는 것을 특징으로 하는 리프트 유닛.
  8. 제7항에 있어서,
    상기 하부 하우징의 경사도를 감지하는 자세감지부를 더 포함하고,
    상기 제어부는,
    상기 상부 하우징이 상기 하부 하우징에 대해 상기 하부 하우징이 중력방향에 대해 기울어진 방향의 반대 방향으로 기울어지도록 상기 한 쌍의 액추에이터를 제어하는 것을 특징으로 하는 리프트 유닛.
  9. 제1항에 있어서,
    상기 상부 하우징은 상면에 위치하는 도킹 가이드 핀을 더 포함하는 것을 특징으로 하는 리프트 유닛.
  10. 제1항에 있어서,
    상기 상부 하우징은 모서리에 돌출된 도킹 가이드 롤러를 더 포함하는 것을 특징으로 하는 리프트 유닛.
  11. 제1항에 있어서,
    상기 경사모듈의 하면에 위치하며 상기 하부 하우징과 접하는 버텀 슬라이드 롤러를 포함하는 리프트 유닛.
  12. 제1항에 있어서,
    상기 하부 하우징은 상기 경사모듈의 이동방향의 측방향에 위치하는 수평 가이드 레일를 포함하고,
    상기 경사모듈의 측방향에 위치하며 상기 수평 가이드 레일과 접하는 사이드 슬라이드 롤러를 포함하는 리프트 유닛.
  13. 주행부를 포함하는 바디; 및
    상기 바디의 상부에 위치하며 상하로 높이가 조절가능한 리프트 유닛을 포함하고,
    상기 리프트 유닛은,
    상기 바디의 상부에 결합되는 하부 하우징;
    상기 하부 하우징의 상면에 안착되는 수평 이동부;
    상기 수평 이동부와 체결되며 상기 수평 이동부 구동시 수직방향으로 이동하는 수직 이동부;
    상기 수직 이동부의 상부에 위치하는 상부 하우징을 포함하며,
    상기 수평 이동부는,
    서로 반대 방향으로 길이가 가변하는 한 쌍의 액추에이터; 및
    상기 한 쌍의 액추에이터의 단부에 위치하는 한 쌍의 경사모듈을 포함하며,
    상기 수직 이동부는
    상기 경사모듈의 경사면을 따라 이동하는 경사 롤러를 포함하는 자율 모바일 로봇.
PCT/KR2022/011186 2022-07-29 2022-07-29 자율 모바일 로봇 및 리프트 유닛 WO2024025013A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/KR2022/011186 WO2024025013A1 (ko) 2022-07-29 2022-07-29 자율 모바일 로봇 및 리프트 유닛

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2022/011186 WO2024025013A1 (ko) 2022-07-29 2022-07-29 자율 모바일 로봇 및 리프트 유닛

Publications (1)

Publication Number Publication Date
WO2024025013A1 true WO2024025013A1 (ko) 2024-02-01

Family

ID=89706808

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2022/011186 WO2024025013A1 (ko) 2022-07-29 2022-07-29 자율 모바일 로봇 및 리프트 유닛

Country Status (1)

Country Link
WO (1) WO2024025013A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0986888A (ja) * 1995-09-20 1997-03-31 Toshiba Mach Co Ltd Z移動ステージ機構
KR20020078964A (ko) * 2001-04-12 2002-10-19 현대자동차주식회사 리프팅 장치
KR101691329B1 (ko) * 2016-05-30 2016-12-30 한경대학교 산학협력단 무인배송시스템 및 무인배송방법
KR102274498B1 (ko) * 2020-01-31 2021-07-07 (주)퓨전이엔씨 리프트가 탑재된 전 방향 이동 운송 로봇
CN214611374U (zh) * 2021-04-13 2021-11-05 铽罗(上海)机器人科技有限公司 一种agv小车的举升结构

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0986888A (ja) * 1995-09-20 1997-03-31 Toshiba Mach Co Ltd Z移動ステージ機構
KR20020078964A (ko) * 2001-04-12 2002-10-19 현대자동차주식회사 리프팅 장치
KR101691329B1 (ko) * 2016-05-30 2016-12-30 한경대학교 산학협력단 무인배송시스템 및 무인배송방법
KR102274498B1 (ko) * 2020-01-31 2021-07-07 (주)퓨전이엔씨 리프트가 탑재된 전 방향 이동 운송 로봇
CN214611374U (zh) * 2021-04-13 2021-11-05 铽罗(上海)机器人科技有限公司 一种agv小车的举升结构

Similar Documents

Publication Publication Date Title
WO2020256159A1 (ko) 이동 로봇과 그의 제어 방법
WO2020256163A1 (ko) 인공지능 이동 로봇과 그의 제어 방법
KR101319045B1 (ko) 무인 화물 이송로봇
WO2021109890A1 (zh) 具有追踪功能的自动驾驶系统
KR20210055342A (ko) 로봇 및 그의 제어 방법
WO2017034056A1 (ko) 이동 로봇 및 이의 제어방법
KR20190117421A (ko) 운송 로봇 및 그의 제어 방법
US11511634B2 (en) Charging system for robot and control method thereof
WO2021066416A1 (en) Unmanned aerial vehicle for inventory management and method of operating the same
KR20210067406A (ko) 로봇
WO2020209394A1 (ko) 인공지능을 이용하여 주행면 변경에 적응적으로 카트로봇의 이동을 제어하는 방법 및 카트로봇
CN114505840A (zh) 一种自主操作箱式电梯的智能服务机器人
WO2024025013A1 (ko) 자율 모바일 로봇 및 리프트 유닛
KR20210026595A (ko) 로봇이 관리자 모드로 이동하는 방법 및 이를 구현하는 로봇
WO2020256180A1 (ko) 사용자 인식 기반의 유모차 로봇 및 그 제어 방법
WO2023234447A1 (ko) 운송 로봇
WO2024071482A1 (ko) 리프트 유닛 및 자율 주행 로봇
WO2023243748A1 (ko) 운송 로봇, 운송 수단 및 그 제어방법
WO2024019234A1 (ko) 장애물 인식 방법 및 주행로봇
WO2024034710A1 (ko) 운송 로봇
WO2024025010A1 (ko) 서빙 로봇
WO2024043370A1 (ko) 주행로봇
WO2023074957A1 (ko) 배송 로봇
WO2024043367A1 (ko) 주행로봇
WO2024025012A1 (ko) 서빙 로봇

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22953238

Country of ref document: EP

Kind code of ref document: A1