KR20210128579A - Pallet moving robot and method for moving pallet using the same - Google Patents
Pallet moving robot and method for moving pallet using the same Download PDFInfo
- Publication number
- KR20210128579A KR20210128579A KR1020200046362A KR20200046362A KR20210128579A KR 20210128579 A KR20210128579 A KR 20210128579A KR 1020200046362 A KR1020200046362 A KR 1020200046362A KR 20200046362 A KR20200046362 A KR 20200046362A KR 20210128579 A KR20210128579 A KR 20210128579A
- Authority
- KR
- South Korea
- Prior art keywords
- pallet
- logistics transport
- unit
- transport robot
- information
- Prior art date
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/008—Manipulators for service tasks
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/021—Optical sensing devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/0009—Constructional details, e.g. manipulator supports, bases
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Software Systems (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Manipulator (AREA)
Abstract
Description
본 발명은 물류 이송로봇 및 이를 이용한 물류이송 방법에 관한 것으로, 더욱 상세하게는 컨테이너에 파렛트를 무인 구동으로 상적 또는 하적을 수행할 수 있는 물류 이송로봇 및 이를 이용한 물류이송 방법에 관한 것이다.The present invention relates to a logistics transport robot and a logistics transport method using the same, and more particularly, to a logistics transport robot capable of performing loading or unloading by unmanned driving of a pallet in a container and a logistics transport method using the same.
도 1은 종래기술에 의한 물류이송 장치(2)가 컨테이너(1)로 파렛트(미도시)를 상적 또는 하적하는 상태를 도시한 모식도이다. 1 is a schematic diagram illustrating a state in which the
종래의 이러한 물류이송 로봇을 이용한 파렛트의 상적 또는 하적의 경우, 상기 물류이송 로봇을 운전하는 운전자가 필요한 것은 물론, 상기 컨테이너(1) 내부에서도 파렛트를 이동시키기 위한 별도의 이송장치(3)를 운영하기 위한 운영자가 필요하였다. In the case of loading or unloading pallets using such a conventional logistics transport robot, a
이에 따라, 운전자나 운영자의 고용에 따른 비용의 증가는 물론이며, 운전자나 운영자의 미숙 등으로 상하적의 시간이 증가하는 문제가 야기되었다. Accordingly, there is a problem that not only increases the cost due to the employment of the driver or operator, but also increases the up-and-down time due to the inexperience of the driver or the operator.
이에, 이러한 컨테이너로의 물류의 상하적을 자동으로 수행하기 위한 다양한 시스템이 개발되고 있으며, 대한민국 공개특허 제10-2019-0066990호에서는 파렛트 자동 반출입 장치에 관한 기술을 개시하고 있다. Accordingly, various systems have been developed for automatically performing vertical loading and unloading of logistics to such containers, and Korean Patent Laid-Open No. 10-2019-0066990 discloses a technology related to an automatic pallet loading and unloading device.
그러나, 상기 개시된 기술은 단순히 이송모듈을 이용하여 파렛트를 컨테이너의 내부로 이송시키거나 외부로 반출시키는 기술에 불과하며, 실제 파렛트를 컨테이너로 상하적하는 물류이송 로봇의 무인 구동 또는 무인 동작에 관한 기술은 아직까지 개발되지 못하고 있다. However, the disclosed technology is merely a technology for transferring a pallet to the inside of a container or taking it out to the outside using a transfer module, and a technology related to unmanned driving or unmanned operation of a logistics transport robot that actually loads and unloads pallets into a container has not yet been developed.
이에, 본 발명의 기술적 과제는 이러한 점에서 착안된 것으로 본 발명의 목적은 컨테이너에 파렛트를 무인 구동으로 상적 또는 하적을 수행함으로써, 상하적의 시간을 줄이는 것은 물론 인건비를 절약할 수 있는 물류 이송로봇을 제공하는 것이다. Accordingly, the technical problem of the present invention was conceived in this regard, and the object of the present invention is to perform loading or unloading by unmanned driving of pallets in containers, thereby reducing the time of loading and unloading as well as saving labor costs. will provide
또한, 본 발명의 다른 목적은 상기 물류 이송로봇을 이용한 물류이송 방법을 제공하는 것이다. In addition, another object of the present invention is to provide a logistics transport method using the logistics transport robot.
상기한 본 발명의 목적을 실현하기 위한 일 실시예에 따른 물류 이송로봇은 센서유닛, 처리유닛, 출력유닛 및 구동부를 포함한다. 상기 센서유닛은 주변의 야적장, 컨테이너 및 파렛트를 계측하는 3D 라이더, 및 상기 파렛트에 근접하여 촬영하는 입체 카메라를 포함한다. 상기 처리유닛은 상기 3D 라이더의 계측 정보를 바탕으로 상기 야적장의 구조, 상기 컨테이너 및 상기 파렛트의 위치를 매핑하는 매핑부, 및 상기 입체 카메라의 촬영 정보를 바탕으로 상기 파렛트를 특정하는 학습부를 포함한다. 상기 출력유닛은 상기 매핑 결과 및 상기 특정된 파렛트 정보를 바탕으로, 상기 파렛트까지의 경로를 출력한다. 상기 구동부는 상기 출력 경로를 따라 물류 이송로봇을 자동으로 구동시킨다. Logistics transport robot according to an embodiment for realizing the object of the present invention includes a sensor unit, a processing unit, an output unit and a driving unit. The sensor unit includes a 3D lidar for measuring the surrounding yard, containers and pallets, and a stereoscopic camera for photographing in close proximity to the pallet. The processing unit includes a mapping unit that maps the structure of the yard, the positions of the container and the pallet based on the measurement information of the 3D rider, and a learning unit that specifies the pallet based on the shooting information of the stereoscopic camera . The output unit outputs a path to the pallet based on the mapping result and the specified pallet information. The driving unit automatically drives the logistics transfer robot along the output path.
일 실시예에서, 상기 센서유닛은, 상기 물류 이송로봇과 상기 컨테이너와의 충돌을 감지하는 충돌센서, 및 상기 물류 이송로봇과 상기 컨테이너의 측면과의 거리를 센싱하는 갭센서를 더 포함할 수 있다. In an embodiment, the sensor unit may further include a collision sensor for detecting a collision between the logistics transport robot and the container, and a gap sensor for sensing a distance between the logistics transport robot and a side surface of the container. .
일 실시예에서, 상기 갭센서는, 상기 물류 이송로봇의 측부 프레임에 구비되며, 상기 파렛트를 상기 컨테이너에 상하적하는 경우, 상기 물류 이송로봇과 상기 컨테이너의 측면 사이의 간격을 센싱할 수 있다. In one embodiment, the gap sensor is provided on the side frame of the logistics transport robot, and when the pallet is loaded and unloaded on the container, it is possible to sense a gap between the logistics transport robot and the side of the container.
일 실시예에서, 상기 매핑부는, 상기 3D 라이더의 계측 정보를 바탕으로 SLAM(simultaneous localization and mapping)으로 매핑할 수 있다. In an embodiment, the mapping unit may map the 3D lidar's measurement information using simultaneous localization and mapping (SLAM).
일 실시예에서, 상기 처리유닛은, 기 제작된 파렛트들의 정보를 저장하는 데이터베이스를 더 포함할 수 있다. In an embodiment, the processing unit may further include a database for storing information on the pre-fabricated pallets.
일 실시예에서, 상기 학습부는, 상기 입체 카메라의 촬영 정보를 바탕으로 학습(deep learning)을 수행하여 상기 데이터베이스에 저장된 파렛트들 중 촬영된 파렛트에 해당되는 파렛트를 특정할 수 있다. In an embodiment, the learning unit may specify a pallet corresponding to the captured pallet from among the pallets stored in the database by performing deep learning based on the shooting information of the stereoscopic camera.
일 실시예에서, 상기 출력유닛은, 상기 매핑 결과를 바탕으로 상기 파렛트에 근접하는 경로를 연산하고, 상기 특정된 파렛트의 좌표값을 바탕으로 상기 특정된 파렛트의 픽업을 위한 상기 특정된 파렛트까지의 경로를 추가로 연산하는 경로 연산부를 포함할 수 있다. In one embodiment, the output unit calculates a path close to the pallet based on the mapping result, and up to the specified pallet for pickup of the specified pallet based on the coordinate value of the specified pallet. It may include a path calculating unit for additionally calculating the path.
일 실시예에서, 상기 좌표값은, 상기 파렛트의 전면부의 모서리 좌표, 및 상기 파렛트의 전면부에 형성되는 개구부들 각각의 모서리 좌표를 포함할 수 있다. In an embodiment, the coordinate values may include corner coordinates of the front part of the pallet, and corner coordinates of each of the openings formed in the front part of the pallet.
일 실시예에서, 상기 출력유닛은, 상기 매핑부의 매핑 결과, 및 상기 경로 연산부의 경로 연산 결과를 출력하는 출력부를 포함할 수 있다. In an embodiment, the output unit may include an output unit for outputting a mapping result of the mapping unit and a path calculation result of the path calculating unit.
일 실시예에서, 상기 물류 이송로봇은, 몸체부, 상기 몸체부의 측면에 연장되는 측부 프레임, 상기 몸체부의 전단에 연장되며 파렛트를 픽업하는 적재부, 및 상기 몸체부의 전단으로부터 상부방향으로 연장되는 수직 프레임을 포함하며, 상기 3D 라이더는 상기 수직 프레임의 상부에 구비되고, 상기 입체 카메라는 상기 몸체부의 전단에 구비될 수 있다. In one embodiment, the logistics transport robot, a body portion, a side frame extending to the side of the body portion, a loading portion extending to the front end of the body portion to pick up a pallet, and vertical extending in the upper direction from the front end of the body portion Including a frame, the 3D rider is provided on the upper portion of the vertical frame, the stereoscopic camera may be provided at the front end of the body portion.
상기한 본 발명의 다른 목적을 실현하기 위한 일 실시예에 따른 물류 이송방법에서, 3D 라이더로 계측된 정보를 바탕으로 야적장의 구조, 컨테이너 및 파렛트의 위치를 매핑한다. 물류 이송로봇이 상기 파렛트에 근접하도록 이동한다. 입체 카메라로 상기 근접한 파렛트를 촬영한다. 상기 촬영 정보를 바탕으로 학습부가 상기 파렛트를 특정한다. 상기 매핑 결과 및 상기 특정한 파렛트 정보를 바탕으로 상기 파렛트 픽업을 위한 경로를 연산한다. 상기 물류 이송로봇이 상기 경로를 따라 자동으로 구동되어 상기 파렛트를 픽업하여 상하적한다. In the logistics transport method according to an embodiment for realizing another object of the present invention, the structure of the yard, the position of the container and the pallet are mapped based on the information measured by the 3D lidar. The logistics transfer robot moves to approach the pallet. The adjacent pallet is photographed with a stereoscopic camera. Based on the shooting information, the learning unit specifies the pallet. A path for picking up the pallet is calculated based on the mapping result and the specific pallet information. The logistics transport robot is automatically driven along the path to pick up the pallet and load it up and down.
일 실시예에서, 상기 파렛트를 상하적하는 단계에서, 갭센서의 센싱 결과를 바탕으로, 상기 물류 이송로봇과 상기 컨테이너의 측면 사이의 간격을 유지하며 상기 파렛트를 상하적할 수 있다. In one embodiment, in the step of loading and unloading the pallet, based on the sensing result of the gap sensor, the pallet may be vertically loaded while maintaining a gap between the logistics transfer robot and the side of the container.
일 실시예에서, 상기 파렛트를 특정하는 단계에서, 상기 근접한 파렛트의 촬영 정보를 바탕으로 학습을 수행하여, 기 제작된 파렛트들의 정보가 저장된 데이터베이스로부터 상기 촬영된 파렛트에 해당되는 파렛트를 특정할 수 있다. In an embodiment, in the step of specifying the pallet, learning may be performed based on the photographing information of the adjacent pallet, and the pallet corresponding to the photographed pallet may be specified from a database in which information of pre-fabricated pallets is stored. .
일 실시예에서, 상기 경로를 연산하는 단계에서, 상기 특정된 파렛트의 좌표값을 바탕으로 상기 특정된 파렛트의 픽업을 위한 상기 특정된 파렛트까지의 경로를 연산할 수 있다. In one embodiment, in the step of calculating the path, a path to the specified pallet for pickup of the specified pallet may be calculated based on the coordinate value of the specified pallet.
본 발명의 실시예들에 의하면, 종래 운전자가 수동으로 조작하여 파렛트의 상하적을 수행하는 물류 이송로봇이, 센싱 결과를 바탕으로 자동으로 구동되어 파렛트의 상하적을 수행할 수 있어, 물류의 상하적에 소요되는 시간을 줄일 수 있으며, 인건비를 절약하여, 무인 물류 이송시스템을 구축할 수 있다. According to the embodiments of the present invention, the conventional logistics transfer robot that manually manipulates the operator to perform vertical loading and unloading of pallets is automatically driven based on the sensing result to perform vertical loading and unloading of pallets, which is required for vertical loading and unloading of logistics It is possible to reduce the time it takes and save labor costs, and build an unmanned logistics transport system.
이 경우, 3D 라이더로 계측된 정보를 바탕으로 SLAM 매핑으로 전체적인 지도를 도출하되, SLAM 매핑만으로는 세부적인 파렛트의 상하적을 위한 경로를 도출하기 어려우므로, 입체 카메라를 이용하여 파렛트를 촬영하여 보다 정확한 파렛트의 정보로부터 이동 경로를 연산하므로, 파렛트 픽업을 위한 이동 경로 연산의 속도를 향상시킬 수 있으며 정확성을 높여, 정확한 파렛트의 자동 픽업이 가능하게 된다. In this case, the overall map is derived by SLAM mapping based on the information measured by the 3D rider, but it is difficult to derive the path for detailed pallet up and down using only SLAM mapping. Since the movement path is calculated from the information of
특히, 파렛트는 그 종류가 다양하여, 단순히 카메라로 촬영된 정보만으로 크기나 정확한 위치를 특정하기 어려우므로, 기 제작된 모든 종류의 파렛트에 대한 정보가 저장된 데이터베이스를 바탕으로 학습을 수행하여, 촬영된 파렛트와 동일한 파렛트를 특정하여, 해당 파렛트의 형상, 크기 및 구조를 도출할 수 있다. In particular, since there are various types of pallets, it is difficult to specify the size or exact position only with information photographed with a camera. By specifying the same pallet as the pallet, the shape, size and structure of the corresponding pallet can be derived.
나아가, 상기와 같이 특정된 파렛트에 대하여, 측면 및 개구부의 모서리의 좌표를 바탕으로 픽업을 위한 개구부의 위치를 정확하게 도출함으로써, 자동으로 물류 이송로봇이 파렛트를 정확하게 픽업할 수 있다. Furthermore, for the pallet specified as described above, by accurately deriving the position of the opening for pickup based on the coordinates of the side and the corner of the opening, the logistics transport robot can automatically pick up the pallet accurately.
한편, 파렛트의 픽업이 정확하더라도, 실제 파렛트의 상하적시 컨테이너와 충돌이 발생할 수 있으므로, 이를 방지하기 위해 충돌센서를 통해 충돌 여부를 센싱하여 자동 구동을 제어할 수 있으며, 특히, 갭센서를 이용하여 컨테이너의 측면과 물류 이송로봇 사이의 간격을 일정하게 유지하면서 파렛트를 상하적하도록 유도함으로써, 컨테이너의 측면의 연장방향을 따라 평행하게 파렛트의 상하적을 수행할 수 있다. On the other hand, even if the pick-up of the pallet is correct, a collision with the container may occur when the actual pallet is vertically loaded. By inducing the pallet to be loaded and unloaded while maintaining a constant distance between the side of the container and the logistics transfer robot, it is possible to perform vertical loading and unloading of the pallet in parallel along the extension direction of the side of the container.
도 1은 종래기술에 의한 물류이송 장치를 이용한 파렛트의 상하적 상태를 도시한 모식도이다.
도 2는 본 발명의 일 실시예에 의한 물류 이송로봇을 도시한 사시도이다.
도 3은 도 2의 물류 이송로봇을 도시한 블록도이다.
도 4는 도 2의 물류 이송로봇을 이용한 물류이송 방법을 도시한 흐름도이다.
도 5는 도 4의 3D 라이더로 매핑하는 단계에서, 야적장을 지도화한 이미지이고, 도 6은 도 4의 3D 라이더로 매핑하는 단계에서, 야적장 구조, 컨테이너 및 파렛트의 위치를 3차원으로 매핑한 결과를 나타내는 이미지이다.
도 7은 도 4의 입체 카메라로 파렛트를 촬영한 결과를 나타내는 이미지이다.
도 8은 도 4의 특정된 파렛트의 좌표값을 추출하는 결과를 나타내는 이미지이다.
도 9는 도 4의 컨테이너의 에지를 따라 상하적하는 단계에서 사용되는 출력이미지의 예이다. 1 is a schematic diagram showing a vertical state of a pallet using a logistics transfer device according to the prior art.
Figure 2 is a perspective view showing a logistics transfer robot according to an embodiment of the present invention.
3 is a block diagram illustrating the logistics transfer robot of FIG. 2 .
4 is a flowchart illustrating a logistics transport method using the logistics transport robot of FIG. 2 .
Figure 5 is an image of the yard map in the step of mapping with the 3D lidar of Figure 4, and Figure 6 is the 3D mapping of the yard structure, the position of the container and the pallet in the mapping step with the 3D lidar of Figure 4 An image representing the result.
7 is an image showing the result of photographing the pallet with the stereoscopic camera of FIG.
FIG. 8 is an image showing the result of extracting the coordinate values of the specified pallet of FIG. 4 .
9 is an example of an output image used in the step of vertical loading along the edge of the container of FIG. 4 .
본 발명은 다양한 변경을 가할 수 있고 여러 가지 형태를 가질 수 있는 바, 실시예들을 본문에 상세하게 설명하고자 한다. 그러나 이는 본 발명을 특정한 개시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다. 제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. Since the present invention may have various changes and may have various forms, embodiments will be described in detail in the text. However, this is not intended to limit the present invention to the specific disclosed form, it should be understood to include all modifications, equivalents and substitutes included in the spirit and scope of the present invention. In describing each figure, like reference numerals have been used for like elements. Terms such as first, second, etc. may be used to describe various elements, but the elements should not be limited by the terms.
상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. The above terms are used only for the purpose of distinguishing one component from another. The terms used in the present application are only used to describe specific embodiments, and are not intended to limit the present invention. The singular expression includes the plural expression unless the context clearly dictates otherwise.
본 출원에서, "포함하다" 또는 "이루어진다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. In the present application, terms such as "comprises" or "consisting of" are intended to designate that a feature, number, step, operation, component, part, or combination thereof described in the specification is present, but one or more other features It is to be understood that it does not preclude the possibility of the presence or addition of numbers, steps, operations, components, parts, or combinations thereof.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical and scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related art, and should not be interpreted in an ideal or excessively formal meaning unless explicitly defined in the present application. does not
이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다.Hereinafter, preferred embodiments of the present invention will be described in more detail with reference to the accompanying drawings.
도 2는 본 발명의 일 실시예에 의한 물류 이송로봇을 도시한 사시도이다. 도 3은 도 2의 물류 이송로봇을 도시한 블록도이다. 도 4는 도 2의 물류 이송로봇을 이용한 물류이송 방법을 도시한 흐름도이다. 도 5는 도 4의 3D 라이더로 매핑하는 단계에서, 야적장을 지도화한 이미지이고, 도 6은 도 4의 3D 라이더로 매핑하는 단계에서, 야적장 구조, 컨테이너 및 파렛트의 위치를 3차원으로 매핑한 결과를 나타내는 이미지이다. 도 7은 도 4의 입체 카메라로 파렛트를 촬영한 결과를 나타내는 이미지이다. 도 8은 도 4의 특정된 파렛트의 좌표값을 추출하는 결과를 나타내는 이미지이다. 도 9는 도 4의 컨테이너의 에지를 따라 상하적하는 단계에서 사용되는 출력이미지의 예이다. Figure 2 is a perspective view showing a logistics transfer robot according to an embodiment of the present invention. 3 is a block diagram illustrating the logistics transfer robot of FIG. 2 . 4 is a flowchart illustrating a logistics transport method using the logistics transport robot of FIG. 2 . FIG. 5 is an image of the yard mapping in the 3D lidar mapping step of FIG. 4, and FIG. 6 is a 3D mapping of the yard structure, container and pallet positions in the 3D lidar mapping step of FIG. An image representing the result. 7 is an image showing the result of photographing the pallet with the stereoscopic camera of FIG. 8 is an image showing the result of extracting the coordinate values of the specified pallet of FIG. 9 is an example of an output image used in the step of vertical loading along the edge of the container of FIG. 4 .
이하에서는, 본 실시예에 의한 물류 이송로봇 및 상기 물류 이송로봇을 이용한 물류 이송방법에 대하여 설명의 편의상 동시에 설명한다. Hereinafter, the logistics transfer robot according to the present embodiment and the logistics transfer method using the logistics transfer robot will be described at the same time for convenience of description.
우선, 도 2 및 도 3을 참조하면, 본 실시예에 의한 물류 이송로봇(10)은 파렛트를 픽업하여 컨테이너에 상하적하는 자율주행 로봇인 것으로, 센서유닛(100), 처리유닛(200), 출력유닛(300), 제어유닛(400) 및 로봇부(500)를 포함하며, 상기 센서유닛(100)은 3D 라이더(110), 입체 카메라(120), 충돌센서(130) 및 갭센서(140)를 포함하고, 상기 처리유닛(200)은 매핑부(210), 학습부(220) 및 데이터베이스(230)를 포함하고, 상기 출력유닛(300)은 출력부(310) 및 경로 연산부(320)를 포함하고, 상기 제어유닛(400)은 구동부(410) 및 표시부(420)를 포함하며, 상기 로봇부(500)는 몸체부(510), 수동 조작부(520), 측부 프레임(530), 수직 프레임(540) 및 적재부(550)를 포함한다. First, referring to FIGS. 2 and 3 , the
특히, 상기 로봇부(500)는 상기 물류 이송로봇(10)의 외형을 형성하는 것으로, 상기 몸체부(510)는 상기 로봇부(500)의 중앙에 해당되며, 상기 수동 조작부(520)는 긴급 상황 또는 상기 물류 이송로봇(10)의 수동 조작이 필요한 경우 사용자에 의해 조작되는 부분이다. In particular, the
또한, 상기 몸체부(510)의 측면을 따라서는 상기 측부 프레임(530)이 형성되며, 상기 측부 프레임(530)에는 후술되는 상기 갭센서(140)가 구비된다. In addition, the
상기 몸체부(510)의 전면을 향해서는 상기 적재부(550)가 한 쌍으로 연장되며, 상기 적재부(550)는 한 쌍의 돌출부가 상기 파렛트의 한 쌍의 개구부에 각각 삽입되어 상기 파렛트를 픽업하게 된다. The
이 경우, 상기 몸체부(510)의 전면에는 상기 입체 카메라(120)가 위치하여, 전면에 위치하는 상기 파렛트를 촬영하게 된다. In this case, the
상기 수직 프레임(540)은 상기 몸체부(510)의 전면에서, 상부방향으로 연장되며, 상기 수직 프레임(540)을 따라 상기 적재부(550)는 상하방향으로 이동하게 된다. The
한편, 상기 3D 라이더(110)는 상기 수직 프레임(540)의 상부에 위치하여, 전면은 물론이며, 측면 또는 후면까지 주변을 계측할 수 있다. On the other hand, the
상기 구동부(410)는 다양한 위치에 위치할 수 있으나, 도 2에 도시된 바와 같이, 상기 측부 프레임(530)의 전단에 위치할 수 있다. 또한, 상기 구동부(410)의 상면 상에는 상기 충돌센서(130)가 위치하여, 상기 로봇부(500)의 측면을 중심으로 주변 구조물에 충돌하는 가의 여부를 실시간으로 감시할 수 있다. The driving
보다 구체적으로, 도 2, 도 3 및 도 4를 참조하면, 상기 물류 이송로봇(10)을 이용한 물류 이송방법에서는, 우선, 상기 3D 라이더(Lidar)(110)로 상기 물류 이송로봇(10)의 주변의 야적장, 컨테이너 및 파렛트(600)를 계측하고, 이렇게 계측된 정보를 바탕으로 상기 매핑부(210)는 상기 야적장의 구조, 상기 컨테이너 및 상기 파렛트의 위치를 매핑(mapping)한다(단계 S10). More specifically, referring to FIGS. 2, 3 and 4 , in the logistics transport method using the
상기 3D 라이더(Lidar)는 레이저를 발사하여 산란되거나 반사되는 레이저가 돌아오는 시간, 강도, 주파수의 변화 등을 바탕으로, 주변 대상물의 거리, 형상, 구조 등을 측정하는 것으로, 이를 통해 상기 물류 이송로봇(10)이 위치하는 주변의 특정 구조물까지의 거리, 형상, 구조 등을 계측할 수 있다. The 3D lidar is to measure the distance, shape, structure, etc. of the surrounding object based on the change in time, intensity, frequency, etc. of the scattered or reflected laser by emitting a laser, and the like, through which the logistics transport It is possible to measure the distance, shape, structure, etc. to a specific structure in the vicinity of which the
즉, 상기 3D 라이더(110)를 통해, 상기 물류 이송로봇(10)이 위치하는, 야적장의 구조, 상기 컨테이너의 위치나 구조, 상기 파렛트의 위치나 구조에 대하여 계측하게 된다. That is, through the
이렇게 계측된 결과는, 상기 매핑부(210)로 제공되며, 상기 매핑부(210)에서는 상기 계측된 결과를 바탕으로, 도 5에 도시된 바와 같이 주변 야적장의 구조 및 위치에 대한 네비게이션(Navigation) 정보를 도출하는 것은 물론, 도 6에 도시된 바와 같이 3차원 맵(map)을 매핑하여 도출할 수 있다. The measured result is provided to the
이 경우, 상기 매핑부(210)는, 예를 들어, SLAM(simultaneous localization and mapping)으로 매핑을 수행하여, 도 5 및 도 6에 도시된 바와 같이, 상기 야적장의 구조, 상기 컨테이너 및 상기 파렛트의 위치 등을 시각화 또는 이미지화하여 도출할 수 있다. In this case, the
한편, 이렇게 도출된 상기 매핑 이미지는 상기 출력부(310)를 통해 외부로 출력될 수도 있다.Meanwhile, the mapping image derived in this way may be output to the outside through the
다만, 이렇게 상기 3D 라이더(110) 및 상기 매핑부(210)를 통해 도출되는 상기 야적장의 구조, 상기 컨테이너 및 상기 파렛트의 위치 등의 시각화 결과는 상대적으로 상기 파렛트의 정확한 위치를 도출하는 것에는 한계가 있다. However, the visualization results of the structure of the yard, the container and the pallet position derived through the
한편, 상기와 같이 매핑 이미지를 도출한 이후, 도 2, 도 3 및 도 4를 참조하면, 상기 매핑 이미지의 결과를 바탕으로, 상기 물류 이송로봇(10)이 상기 파렛트(600)에 근접하도록 이동한다(단계 S20). On the other hand, after deriving the mapping image as described above, referring to FIGS. 2, 3 and 4 , based on the result of the mapping image, the logistics transfer
즉, 상기 구동부(410)는 상기 물류 이송로봇(10)을 상기 파렛트(600)에 근접하도록 이동시키며, 이 경우, 상기 매핑 이미지를 통해 도출된 상기 물류 이송로봇(10) 주변의 야적장의 구조, 컨테이너 및 파렛트의 위치 등의 정보를 이용한다. That is, the driving
다만, 앞서 설명한 바와 같이, 상기 매핑 이미지로 도출된 주변의 정보는 상기 물류 이송로봇(10)이 상기 파렛트(600)를 정확하게 픽업(pickup)하기에는 부족한 정보를 포함하므로, 본 실시예에서는 후속되는 절차를 통해, 정확한 픽업을 위한 정보를 추가로 획득한다. However, as described above, the surrounding information derived from the mapping image includes insufficient information for the logistics transfer
즉, 도 2, 도 3 및 도 4를 참조하면, 상기 물류 이송로봇(10)이 상기 파렛트(600)에 근접한 상태에서, 상기 입체 카메라(120)가 상기 파렛트(600)의 3차원 이미지를 촬영한다(단계 S30). That is, referring to FIGS. 2, 3 and 4 , in a state where the
이렇게 촬영된 상기 파렛트(600)의 3차원 영상의 예는, 도 7에 도시된 바와 같다. An example of the three-dimensional image of the
상기 물류 이송로봇(10)은 상기 적재부(550)를 통해 상기 파렛트(600)를 픽업하는 것으로, 정확한 픽업을 위해, 도 7에 도시된 바와 같이, 상기 입체 카메라(120)는 상기 파렛트(600)의 전면부(610)에 대한 3차원 이미지를 획득하여야 한다. The logistics transfer
이 경우, 획득되는 이미지는, 상기 전면부(610)의 3차원 이미지이므로, 상기 전면부(610)에 형성되는 한 쌍의 개구부들(620)의 이미지도 포함되게 된다. In this case, since the obtained image is a three-dimensional image of the
이 후, 도 2, 도 3 및 도 4를 참조하면, 상기 학습부(220)는 상기 입체 카메라(120)에서 촬영된 촬영 정보를 바탕으로, 학습을 수행하여 상기 촬영된 파렛트(600)가 어떤 종류, 구조, 형상 등을 가지는 파렛트인지를 특정한다(단계 S40). Thereafter, referring to FIGS. 2, 3 and 4 , the
실제 상기 입체 카메라(120)에서 촬영된 3차원 이미지의 경우, 상기 파렛트(600)의 전면부(610) 및 개구부(620)의 형상 또는 구조에 대한 정보를 포함하지만, 정확한 상기 파렛트(600)의 크기, 상기 물류 이송로봇(10)으로부터 상기 파렛트(600)까지의 정확한 거리 등의 정보를 획득하는 것은 한계가 있다. In the case of a three-dimensional image taken by the actual three-
이에, 본 단계(단계 S40)를 통해, 상기 촬영된 파렛트(600)가 어떠한 파렛트인지에 대하여 정확하게 특정함으로써, 상기 파렛트(600)의 크기, 상기 파렛트(600)까지의 정확한 거리 등의 정보를 포함한, 상기 파렛트(600)에 대한 모든 정보를 정확하게 도출할 수 있다. Accordingly, through this step (step S40), by accurately specifying what kind of pallet the photographed
본 실시예의 경우, 이러한 상기 파렛트(600)에 대한 특정을 수행하기 위해, 상기 학습부(220)는, 소위 딥러닝(deep learning)을 통한 학습을 수행한다. In the present embodiment, in order to specify the
즉, 상기 데이터베이스(230)에 기 제작된 모든 종류의 파렛트들에 대한 정보를 저장한 상태에서, 상기 학습부(220)가 상기 촬영된 파렛트(600)에 대한 이미지를 바탕으로, 상기 데이터베이스(230)에 저장된 파렛트들에 대한 정보를 바탕으로 학습을 수행하여, 상기 저장된 파렛트들 중에서 상기 촬영된 파렛트(600)와 동일한 파렛트를 선택하여, 최종적으로 상기 촬영된 파렛트(600)가 어떤 파렛트에 해당되는 가를 특정한다. That is, in a state in which information on all types of pallets that have been pre-fabricated are stored in the
이 경우, 상기 학습부(220)는, 딥러닝 학습을 수행하므로 상대적으로 빠르게 상기 촬영된 파렛트(600)와 동일한 파렛트를 선택하여 특정할 수 있다. 이렇게 특정된 파렛트(600)의 예는 도 8에 도시된 바와 같다. In this case, since the
이와 같이, 상기 학습부(220)에서 상기 파렛트를 특정하게 되면, 해당 파렛트에 대한 이미지와 관련 정보를 가져온 후 다음 단계를 수행한다. In this way, when the
즉, 도 2, 도 3 및 도 4를 참조하면, 상기 경로 연산부(320)는 상기 특정된 파렛트(600)의 좌표값을 바탕으로, 상기 파렛트(600)의 정확한 위치를 추출한다(단계 S50). That is, referring to FIGS. 2, 3 and 4 , the
상기 학습부(220)에서 특정한 파렛트(600)는, 도 8에 예시된 바와 같이, 상기 데이터베이스(230)로부터 정확한 형상과 구조를 가지는 이미지를 획득할 수 있으므로, 상기 경로 연산부(320)는 상기 특정한 파렛트(600)의 이미지를 이용하여 상기 파렛트(600)의 정확한 위치를 추출한다. Since the
이 경우, 상기 데이터베이스(230)에는 상기 특정된 파렛트(600)의 크기 및 각 구조의 길이 등의 정보도 저장되므로, 상기 경로 연산부(320)는 상기 정보를 바탕으로 상기 파렛트(600)까지의 위치를 추출할 수 있다. In this case, since information such as the size of the specified
예를 들어, 상기 경로 연산부(320)는, 상기 특정된 파렛트(600)의 이미지로부터, 상기 전면부(610)의 최외각의 4개의 모서리(1, 2, 11, 12), 및 상기 전면부(610)에 형성되는 한 쌍의 개구부들 각각의 4개의 모서리(3~6, 7~10)의 좌표값을 획득할 수 있으며, 이렇게 획득된 좌표값과, 실제 상기 특정된 파렛트(600)의 크기 및 길이 정보를 바탕으로, 상기 물류 이송로봇(10)으로부터 상기 특정된 파렛트(600)까지의 거리 및 방향 정보를 획득할 수 있다. For example, the
이 경우, 정확하게는 상기 물류 이송로봇(10)의 적재부(550)로부터 상기 파렛트(600)의 개구부(620)까지의 거리 및 방향 정보라 할 수 있다. In this case, it can be precisely called the distance and direction information from the
한편, 이상과 같이, 상기 파렛트(600)의 크기, 길이 등의 정확한 정보를 획득할 수 있으며, 일반적으로 컨테이너(700)의 크기는 정해져 있으므로, 상기 파렛트(600)의 상적시, 상기 컨테이너(700)에 적재할 수 있는 상기 파렛트(600)의 총 개수 정보는 물론, 한 층으로 최대 적층될 수 있는 파렛트(600)의 개수 정보 등을 획득할 수 있다. On the other hand, as described above, accurate information such as the size and length of the
마찬가지로, 상기 파렛트(600)의 하적시에도, 현재 컨테이너(700)에 적재된 파래트의 총 개수 및 한 층에 적재된 파렛트의 개수 정보를 획득할 수 있다. Similarly, even when the
그리하여, 후술하는 상하적 단계에서는, 한 개의 파렛트를 상하적 하는 것을 예시하였으나, 2개 이상의 파렛트를 상하적 하는 경우, 상기 파렛트의 적재 정보를 추가로 고려하여 동일한 절차로 용이하게 수행할 수 있다. Thus, in the up-and-down step to be described later, one pallet is exemplified up and down, but when two or more pallets are up-and-down, it can be easily performed with the same procedure by additionally considering the loading information of the pallet.
이 후, 도 2, 도 3 및 도 4를 참조하면, 상기 경로 연산부(320)는 상기 거리 및 방향 정보를 바탕으로, 상기 물류 이송로봇(10)으로부터 상기 파렛트(600)까지의 경로, 즉 상기 파렛트(600)를 픽업(pickup)하기 위한 경로를 연산할 수 있다(단계 S60). Thereafter, referring to FIGS. 2, 3 and 4 , the
이 경우, 상기 출력부(310)는, 상기 파렛트(600)의 픽업을 위한 경로를 외부로 출력할 수 있다. In this case, the
이 후, 도 2, 도 3 및 도 4를 참조하면, 상기 물류 이송로봇(10)은 상기 구동부(410)에 의해 구동되어 상기 연산된 경로를 따라 상기 적재부(550)가 상기 파렛트(600)를 픽업한다(단계 S70). Thereafter, referring to FIGS. 2, 3 and 4 , the logistics transfer
이 후, 상기 픽업된 파렛트(600)를 상기 컨테이너(700)의 내부로 상적하거나, 상기 컨테이너(700)의 외부로 하적한다(단계 S80). Thereafter, the picked-up
이 경우, 상기 파렛트의 픽업 단계(단계 S70) 및 상기 컨테이너로의 상하적 단계(단계 S80)는, 상적하는 단계와 하적하는 단계를 구분하여 이하에서 설명한다. In this case, the step of picking up the pallet (step S70) and the step of loading and unloading into the container (step S80) will be described below separately from the step of loading and unloading.
우선, 상기 파렛트(600)의 상적을 수행하는 경우, 상기 적재부(550)가 상기 야적장에 위치한 상기 파렛트(600)를 픽업(pickup)한 후, 상기 매핑부(210)를 통해 매핑된 결과에 포함되는 상기 컨테이너(700)의 위치 정보를 바탕으로, 상기 픽업한 파렛트(600)를 상기 컨테이너(700)로 이동시키게 된다. First, in the case of carrying out the loading of the
이 때, 상기 파렛트(600)를 상기 컨테이너(700)로 상적하기 위해서는, 상기 파렛트(600)가 상기 컨테이너(700)의 측면(710)에 충돌하지 않도록 유지하는 것이 중요하다. At this time, in order to load the
이에, 본 실시예에서는, 앞서 설명한 바와 같이, 상기 갭센서(140)를 통해 상기 물류 이송로봇(10)의 측부 프레임(530)과 상기 컨테이너(700)의 측면(710)과의 간격이 일정하게 유지되는 가의 여부를 실시간으로 센싱하고, 이를 바탕으로 상기 파렛트(600)와 상기 컨테이너(700)의 측면(710) 사이의 간격을 일정(기 설정된 값)하게 유지한 상태에서 상적을 수행하게 된다. Accordingly, in this embodiment, as described above, the gap between the
한편, 보조적으로 상기 충돌센서(130)는 실시간으로 상기 물류 이송로봇(10)의 전면 및 측면이 상기 컨테이너(700)의 측면(710) 등에 충돌하는 가의 여부를 센싱하여, 충돌의 가능성이 높은 경우, 상기 표시부(420) 등을 통해 외부로 알리는 것은 물론, 상기 구동부(410)에 정보를 제공하여, 충돌 회피 구동이 가능하도록 한다. On the other hand, auxiliary, the
한편, 도 9에는 상기 매핑부(210)를 통해 매핑된 결과의 예로서, 상기 컨테이너(700) 및 상기 컨테이너(700)의 내부에 적재되는 파렛트(600)의 상태의 이미지가 예시된다. Meanwhile, as an example of the result mapped through the
이에 따라, 상기 파렛트(600)의 하적을 수행하는 경우, 도 9에서와 같이, 상기 매핑부(210)를 통해 매핑된 결과에 포함되는 상기 컨테이너(700)의 위치 정보를 바탕으로, 상기 물류 이송로봇(10)은 상기 컨테이너(700)로 이동한다. Accordingly, when unloading the
이 후, 상기 적재부(550)가 상기 컨테이너(700)의 내부에 위치한 상기 파렛트(600)를 픽업(pickup)한 후, 하적을 수행한다. Thereafter, the
이 때, 상기 파렛트(600)를 상기 컨테이너(700)로부터 하적하기 위해서는, 상기 상적과 동일하게, 상기 파렛트(600)가 상기 컨테이너(700)의 측면(710)에 충돌하지 않도록 유지하는 것이 중요하다. At this time, in order to unload the
이에, 본 실시예에서는, 앞서 설명한 바와 같이, 상기 갭센서(140)를 통해 상기 물류 이송로봇(10)의 측부 프레임(530)과 상기 컨테이너(700)의 측면(710)과의 간격이 일정하게 유지되는 가의 여부를 실시간으로 센싱하고, 이를 바탕으로 상기 파렛트(600)와 상기 컨테이너(700)의 측면(710) 사이의 간격을 일정(기 설정된 값)하게 유지한 상태에서 하적을 수행하게 된다. Accordingly, in this embodiment, as described above, the gap between the
이 후, 상기 하적된 파렛트(600)는, 다시 상기 매핑부(210)의 매핑 결과를 바탕으로, 주변 야적장 중 상기 파렛트(600)의 이송 목적지에 해당되는 구역으로 이송된다. Thereafter, the unloaded
이러한 하적 절차에서도, 보조적으로 상기 충돌센서(130)는 실시간으로 상기 물류 이송로봇(10)의 전면 및 측면이 상기 컨테이너(700)의 측면(710) 등에 충돌하는 가의 여부를 센싱하여, 충돌의 가능성이 높은 경우, 상기 표시부(420) 등을 통해 외부로 알리는 것은 물론, 상기 구동부(410)에 정보를 제공하여, 충돌 회피 구동이 가능하도록 한다. Even in this unloading procedure, auxiliary, the
이상과 같이, 하나의 파렛트에 대한 상적 또는 하적이 수행된 이후, 추가적인 파렛트이 상적 또는 하적을 수행하는 경우, 앞서 설명한 바와 같이, 상기 컨테이너의 크기는 정해져 있으며, 개별 파렛트의 크기 정보는 파렛트의 특정을 통해 도출되므로, 두 개 이상의 파렛트의 상적 또는 하적을 위한 정확한 위치 정보를 쉽게 획득할 수 있고, 이를 통해 자동 상하적을 용이하게 수행할 수 있게 된다. As described above, after loading or unloading of one pallet is performed, when additional pallets perform loading or unloading, as described above, the size of the container is fixed, and the size information of individual pallets is specific to the pallet. Since it is derived through, it is possible to easily obtain accurate location information for loading or unloading of two or more pallets, and through this, it is possible to easily perform automatic loading and unloading.
한편, 상기 표시부(420)는 예를 들어, 도 2에 도시된 바와 같이, 상기 수동 조작부(520)에 인접하도록 배치되어, 상기 물류 이송로봇(10)의 구동상태는 물론, 상기 물류 이송방법의 각각의 단계에서 도출되는 결과 등을 외부로 표시할 수 있다. On the other hand, the
본 발명의 실시예들에 의하면, 종래 운전자가 수동으로 조작하여 파렛트의 상하적을 수행하는 물류 이송로봇이, 센싱 결과를 바탕으로 자동으로 구동되어 파렛트의 상하적을 수행할 수 있어, 물류의 상하적에 소요되는 시간을 줄일 수 있으며, 인건비를 절약하여, 무인 물류 이송시스템을 구축할 수 있다. According to the embodiments of the present invention, the conventional logistics transfer robot that manually manipulates the operator to perform vertical loading and unloading of pallets is automatically driven based on the sensing result to perform vertical loading and unloading of pallets, which is required for vertical loading and unloading of logistics It is possible to reduce the time it takes and save labor costs, and build an unmanned logistics transport system.
이 경우, 3D 라이더로 계측된 정보를 바탕으로 SLAM 매핑으로 전체적인 지도를 도출하되, SLAM 매핑만으로는 세부적인 파렛트의 상하적을 위한 경로를 도출하기 어려우므로, 입체 카메라를 이용하여 파렛트를 촬영하여 보다 정확한 파렛트의 정보로부터 이동 경로를 연산하므로, 파렛트 픽업을 위한 이동 경로 연산의 속도를 향상시킬 수 있으며 정확성을 높여, 정확한 파렛트의 자동 픽업이 가능하게 된다. In this case, the overall map is derived by SLAM mapping based on the information measured by the 3D rider, but it is difficult to derive the path for detailed pallet up and down using only SLAM mapping. Since the movement path is calculated from the information of
특히, 파렛트는 그 종류가 다양하여, 단순히 카메라로 촬영된 정보만으로 크기나 정확한 위치를 특정하기 어려우므로, 기 제작된 모든 종류의 파렛트에 대한 정보가 저장된 데이터베이스를 바탕으로 학습을 수행하여, 촬영된 파렛트와 동일한 파렛트를 특정하여, 해당 파렛트의 형상, 크기 및 구조를 도출할 수 있다. In particular, since there are various types of pallets, it is difficult to specify the size or exact position only with information photographed with a camera. By specifying the same pallet as the pallet, the shape, size and structure of the corresponding pallet can be derived.
나아가, 상기와 같이 특정된 파렛트에 대하여, 측면 및 개구부의 모서리의 좌표를 바탕으로 픽업을 위한 개구부의 위치를 정확하게 도출함으로써, 자동으로 물류 이송로봇이 파렛트를 정확하게 픽업할 수 있다. Furthermore, for the pallet specified as described above, by accurately deriving the position of the opening for pickup based on the coordinates of the side and the corner of the opening, the logistics transport robot can automatically pick up the pallet accurately.
한편, 파렛트의 픽업이 정확하더라도, 실제 파렛트의 상하적시 컨테이너와 충돌이 발생할 수 있으므로, 이를 방지하기 위해 충돌센서를 통해 충돌 여부를 센싱하여 자동 구동을 제어할 수 있으며, 특히, 갭센서를 이용하여 컨테이너의 측면과 물류 이송로봇 사이의 간격을 일정하게 유지하면서 파렛트를 상하적하도록 유도함으로써, 컨테이너의 측면의 연장방향을 따라 평행하게 파렛트의 상하적을 수행할 수 있다. On the other hand, even if the pick-up of the pallet is correct, a collision with the container may occur when the actual pallet is vertically loaded. By inducing the pallet to be loaded and unloaded while maintaining a constant distance between the side of the container and the logistics transfer robot, it is possible to perform vertical loading and unloading of the pallet in parallel along the extension direction of the side of the container.
상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다. Although the above has been described with reference to the preferred embodiments of the present invention, those skilled in the art can variously modify and change the present invention without departing from the spirit and scope of the present invention as set forth in the following claims. You will understand that you can.
10 : 물류 이송로봇
100 : 센서유닛
200 : 처리유닛
300 : 출력유닛
400 : 제어유닛
500 : 로봇부
530 : 측부 프레임
540 : 수직 프레임
10: logistics transport robot 100: sensor unit
200: processing unit 300: output unit
400: control unit 500: robot unit
530: side frame 540: vertical frame
Claims (14)
상기 3D 라이더의 계측 정보를 바탕으로 상기 야적장의 구조, 상기 컨테이너 및 상기 파렛트의 위치를 매핑하는 매핑부, 및 상기 입체 카메라의 촬영 정보를 바탕으로 상기 파렛트를 특정하는 학습부를 포함하는 처리유닛;
상기 매핑 결과 및 상기 특정된 파렛트 정보를 바탕으로, 상기 파렛트까지의 경로를 출력하는 출력유닛; 및
상기 출력 경로를 따라 물류 이송로봇을 자동으로 구동시키는 구동부를 포함하는 물류 이송로봇. A sensor unit including a 3D rider for measuring the surrounding yard, containers and pallets, and a stereoscopic camera for photographing close to the pallet;
a processing unit including a mapping unit for mapping the structure of the yard, positions of the container and the pallet based on the measurement information of the 3D rider, and a learning unit for specifying the pallet based on the shooting information of the stereoscopic camera;
an output unit for outputting a path to the pallet based on the mapping result and the specified pallet information; and
Logistics transport robot including a driving unit for automatically driving the logistics transport robot along the output path.
상기 물류 이송로봇과 상기 컨테이너와의 충돌을 감지하는 충돌센서; 및
상기 물류 이송로봇과 상기 컨테이너의 측면과의 거리를 센싱하는 갭센서를 더 포함하는 것을 특징으로 하는 물류 이송로봇. According to claim 1, wherein the sensor unit,
a collision sensor for detecting a collision between the logistics transfer robot and the container; and
Logistics transport robot, characterized in that it further comprises a gap sensor for sensing the distance between the logistics transport robot and the side of the container.
상기 물류 이송로봇의 측부 프레임에 구비되며,
상기 파렛트를 상기 컨테이너에 상하적하는 경우, 상기 물류 이송로봇과 상기 컨테이너의 측면 사이의 간격을 센싱하는 것을 특징으로 하는 물류 이송로봇. The method of claim 2, wherein the gap sensor,
It is provided on the side frame of the logistics transport robot,
When loading and unloading the pallet to the container, the logistics transport robot, characterized in that for sensing the distance between the side of the logistics transport robot and the container.
상기 3D 라이더의 계측 정보를 바탕으로 SLAM(simultaneous localization and mapping)으로 매핑하는 것을 특징으로 하는 물류 이송로봇. According to claim 1, wherein the mapping unit,
Logistics transport robot, characterized in that the mapping by SLAM (simultaneous localization and mapping) based on the measurement information of the 3D lidar.
기 제작된 파렛트들의 정보를 저장하는 데이터베이스를 더 포함하는 것을 특징으로 하는 물류 이송로봇. According to claim 1, wherein the processing unit,
Logistics transport robot, characterized in that it further comprises a database for storing the information of the pre-fabricated pallets.
상기 입체 카메라의 촬영 정보를 바탕으로 학습(deep learning)을 수행하여 상기 데이터베이스에 저장된 파렛트들 중 촬영된 파렛트에 해당되는 파렛트를 특정하는 것을 특징으로 하는 물류 이송로봇. The method of claim 5, wherein the learning unit,
Logistics transport robot, characterized in that by performing learning (deep learning) based on the photographing information of the stereoscopic camera, the pallet corresponding to the photographed pallet among the pallets stored in the database is specified.
상기 매핑 결과를 바탕으로 상기 파렛트에 근접하는 경로를 연산하고, 상기 특정된 파렛트의 좌표값을 바탕으로 상기 특정된 파렛트의 픽업을 위한 상기 특정된 파렛트까지의 경로를 추가로 연산하는 경로 연산부를 포함하는 것을 특징으로 하는 물류 이송로봇. The method of claim 6, wherein the output unit,
A path calculating unit for calculating a path close to the pallet based on the mapping result and further calculating a path to the specified pallet for pickup of the specified pallet based on the coordinate value of the specified pallet Logistics transport robot, characterized in that.
상기 파렛트의 전면부의 모서리 좌표, 및 상기 파렛트의 전면부에 형성되는 개구부들 각각의 모서리 좌표를 포함하는 것을 특징으로 하는 물류 이송로봇. The method according to claim 7, wherein the coordinate value is
Logistics transport robot comprising the coordinates of the corners of the front part of the pallet, and the corner coordinates of each of the openings formed in the front part of the pallet.
상기 매핑부의 매핑 결과, 및 상기 경로 연산부의 경로 연산 결과를 출력하는 출력부를 포함하는 것을 특징으로 하는 물류 이송로봇. The method of claim 7, wherein the output unit,
Logistics transport robot comprising an output unit for outputting the mapping result of the mapping unit, and the path calculation result of the path calculating unit.
상기 물류 이송로봇은, 몸체부, 상기 몸체부의 측면에 연장되는 측부 프레임, 상기 몸체부의 전단에 연장되며 파렛트를 픽업하는 적재부, 및 상기 몸체부의 전단으로부터 상부방향으로 연장되는 수직 프레임을 포함하며,
상기 3D 라이더는 상기 수직 프레임의 상부에 구비되고,
상기 입체 카메라는 상기 몸체부의 전단에 구비되는 것을 특징으로 하는 물류 이송로봇. According to claim 1,
The logistics transport robot includes a body part, a side frame extending on the side of the body part, a loading part extending on the front end of the body part to pick up pallets, and a vertical frame extending upward from the front end of the body part,
The 3D rider is provided on the upper part of the vertical frame,
The three-dimensional camera is a logistics transport robot, characterized in that provided at the front end of the body.
물류 이송로봇이 상기 파렛트에 근접하도록 이동하는 단계;
입체 카메라로 상기 근접한 파렛트를 촬영하는 단계;
상기 촬영 정보를 바탕으로 학습부가 상기 파렛트를 특정하는 단계;
상기 매핑 결과 및 상기 특정한 파렛트 정보를 바탕으로 상기 파렛트 픽업을 위한 경로를 연산하는 단계;
상기 물류 이송로봇이 상기 경로를 따라 자동으로 구동되어 상기 파렛트를 픽업하여 상하적하는 단계를 포함하는 물류 이송방법. mapping the structure of the yard, the positions of containers and pallets based on the information measured by the 3D lidar;
Moving the logistics transfer robot to approach the pallet;
photographing the adjacent pallet with a stereoscopic camera;
specifying the pallet by a learning unit based on the shooting information;
calculating a path for picking up the pallet based on the mapping result and the specific pallet information;
Logistics transport method comprising the step of automatically driving the logistics transport robot along the path to pick up the pallet and load it up and down.
갭센서의 센싱 결과를 바탕으로, 상기 물류 이송로봇과 상기 컨테이너의 측면 사이의 간격을 유지하며 상기 파렛트를 상하적하는 것을 특징으로 하는 물류 이송방법. According to claim 11, In the step of loading and unloading the pallet,
Based on the sensing result of the gap sensor, the logistics transport method, characterized in that the pallet is vertically loaded while maintaining a gap between the logistics transport robot and the side of the container.
상기 근접한 파렛트의 촬영 정보를 바탕으로 학습을 수행하여, 기 제작된 파렛트들의 정보가 저장된 데이터베이스로부터 상기 촬영된 파렛트에 해당되는 파렛트를 특정하는 것을 특징으로 하는 물류 이송방법. According to claim 11, In the step of specifying the pallet,
Logistics transport method, characterized in that by performing learning based on the photographing information of the adjacent pallet, and specifying a pallet corresponding to the photographed pallet from a database in which information of the previously produced pallets is stored.
상기 특정된 파렛트의 좌표값을 바탕으로 상기 특정된 파렛트의 픽업을 위한 상기 특정된 파렛트까지의 경로를 연산하는 것을 특징으로 하는 물류 이송방법.The method of claim 13, wherein in the step of calculating the path,
Logistics transport method, characterized in that for calculating the path to the specified pallet for pickup of the specified pallet based on the coordinate value of the specified pallet.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200046362A KR20210128579A (en) | 2020-04-17 | 2020-04-17 | Pallet moving robot and method for moving pallet using the same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200046362A KR20210128579A (en) | 2020-04-17 | 2020-04-17 | Pallet moving robot and method for moving pallet using the same |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20210128579A true KR20210128579A (en) | 2021-10-27 |
Family
ID=78287189
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200046362A KR20210128579A (en) | 2020-04-17 | 2020-04-17 | Pallet moving robot and method for moving pallet using the same |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20210128579A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116443527A (en) * | 2023-06-13 | 2023-07-18 | 上海木蚁机器人科技有限公司 | Pallet fork method, device, equipment and medium based on laser radar |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190066990A (en) | 2017-12-06 | 2019-06-14 | 한국파렛트풀(주) | Pallet automatic importing and exporting device |
-
2020
- 2020-04-17 KR KR1020200046362A patent/KR20210128579A/en not_active Application Discontinuation
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190066990A (en) | 2017-12-06 | 2019-06-14 | 한국파렛트풀(주) | Pallet automatic importing and exporting device |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116443527A (en) * | 2023-06-13 | 2023-07-18 | 上海木蚁机器人科技有限公司 | Pallet fork method, device, equipment and medium based on laser radar |
CN116443527B (en) * | 2023-06-13 | 2023-09-08 | 上海木蚁机器人科技有限公司 | Pallet fork method, device, equipment and medium based on laser radar |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11780101B2 (en) | Automated package registration systems, devices, and methods | |
KR102650494B1 (en) | Automated package registration systems, devices, and methods | |
KR102326097B1 (en) | Pallet detection using units of physical length | |
US11741566B2 (en) | Multicamera image processing | |
JP6649796B2 (en) | Object state specifying method, object state specifying apparatus, and carrier | |
JP5259286B2 (en) | 3D object recognition system and inventory system using the same | |
US20170336195A1 (en) | Dimension measurement device and dimension measurement method | |
CN110837814A (en) | Vehicle navigation method, device and computer readable storage medium | |
CN110054116A (en) | Pallet fork air navigation aid, system and unmanned fork lift applied to fork truck | |
JP5383836B2 (en) | An image processing apparatus having a function of automatically adjusting a search window | |
JP6858104B2 (en) | Information processing device and information processing method | |
CN112132523A (en) | Method, system and device for determining quantity of goods | |
CN114170521B (en) | Forklift pallet butt joint identification positioning method | |
KR20210128579A (en) | Pallet moving robot and method for moving pallet using the same | |
JP2021160860A (en) | Freight handling assistance system | |
Haanpaa et al. | Machine vision algorithms for robust pallet engagement and stacking | |
JP7513203B2 (en) | Vehicle control device, control method, and program | |
JP7261597B2 (en) | Work storage system to be transferred | |
Zhang et al. | Robotic de-palletizing using uncalibrated vision and 3D laser-assisted image analysis | |
JP7021620B2 (en) | Manipulators and mobile robots | |
WO2024105855A1 (en) | System for identifying object to be moved, device for identifying object to be moved, object identification method, and computer readable medium | |
JP7512221B2 (en) | Cargo Handling System | |
WO2022054497A1 (en) | Filling rate measurement method, information processing device, and program | |
TW202436904A (en) | A method for controlling the relative movement of shelves using lidar and visual servo technology | |
WO2024106153A1 (en) | Interference discrimination display system, interference discrimination display method, and interference discrimination display program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E601 | Decision to refuse application |