KR20210128579A - Pallet moving robot and method for moving pallet using the same - Google Patents

Pallet moving robot and method for moving pallet using the same Download PDF

Info

Publication number
KR20210128579A
KR20210128579A KR1020200046362A KR20200046362A KR20210128579A KR 20210128579 A KR20210128579 A KR 20210128579A KR 1020200046362 A KR1020200046362 A KR 1020200046362A KR 20200046362 A KR20200046362 A KR 20200046362A KR 20210128579 A KR20210128579 A KR 20210128579A
Authority
KR
South Korea
Prior art keywords
pallet
logistics transport
unit
transport robot
information
Prior art date
Application number
KR1020200046362A
Other languages
Korean (ko)
Inventor
김미숙
Original Assignee
(주)케이비파워랩
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)케이비파워랩 filed Critical (주)케이비파워랩
Priority to KR1020200046362A priority Critical patent/KR20210128579A/en
Publication of KR20210128579A publication Critical patent/KR20210128579A/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0009Constructional details, e.g. manipulator supports, bases
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Manipulator (AREA)

Abstract

In a logistics transport robot and a logistics transport method using the same, the logistics transport robot includes a sensor unit, a processing unit, an output unit, and a driving unit. The sensor unit includes a 3D lidar for measuring the surrounding yard, containers and pallets, and a stereoscopic camera for photographing in close proximity to the pallet. The processing unit includes a mapping unit that maps the positions of the structure of the yard, the container and the pallet based on the measurement information of the 3D lidar, and a learning unit that specifies the pallet based on the photographing information of the stereoscopic camera. The output unit outputs a path to the pallet based on the mapping result and the specified pallet information. The driving unit automatically drives the logistics transport robot along the output path. An object of the present invention is to provide the logistics transport robot that can reduce the time for loading and unloading as well as saving labor costs by performing loading or unloading by unmanned driving of pallets in containers.

Description

물류 이송로봇 및 이를 이용한 물류이송 방법{PALLET MOVING ROBOT AND METHOD FOR MOVING PALLET USING THE SAME}Logistics transport robot and logistics transport method using the same

본 발명은 물류 이송로봇 및 이를 이용한 물류이송 방법에 관한 것으로, 더욱 상세하게는 컨테이너에 파렛트를 무인 구동으로 상적 또는 하적을 수행할 수 있는 물류 이송로봇 및 이를 이용한 물류이송 방법에 관한 것이다.The present invention relates to a logistics transport robot and a logistics transport method using the same, and more particularly, to a logistics transport robot capable of performing loading or unloading by unmanned driving of a pallet in a container and a logistics transport method using the same.

도 1은 종래기술에 의한 물류이송 장치(2)가 컨테이너(1)로 파렛트(미도시)를 상적 또는 하적하는 상태를 도시한 모식도이다. 1 is a schematic diagram illustrating a state in which the logistics transfer device 2 according to the prior art loads or unloads a pallet (not shown) into the container 1 .

종래의 이러한 물류이송 로봇을 이용한 파렛트의 상적 또는 하적의 경우, 상기 물류이송 로봇을 운전하는 운전자가 필요한 것은 물론, 상기 컨테이너(1) 내부에서도 파렛트를 이동시키기 위한 별도의 이송장치(3)를 운영하기 위한 운영자가 필요하였다. In the case of loading or unloading pallets using such a conventional logistics transport robot, a separate transport device 3 for moving the pallet within the container 1 as well as a driver driving the logistics transport robot is required. An operator was needed to do this.

이에 따라, 운전자나 운영자의 고용에 따른 비용의 증가는 물론이며, 운전자나 운영자의 미숙 등으로 상하적의 시간이 증가하는 문제가 야기되었다. Accordingly, there is a problem that not only increases the cost due to the employment of the driver or operator, but also increases the up-and-down time due to the inexperience of the driver or the operator.

이에, 이러한 컨테이너로의 물류의 상하적을 자동으로 수행하기 위한 다양한 시스템이 개발되고 있으며, 대한민국 공개특허 제10-2019-0066990호에서는 파렛트 자동 반출입 장치에 관한 기술을 개시하고 있다. Accordingly, various systems have been developed for automatically performing vertical loading and unloading of logistics to such containers, and Korean Patent Laid-Open No. 10-2019-0066990 discloses a technology related to an automatic pallet loading and unloading device.

그러나, 상기 개시된 기술은 단순히 이송모듈을 이용하여 파렛트를 컨테이너의 내부로 이송시키거나 외부로 반출시키는 기술에 불과하며, 실제 파렛트를 컨테이너로 상하적하는 물류이송 로봇의 무인 구동 또는 무인 동작에 관한 기술은 아직까지 개발되지 못하고 있다. However, the disclosed technology is merely a technology for transferring a pallet to the inside of a container or taking it out to the outside using a transfer module, and a technology related to unmanned driving or unmanned operation of a logistics transport robot that actually loads and unloads pallets into a container has not yet been developed.

대한민국 등록특허 제10-2019-0066990호Republic of Korea Patent Registration No. 10-2019-0066990

이에, 본 발명의 기술적 과제는 이러한 점에서 착안된 것으로 본 발명의 목적은 컨테이너에 파렛트를 무인 구동으로 상적 또는 하적을 수행함으로써, 상하적의 시간을 줄이는 것은 물론 인건비를 절약할 수 있는 물류 이송로봇을 제공하는 것이다. Accordingly, the technical problem of the present invention was conceived in this regard, and the object of the present invention is to perform loading or unloading by unmanned driving of pallets in containers, thereby reducing the time of loading and unloading as well as saving labor costs. will provide

또한, 본 발명의 다른 목적은 상기 물류 이송로봇을 이용한 물류이송 방법을 제공하는 것이다. In addition, another object of the present invention is to provide a logistics transport method using the logistics transport robot.

상기한 본 발명의 목적을 실현하기 위한 일 실시예에 따른 물류 이송로봇은 센서유닛, 처리유닛, 출력유닛 및 구동부를 포함한다. 상기 센서유닛은 주변의 야적장, 컨테이너 및 파렛트를 계측하는 3D 라이더, 및 상기 파렛트에 근접하여 촬영하는 입체 카메라를 포함한다. 상기 처리유닛은 상기 3D 라이더의 계측 정보를 바탕으로 상기 야적장의 구조, 상기 컨테이너 및 상기 파렛트의 위치를 매핑하는 매핑부, 및 상기 입체 카메라의 촬영 정보를 바탕으로 상기 파렛트를 특정하는 학습부를 포함한다. 상기 출력유닛은 상기 매핑 결과 및 상기 특정된 파렛트 정보를 바탕으로, 상기 파렛트까지의 경로를 출력한다. 상기 구동부는 상기 출력 경로를 따라 물류 이송로봇을 자동으로 구동시킨다. Logistics transport robot according to an embodiment for realizing the object of the present invention includes a sensor unit, a processing unit, an output unit and a driving unit. The sensor unit includes a 3D lidar for measuring the surrounding yard, containers and pallets, and a stereoscopic camera for photographing in close proximity to the pallet. The processing unit includes a mapping unit that maps the structure of the yard, the positions of the container and the pallet based on the measurement information of the 3D rider, and a learning unit that specifies the pallet based on the shooting information of the stereoscopic camera . The output unit outputs a path to the pallet based on the mapping result and the specified pallet information. The driving unit automatically drives the logistics transfer robot along the output path.

일 실시예에서, 상기 센서유닛은, 상기 물류 이송로봇과 상기 컨테이너와의 충돌을 감지하는 충돌센서, 및 상기 물류 이송로봇과 상기 컨테이너의 측면과의 거리를 센싱하는 갭센서를 더 포함할 수 있다. In an embodiment, the sensor unit may further include a collision sensor for detecting a collision between the logistics transport robot and the container, and a gap sensor for sensing a distance between the logistics transport robot and a side surface of the container. .

일 실시예에서, 상기 갭센서는, 상기 물류 이송로봇의 측부 프레임에 구비되며, 상기 파렛트를 상기 컨테이너에 상하적하는 경우, 상기 물류 이송로봇과 상기 컨테이너의 측면 사이의 간격을 센싱할 수 있다. In one embodiment, the gap sensor is provided on the side frame of the logistics transport robot, and when the pallet is loaded and unloaded on the container, it is possible to sense a gap between the logistics transport robot and the side of the container.

일 실시예에서, 상기 매핑부는, 상기 3D 라이더의 계측 정보를 바탕으로 SLAM(simultaneous localization and mapping)으로 매핑할 수 있다. In an embodiment, the mapping unit may map the 3D lidar's measurement information using simultaneous localization and mapping (SLAM).

일 실시예에서, 상기 처리유닛은, 기 제작된 파렛트들의 정보를 저장하는 데이터베이스를 더 포함할 수 있다. In an embodiment, the processing unit may further include a database for storing information on the pre-fabricated pallets.

일 실시예에서, 상기 학습부는, 상기 입체 카메라의 촬영 정보를 바탕으로 학습(deep learning)을 수행하여 상기 데이터베이스에 저장된 파렛트들 중 촬영된 파렛트에 해당되는 파렛트를 특정할 수 있다. In an embodiment, the learning unit may specify a pallet corresponding to the captured pallet from among the pallets stored in the database by performing deep learning based on the shooting information of the stereoscopic camera.

일 실시예에서, 상기 출력유닛은, 상기 매핑 결과를 바탕으로 상기 파렛트에 근접하는 경로를 연산하고, 상기 특정된 파렛트의 좌표값을 바탕으로 상기 특정된 파렛트의 픽업을 위한 상기 특정된 파렛트까지의 경로를 추가로 연산하는 경로 연산부를 포함할 수 있다. In one embodiment, the output unit calculates a path close to the pallet based on the mapping result, and up to the specified pallet for pickup of the specified pallet based on the coordinate value of the specified pallet. It may include a path calculating unit for additionally calculating the path.

일 실시예에서, 상기 좌표값은, 상기 파렛트의 전면부의 모서리 좌표, 및 상기 파렛트의 전면부에 형성되는 개구부들 각각의 모서리 좌표를 포함할 수 있다. In an embodiment, the coordinate values may include corner coordinates of the front part of the pallet, and corner coordinates of each of the openings formed in the front part of the pallet.

일 실시예에서, 상기 출력유닛은, 상기 매핑부의 매핑 결과, 및 상기 경로 연산부의 경로 연산 결과를 출력하는 출력부를 포함할 수 있다. In an embodiment, the output unit may include an output unit for outputting a mapping result of the mapping unit and a path calculation result of the path calculating unit.

일 실시예에서, 상기 물류 이송로봇은, 몸체부, 상기 몸체부의 측면에 연장되는 측부 프레임, 상기 몸체부의 전단에 연장되며 파렛트를 픽업하는 적재부, 및 상기 몸체부의 전단으로부터 상부방향으로 연장되는 수직 프레임을 포함하며, 상기 3D 라이더는 상기 수직 프레임의 상부에 구비되고, 상기 입체 카메라는 상기 몸체부의 전단에 구비될 수 있다. In one embodiment, the logistics transport robot, a body portion, a side frame extending to the side of the body portion, a loading portion extending to the front end of the body portion to pick up a pallet, and vertical extending in the upper direction from the front end of the body portion Including a frame, the 3D rider is provided on the upper portion of the vertical frame, the stereoscopic camera may be provided at the front end of the body portion.

상기한 본 발명의 다른 목적을 실현하기 위한 일 실시예에 따른 물류 이송방법에서, 3D 라이더로 계측된 정보를 바탕으로 야적장의 구조, 컨테이너 및 파렛트의 위치를 매핑한다. 물류 이송로봇이 상기 파렛트에 근접하도록 이동한다. 입체 카메라로 상기 근접한 파렛트를 촬영한다. 상기 촬영 정보를 바탕으로 학습부가 상기 파렛트를 특정한다. 상기 매핑 결과 및 상기 특정한 파렛트 정보를 바탕으로 상기 파렛트 픽업을 위한 경로를 연산한다. 상기 물류 이송로봇이 상기 경로를 따라 자동으로 구동되어 상기 파렛트를 픽업하여 상하적한다. In the logistics transport method according to an embodiment for realizing another object of the present invention, the structure of the yard, the position of the container and the pallet are mapped based on the information measured by the 3D lidar. The logistics transfer robot moves to approach the pallet. The adjacent pallet is photographed with a stereoscopic camera. Based on the shooting information, the learning unit specifies the pallet. A path for picking up the pallet is calculated based on the mapping result and the specific pallet information. The logistics transport robot is automatically driven along the path to pick up the pallet and load it up and down.

일 실시예에서, 상기 파렛트를 상하적하는 단계에서, 갭센서의 센싱 결과를 바탕으로, 상기 물류 이송로봇과 상기 컨테이너의 측면 사이의 간격을 유지하며 상기 파렛트를 상하적할 수 있다. In one embodiment, in the step of loading and unloading the pallet, based on the sensing result of the gap sensor, the pallet may be vertically loaded while maintaining a gap between the logistics transfer robot and the side of the container.

일 실시예에서, 상기 파렛트를 특정하는 단계에서, 상기 근접한 파렛트의 촬영 정보를 바탕으로 학습을 수행하여, 기 제작된 파렛트들의 정보가 저장된 데이터베이스로부터 상기 촬영된 파렛트에 해당되는 파렛트를 특정할 수 있다. In an embodiment, in the step of specifying the pallet, learning may be performed based on the photographing information of the adjacent pallet, and the pallet corresponding to the photographed pallet may be specified from a database in which information of pre-fabricated pallets is stored. .

일 실시예에서, 상기 경로를 연산하는 단계에서, 상기 특정된 파렛트의 좌표값을 바탕으로 상기 특정된 파렛트의 픽업을 위한 상기 특정된 파렛트까지의 경로를 연산할 수 있다. In one embodiment, in the step of calculating the path, a path to the specified pallet for pickup of the specified pallet may be calculated based on the coordinate value of the specified pallet.

본 발명의 실시예들에 의하면, 종래 운전자가 수동으로 조작하여 파렛트의 상하적을 수행하는 물류 이송로봇이, 센싱 결과를 바탕으로 자동으로 구동되어 파렛트의 상하적을 수행할 수 있어, 물류의 상하적에 소요되는 시간을 줄일 수 있으며, 인건비를 절약하여, 무인 물류 이송시스템을 구축할 수 있다. According to the embodiments of the present invention, the conventional logistics transfer robot that manually manipulates the operator to perform vertical loading and unloading of pallets is automatically driven based on the sensing result to perform vertical loading and unloading of pallets, which is required for vertical loading and unloading of logistics It is possible to reduce the time it takes and save labor costs, and build an unmanned logistics transport system.

이 경우, 3D 라이더로 계측된 정보를 바탕으로 SLAM 매핑으로 전체적인 지도를 도출하되, SLAM 매핑만으로는 세부적인 파렛트의 상하적을 위한 경로를 도출하기 어려우므로, 입체 카메라를 이용하여 파렛트를 촬영하여 보다 정확한 파렛트의 정보로부터 이동 경로를 연산하므로, 파렛트 픽업을 위한 이동 경로 연산의 속도를 향상시킬 수 있으며 정확성을 높여, 정확한 파렛트의 자동 픽업이 가능하게 된다. In this case, the overall map is derived by SLAM mapping based on the information measured by the 3D rider, but it is difficult to derive the path for detailed pallet up and down using only SLAM mapping. Since the movement path is calculated from the information of

특히, 파렛트는 그 종류가 다양하여, 단순히 카메라로 촬영된 정보만으로 크기나 정확한 위치를 특정하기 어려우므로, 기 제작된 모든 종류의 파렛트에 대한 정보가 저장된 데이터베이스를 바탕으로 학습을 수행하여, 촬영된 파렛트와 동일한 파렛트를 특정하여, 해당 파렛트의 형상, 크기 및 구조를 도출할 수 있다. In particular, since there are various types of pallets, it is difficult to specify the size or exact position only with information photographed with a camera. By specifying the same pallet as the pallet, the shape, size and structure of the corresponding pallet can be derived.

나아가, 상기와 같이 특정된 파렛트에 대하여, 측면 및 개구부의 모서리의 좌표를 바탕으로 픽업을 위한 개구부의 위치를 정확하게 도출함으로써, 자동으로 물류 이송로봇이 파렛트를 정확하게 픽업할 수 있다. Furthermore, for the pallet specified as described above, by accurately deriving the position of the opening for pickup based on the coordinates of the side and the corner of the opening, the logistics transport robot can automatically pick up the pallet accurately.

한편, 파렛트의 픽업이 정확하더라도, 실제 파렛트의 상하적시 컨테이너와 충돌이 발생할 수 있으므로, 이를 방지하기 위해 충돌센서를 통해 충돌 여부를 센싱하여 자동 구동을 제어할 수 있으며, 특히, 갭센서를 이용하여 컨테이너의 측면과 물류 이송로봇 사이의 간격을 일정하게 유지하면서 파렛트를 상하적하도록 유도함으로써, 컨테이너의 측면의 연장방향을 따라 평행하게 파렛트의 상하적을 수행할 수 있다. On the other hand, even if the pick-up of the pallet is correct, a collision with the container may occur when the actual pallet is vertically loaded. By inducing the pallet to be loaded and unloaded while maintaining a constant distance between the side of the container and the logistics transfer robot, it is possible to perform vertical loading and unloading of the pallet in parallel along the extension direction of the side of the container.

도 1은 종래기술에 의한 물류이송 장치를 이용한 파렛트의 상하적 상태를 도시한 모식도이다.
도 2는 본 발명의 일 실시예에 의한 물류 이송로봇을 도시한 사시도이다.
도 3은 도 2의 물류 이송로봇을 도시한 블록도이다.
도 4는 도 2의 물류 이송로봇을 이용한 물류이송 방법을 도시한 흐름도이다.
도 5는 도 4의 3D 라이더로 매핑하는 단계에서, 야적장을 지도화한 이미지이고, 도 6은 도 4의 3D 라이더로 매핑하는 단계에서, 야적장 구조, 컨테이너 및 파렛트의 위치를 3차원으로 매핑한 결과를 나타내는 이미지이다.
도 7은 도 4의 입체 카메라로 파렛트를 촬영한 결과를 나타내는 이미지이다.
도 8은 도 4의 특정된 파렛트의 좌표값을 추출하는 결과를 나타내는 이미지이다.
도 9는 도 4의 컨테이너의 에지를 따라 상하적하는 단계에서 사용되는 출력이미지의 예이다.
1 is a schematic diagram showing a vertical state of a pallet using a logistics transfer device according to the prior art.
Figure 2 is a perspective view showing a logistics transfer robot according to an embodiment of the present invention.
3 is a block diagram illustrating the logistics transfer robot of FIG. 2 .
4 is a flowchart illustrating a logistics transport method using the logistics transport robot of FIG. 2 .
Figure 5 is an image of the yard map in the step of mapping with the 3D lidar of Figure 4, and Figure 6 is the 3D mapping of the yard structure, the position of the container and the pallet in the mapping step with the 3D lidar of Figure 4 An image representing the result.
7 is an image showing the result of photographing the pallet with the stereoscopic camera of FIG.
FIG. 8 is an image showing the result of extracting the coordinate values of the specified pallet of FIG. 4 .
9 is an example of an output image used in the step of vertical loading along the edge of the container of FIG. 4 .

본 발명은 다양한 변경을 가할 수 있고 여러 가지 형태를 가질 수 있는 바, 실시예들을 본문에 상세하게 설명하고자 한다. 그러나 이는 본 발명을 특정한 개시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다. 제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. Since the present invention may have various changes and may have various forms, embodiments will be described in detail in the text. However, this is not intended to limit the present invention to the specific disclosed form, it should be understood to include all modifications, equivalents and substitutes included in the spirit and scope of the present invention. In describing each figure, like reference numerals have been used for like elements. Terms such as first, second, etc. may be used to describe various elements, but the elements should not be limited by the terms.

상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. The above terms are used only for the purpose of distinguishing one component from another. The terms used in the present application are only used to describe specific embodiments, and are not intended to limit the present invention. The singular expression includes the plural expression unless the context clearly dictates otherwise.

본 출원에서, "포함하다" 또는 "이루어진다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. In the present application, terms such as "comprises" or "consisting of" are intended to designate that a feature, number, step, operation, component, part, or combination thereof described in the specification is present, but one or more other features It is to be understood that it does not preclude the possibility of the presence or addition of numbers, steps, operations, components, parts, or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical and scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related art, and should not be interpreted in an ideal or excessively formal meaning unless explicitly defined in the present application. does not

이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다.Hereinafter, preferred embodiments of the present invention will be described in more detail with reference to the accompanying drawings.

도 2는 본 발명의 일 실시예에 의한 물류 이송로봇을 도시한 사시도이다. 도 3은 도 2의 물류 이송로봇을 도시한 블록도이다. 도 4는 도 2의 물류 이송로봇을 이용한 물류이송 방법을 도시한 흐름도이다. 도 5는 도 4의 3D 라이더로 매핑하는 단계에서, 야적장을 지도화한 이미지이고, 도 6은 도 4의 3D 라이더로 매핑하는 단계에서, 야적장 구조, 컨테이너 및 파렛트의 위치를 3차원으로 매핑한 결과를 나타내는 이미지이다. 도 7은 도 4의 입체 카메라로 파렛트를 촬영한 결과를 나타내는 이미지이다. 도 8은 도 4의 특정된 파렛트의 좌표값을 추출하는 결과를 나타내는 이미지이다. 도 9는 도 4의 컨테이너의 에지를 따라 상하적하는 단계에서 사용되는 출력이미지의 예이다. Figure 2 is a perspective view showing a logistics transfer robot according to an embodiment of the present invention. 3 is a block diagram illustrating the logistics transfer robot of FIG. 2 . 4 is a flowchart illustrating a logistics transport method using the logistics transport robot of FIG. 2 . FIG. 5 is an image of the yard mapping in the 3D lidar mapping step of FIG. 4, and FIG. 6 is a 3D mapping of the yard structure, container and pallet positions in the 3D lidar mapping step of FIG. An image representing the result. 7 is an image showing the result of photographing the pallet with the stereoscopic camera of FIG. 8 is an image showing the result of extracting the coordinate values of the specified pallet of FIG. 9 is an example of an output image used in the step of vertical loading along the edge of the container of FIG. 4 .

이하에서는, 본 실시예에 의한 물류 이송로봇 및 상기 물류 이송로봇을 이용한 물류 이송방법에 대하여 설명의 편의상 동시에 설명한다. Hereinafter, the logistics transfer robot according to the present embodiment and the logistics transfer method using the logistics transfer robot will be described at the same time for convenience of description.

우선, 도 2 및 도 3을 참조하면, 본 실시예에 의한 물류 이송로봇(10)은 파렛트를 픽업하여 컨테이너에 상하적하는 자율주행 로봇인 것으로, 센서유닛(100), 처리유닛(200), 출력유닛(300), 제어유닛(400) 및 로봇부(500)를 포함하며, 상기 센서유닛(100)은 3D 라이더(110), 입체 카메라(120), 충돌센서(130) 및 갭센서(140)를 포함하고, 상기 처리유닛(200)은 매핑부(210), 학습부(220) 및 데이터베이스(230)를 포함하고, 상기 출력유닛(300)은 출력부(310) 및 경로 연산부(320)를 포함하고, 상기 제어유닛(400)은 구동부(410) 및 표시부(420)를 포함하며, 상기 로봇부(500)는 몸체부(510), 수동 조작부(520), 측부 프레임(530), 수직 프레임(540) 및 적재부(550)를 포함한다. First, referring to FIGS. 2 and 3 , the logistics transport robot 10 according to this embodiment is an autonomous driving robot that picks up pallets and loads them up and down in containers, the sensor unit 100, the processing unit 200, It includes an output unit 300 , a control unit 400 , and a robot unit 500 , wherein the sensor unit 100 includes a 3D lidar 110 , a stereoscopic camera 120 , a collision sensor 130 , and a gap sensor 140 . ), and the processing unit 200 includes a mapping unit 210 , a learning unit 220 and a database 230 , and the output unit 300 includes an output unit 310 and a path calculating unit 320 . Including, the control unit 400 includes a driving unit 410 and a display unit 420, the robot unit 500 includes a body unit 510, a manual operation unit 520, a side frame 530, vertical It includes a frame 540 and a loading unit 550 .

특히, 상기 로봇부(500)는 상기 물류 이송로봇(10)의 외형을 형성하는 것으로, 상기 몸체부(510)는 상기 로봇부(500)의 중앙에 해당되며, 상기 수동 조작부(520)는 긴급 상황 또는 상기 물류 이송로봇(10)의 수동 조작이 필요한 경우 사용자에 의해 조작되는 부분이다. In particular, the robot part 500 forms the outer shape of the logistics transfer robot 10 , and the body part 510 corresponds to the center of the robot part 500 , and the manual operation part 520 is an emergency It is a part operated by the user when the situation or manual operation of the logistics transfer robot 10 is required.

또한, 상기 몸체부(510)의 측면을 따라서는 상기 측부 프레임(530)이 형성되며, 상기 측부 프레임(530)에는 후술되는 상기 갭센서(140)가 구비된다. In addition, the side frame 530 is formed along the side surface of the body portion 510 , and the gap sensor 140 to be described later is provided on the side frame 530 .

상기 몸체부(510)의 전면을 향해서는 상기 적재부(550)가 한 쌍으로 연장되며, 상기 적재부(550)는 한 쌍의 돌출부가 상기 파렛트의 한 쌍의 개구부에 각각 삽입되어 상기 파렛트를 픽업하게 된다. The loading part 550 is extended in a pair toward the front of the body part 510, and the loading part 550 has a pair of protrusions inserted into a pair of openings of the pallet, respectively, to lift the pallet. will be picked up

이 경우, 상기 몸체부(510)의 전면에는 상기 입체 카메라(120)가 위치하여, 전면에 위치하는 상기 파렛트를 촬영하게 된다. In this case, the stereoscopic camera 120 is positioned on the front of the body 510 to photograph the pallet positioned on the front.

상기 수직 프레임(540)은 상기 몸체부(510)의 전면에서, 상부방향으로 연장되며, 상기 수직 프레임(540)을 따라 상기 적재부(550)는 상하방향으로 이동하게 된다. The vertical frame 540 extends upward from the front of the body 510 , and the loading unit 550 moves in the vertical direction along the vertical frame 540 .

한편, 상기 3D 라이더(110)는 상기 수직 프레임(540)의 상부에 위치하여, 전면은 물론이며, 측면 또는 후면까지 주변을 계측할 수 있다. On the other hand, the 3D rider 110 is located on the upper portion of the vertical frame 540, as well as the front, it is possible to measure the periphery to the side or rear.

상기 구동부(410)는 다양한 위치에 위치할 수 있으나, 도 2에 도시된 바와 같이, 상기 측부 프레임(530)의 전단에 위치할 수 있다. 또한, 상기 구동부(410)의 상면 상에는 상기 충돌센서(130)가 위치하여, 상기 로봇부(500)의 측면을 중심으로 주변 구조물에 충돌하는 가의 여부를 실시간으로 감시할 수 있다. The driving unit 410 may be located at various positions, but may be located at the front end of the side frame 530 as shown in FIG. 2 . In addition, the collision sensor 130 is positioned on the upper surface of the driving unit 410 , and it is possible to monitor in real time whether or not the collision sensor 130 collides with a surrounding structure around the side surface of the robot unit 500 .

보다 구체적으로, 도 2, 도 3 및 도 4를 참조하면, 상기 물류 이송로봇(10)을 이용한 물류 이송방법에서는, 우선, 상기 3D 라이더(Lidar)(110)로 상기 물류 이송로봇(10)의 주변의 야적장, 컨테이너 및 파렛트(600)를 계측하고, 이렇게 계측된 정보를 바탕으로 상기 매핑부(210)는 상기 야적장의 구조, 상기 컨테이너 및 상기 파렛트의 위치를 매핑(mapping)한다(단계 S10). More specifically, referring to FIGS. 2, 3 and 4 , in the logistics transport method using the logistics transport robot 10 , first, the 3D lidar (Lidar) 110 of the logistics transport robot 10 The surrounding yard, container, and pallet 600 are measured, and the mapping unit 210 maps the structure of the yard, the position of the container and the pallet based on the measured information (step S10) .

상기 3D 라이더(Lidar)는 레이저를 발사하여 산란되거나 반사되는 레이저가 돌아오는 시간, 강도, 주파수의 변화 등을 바탕으로, 주변 대상물의 거리, 형상, 구조 등을 측정하는 것으로, 이를 통해 상기 물류 이송로봇(10)이 위치하는 주변의 특정 구조물까지의 거리, 형상, 구조 등을 계측할 수 있다. The 3D lidar is to measure the distance, shape, structure, etc. of the surrounding object based on the change in time, intensity, frequency, etc. of the scattered or reflected laser by emitting a laser, and the like, through which the logistics transport It is possible to measure the distance, shape, structure, etc. to a specific structure in the vicinity of which the robot 10 is located.

즉, 상기 3D 라이더(110)를 통해, 상기 물류 이송로봇(10)이 위치하는, 야적장의 구조, 상기 컨테이너의 위치나 구조, 상기 파렛트의 위치나 구조에 대하여 계측하게 된다. That is, through the 3D lidar 110, the logistics transfer robot 10 is located, the structure of the yard, the position or structure of the container, and the position or structure of the pallet is measured.

이렇게 계측된 결과는, 상기 매핑부(210)로 제공되며, 상기 매핑부(210)에서는 상기 계측된 결과를 바탕으로, 도 5에 도시된 바와 같이 주변 야적장의 구조 및 위치에 대한 네비게이션(Navigation) 정보를 도출하는 것은 물론, 도 6에 도시된 바와 같이 3차원 맵(map)을 매핑하여 도출할 수 있다. The measured result is provided to the mapping unit 210, and the mapping unit 210 performs navigation on the structure and location of the surrounding yard as shown in FIG. 5 based on the measured result. In addition to deriving information, as shown in FIG. 6 , it may be derived by mapping a 3D map.

이 경우, 상기 매핑부(210)는, 예를 들어, SLAM(simultaneous localization and mapping)으로 매핑을 수행하여, 도 5 및 도 6에 도시된 바와 같이, 상기 야적장의 구조, 상기 컨테이너 및 상기 파렛트의 위치 등을 시각화 또는 이미지화하여 도출할 수 있다. In this case, the mapping unit 210 performs mapping by, for example, simultaneous localization and mapping (SLAM), and as shown in FIGS. 5 and 6 , the structure of the yard, the container and the pallet. It can be derived by visualizing or imaging a location, etc.

한편, 이렇게 도출된 상기 매핑 이미지는 상기 출력부(310)를 통해 외부로 출력될 수도 있다.Meanwhile, the mapping image derived in this way may be output to the outside through the output unit 310 .

다만, 이렇게 상기 3D 라이더(110) 및 상기 매핑부(210)를 통해 도출되는 상기 야적장의 구조, 상기 컨테이너 및 상기 파렛트의 위치 등의 시각화 결과는 상대적으로 상기 파렛트의 정확한 위치를 도출하는 것에는 한계가 있다. However, the visualization results of the structure of the yard, the container and the pallet position derived through the 3D rider 110 and the mapping unit 210 in this way are limited in deriving the accurate position of the pallet relatively. there is

한편, 상기와 같이 매핑 이미지를 도출한 이후, 도 2, 도 3 및 도 4를 참조하면, 상기 매핑 이미지의 결과를 바탕으로, 상기 물류 이송로봇(10)이 상기 파렛트(600)에 근접하도록 이동한다(단계 S20). On the other hand, after deriving the mapping image as described above, referring to FIGS. 2, 3 and 4 , based on the result of the mapping image, the logistics transfer robot 10 moves to be close to the pallet 600 . do (step S20).

즉, 상기 구동부(410)는 상기 물류 이송로봇(10)을 상기 파렛트(600)에 근접하도록 이동시키며, 이 경우, 상기 매핑 이미지를 통해 도출된 상기 물류 이송로봇(10) 주변의 야적장의 구조, 컨테이너 및 파렛트의 위치 등의 정보를 이용한다. That is, the driving unit 410 moves the logistics transport robot 10 to be close to the pallet 600, and in this case, the structure of the yard around the logistics transport robot 10 derived through the mapping image, Information such as the location of containers and pallets is used.

다만, 앞서 설명한 바와 같이, 상기 매핑 이미지로 도출된 주변의 정보는 상기 물류 이송로봇(10)이 상기 파렛트(600)를 정확하게 픽업(pickup)하기에는 부족한 정보를 포함하므로, 본 실시예에서는 후속되는 절차를 통해, 정확한 픽업을 위한 정보를 추가로 획득한다. However, as described above, the surrounding information derived from the mapping image includes insufficient information for the logistics transfer robot 10 to accurately pick up the pallet 600, so in this embodiment the procedure to follow Through this, information for accurate pickup is additionally obtained.

즉, 도 2, 도 3 및 도 4를 참조하면, 상기 물류 이송로봇(10)이 상기 파렛트(600)에 근접한 상태에서, 상기 입체 카메라(120)가 상기 파렛트(600)의 3차원 이미지를 촬영한다(단계 S30). That is, referring to FIGS. 2, 3 and 4 , in a state where the logistics transport robot 10 is close to the pallet 600 , the stereoscopic camera 120 takes a three-dimensional image of the pallet 600 . do (step S30).

이렇게 촬영된 상기 파렛트(600)의 3차원 영상의 예는, 도 7에 도시된 바와 같다. An example of the three-dimensional image of the pallet 600 photographed in this way is shown in FIG. 7 .

상기 물류 이송로봇(10)은 상기 적재부(550)를 통해 상기 파렛트(600)를 픽업하는 것으로, 정확한 픽업을 위해, 도 7에 도시된 바와 같이, 상기 입체 카메라(120)는 상기 파렛트(600)의 전면부(610)에 대한 3차원 이미지를 획득하여야 한다. The logistics transfer robot 10 is to pick up the pallet 600 through the loading unit 550, for accurate pickup, as shown in FIG. 7 , the stereoscopic camera 120 is the pallet 600 ) to obtain a three-dimensional image of the front part 610 .

이 경우, 획득되는 이미지는, 상기 전면부(610)의 3차원 이미지이므로, 상기 전면부(610)에 형성되는 한 쌍의 개구부들(620)의 이미지도 포함되게 된다. In this case, since the obtained image is a three-dimensional image of the front part 610 , an image of a pair of openings 620 formed in the front part 610 is also included.

이 후, 도 2, 도 3 및 도 4를 참조하면, 상기 학습부(220)는 상기 입체 카메라(120)에서 촬영된 촬영 정보를 바탕으로, 학습을 수행하여 상기 촬영된 파렛트(600)가 어떤 종류, 구조, 형상 등을 가지는 파렛트인지를 특정한다(단계 S40). Thereafter, referring to FIGS. 2, 3 and 4 , the learning unit 220 performs learning based on the photographing information photographed by the stereoscopic camera 120 to determine what kind of the photographed pallet 600 is. It is specified whether the pallet has a type, structure, shape, etc. (step S40).

실제 상기 입체 카메라(120)에서 촬영된 3차원 이미지의 경우, 상기 파렛트(600)의 전면부(610) 및 개구부(620)의 형상 또는 구조에 대한 정보를 포함하지만, 정확한 상기 파렛트(600)의 크기, 상기 물류 이송로봇(10)으로부터 상기 파렛트(600)까지의 정확한 거리 등의 정보를 획득하는 것은 한계가 있다. In the case of a three-dimensional image taken by the actual three-dimensional camera 120, information about the shape or structure of the front part 610 and the opening 620 of the pallet 600 is included, but the precise Acquiring information such as the size, the exact distance from the logistics transfer robot 10 to the pallet 600 is limited.

이에, 본 단계(단계 S40)를 통해, 상기 촬영된 파렛트(600)가 어떠한 파렛트인지에 대하여 정확하게 특정함으로써, 상기 파렛트(600)의 크기, 상기 파렛트(600)까지의 정확한 거리 등의 정보를 포함한, 상기 파렛트(600)에 대한 모든 정보를 정확하게 도출할 수 있다. Accordingly, through this step (step S40), by accurately specifying what kind of pallet the photographed pallet 600 is, the size of the pallet 600, the exact distance to the pallet 600, etc. , it is possible to accurately derive all information about the pallet 600 .

본 실시예의 경우, 이러한 상기 파렛트(600)에 대한 특정을 수행하기 위해, 상기 학습부(220)는, 소위 딥러닝(deep learning)을 통한 학습을 수행한다. In the present embodiment, in order to specify the pallet 600, the learning unit 220 performs learning through so-called deep learning.

즉, 상기 데이터베이스(230)에 기 제작된 모든 종류의 파렛트들에 대한 정보를 저장한 상태에서, 상기 학습부(220)가 상기 촬영된 파렛트(600)에 대한 이미지를 바탕으로, 상기 데이터베이스(230)에 저장된 파렛트들에 대한 정보를 바탕으로 학습을 수행하여, 상기 저장된 파렛트들 중에서 상기 촬영된 파렛트(600)와 동일한 파렛트를 선택하여, 최종적으로 상기 촬영된 파렛트(600)가 어떤 파렛트에 해당되는 가를 특정한다. That is, in a state in which information on all types of pallets that have been pre-fabricated are stored in the database 230 , the learning unit 220 based on the photographed image of the pallet 600 , the database 230 . ), the same pallet as the photographed pallet 600 is selected from among the stored pallets by learning based on the information on the stored pallets, and finally the photographed pallet 600 corresponds to a certain pallet specify a.

이 경우, 상기 학습부(220)는, 딥러닝 학습을 수행하므로 상대적으로 빠르게 상기 촬영된 파렛트(600)와 동일한 파렛트를 선택하여 특정할 수 있다. 이렇게 특정된 파렛트(600)의 예는 도 8에 도시된 바와 같다. In this case, since the learning unit 220 performs deep learning learning, it is possible to select and specify the same pallet as the photographed pallet 600 relatively quickly. An example of the pallet 600 thus specified is as shown in FIG. 8 .

이와 같이, 상기 학습부(220)에서 상기 파렛트를 특정하게 되면, 해당 파렛트에 대한 이미지와 관련 정보를 가져온 후 다음 단계를 수행한다. In this way, when the learning unit 220 specifies the pallet, the next step is performed after fetching an image and related information for the pallet.

즉, 도 2, 도 3 및 도 4를 참조하면, 상기 경로 연산부(320)는 상기 특정된 파렛트(600)의 좌표값을 바탕으로, 상기 파렛트(600)의 정확한 위치를 추출한다(단계 S50). That is, referring to FIGS. 2, 3 and 4 , the path calculating unit 320 extracts the exact position of the pallet 600 based on the coordinate value of the specified pallet 600 (step S50). .

상기 학습부(220)에서 특정한 파렛트(600)는, 도 8에 예시된 바와 같이, 상기 데이터베이스(230)로부터 정확한 형상과 구조를 가지는 이미지를 획득할 수 있으므로, 상기 경로 연산부(320)는 상기 특정한 파렛트(600)의 이미지를 이용하여 상기 파렛트(600)의 정확한 위치를 추출한다. Since the specific pallet 600 in the learning unit 220 can obtain an image having an accurate shape and structure from the database 230, as illustrated in FIG. 8 , the path calculating unit 320 is the specific An exact position of the pallet 600 is extracted using the image of the pallet 600 .

이 경우, 상기 데이터베이스(230)에는 상기 특정된 파렛트(600)의 크기 및 각 구조의 길이 등의 정보도 저장되므로, 상기 경로 연산부(320)는 상기 정보를 바탕으로 상기 파렛트(600)까지의 위치를 추출할 수 있다. In this case, since information such as the size of the specified pallet 600 and the length of each structure is also stored in the database 230, the path calculating unit 320 is positioned to the pallet 600 based on the information. can be extracted.

예를 들어, 상기 경로 연산부(320)는, 상기 특정된 파렛트(600)의 이미지로부터, 상기 전면부(610)의 최외각의 4개의 모서리(1, 2, 11, 12), 및 상기 전면부(610)에 형성되는 한 쌍의 개구부들 각각의 4개의 모서리(3~6, 7~10)의 좌표값을 획득할 수 있으며, 이렇게 획득된 좌표값과, 실제 상기 특정된 파렛트(600)의 크기 및 길이 정보를 바탕으로, 상기 물류 이송로봇(10)으로부터 상기 특정된 파렛트(600)까지의 거리 및 방향 정보를 획득할 수 있다. For example, the path calculating unit 320, from the image of the specified pallet 600, the outermost four corners 1, 2, 11, 12 of the front portion 610, and the front portion It is possible to obtain the coordinate values of the four corners 3 to 6 and 7 to 10 of each of the pair of openings formed in the 610, and the coordinate values obtained in this way and the actual value of the specified pallet 600 Based on the size and length information, it is possible to obtain distance and direction information from the logistics transport robot 10 to the specified pallet 600 .

이 경우, 정확하게는 상기 물류 이송로봇(10)의 적재부(550)로부터 상기 파렛트(600)의 개구부(620)까지의 거리 및 방향 정보라 할 수 있다. In this case, it can be precisely called the distance and direction information from the loading part 550 of the logistics transfer robot 10 to the opening 620 of the pallet 600 .

한편, 이상과 같이, 상기 파렛트(600)의 크기, 길이 등의 정확한 정보를 획득할 수 있으며, 일반적으로 컨테이너(700)의 크기는 정해져 있으므로, 상기 파렛트(600)의 상적시, 상기 컨테이너(700)에 적재할 수 있는 상기 파렛트(600)의 총 개수 정보는 물론, 한 층으로 최대 적층될 수 있는 파렛트(600)의 개수 정보 등을 획득할 수 있다. On the other hand, as described above, accurate information such as the size and length of the pallet 600 can be acquired, and since the size of the container 700 is generally determined, when the pallet 600 is loaded, the container 700 ), it is possible to obtain information on the total number of pallets 600 that can be loaded, as well as information on the number of pallets 600 that can be stacked up to one layer.

마찬가지로, 상기 파렛트(600)의 하적시에도, 현재 컨테이너(700)에 적재된 파래트의 총 개수 및 한 층에 적재된 파렛트의 개수 정보를 획득할 수 있다. Similarly, even when the pallet 600 is unloaded, information on the total number of pallets currently loaded in the container 700 and the number of pallets loaded on one floor may be acquired.

그리하여, 후술하는 상하적 단계에서는, 한 개의 파렛트를 상하적 하는 것을 예시하였으나, 2개 이상의 파렛트를 상하적 하는 경우, 상기 파렛트의 적재 정보를 추가로 고려하여 동일한 절차로 용이하게 수행할 수 있다. Thus, in the up-and-down step to be described later, one pallet is exemplified up and down, but when two or more pallets are up-and-down, it can be easily performed with the same procedure by additionally considering the loading information of the pallet.

이 후, 도 2, 도 3 및 도 4를 참조하면, 상기 경로 연산부(320)는 상기 거리 및 방향 정보를 바탕으로, 상기 물류 이송로봇(10)으로부터 상기 파렛트(600)까지의 경로, 즉 상기 파렛트(600)를 픽업(pickup)하기 위한 경로를 연산할 수 있다(단계 S60). Thereafter, referring to FIGS. 2, 3 and 4 , the path calculating unit 320 is based on the distance and direction information, the path from the logistics transfer robot 10 to the pallet 600, that is, the It is possible to calculate a path for picking up the pallet 600 (step S60).

이 경우, 상기 출력부(310)는, 상기 파렛트(600)의 픽업을 위한 경로를 외부로 출력할 수 있다. In this case, the output unit 310 may output a path for pickup of the pallet 600 to the outside.

이 후, 도 2, 도 3 및 도 4를 참조하면, 상기 물류 이송로봇(10)은 상기 구동부(410)에 의해 구동되어 상기 연산된 경로를 따라 상기 적재부(550)가 상기 파렛트(600)를 픽업한다(단계 S70). Thereafter, referring to FIGS. 2, 3 and 4 , the logistics transfer robot 10 is driven by the driving unit 410 so that the loading unit 550 moves the pallet 600 along the calculated path. is picked up (step S70).

이 후, 상기 픽업된 파렛트(600)를 상기 컨테이너(700)의 내부로 상적하거나, 상기 컨테이너(700)의 외부로 하적한다(단계 S80). Thereafter, the picked-up pallet 600 is loaded into the container 700 or loaded to the outside of the container 700 (step S80 ).

이 경우, 상기 파렛트의 픽업 단계(단계 S70) 및 상기 컨테이너로의 상하적 단계(단계 S80)는, 상적하는 단계와 하적하는 단계를 구분하여 이하에서 설명한다. In this case, the step of picking up the pallet (step S70) and the step of loading and unloading into the container (step S80) will be described below separately from the step of loading and unloading.

우선, 상기 파렛트(600)의 상적을 수행하는 경우, 상기 적재부(550)가 상기 야적장에 위치한 상기 파렛트(600)를 픽업(pickup)한 후, 상기 매핑부(210)를 통해 매핑된 결과에 포함되는 상기 컨테이너(700)의 위치 정보를 바탕으로, 상기 픽업한 파렛트(600)를 상기 컨테이너(700)로 이동시키게 된다. First, in the case of carrying out the loading of the pallet 600, the loading unit 550 picks up the pallet 600 located in the yard, and then the mapping unit 210 shows the mapping result. Based on the included location information of the container 700 , the picked-up pallet 600 is moved to the container 700 .

이 때, 상기 파렛트(600)를 상기 컨테이너(700)로 상적하기 위해서는, 상기 파렛트(600)가 상기 컨테이너(700)의 측면(710)에 충돌하지 않도록 유지하는 것이 중요하다. At this time, in order to load the pallet 600 into the container 700 , it is important to maintain the pallet 600 so as not to collide with the side surface 710 of the container 700 .

이에, 본 실시예에서는, 앞서 설명한 바와 같이, 상기 갭센서(140)를 통해 상기 물류 이송로봇(10)의 측부 프레임(530)과 상기 컨테이너(700)의 측면(710)과의 간격이 일정하게 유지되는 가의 여부를 실시간으로 센싱하고, 이를 바탕으로 상기 파렛트(600)와 상기 컨테이너(700)의 측면(710) 사이의 간격을 일정(기 설정된 값)하게 유지한 상태에서 상적을 수행하게 된다. Accordingly, in this embodiment, as described above, the gap between the side frame 530 of the logistics transport robot 10 and the side 710 of the container 700 is constant through the gap sensor 140 . It is sensed in real time whether or not it is maintained, and based on this, the loading is performed in a state in which the interval between the pallet 600 and the side 710 of the container 700 is maintained at a constant (preset value).

한편, 보조적으로 상기 충돌센서(130)는 실시간으로 상기 물류 이송로봇(10)의 전면 및 측면이 상기 컨테이너(700)의 측면(710) 등에 충돌하는 가의 여부를 센싱하여, 충돌의 가능성이 높은 경우, 상기 표시부(420) 등을 통해 외부로 알리는 것은 물론, 상기 구동부(410)에 정보를 제공하여, 충돌 회피 구동이 가능하도록 한다. On the other hand, auxiliary, the collision sensor 130 senses whether the front and side surfaces of the logistics transport robot 10 collide with the side 710 of the container 700 in real time, and the possibility of collision is high. , information is provided to the driving unit 410 as well as informing the outside through the display unit 420 and the like, so that collision avoidance driving is possible.

한편, 도 9에는 상기 매핑부(210)를 통해 매핑된 결과의 예로서, 상기 컨테이너(700) 및 상기 컨테이너(700)의 내부에 적재되는 파렛트(600)의 상태의 이미지가 예시된다. Meanwhile, as an example of the result mapped through the mapping unit 210 in FIG. 9 , an image of the container 700 and the state of the pallet 600 loaded in the container 700 is illustrated.

이에 따라, 상기 파렛트(600)의 하적을 수행하는 경우, 도 9에서와 같이, 상기 매핑부(210)를 통해 매핑된 결과에 포함되는 상기 컨테이너(700)의 위치 정보를 바탕으로, 상기 물류 이송로봇(10)은 상기 컨테이너(700)로 이동한다. Accordingly, when unloading the pallet 600 , as shown in FIG. 9 , based on the location information of the container 700 included in the mapping result through the mapping unit 210 , the logistics transport The robot 10 moves to the container 700 .

이 후, 상기 적재부(550)가 상기 컨테이너(700)의 내부에 위치한 상기 파렛트(600)를 픽업(pickup)한 후, 하적을 수행한다. Thereafter, the loading unit 550 picks up the pallet 600 located inside the container 700 and performs unloading.

이 때, 상기 파렛트(600)를 상기 컨테이너(700)로부터 하적하기 위해서는, 상기 상적과 동일하게, 상기 파렛트(600)가 상기 컨테이너(700)의 측면(710)에 충돌하지 않도록 유지하는 것이 중요하다. At this time, in order to unload the pallet 600 from the container 700 , it is important to keep the pallet 600 so as not to collide with the side surface 710 of the container 700 , as in the case of the container 700 . .

이에, 본 실시예에서는, 앞서 설명한 바와 같이, 상기 갭센서(140)를 통해 상기 물류 이송로봇(10)의 측부 프레임(530)과 상기 컨테이너(700)의 측면(710)과의 간격이 일정하게 유지되는 가의 여부를 실시간으로 센싱하고, 이를 바탕으로 상기 파렛트(600)와 상기 컨테이너(700)의 측면(710) 사이의 간격을 일정(기 설정된 값)하게 유지한 상태에서 하적을 수행하게 된다. Accordingly, in this embodiment, as described above, the gap between the side frame 530 of the logistics transport robot 10 and the side 710 of the container 700 is constant through the gap sensor 140 . It is sensed in real time whether or not it is maintained, and unloading is performed in a state where the interval between the pallet 600 and the side surface 710 of the container 700 is maintained at a constant (preset value) based on this.

이 후, 상기 하적된 파렛트(600)는, 다시 상기 매핑부(210)의 매핑 결과를 바탕으로, 주변 야적장 중 상기 파렛트(600)의 이송 목적지에 해당되는 구역으로 이송된다. Thereafter, the unloaded pallet 600 is transferred to an area corresponding to the transfer destination of the pallet 600 among the surrounding yards based on the mapping result of the mapping unit 210 again.

이러한 하적 절차에서도, 보조적으로 상기 충돌센서(130)는 실시간으로 상기 물류 이송로봇(10)의 전면 및 측면이 상기 컨테이너(700)의 측면(710) 등에 충돌하는 가의 여부를 센싱하여, 충돌의 가능성이 높은 경우, 상기 표시부(420) 등을 통해 외부로 알리는 것은 물론, 상기 구동부(410)에 정보를 제공하여, 충돌 회피 구동이 가능하도록 한다. Even in this unloading procedure, auxiliary, the collision sensor 130 senses whether the front and side surfaces of the logistics transport robot 10 collide with the side 710 of the container 700 in real time, and the possibility of collision When this is high, the display unit 420 not only informs the outside, but also provides information to the driving unit 410 to enable collision avoidance driving.

이상과 같이, 하나의 파렛트에 대한 상적 또는 하적이 수행된 이후, 추가적인 파렛트이 상적 또는 하적을 수행하는 경우, 앞서 설명한 바와 같이, 상기 컨테이너의 크기는 정해져 있으며, 개별 파렛트의 크기 정보는 파렛트의 특정을 통해 도출되므로, 두 개 이상의 파렛트의 상적 또는 하적을 위한 정확한 위치 정보를 쉽게 획득할 수 있고, 이를 통해 자동 상하적을 용이하게 수행할 수 있게 된다. As described above, after loading or unloading of one pallet is performed, when additional pallets perform loading or unloading, as described above, the size of the container is fixed, and the size information of individual pallets is specific to the pallet. Since it is derived through, it is possible to easily obtain accurate location information for loading or unloading of two or more pallets, and through this, it is possible to easily perform automatic loading and unloading.

한편, 상기 표시부(420)는 예를 들어, 도 2에 도시된 바와 같이, 상기 수동 조작부(520)에 인접하도록 배치되어, 상기 물류 이송로봇(10)의 구동상태는 물론, 상기 물류 이송방법의 각각의 단계에서 도출되는 결과 등을 외부로 표시할 수 있다. On the other hand, the display unit 420 is, for example, as shown in FIG. 2, is arranged adjacent to the manual operation unit 520, the driving state of the logistics transport robot 10, as well as the logistics transport method Results, etc. derived from each step can be displayed externally.

본 발명의 실시예들에 의하면, 종래 운전자가 수동으로 조작하여 파렛트의 상하적을 수행하는 물류 이송로봇이, 센싱 결과를 바탕으로 자동으로 구동되어 파렛트의 상하적을 수행할 수 있어, 물류의 상하적에 소요되는 시간을 줄일 수 있으며, 인건비를 절약하여, 무인 물류 이송시스템을 구축할 수 있다. According to the embodiments of the present invention, the conventional logistics transfer robot that manually manipulates the operator to perform vertical loading and unloading of pallets is automatically driven based on the sensing result to perform vertical loading and unloading of pallets, which is required for vertical loading and unloading of logistics It is possible to reduce the time it takes and save labor costs, and build an unmanned logistics transport system.

이 경우, 3D 라이더로 계측된 정보를 바탕으로 SLAM 매핑으로 전체적인 지도를 도출하되, SLAM 매핑만으로는 세부적인 파렛트의 상하적을 위한 경로를 도출하기 어려우므로, 입체 카메라를 이용하여 파렛트를 촬영하여 보다 정확한 파렛트의 정보로부터 이동 경로를 연산하므로, 파렛트 픽업을 위한 이동 경로 연산의 속도를 향상시킬 수 있으며 정확성을 높여, 정확한 파렛트의 자동 픽업이 가능하게 된다. In this case, the overall map is derived by SLAM mapping based on the information measured by the 3D rider, but it is difficult to derive the path for detailed pallet up and down using only SLAM mapping. Since the movement path is calculated from the information of

특히, 파렛트는 그 종류가 다양하여, 단순히 카메라로 촬영된 정보만으로 크기나 정확한 위치를 특정하기 어려우므로, 기 제작된 모든 종류의 파렛트에 대한 정보가 저장된 데이터베이스를 바탕으로 학습을 수행하여, 촬영된 파렛트와 동일한 파렛트를 특정하여, 해당 파렛트의 형상, 크기 및 구조를 도출할 수 있다. In particular, since there are various types of pallets, it is difficult to specify the size or exact position only with information photographed with a camera. By specifying the same pallet as the pallet, the shape, size and structure of the corresponding pallet can be derived.

나아가, 상기와 같이 특정된 파렛트에 대하여, 측면 및 개구부의 모서리의 좌표를 바탕으로 픽업을 위한 개구부의 위치를 정확하게 도출함으로써, 자동으로 물류 이송로봇이 파렛트를 정확하게 픽업할 수 있다. Furthermore, for the pallet specified as described above, by accurately deriving the position of the opening for pickup based on the coordinates of the side and the corner of the opening, the logistics transport robot can automatically pick up the pallet accurately.

한편, 파렛트의 픽업이 정확하더라도, 실제 파렛트의 상하적시 컨테이너와 충돌이 발생할 수 있으므로, 이를 방지하기 위해 충돌센서를 통해 충돌 여부를 센싱하여 자동 구동을 제어할 수 있으며, 특히, 갭센서를 이용하여 컨테이너의 측면과 물류 이송로봇 사이의 간격을 일정하게 유지하면서 파렛트를 상하적하도록 유도함으로써, 컨테이너의 측면의 연장방향을 따라 평행하게 파렛트의 상하적을 수행할 수 있다. On the other hand, even if the pick-up of the pallet is correct, a collision with the container may occur when the actual pallet is vertically loaded. By inducing the pallet to be loaded and unloaded while maintaining a constant distance between the side of the container and the logistics transfer robot, it is possible to perform vertical loading and unloading of the pallet in parallel along the extension direction of the side of the container.

상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다. Although the above has been described with reference to the preferred embodiments of the present invention, those skilled in the art can variously modify and change the present invention without departing from the spirit and scope of the present invention as set forth in the following claims. You will understand that you can.

10 : 물류 이송로봇 100 : 센서유닛
200 : 처리유닛 300 : 출력유닛
400 : 제어유닛 500 : 로봇부
530 : 측부 프레임 540 : 수직 프레임
10: logistics transport robot 100: sensor unit
200: processing unit 300: output unit
400: control unit 500: robot unit
530: side frame 540: vertical frame

Claims (14)

주변의 야적장, 컨테이너 및 파렛트를 계측하는 3D 라이더, 및 상기 파렛트에 근접하여 촬영하는 입체 카메라를 포함하는 센서유닛;
상기 3D 라이더의 계측 정보를 바탕으로 상기 야적장의 구조, 상기 컨테이너 및 상기 파렛트의 위치를 매핑하는 매핑부, 및 상기 입체 카메라의 촬영 정보를 바탕으로 상기 파렛트를 특정하는 학습부를 포함하는 처리유닛;
상기 매핑 결과 및 상기 특정된 파렛트 정보를 바탕으로, 상기 파렛트까지의 경로를 출력하는 출력유닛; 및
상기 출력 경로를 따라 물류 이송로봇을 자동으로 구동시키는 구동부를 포함하는 물류 이송로봇.
A sensor unit including a 3D rider for measuring the surrounding yard, containers and pallets, and a stereoscopic camera for photographing close to the pallet;
a processing unit including a mapping unit for mapping the structure of the yard, positions of the container and the pallet based on the measurement information of the 3D rider, and a learning unit for specifying the pallet based on the shooting information of the stereoscopic camera;
an output unit for outputting a path to the pallet based on the mapping result and the specified pallet information; and
Logistics transport robot including a driving unit for automatically driving the logistics transport robot along the output path.
제1항에 있어서, 상기 센서유닛은,
상기 물류 이송로봇과 상기 컨테이너와의 충돌을 감지하는 충돌센서; 및
상기 물류 이송로봇과 상기 컨테이너의 측면과의 거리를 센싱하는 갭센서를 더 포함하는 것을 특징으로 하는 물류 이송로봇.
According to claim 1, wherein the sensor unit,
a collision sensor for detecting a collision between the logistics transfer robot and the container; and
Logistics transport robot, characterized in that it further comprises a gap sensor for sensing the distance between the logistics transport robot and the side of the container.
제2항에 있어서, 상기 갭센서는,
상기 물류 이송로봇의 측부 프레임에 구비되며,
상기 파렛트를 상기 컨테이너에 상하적하는 경우, 상기 물류 이송로봇과 상기 컨테이너의 측면 사이의 간격을 센싱하는 것을 특징으로 하는 물류 이송로봇.
The method of claim 2, wherein the gap sensor,
It is provided on the side frame of the logistics transport robot,
When loading and unloading the pallet to the container, the logistics transport robot, characterized in that for sensing the distance between the side of the logistics transport robot and the container.
제1항에 있어서, 상기 매핑부는,
상기 3D 라이더의 계측 정보를 바탕으로 SLAM(simultaneous localization and mapping)으로 매핑하는 것을 특징으로 하는 물류 이송로봇.
According to claim 1, wherein the mapping unit,
Logistics transport robot, characterized in that the mapping by SLAM (simultaneous localization and mapping) based on the measurement information of the 3D lidar.
제1항에 있어서, 상기 처리유닛은,
기 제작된 파렛트들의 정보를 저장하는 데이터베이스를 더 포함하는 것을 특징으로 하는 물류 이송로봇.
According to claim 1, wherein the processing unit,
Logistics transport robot, characterized in that it further comprises a database for storing the information of the pre-fabricated pallets.
제5항에 있어서, 상기 학습부는,
상기 입체 카메라의 촬영 정보를 바탕으로 학습(deep learning)을 수행하여 상기 데이터베이스에 저장된 파렛트들 중 촬영된 파렛트에 해당되는 파렛트를 특정하는 것을 특징으로 하는 물류 이송로봇.
The method of claim 5, wherein the learning unit,
Logistics transport robot, characterized in that by performing learning (deep learning) based on the photographing information of the stereoscopic camera, the pallet corresponding to the photographed pallet among the pallets stored in the database is specified.
제6항에 있어서, 상기 출력유닛은,
상기 매핑 결과를 바탕으로 상기 파렛트에 근접하는 경로를 연산하고, 상기 특정된 파렛트의 좌표값을 바탕으로 상기 특정된 파렛트의 픽업을 위한 상기 특정된 파렛트까지의 경로를 추가로 연산하는 경로 연산부를 포함하는 것을 특징으로 하는 물류 이송로봇.
The method of claim 6, wherein the output unit,
A path calculating unit for calculating a path close to the pallet based on the mapping result and further calculating a path to the specified pallet for pickup of the specified pallet based on the coordinate value of the specified pallet Logistics transport robot, characterized in that.
제7항에 있어서, 상기 좌표값은,
상기 파렛트의 전면부의 모서리 좌표, 및 상기 파렛트의 전면부에 형성되는 개구부들 각각의 모서리 좌표를 포함하는 것을 특징으로 하는 물류 이송로봇.
The method according to claim 7, wherein the coordinate value is
Logistics transport robot comprising the coordinates of the corners of the front part of the pallet, and the corner coordinates of each of the openings formed in the front part of the pallet.
제7항에 있어서, 상기 출력유닛은,
상기 매핑부의 매핑 결과, 및 상기 경로 연산부의 경로 연산 결과를 출력하는 출력부를 포함하는 것을 특징으로 하는 물류 이송로봇.
The method of claim 7, wherein the output unit,
Logistics transport robot comprising an output unit for outputting the mapping result of the mapping unit, and the path calculation result of the path calculating unit.
제1항에 있어서,
상기 물류 이송로봇은, 몸체부, 상기 몸체부의 측면에 연장되는 측부 프레임, 상기 몸체부의 전단에 연장되며 파렛트를 픽업하는 적재부, 및 상기 몸체부의 전단으로부터 상부방향으로 연장되는 수직 프레임을 포함하며,
상기 3D 라이더는 상기 수직 프레임의 상부에 구비되고,
상기 입체 카메라는 상기 몸체부의 전단에 구비되는 것을 특징으로 하는 물류 이송로봇.
According to claim 1,
The logistics transport robot includes a body part, a side frame extending on the side of the body part, a loading part extending on the front end of the body part to pick up pallets, and a vertical frame extending upward from the front end of the body part,
The 3D rider is provided on the upper part of the vertical frame,
The three-dimensional camera is a logistics transport robot, characterized in that provided at the front end of the body.
3D 라이더로 계측된 정보를 바탕으로 야적장의 구조, 컨테이너 및 파렛트의 위치를 매핑하는 단계;
물류 이송로봇이 상기 파렛트에 근접하도록 이동하는 단계;
입체 카메라로 상기 근접한 파렛트를 촬영하는 단계;
상기 촬영 정보를 바탕으로 학습부가 상기 파렛트를 특정하는 단계;
상기 매핑 결과 및 상기 특정한 파렛트 정보를 바탕으로 상기 파렛트 픽업을 위한 경로를 연산하는 단계;
상기 물류 이송로봇이 상기 경로를 따라 자동으로 구동되어 상기 파렛트를 픽업하여 상하적하는 단계를 포함하는 물류 이송방법.
mapping the structure of the yard, the positions of containers and pallets based on the information measured by the 3D lidar;
Moving the logistics transfer robot to approach the pallet;
photographing the adjacent pallet with a stereoscopic camera;
specifying the pallet by a learning unit based on the shooting information;
calculating a path for picking up the pallet based on the mapping result and the specific pallet information;
Logistics transport method comprising the step of automatically driving the logistics transport robot along the path to pick up the pallet and load it up and down.
제11항에 있어서, 상기 파렛트를 상하적하는 단계에서,
갭센서의 센싱 결과를 바탕으로, 상기 물류 이송로봇과 상기 컨테이너의 측면 사이의 간격을 유지하며 상기 파렛트를 상하적하는 것을 특징으로 하는 물류 이송방법.
According to claim 11, In the step of loading and unloading the pallet,
Based on the sensing result of the gap sensor, the logistics transport method, characterized in that the pallet is vertically loaded while maintaining a gap between the logistics transport robot and the side of the container.
제11항에 있어서, 상기 파렛트를 특정하는 단계에서,
상기 근접한 파렛트의 촬영 정보를 바탕으로 학습을 수행하여, 기 제작된 파렛트들의 정보가 저장된 데이터베이스로부터 상기 촬영된 파렛트에 해당되는 파렛트를 특정하는 것을 특징으로 하는 물류 이송방법.
According to claim 11, In the step of specifying the pallet,
Logistics transport method, characterized in that by performing learning based on the photographing information of the adjacent pallet, and specifying a pallet corresponding to the photographed pallet from a database in which information of the previously produced pallets is stored.
제13항에 있어서, 상기 경로를 연산하는 단계에서,
상기 특정된 파렛트의 좌표값을 바탕으로 상기 특정된 파렛트의 픽업을 위한 상기 특정된 파렛트까지의 경로를 연산하는 것을 특징으로 하는 물류 이송방법.
The method of claim 13, wherein in the step of calculating the path,
Logistics transport method, characterized in that for calculating the path to the specified pallet for pickup of the specified pallet based on the coordinate value of the specified pallet.
KR1020200046362A 2020-04-17 2020-04-17 Pallet moving robot and method for moving pallet using the same KR20210128579A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200046362A KR20210128579A (en) 2020-04-17 2020-04-17 Pallet moving robot and method for moving pallet using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200046362A KR20210128579A (en) 2020-04-17 2020-04-17 Pallet moving robot and method for moving pallet using the same

Publications (1)

Publication Number Publication Date
KR20210128579A true KR20210128579A (en) 2021-10-27

Family

ID=78287189

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200046362A KR20210128579A (en) 2020-04-17 2020-04-17 Pallet moving robot and method for moving pallet using the same

Country Status (1)

Country Link
KR (1) KR20210128579A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116443527A (en) * 2023-06-13 2023-07-18 上海木蚁机器人科技有限公司 Pallet fork method, device, equipment and medium based on laser radar

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190066990A (en) 2017-12-06 2019-06-14 한국파렛트풀(주) Pallet automatic importing and exporting device

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190066990A (en) 2017-12-06 2019-06-14 한국파렛트풀(주) Pallet automatic importing and exporting device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116443527A (en) * 2023-06-13 2023-07-18 上海木蚁机器人科技有限公司 Pallet fork method, device, equipment and medium based on laser radar
CN116443527B (en) * 2023-06-13 2023-09-08 上海木蚁机器人科技有限公司 Pallet fork method, device, equipment and medium based on laser radar

Similar Documents

Publication Publication Date Title
US11780101B2 (en) Automated package registration systems, devices, and methods
KR102650494B1 (en) Automated package registration systems, devices, and methods
KR102326097B1 (en) Pallet detection using units of physical length
US11741566B2 (en) Multicamera image processing
JP6649796B2 (en) Object state specifying method, object state specifying apparatus, and carrier
JP5259286B2 (en) 3D object recognition system and inventory system using the same
US20170336195A1 (en) Dimension measurement device and dimension measurement method
CN110837814A (en) Vehicle navigation method, device and computer readable storage medium
CN110054116A (en) Pallet fork air navigation aid, system and unmanned fork lift applied to fork truck
JP5383836B2 (en) An image processing apparatus having a function of automatically adjusting a search window
JP6858104B2 (en) Information processing device and information processing method
CN112132523A (en) Method, system and device for determining quantity of goods
CN114170521B (en) Forklift pallet butt joint identification positioning method
KR20210128579A (en) Pallet moving robot and method for moving pallet using the same
JP2021160860A (en) Freight handling assistance system
Haanpaa et al. Machine vision algorithms for robust pallet engagement and stacking
JP7513203B2 (en) Vehicle control device, control method, and program
JP7261597B2 (en) Work storage system to be transferred
Zhang et al. Robotic de-palletizing using uncalibrated vision and 3D laser-assisted image analysis
JP7021620B2 (en) Manipulators and mobile robots
WO2024105855A1 (en) System for identifying object to be moved, device for identifying object to be moved, object identification method, and computer readable medium
JP7512221B2 (en) Cargo Handling System
WO2022054497A1 (en) Filling rate measurement method, information processing device, and program
TW202436904A (en) A method for controlling the relative movement of shelves using lidar and visual servo technology
WO2024106153A1 (en) Interference discrimination display system, interference discrimination display method, and interference discrimination display program

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E601 Decision to refuse application