KR102486009B1 - Depaletizing automatic system and method using robot arm - Google Patents

Depaletizing automatic system and method using robot arm Download PDF

Info

Publication number
KR102486009B1
KR102486009B1 KR1020220076957A KR20220076957A KR102486009B1 KR 102486009 B1 KR102486009 B1 KR 102486009B1 KR 1020220076957 A KR1020220076957 A KR 1020220076957A KR 20220076957 A KR20220076957 A KR 20220076957A KR 102486009 B1 KR102486009 B1 KR 102486009B1
Authority
KR
South Korea
Prior art keywords
camera
image information
tilt
image
control device
Prior art date
Application number
KR1020220076957A
Other languages
Korean (ko)
Inventor
이래용
Original Assignee
주식회사 대한엔지니어링
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 대한엔지니어링 filed Critical 주식회사 대한엔지니어링
Priority to KR1020220076957A priority Critical patent/KR102486009B1/en
Application granted granted Critical
Publication of KR102486009B1 publication Critical patent/KR102486009B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65GTRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
    • B65G61/00Use of pick-up or transfer devices or of manipulators for stacking or de-stacking articles not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65GTRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
    • B65G47/00Article or material-handling devices associated with conveyors; Methods employing such devices
    • B65G47/74Feeding, transfer, or discharging devices of particular kinds or types
    • B65G47/90Devices for picking-up and depositing articles or materials
    • B65G47/91Devices for picking-up and depositing articles or materials incorporating pneumatic, e.g. suction, grippers
    • B65G47/915Devices for picking-up and depositing articles or materials incorporating pneumatic, e.g. suction, grippers provided with drive systems with rotary movements only
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65GTRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
    • B65G47/00Article or material-handling devices associated with conveyors; Methods employing such devices
    • B65G47/74Feeding, transfer, or discharging devices of particular kinds or types
    • B65G47/90Devices for picking-up and depositing articles or materials
    • B65G47/91Devices for picking-up and depositing articles or materials incorporating pneumatic, e.g. suction, grippers
    • B65G47/917Devices for picking-up and depositing articles or materials incorporating pneumatic, e.g. suction, grippers control arrangements
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65GTRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
    • B65G59/00De-stacking of articles
    • B65G59/02De-stacking from the top of the stack
    • B65G59/04De-stacking from the top of the stack by suction or magnetic devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65GTRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
    • B65G2201/00Indexing codes relating to handling devices, e.g. conveyors, characterised by the type of product or load being conveyed or handled
    • B65G2201/02Articles
    • B65G2201/0235Containers
    • B65G2201/025Boxes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65GTRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
    • B65G2203/00Indexing code relating to control or detection of the articles or the load carriers during conveying
    • B65G2203/02Control or detection
    • B65G2203/0208Control or detection relating to the transported articles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65GTRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
    • B65G2203/00Indexing code relating to control or detection of the articles or the load carriers during conveying
    • B65G2203/04Detection means
    • B65G2203/041Camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65GTRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
    • B65G2814/00Indexing codes relating to loading or unloading articles or bulk materials
    • B65G2814/03Loading or unloading means
    • B65G2814/0301General arrangements
    • B65G2814/0308Destacking devices
    • B65G2814/031Removing from the top

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Manipulator (AREA)

Abstract

Disclosed are an automated depalletizing system and method, which are able to stably pick up targets with different sizes loaded on a pallet one by one by using a robot and put the targets onto a conveyor. To this end, provided is the automated depalletizing system which comprises: a camera unit respectively photographing pallets located on a lower side at three positions on the same line, generating a first to third image information, and transmitting the first to third image information to the outside; a robot arm adsorbing the central point of a target in accordance with the XYZ coordinates of the targets stacked on the pallet, and transferring the target to the conveyor; and a control device storing target pattern data on the external shape of each target used to classify the targets stacked on the pallet, conducting a comparative analysis of the first image information provided from the camera unit with the target pattern data, classifying the type of the target, detecting the XY coordinates on the central point of the target, matching the first image information with images of the second and third image information photographed by tilting down, detecting the tilt-down change value of the point of time when the images are matched, calculating the Z coordinate of the central point based on the tilt-down change value, and providing the XYZ coordinates of the target to the robot arm. According to the present invention, even when targets with different sizes are stacked on a pallet, each target can be transferred to a conveyor in a stable manner by using a robot arm.

Description

로봇팔을 이용한 디팔레타이징 자동화 시스템 및 방법{DEPALETIZING AUTOMATIC SYSTEM AND METHOD USING ROBOT ARM}Depalletizing automation system and method using a robot arm {DEPALETIZING AUTOMATIC SYSTEM AND METHOD USING ROBOT ARM}

본 발명은 로봇을 이용해 팔레트에 적재된 대상물을 컨베이어로 이송하는 디팔레타이징 자동화 시스템 및 방법에 관한 것으로, 보다 구체적으로 팔레트에 적재된 서로 다른 크기의 대상물을 로봇을 이용해 안정적으로 한 개씩 픽업하여 컨베이어로 투입하는 디팔레타이징 자동화 시스템 및 방법에 관한 것이다. The present invention relates to a depalletizing automation system and method for transporting objects loaded on pallets to a conveyor using a robot, and more specifically, objects of different sizes loaded on pallets are stably picked up one by one using a robot. It relates to a depalletizing automation system and method for inputting into a conveyor.

팔레타이징(palletizing)/디팔레타이징(depalletizing)은 팔레트(pallet)상에 작업 대상물을 들어 올리거나 내리는 공정으로, 팔레타이징은 작업 대상물을 팔레트 쌓아 올리는 작업을 나타내며, 디팔레타이징은 팔레트로부터 작업 대상물을 내리는 작업을 나타낸다. 이때, 작업 대상물은 상품들이 적재된 포장박스를 포함할 수 있다.Palletizing/depalletizing is the process of lifting or lowering work objects on pallets. Palletizing refers to the work of stacking work objects on pallets. Indicates the operation of unloading a work object from a pallet. At this time, the work object may include a packaging box loaded with products.

최근에는 물류의 고속 처리를 위해 팔레타이징/디팔레타이징용 로봇팔이 사용되고 있다. 이러한 로봇팔이 팔레트 상에 적재된 작업 대상물 즉, 포장박스를 하나씩 집어서 컨베이어 벨트에 올리는 디팔레타이징 작업은 물류 자동화에 있어서 필수적인 기술이다.Recently, a robot arm for palletizing/depalletizing is used for high-speed processing of logistics. The depalletizing operation in which these robot arms pick up work objects loaded on pallets, that is, packaging boxes, one by one, and put them on a conveyor belt is an essential technology for logistics automation.

그러나 포장박스와 같은 작업 대상물을 감지하기 위한 3D 카메라의 인식 범위의 한계로 인해, 로봇팔의 디팔레타이징 작업 시 서로 다른 크기를 갖는 적재 대상물을 다루는데 문제점이 있다.However, due to the limitation of the recognition range of the 3D camera for detecting work objects such as packing boxes, there is a problem in handling loading objects having different sizes during the depalletizing operation of the robot arm.

대한민국 공개특허 제10-2021-0068979호(2021.06.10 공개)Republic of Korea Patent Publication No. 10-2021-0068979 (published on June 10, 2021) 대한민국 공개특허 제10-2021-0137060호(2021.11.17 공개)Republic of Korea Patent Publication No. 10-2021-0137060 (published on November 17, 2021) 대한민국 등록특허 제10-1187234호(2012.10.02 공고)Republic of Korea Patent Registration No. 10-1187234 (2012.10.02 announcement) 대한민국 등록특허 제10-0865165호(2008.10.24 공고)Republic of Korea Patent Registration No. 10-0865165 (Announced on October 24, 2008)

따라서, 본 발명의 제1 목적은 획일적인 크기의 대상물만 디팔레타이징 작업을 수행하는 것에서 벗어나 서로 다른 크기로 적재된 대상물들에 대해서도 자동으로 디팔레타이징 작업을 수행할 수 있는 디팔레타이징 자동화 시스템을 제공하는데 있다.Therefore, the first object of the present invention is a depalletizing operation that can automatically perform depalletizing operation for objects loaded with different sizes, away from performing the depalletizing operation only for objects of uniform size. It is to provide Zing automation system.

또한, 본 발명의 제2 목적은 서로 다른 대상물들이 팔레트에 적재된 상태에서도 각 대상물의 크기를 고려하여 대상물의 흡착 위치를 선정하여 안정적으로 대상물을 컨베이어로 이송시킬 수 있는 디팔레타이징 자동화 방법을 제공하는데 있다.In addition, a second object of the present invention is to provide a depalletizing automation method that can stably transfer objects to a conveyor by selecting an adsorption position of objects in consideration of the size of each object even when different objects are loaded on a pallet. is in providing

상술한 본 발명의 제1 목적을 달성하기 위하여, 본 발명의 일 실시예에서는 동일선상에 위치한 3곳에서 아래 방향에 위치한 팔레트를 각각 촬영하여 제1 내지 제3 영상정보를 생성하고 상기 제1 내지 제3 영상정보를 외부로 전송하는 카메라부와, 팔레트에 적층된 대상물의 XYZ 좌표에 따라 대상물의 중심점을 흡착하여 컨베이어로 이송하는 로봇팔, 및 팔레트의 적재된 대상물을 구분할 수 있도록 사용하는 각 대상물의 외형에 대한 대상물 패턴데이터가 저장되고, 상기 카메라부로부터 제공된 제1 영상정보를 상기 대상물 패턴데이터와 비교분석하여 대상물의 종류를 구분하고 대상물의 중심점에 대한 XY 좌표를 검출하며, 제1 영상정보와 틸트다운하며 촬영한 제2,3 영상정보의 이미지 매칭을 시도하여 이미지가 매칭된 시점의 틸트다운 변화값을 검출하고, 상기 틸트다운 변화값을 기반으로 상기 중심점의 Z 좌표를 산출하며, 대상물의 XYZ 좌표를 상기 로봇팔로 제공하는 제어장치를 포함하는 디팔레타이징 자동화 시스템을 제공한다.In order to achieve the above-described first object of the present invention, in one embodiment of the present invention, the first to third image information are generated by photographing palettes located in the downward direction at three locations located on the same line, respectively, and the first to third image information are generated. A camera unit that transmits third image information to the outside, a robot arm that absorbs the center point of an object according to the XYZ coordinates of the object stacked on the pallet and transfers it to the conveyor, and each object used to distinguish the objects loaded on the pallet Object pattern data for the appearance of is stored, and the first image information provided from the camera unit is compared and analyzed with the object pattern data to classify the type of object, detect the XY coordinates of the center point of the object, and first image information Detects the tilt-down change value at the time when the image is matched by attempting image matching of the second and third image information captured while tilting down, calculates the Z coordinate of the center point based on the tilt-down change value, and It provides a depalletizing automation system including a control device for providing XYZ coordinates of the robot arm.

또한, 본 발명의 제 2 목적을 달성하기 위하여, 본 발명의 일 실시예에서는 팔레트의 적재된 대상물을 구분할 수 있도록 사용하는 각 대상물의 외형에 대한 대상물 패턴데이터를 제어장치에 저장하는 패턴데이터 저장단계와, 카메라부가 동일선상에 위치한 3곳에서 아래 방향에 위치한 팔레트를 각각 촬영하여 제1 내지 제3 영상정보를 생성하고, 상기 제1 내지 제3 영상정보를 상기 제어장치로 전송하는 팔레트 촬영단계와, 상기 제어장치가 상기 카메라부로부터 제공된 제1 영상정보를 상기 대상물 패턴데이터와 비교분석하여 팔레트에 적재된 대상물의 종류를 구분하고, 대상물의 중심점에 대한 XY 좌표를 검출하는 중심점 분석단계와, 상기 제어장치가 제1 영상정보의 대상물을 기준으로 틸트다운하며 촬영한 제2,3 영상정보의 대상물을 비교분석하여 대상물의 이미지가 서로 매칭된 시점의 틸트다운 변화값을 검출하고, 상기 틸트다운 변화값을 기반으로 상기 중심점의 Z 좌표를 산출하는 거리 분석단계와, 상기 제어장치가 중심점의 XYZ 좌표가 포함된 좌표정보를 생성한 후 로봇팔로 좌표정보를 전송하는 좌표정보 전송단계, 및 상기 로봇팔이 제어장치로부터 수신된 좌표정보에 따라 팔레트에 적층된 대상물의 중심점을 흡착하여 컨베이어로 이송하는 이송단계를 포함하는 디팔레타이징 자동화 방법을 제공한다.In addition, in order to achieve the second object of the present invention, in one embodiment of the present invention, the pattern data storage step of storing the object pattern data for the appearance of each object used to distinguish the objects loaded on the pallet in the control device And, a palette photographing step of generating first to third image information by photographing pallets located in the downward direction at three places located on the same line by the camera unit, and transmitting the first to third image information to the control device; A center point analysis step in which the control device compares and analyzes the first image information provided from the camera unit with the object pattern data to distinguish the type of objects loaded on the pallet and detects XY coordinates of the center point of the object; The control device compares and analyzes the objects of the second and third image information captured while tilting down based on the object of the first image information, detects the tilt-down change value at the time when the images of the object match each other, and the tilt-down change A distance analysis step of calculating the Z coordinate of the center point based on the value, a coordinate information transmission step of transmitting the coordinate information to the robot arm after the controller generates coordinate information including the XYZ coordinates of the center point, and the robot arm Provided is a depalletizing automation method including a transfer step of adsorbing the center point of the objects stacked on the pallet according to the coordinate information received from the control device and transferring it to the conveyor.

본 발명에 의하면, 서로 다른 크기의 대상물이 팔레트에 적층되어 있더라도 로봇팔을 사용해 안정적으로 각 대상물을 컨베이어로 이송시킬 수 있다.According to the present invention, even if objects of different sizes are stacked on pallets, each object can be stably transferred to the conveyor using a robot arm.

또한, 본 발명은 대상물의 중심점을 분석하여 중심점을 중심으로 흡착력을 제공하기 때문에 포장박스 등의 대상물 내부에 수용된 상품의 흔들림을 최소화한 상태로 대상물의 디팔레타이징을 진행할 수 있다.In addition, since the present invention analyzes the center point of the object and provides the adsorption force around the center point, depalletizing of the object can be performed while minimizing the shaking of the product accommodated inside the object, such as a packaging box.

아울러, 본 발명은 팔레트에 적재될 대상물의 외형에 대한 대상물 패턴데이터를 미리 저장하여 활용하기 때문에 팔레트에 적재된 대상물의 종류를 정확히 분석할 수 있어 대상물 분석의 오류로 인한 대상물의 손상을 방지할 수 있다. In addition, since the present invention stores and utilizes object pattern data for the appearance of objects to be loaded on the pallet in advance, it is possible to accurately analyze the type of objects loaded on the pallet, thereby preventing damage to objects due to errors in object analysis. there is.

도 1은 본 발명의 일 실시예에 따른 디팔레타이징 자동화 시스템을 설명하기 위한 구성도이다.
도 2는 본 발명에 따른 디팔레타이징 자동화 시스템을 나타내는 블록도이다.
도 3은 본 발명의 제1 카메라 내지 제3 카메라로 촬영한 대상물의 이미지 매칭을 설명하기 위한 개념도이다.
도 4는 본 발명의 다른 실시예에 따른 디팔레타이징 자동화 시스템을 나타내는 구성도이다.
도 5는 본 발명에 따른 제1 카메라의 시야와 관심영역을 설명하기 위한 개략도이다.
도 6은 본 발명에 따른 제1 카메라를 기준으로 시점이 일치하는 제2, 제3 카메라의 틸트다운 변화값을 설명하기 위한 개략도이다.
도 7은 본 발명에 따른 제어장치가 대상물의 픽업순서를 재설정하는 방법을 설명하기 위한 개략도이다.
도 8은 본 발명의 일 실시예에 따른 디팔레타이징 자동화 방법을 설명하기 위한 순서도이다.
1 is a configuration diagram illustrating an automated depalletizing system according to an embodiment of the present invention.
2 is a block diagram illustrating an automated depalletizing system according to the present invention.
3 is a conceptual diagram for explaining image matching of objects photographed by the first to third cameras of the present invention.
4 is a configuration diagram showing an automated depalletizing system according to another embodiment of the present invention.
5 is a schematic diagram illustrating a field of view and a region of interest of a first camera according to the present invention.
6 is a schematic diagram for explaining tilt-down change values of second and third cameras having the same viewpoint with respect to the first camera according to the present invention.
Figure 7 is a schematic diagram for explaining how the control device according to the present invention resets the pick-up order of the object.
8 is a flowchart illustrating an automated depalletizing method according to an embodiment of the present invention.

이하, 첨부도면을 참조하여 본 발명의 바람직한 실시예들에 의한 로봇팔을 이용한 디팔레타이징 자동화 시스템(이하, '디팔레타이징 자동화 시스템'이라 약칭함)을 상세하게 설명한다. Hereinafter, a depalletizing automation system (hereinafter, abbreviated as 'depalletizing automation system') using a robot arm according to preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 디팔레타이징 자동화 시스템을 설명하기 위한 구성도이며, 도 2는 본 발명에 따른 디팔레타이징 자동화 시스템을 나타내는 블록도이다.1 is a configuration diagram for explaining an automated depalletizing system according to an embodiment of the present invention, and FIG. 2 is a block diagram showing an automated depalletizing system according to the present invention.

도 1 및 도 2를 참조하면, 본 발명에 따른 디팔레타이징 자동화 시스템은 팔레트(P)를 촬영하여 영상정보를 생성하고 상기 영상정보를 외부로 전송하는 카메라부(100)와, 팔레트(P)에 적층된 대상물(B)을 흡착하여 컨베이어(400)로 이송하는 로봇팔(200), 및 상기 카메라부(100)로부터 제공된 영상정보를 분석하여 팔레트(P)에 적층된 대상물(B)의 종류를 구분한 후 대상물(B)의 흡착위치인 XYZ 좌표를 생성하여 상기 로봇팔(200)로 제공하는 제어장치(300)를 포함한다.1 and 2, the depalletizing automation system according to the present invention includes a camera unit 100 for generating image information by photographing a pallet P and transmitting the image information to the outside, and a pallet P ) The robot arm 200 adsorbs and transfers the object B stacked on the pallet 400, and analyzes the image information provided from the camera unit 100 to determine the number of objects B stacked on the pallet P. A control device 300 is provided to the robot arm 200 by generating XYZ coordinates, which are the suction positions of the object B, after classifying the type.

이러한 디팔레타이징 자동화 시스템을 이용한 디팔레타이징(depalletizing) 작업은 팔레트(P)에 적층된 대상물(B)의 흡착 위치인 중심점의 좌표를 분석하고, 대상물(B)의 중심점을 흡착하여 대상물(B)을 컨베이어(400)에 내려놓는 것을 반복하는 작업이다. The depalletizing operation using this automated depalletizing system analyzes the coordinates of the central point, which is the adsorption position of objects (B) stacked on the pallet (P), adsorbs the center point of the object (B), and This is a repeating operation of putting down (B) on the conveyor 400.

이하, 도면을 참조하여 각 구성요소별로 보다 구체적으로 설명한다. Hereinafter, each component will be described in more detail with reference to the drawings.

본 발명에 따른 디팔레타이징 자동화 시스템은 카메라부(100)를 포함한다.The depalletizing automation system according to the present invention includes a camera unit 100 .

상기 카메라부(100)는 동일선상에 위치한 3곳에서 아래 방향에 위치한 팔레트(P)를 각각 촬영하여 제1 내지 제3 영상정보를 생성하고 상기 제1 내지 제3 영상정보를 외부로 전송하는 것으로, 제1 카메라(110)와 제2 카메라(120) 및 제3 카메라(130)를 포함하며, 선택적으로 틸트 모터(미도시), 및 엔코더(미도시)를 더 포함하여 구성될 수 있다. The camera unit 100 photographs the pallets P located in the downward direction at three places located on the same line, respectively, to generate first to third image information, and transmits the first to third image information to the outside. , It includes a first camera 110, a second camera 120, and a third camera 130, and optionally may further include a tilt motor (not shown) and an encoder (not shown).

상기 제1 카메라(110)는 팔레트(P)를 촬영하여 생성된 제1 영상정보를 제어장치(300)로 전송하는 것으로, 제2 카메라(120) 및 제3 카메라(130)와 비교할 수 있는 대상물(B)의 기준 영상을 촬영할 수 있도록 도 1과 같이 미리 설정된 위치까지 컨베이어(400)에 근접하게 이동한 팔레트(P)의 수직 방향에서 펠레트에 적층된 대상물(B)들의 평면 영상을 촬영하여 제1 영상정보를 생성한다.The first camera 110 transmits the first image information generated by photographing the pallet P to the control device 300, an object that can be compared with the second camera 120 and the third camera 130. In order to take a reference image of (B), as shown in FIG. First image information is generated.

상기 제2 카메라(120)는 제1 카메라(110)와 이격되도록 설치되는 것으로, 틸트다운을 통해 대상물(B)이 적재된 팔레트(P)를 촬영하여 생성된 실시간 영상인 제2 영상정보를 상기 제어장치(300)로 전송한다.The second camera 120 is installed to be spaced apart from the first camera 110, and the second image information, which is a real-time image generated by photographing the pallet P on which the object B is loaded through tilt-down, is displayed. It is transmitted to the control device 300.

도 3은 본 발명의 제1 카메라 내지 제3 카메라로 촬영한 대상물(B)의 이미지 매칭을 설명하기 위한 개념도이다. 도 3을 참조하면, 제2 카메라(120)는 팔레트(P)에 적재된 대상물(B)에 대해 제1 카메라(110)를 통해 촬영된 대상물(B)의 이미지와 매칭된 이미지가 검출되도록 회전되면서 제2 영상정보를 생성한다.3 is a conceptual diagram for explaining image matching of an object B captured by the first to third cameras of the present invention. Referring to FIG. 3 , the second camera 120 is rotated so that an image matched with an image of an object B captured by the first camera 110 is detected for an object B loaded on a pallet P. while generating second image information.

이를 위해, 카메라부(100)는 제2 카메라(120)가 틸트다운될 수 있도록 제2 카메라(120)에 설치되는 틸트 모터가 구비될 수 있다. To this end, the camera unit 100 may include a tilt motor installed in the second camera 120 so that the second camera 120 can be tilted down.

그리고 카메라부(100)는 제2 카메라(120)를 통해 촬영된 대상물(B)의 이미지가 제1 카메라(110)를 통해 촬영된 대상물(B)의 이미지와 매칭된 제2 카메라(120)의 회전각을 검출할 수 있는 앤코더가 구비될 수 있다. 이러한 앤코더는 틸트 모터에 설치되어 제2 카메라(120)의 회전각을 감지한다.And the camera unit 100 is a second camera 120 in which the image of the object B photographed through the second camera 120 is matched with the image of the object B photographed through the first camera 110. An encoder capable of detecting the rotation angle may be provided. This encoder is installed in the tilt motor to detect the rotation angle of the second camera 120 .

상기 제3 카메라(130)는 제1 카메라(110) 및 제2 카메라(120)와 동일 선상에 위치하고, 제1 카메라(110)를 중심으로 제2 카메라(120)의 반대편에 설치되는 것으로, 틸트다운을 통해 대상물(B)이 적재된 팔레트(P)를 촬영하여 생성된 실시간 영상인 제3 영상정보를 제어장치(300)로 전송한다. The third camera 130 is located on the same line as the first camera 110 and the second camera 120, is installed on the opposite side of the second camera 120 with the first camera 110 as the center, tilt The third image information, which is a real-time image generated by photographing the pallet P on which the object B is loaded, is transmitted to the control device 300 through the download.

이러한 제3 카메라(130)는 팔레트(P)에 적재된 대상물(B)에 대해 제1 카메라(110)를 통해 촬영된 대상물(B)의 이미지와 매칭된 이미지가 검출되도록 회전되면서 제3 영상정보를 생성한다.This third camera 130 is Third image information is generated while being rotated so that an image matched with the image of the object B captured by the first camera 110 is detected for the object B loaded on the pallet P.

이를 위해, 카메라부(100)는 제3 카메라(130)가 틸트다운될 수 있도록 제3 카메라(130)에 설치되는 틸트 모터가 구비될 수 있다. To this end, the camera unit 100 may include a tilt motor installed in the third camera 130 so that the third camera 130 can be tilted down.

그리고 카메라부(100)는 제3 카메라(130)를 통해 촬영된 대상물(B)의 이미지가 제1 카메라(110)를 통해 촬영된 대상물(B)의 이미지와 매칭된 제3 카메라(130)의 회전각을 검출할 수 있는 앤코더가 구비될 수 있다. 이러한 앤코더는 틸트 모터에 설치되어 제3 카메라(130)의 회전각을 감지한다.And the camera unit 100 is a third camera 130, in which the image of the object B photographed through the third camera 130 is matched with the image of the object B photographed through the first camera 110. An encoder capable of detecting the rotation angle may be provided. This encoder is installed in the tilt motor to detect the rotation angle of the third camera 130 .

이러한 제2 카메라(120)와 제3 카메라(130)는 제1 카메라(110)의 영상정보를 기준으로 X축 방향으로 대상물(B) 영상이 매칭되는 변위만큼 틸트 모터가 작동한다. 그리고 제1 카메라(110)의 좌측에 설치된 제2 카메라(120)의 틸트 모터는 90도(°)에서 시계 방향으로 회전하고, 제1 카메라(110)의 우측에 설치된 제3 카메라(130)의 틸트 모터는 90도(°)에서 반시계 방향으로 회전한다. The tilt motor of the second camera 120 and the third camera 130 operates as much as the displacement matching the image of the object B in the X-axis direction based on the image information of the first camera 110 . And the tilt motor of the second camera 120 installed on the left side of the first camera 110 rotates clockwise at 90 degrees (°), and the third camera 130 installed on the right side of the first camera 110 The tilt motor rotates counterclockwise at 90 degrees (°).

도 4는 본 발명의 다른 실시예에 따른 디팔레타이징 자동화 시스템을 나타내는 구성도이다. 본 발명에 따른 카메라부(100)는 도 1과 같이 제1 카메라(110), 제2 카메라(120), 제3 카메라(130)가 서로 독립적으로 설치될 수도 있고, 도 4와 같이 일체형으로 설치될 수도 있다. 4 is a configuration diagram showing an automated depalletizing system according to another embodiment of the present invention. In the camera unit 100 according to the present invention, the first camera 110, the second camera 120, and the third camera 130 may be installed independently of each other as shown in FIG. 1 or integrally installed as shown in FIG. 4 It could be.

또한, 본 발명의 카메라부(100)는 도 1과 같이 로봇팔(200)과 별도로 설치될 수도 있고, 도 4와 같이 로봇팔(200)에 설치될 수도 있다. In addition, the camera unit 100 of the present invention may be installed separately from the robot arm 200 as shown in FIG. 1, or may be installed on the robot arm 200 as shown in FIG.

제1 실시 양태로서, 본 발명에 따른 카메라부(100)는 제1 내지 제3 카메라(110,120,130)가 카메라 시야로 팔레트(P)를 촬영하여 생성된 팔레트 영상으로 영상정보를 생성한 후 상기 영상정보를 제어장치(300)로 제공한다. 이때, 제어장치(300)는 자체 구비된 영상편집 소프트웨어를 통해 제1 영상정보 내지 제3 영상정보를 각각 관심영역 영상으로 편집하여 사용한다. As a first embodiment, the camera unit 100 according to the present invention generates image information from a palette image generated by the first to third cameras 110, 120, and 130 photographing the palette P with a camera field of view, and then the image information is provided to the control device 300. In this case, the control device 300 edits each of the first to third image information into an image of the region of interest through the image editing software provided therein and uses the image information.

제2 실시 양태로서, 본 발명에 따른 카메라부(100)는 카메라 시야로 팔레트(P)를 촬영하여 생성된 팔레트 영상을 제어장치(300)로 전송하고, 상기 제어장치(300)로부터 제공된 관심영역 정보에 따라 관심영역을 촬영하여 제1 영상정보 내지 제3 영상정보를 생성하며, 상기 제1 내지 제3 영상정보를 제어장치(300)로 제공할 수 있다. As a second embodiment, the camera unit 100 according to the present invention transmits the palette image generated by photographing the palette P with the camera's field of view to the control device 300, and the region of interest provided by the control device 300 The region of interest may be photographed according to the information to generate first to third image information, and the first to third image information may be provided to the control device 300 .

제3 실시 양태로서, 본 발명에 따른 카메라부(100)는 카메라 시야로 팔레트(P)를 촬영하여 생성된 팔레트 영상을 제어장치(300)로 전송하고, 제1 내지 제3 카메라(110,120,130)가 팔레트(P)를 촬영하여 생성된 팔레트 영상을 자체 구비된 영상편집 소프트웨어를 통해 상기 제어장치(300)로부터 제공된 관심영역 정보에 따라 편집하여 관심영역에 대한 영상정보를 생성하며, 상기 제1 내지 제3 영상정보를 제어장치(300)로 제공할 수 있다. As a third embodiment, the camera unit 100 according to the present invention transmits the pallet image generated by photographing the pallet P with the camera's field of view to the controller 300, and the first to third cameras 110, 120, and 130 Image information on the region of interest is generated by editing the palette image generated by photographing the palette P according to the region of interest information provided from the control device 300 through the self-contained image editing software, 3 Image information may be provided to the control device 300 .

본 발명에 따른 디팔레타이징 자동화 시스템은 로봇팔(200)을 포함한다.The depalletizing automation system according to the present invention includes a robot arm (200).

상기 로봇팔(200)은 팔레트(P)에 적층된 대상물(B)의 XYZ 좌표에 따라 대상물(B)의 중심점을 흡착하여 컨베이어(400)로 이송하는 것으로, 팔레트(P)와 컨베이어(400) 사이를 왕복으로 이동하는 동력을 제공하는 구동부(미도시)와, 및 상기 구동부에 결합되며 구동부의 동작에 따라 팔레트(P)와 컨베이어(400) 사이를 왕복으로 이동하는 다관절 프레임부(210), 및 상기 다관절 프레임부(210)의 움직임에 따라 대상물(B)을 흡착할 수 있도록 다관절 프레임부(210)의 말단에 설치된 흡착부(220)을 포함하며, 선택적으로 다관절 프레임부(210)의 하단에 설치되어 팔레트(P)에 적층된 대상물(B)의 위치에 따라 다관절 프레임부(210)의 높낮이를 조절하는 높이조절부를 더 포함하여 구성될 수 있다. The robot arm 200 adsorbs the center point of the object (B) according to the XYZ coordinates of the object (B) stacked on the pallet (P) and transfers it to the conveyor 400, the pallet (P) and the conveyor 400 A driving unit (not shown) that provides power to move back and forth between the driving unit and the multi-joint frame unit 210 coupled to the driving unit and reciprocating between the pallet P and the conveyor 400 according to the operation of the driving unit 210 , and an adsorption unit 220 installed at the end of the articulated frame unit 210 so as to adsorb the object B according to the movement of the articulated frame unit 210, and optionally the articulated frame unit ( 210) may be configured to further include a height adjusting unit for adjusting the height of the multi-joint frame unit 210 according to the position of the objects B stacked on the pallet P.

상기 높이조절부는 일측이 평면에 고정되어 있는 상태에서 상기 일측에 대향되는 타측에 형성된 높이조절모듈이 상하 운동을 하도록 구성될 수 있다. 이때, 높이조절모듈은 제1 높이와 제2 높이 사이에서 상하 이동되도록 구성되며, 그 상단이 다관절 프레임부(210)의 하단에 연결될 수 있다. 이에 따라, 높이조절부를 통해 다관절 프레임부(210)의 전체 높이가 제어될 수 있다. The height adjustment unit may be configured such that a height adjustment module formed on the other side opposite to the one side moves up and down in a state in which one side is fixed to a plane. At this time, the height adjustment module is configured to move up and down between the first height and the second height, and its upper end may be connected to the lower end of the multi-joint frame unit 210. Accordingly, the overall height of the multi-joint frame unit 210 may be controlled through the height adjusting unit.

상기 구동부는 다관절 프레임부(210)를 구동시켜 X, Y, Z 공간상에서 다관절 프레임부(210)를 회전/이동할 수 있도록 하며, 구동모터 등을 사용할 수 있다. 또한, 구동부는 다관절 프레임부(210)를 X, Y, Z 공간상에서 회전/이동시켜 말단의 높이를 조절할 수 있다. 이에 따라, 다관절 프레임부(210)의 말단에 위치한 흡착부(220)의 높이도 연동하여 달라질 수 있다. The driving unit drives the articulated frame unit 210 to rotate/move the articulated frame unit 210 in X, Y, and Z spaces, and a driving motor or the like can be used. In addition, the driving unit may adjust the height of the distal end by rotating/moving the multi-joint frame unit 210 in X, Y, and Z spaces. Accordingly, the height of the suction unit 220 located at the distal end of the multi-joint frame unit 210 may also vary in conjunction with each other.

상기 다관절 프레임부(210)는 다관절 형태로 형성되어 구동기구에 의해 관절별로 구동될 수 있다. 이에 따라, 다관절 프레임부(210)는 복수의 힌지와, 복수의 힌지를 통해 회전/이동 가능하게 형성된 복수의 프레임모듈을 포함하며, X, Y, Z 공간상에서 회전/이동할 수 있는 다관절 형태의 로봇일 수 있다. The multi-joint frame unit 210 is formed in a multi-joint shape and can be driven for each joint by a driving mechanism. Accordingly, the multi-joint frame unit 210 includes a plurality of hinges and a plurality of frame modules formed to be rotatable/movable through the plurality of hinges, and has a multi-joint form capable of rotating/moving in X, Y, and Z spaces. may be a robot of

예를 들면, 다관절 프레임부(210)는 지면 또는 높이조절부에 연결된 제1 프레임모듈(211)과, 상기 제1 프레임모듈(211)에 조립된 제1 힌지(212)와, 상기 제1 힌지(212)에 조립된 제2 프레임모듈(213)과, 상기 제2 프레임모듈(213)에 조립된 제2 힌지(214)와, 상기 제2 힌지(214)에 조립된 제3 프레임모듈(215)과, 상기 제3 프레임모듈(215)에 조립된 제3 힌지(216)와, 상기 제3 힌지(216)에 조립된 제4 프레임모듈(217), 및 상기 제4 프레임모듈(217)에 연결된 흡착부(220)를 포함한다.For example, the multi-joint frame unit 210 includes a first frame module 211 connected to the ground or a height adjusting unit, a first hinge 212 assembled to the first frame module 211, and the first The second frame module 213 assembled to the hinge 212, the second hinge 214 assembled to the second frame module 213, and the third frame module assembled to the second hinge 214 ( 215), the third hinge 216 assembled to the third frame module 215, the fourth frame module 217 assembled to the third hinge 216, and the fourth frame module 217 It includes an adsorption unit 220 connected to.

여기서, 다관절 프레임부(210)는 3개의 힌지와 4개의 프레임모듈을 포함하는 구성으로 예를 들었으나, 이에 한정되지는 않는다.Here, the multi-joint frame unit 210 has been exemplified as a configuration including three hinges and four frame modules, but is not limited thereto.

상기 흡착부(220)는 다관절 프레임부(210)의 움직임에 따라 대상물(B)에 접촉될 수 있도록 다관절 프레임부(210)의 말단에 설치되는 것으로, 팔레트(P)에 적층된 대상물(B)의 상면을 흡착하여 팔레트(P)로부터 이탈시키며, 컨베이어(400)로 대상물(B)이 이동되는 동안에 대상물(B)에 지속적으로 흡착력을 제공한다. 이러한 흡착부(220)는 대상물(B)을 흡착하는 흡착헤드가 구비된 흡착판을 포함하여 구성되며, 상기 흡착판은 1개 이상의 흡착헤드가 구비되어 대상물(B)을 흡착한다.The adsorption unit 220 is installed at the end of the multi-joint frame unit 210 so as to be in contact with the object B according to the movement of the multi-joint frame unit 210, and the object stacked on the pallet P ( The upper surface of B) is adsorbed to separate from the pallet (P), and while the object (B) is moved to the conveyor 400, the object (B) is continuously provided with adsorption force. The adsorption unit 220 includes an adsorption plate equipped with an adsorption head adsorbing the object B, and the adsorption plate is provided with one or more adsorption heads to adsorb the object B.

이러한 구조를 갖는 로봇팔(200)을 이용하여 작업을 수행하는 경우, 로봇팔(200)이 대상물(B)을 흡착하여 컨베이어(400)의 특정 위치에 올려놓을 수 있도록, 팔레트(P) 및 컨베이어(400)가 로봇팔(200)의 움직임 범위 내에 위치해야 한다.When performing work using the robot arm 200 having such a structure, the pallet (P) and the conveyor so that the robot arm 200 can adsorb the object (B) and put it on a specific position of the conveyor 400 (400) should be located within the movement range of the robot arm (200).

본 발명에 따른 디팔레타이징 자동화 시스템은 제어장치(300)를 포함한다.The depalletizing automation system according to the present invention includes a control device (300).

상기 제어장치(300)는 카메라부(100)와 로봇팔(200)에 유선 또는 무선으로 연결된 것으로, 팔레트(P)의 적재된 대상물(B)을 구분할 수 있도록 사용하는 각 대상물(B)의 외형에 대한 대상물 패턴데이터가 저장된다.The control device 300 is wired or wirelessly connected to the camera unit 100 and the robot arm 200, and the appearance of each object B used to distinguish the loaded object B of the pallet P. Object pattern data for is stored.

상기 제어장치(300)는 카메라부(100)로부터 제공된 제1 영상정보를 상기 대상물 패턴데이터와 비교분석하여 대상물(B)의 종류를 구분하고, 대상물(B)의 중심점에 대한 XY 좌표를 검출한다.The control device 300 compares and analyzes the first image information provided from the camera unit 100 with the object pattern data to classify the type of object B and detects the XY coordinates of the center point of the object B .

상기 제어장치(300)는 제1 영상정보와 틸트다운하며 촬영한 제2,3 영상정보의 이미지 매칭을 시도하여 이미지가 매칭된 시점의 틸트다운 변화값을 검출하고, 상기 틸트다운 변화값을 기반으로 상기 중심점의 Z 좌표를 산출하여 대상물(B)의 중심점에 대한 XYZ 좌표를 생성한다. 이 경우, 제어장치(300)는 대상물(B)의 XYZ 좌표를 로봇팔(200)로 제공한다. The control device 300 attempts image matching of the first image information and the second and third image information captured while tilting down, detects a tilt-down change value at the time when the images are matched, and based on the tilt-down change value By calculating the Z coordinate of the center point, XYZ coordinates for the center point of the object (B) are generated. In this case, the control device 300 provides the XYZ coordinates of the object (B) to the robot arm (200).

제1 실시 양태로서, 본 발명에 따른 제어장치(300)는 카메라부(100)로부터 팔레트 영상인 제1 영상정보 내지 제3 영상정보가 제공되면, 대상물(B) 검출영역을 추출하여 관심영역 정보를 생성하고, 상기 관심영역 정보를 기준으로 자체 구비된 영상편집 소프트웨어를 통해 제1 영상정보 내지 제3 영상정보를 각각 관심영역 영상으로 편집하며, 관심영역 영상으로 편집된 제1 영상정보 내지 제3 영상정보를 기준으로 이미지 매칭을 분석할 수 있다.As a first embodiment, the control device 300 according to the present invention, when the first to third image information, which is a palette image, is provided from the camera unit 100, extracts the detection region of the object (B) and obtains the region of interest information and edits the first to third image information into an image of interest through self-contained image editing software based on the information on the region of interest, and the first to third image information edited as the region of interest image. Image matching can be analyzed based on image information.

제2 실시 양태로서, 본 발명에 따른 제어장치(300)는 카메라부(100)로부터 팔레트 영상이 제공되면, 상기 팔레트 영상에서 대상물(B) 검출영역을 추출하여 관심영역 정보를 생성하고, 상기 관심영역 정보를 카메라부(100)로 제공한다. 그리고 제어장치(300)는 카메라부(100)로부터 관심영역 정보에 따라 관심영역을 촬영하여 생성된 제1 영상정보 내지 제3 영상정보가 제공되면, 이를 기준으로 이미지 매칭을 분석할 수 있다.As a second embodiment, when a palette image is provided from the camera unit 100, the control device 300 according to the present invention extracts a detection area of the object B from the palette image to generate interest area information, and Area information is provided to the camera unit 100 . In addition, the control device 300 may analyze image matching based on first to third image information generated by photographing the region of interest from the camera unit 100 according to the region of interest information.

제3 실시 양태로서, 본 발명에 따른 제어장치(300)는 카메라부(100)로부터 관심영역 영상으로 편집된 제1 영상정보 내지 제3 영상정보가 제공되면, 상기 제1 영상정보 내지 제3 영상정보를 기준으로 이미지 매칭을 분석할 수 있다.As a third embodiment, the control device 300 according to the present invention, when the first image information to the third image information edited as the ROI image is provided from the camera unit 100, the first image information to the third image information Image matching can be analyzed based on information.

도 5는 본 발명에 따른 제1 카메라의 시야와 관심영역을 설명하기 위한 개략도이며, 도 6은 본 발명에 따른 제1 카메라를 기준으로 시점이 일치하는 제2, 제3 카메라의 틸트다운 변화값을 설명하기 위한 개략도이다. 5 is a schematic diagram for explaining a field of view and a region of interest of a first camera according to the present invention, and FIG. 6 is a tilt-down change value of second and third cameras whose viewpoints coincide with the first camera according to the present invention. It is a schematic diagram to explain.

도 5 및 도 6을 참조하면, 제어장치(300)는 제2 카메라(120)에 설치되는 틸트 모터를 제어하여 제2 카메라(120)를 회전시고, 제1 카메라(110)로부터 제공된 제1 영상정보와 제2 카메라(120)의 틸트 모터를 틸트다운하며 촬영한 제2 영상정보의 이미지 매칭을 시도하여 이미지(object)가 매칭된 시점의 제1 틸트다운 변화값(θ1)을 검출한다. 이때, 제어장치(300)는 이미지가 매칭된 시점에 제2 카메라(120)의 틸트 모터에 설치된 제1 엔코더로부터 제1 틸트다운 변화값(θ1)을 수집한다.Referring to FIGS. 5 and 6 , the controller 300 rotates the second camera 120 by controlling a tilt motor installed in the second camera 120, and displays a first image provided from the first camera 110. A first tilt-down change value (θ 1 ) at a point in time at which the image (object) is matched is detected by attempting to match the information with the second image information captured while tilting-down the tilt motor of the second camera 120 . At this time, the controller 300 collects the first tilt-down change value θ 1 from the first encoder installed in the tilt motor of the second camera 120 at the time when the images are matched.

상기 제어장치(300)는 제3 카메라(130)에 설치되는 틸트 모터를 제어하여 제3 카메라(130)를 회전시고, 제1 카메라(110)로부터 제공된 제1 영상정보와 제3 카메라(130)의 틸트 모터를 틸트다운하며 촬영한 제3 영상정보의 이미지 매칭을 시도하여 이미지가 매칭된 시점의 제2 틸트다운 변화값(θ2)을 검출한다. 이때, 제어장치(300)는 이미지가 매칭된 시점에 제3 카메라(130)의 틸트 모터에 설치된 제2 엔코더로부터 제2 틸트다운 변화값(θ2)을 수집한다.The controller 300 controls the tilt motor installed in the third camera 130 to rotate the third camera 130, and the first image information provided from the first camera 110 and the third camera 130 A second tilt-down change value (θ 2 ) at a point in time at which the images are matched is detected by trying to match the image of the third image information captured while tilting down the tilt motor of the image. At this time, the controller 300 collects the second tilt-down change value θ 2 from the second encoder installed in the tilt motor of the third camera 130 at the time when the images are matched.

상기 제어장치(300)는 제1 엔코더로부터 제1 틸트다운 변화값(θ1)을 수집하고, 제2 엔코더로부터 제2 틸트다운 변화값(θ2)을 수집하며, 아래의 [수학식 1]을 통해 제1 카메라(110)와 대상물(B) 사이의 거리를 산출한다.The control device 300 collects the first tilt-down change value (θ 1 ) from the first encoder, and collects the second tilt-down change value (θ 2 ) from the second encoder, and the following [Equation 1] Calculate the distance between the first camera 110 and the object (B) through.

[수학식 1][Equation 1]

h = d / [tan(90-θ1)+ tan(90-θ2)]h = d / [tan(90-θ 1 )+ tan(90-θ 2 )]

상기 제어장치(300)는 팔레트(P)에 적층된 대상물(B)에 대한 위치 좌표값을 취득한 후 Z 좌표값에 따라 대상물(B)의 픽킹 순서를 설정하고, 픽킹 순서가 포함된 좌표정보를 생성하여 로봇팔(200)로 제공한다.The control device 300 acquires the positional coordinate values of the objects B stacked on the pallet P, sets the picking order of the objects B according to the Z coordinate values, and provides coordinate information including the picking order. It is generated and provided to the robot arm 200.

특정 양태로서, 대상물(B)의 위치 좌표값을 취득하는 방법은 카메라부(100)의 영상 좌표값을 (0.0)에서 (640,480)로 분할하여 두고, 각 좌표값에 대한 로봇팔(200)의 모터 파라미터값을 제어장치(300)에 미리 입력 저장하는 방식을 사용할 수 있다. 예를 들어, 대상물(B) 중심점의 위치가 인식될 경우, 로봇팔(200)은 해당 좌표값에 대응하는 모터의 파라미터 값인 X=1000, Y=1500, Z=1700로 모터를 회전시킴으로써, 해당 XYZ 좌표에 중심점이 위치한 대상물(B)을 픽킹하게 된다.As a specific aspect, a method of acquiring the positional coordinates of the object (B) divides the image coordinates of the camera unit 100 from (0.0) to (640,480), and sets the position of the robot arm 200 for each coordinate value A method of inputting and storing motor parameter values into the controller 300 in advance may be used. For example, when the position of the center point of the object (B) is recognized, the robot arm 200 rotates the motor with X = 1000, Y = 1500, Z = 1700, which are parameter values of the motor corresponding to the corresponding coordinate values, An object (B) whose center point is located in XYZ coordinates is picked.

도 7은 본 발명에 따른 제어장치가 대상물의 픽업순서를 재설정하는 방법을 설명하기 위한 개략도이다.Figure 7 is a schematic diagram for explaining how the control device according to the present invention resets the pick-up order of the object.

또한, 제어장치(300)는 도 7의 (a)에 도시된 바와 같이 제1 영상정보에 복수개의 대상물(B)이 있는 경우, 촬상된 영상에 포함되어 있는 복수개 대상물(B)의 XYZ 좌표를 한 번에 취득한 후 Z 좌표를 이용해 픽킹 순서를 설정하고, 로봇팔(200)이 설정된 픽킹 순서에 따라 팔레트(P)와 컨베이어(400)의 사이를 순차적으로 왕복 이동하면서 대상물(B)을 컨베이어(400)로 이송하도록 로봇팔(200)을 제어하는 픽업정보를 로봇팔(200)에 전송한다. In addition, the control device 300, as shown in (a) of FIG. 7, when there are a plurality of objects B in the first image information, the XYZ coordinates of the plurality of objects B included in the captured image After acquiring it at once, the picking order is set using the Z coordinate, and the robot arm 200 sequentially reciprocates between the pallet P and the conveyor 400 according to the set picking order, while moving the object B on the conveyor 400) and transmits pickup information for controlling the robot arm 200 to the robot arm 200.

또한, 제어장치(300)는 도 7의 (b)에 도시된 바와 같이 최우선 순위의 대상물이 컨베이어(400)로 이송된 후, 나머지 대상물(B)의 XYZ 좌표를 다시 취득하여 Z 좌표를 이용해 픽킹 순서가 재설정된 픽업정보를 생성한다.In addition, the control device 300 acquires the XYZ coordinates of the remaining objects B again after the highest priority object is transferred to the conveyor 400, as shown in (b) of FIG. 7, and picks using the Z coordinates Generates pickup information whose order is reset.

예를 들면, 제어장치(300)는 제1 영상정보에서 대상물(B)의 XYZ 좌표가 복수로 산출되는 경우, Z 좌표가 작은 XYZ 좌표를 우선순위로 픽킹 순서가 설정된 픽업정보를 생성하여 로봇팔(200)로 제공할 수 있다. For example, when a plurality of XYZ coordinates of the object B are calculated in the first image information, the control device 300 gives priority to XYZ coordinates having a small Z coordinate and generates pickup information in which the picking order is set, and the robot arm (200) can be provided.

또한, 제어장치(300)는 제1 영상정보에서 대상물(B)의 XYZ 좌표가 복수로 산출되고 각 대상물(B)의 Z 좌표가 미리 지정된 수치 범위 이내에서 차이가 발생된 경우, 각 대상물(B)이 Z 좌표 대신 XYZ 좌표와 로봇팔(200)의 이격거리를 분석한 후, 이격거리가 먼 대상물의 XYZ 좌표를 우선순위로 픽킹 순서가 설정된 픽업정보를 생성하여 로봇팔(200)로 제공할 수 있다. In addition, the control device 300 calculates a plurality of XYZ coordinates of the object (B) in the first image information and when a difference occurs within a predetermined range of Z coordinates of each object (B), each object (B ) analyzes the XYZ coordinates and the separation distance of the robot arm 200 instead of the Z coordinate, and then generates pickup information in which the picking order is set with priority given to the XYZ coordinates of the distant object, and provides it to the robot arm 200 can

다시 말해, 제어장치(300)는 영상정보를 분석하여 복수개의 XYZ 좌표가 산출되는 경우, Z 좌표가 가장 작은 대상물(B)이나 로봇팔(200)로부터 이격거리가 먼 대상물(B)이 먼저 컨베이어(400)로 이송되도록 흡착 대상물(B)로 선정한다.In other words, when the control device 300 analyzes the image information and calculates a plurality of XYZ coordinates, the object B having the smallest Z coordinate or the object B that is far from the robot arm 200 is first conveyed. It is selected as an adsorption object (B) to be transferred to (400).

본 발명에 따른 디팔레타이징 자동화 시스템은 컨베이어(400)를 더 포함할 수 있다. The depalletizing automation system according to the present invention may further include a conveyor 400 .

상기 컨베이어(400)는 로봇팔(200)에 의해 흡착되어 이송된 대상물(B)을 후방으로 이동시키는 것으로, 벨트 컨베이어(400)나 체인 컨베이어(400)로 구성될 수 있다.The conveyor 400 moves the object (B) adsorbed and transported by the robot arm 200 to the rear, and may be configured as a belt conveyor 400 or a chain conveyor 400.

도 8은 본 발명의 일 실시예에 따른 디팔레타이징 자동화 방법을 설명하기 위한 순서도이다.8 is a flowchart illustrating an automated depalletizing method according to an embodiment of the present invention.

도 6을 참조하면, 본 발명에 따른 디팔레타이징 자동화 방법은 사용하는 각 대상물(B)의 외형에 대한 대상물 패턴데이터를 저장하는 패턴데이터 저장단계(S100)와, 3곳에서 아래 방향에 위치한 팔레트(P)를 각각 촬영하여 제1 내지 제3 영상정보를 생성하는 팔레트 촬영단계(S200)와, 상기 제1 영상정보를 대상물 패턴데이터와 비교분석하여 팔레트(P)에 적재된 대상물(B)의 종류를 구분하고 대상물(B)의 중심점에 대한 XY 좌표를 검출하는 중심점 분석단계(S300)와, 상기 제1 영상정보의 대상물(B)과 제2,3 영상정보의 대상물(B)을 비교분석하여 대상물(B)의 이미지가 서로 매칭된 시점에서 제2,3 영상정보를 생성한 틸트다운 변화값을 검출한 후 상기 틸트다운 변화값으로 중심점의 Z 좌표를 산출하는 거리 분석단계(S400)와, 상기 중심점의 XYZ 좌표가 포함된 좌표정보를 생성하여 전송하는 좌표정보 전송단계(S500), 및 상기 좌표정보에 따라 팔레트(P)에 적층된 대상물(B)을 컨베이어(400)로 이송하는 이송단계(S600)를 포함한다.Referring to FIG. 6, the depalletizing automation method according to the present invention includes a pattern data storage step (S100) of storing object pattern data for the appearance of each object (B) to be used, and three locations located in the downward direction. A palette photographing step (S200) of generating first to third image information by photographing each pallet (P), and comparing and analyzing the first image information with object pattern data to obtain an object (B) loaded on the pallet (P). The center point analysis step (S300) of distinguishing the types of and detecting the XY coordinates of the center point of the object (B), and comparing the object (B) of the first image information and the object (B) of the second and third image information Distance analysis step of calculating the Z coordinate of the center point with the tilt-down change value after detecting the tilt-down change value that generated the second and third image information at the time when the image of the object (B) is matched with each other by analysis (S400) And, a coordinate information transmission step (S500) of generating and transmitting coordinate information including the XYZ coordinates of the center point, and transferring the objects (B) stacked on the pallet (P) to the conveyor 400 according to the coordinate information A transfer step (S600) is included.

상기 패턴데이터 저장단계(S100)에서는 제어장치(300)가 팔레트(P)의 적재된 대상물(B)을 구분할 수 있도록 사용하는 각 대상물(B)의 외형에 대한 대상물 패턴데이터를 제어장치(300)에 저장한다. In the pattern data storage step (S100), the control device 300 converts the object pattern data for the appearance of each object B to be used so that the control device 300 can distinguish the objects B loaded on the pallet P. save to

상기 팔레트 촬영단계(S200)에서는 카메라부(100)가 동일선상에 위치한 3곳에서 아래 방향에 위치한 팔레트(P)를 각각 촬영하여 제1 내지 제3 영상정보를 생성하고, 상기 제1 내지 제3 영상정보를 상기 제어장치(300)로 전송한다.In the palette photographing step (S200), the camera unit 100 photographs the pallets P located in the downward direction at three locations located on the same line, respectively, to generate first to third image information, and the first to third image information are captured. Image information is transmitted to the control device 300 .

보다 구체적으로, 상기 팔레트 촬영단계(S200)에서는 동일선상에 위치한 3곳 중 중앙에 위치한 카메라부(100)의 제1 카메라(110)가 팔레트(P)를 촬영하여 생성된 제1 영상정보를 상기 제어장치(300)로 전송한다. 또한, 제1 카메라(110)와 이격되도록 설치된 카메라부(100)의 제2 카메라(120)가 틸트다운을 통해 대상물(B)이 적재된 팔레트(P)를 촬영하여 생성된 실시간 영상인 제2 영상정보를 상기 제어장치(300)로 전송한다. 아울러, 제1 카메라(110)를 중심으로 제2 카메라(120)의 반대편에 설치된 카메라부(100)의 제3 카메라(130)가 틸트다운을 통해 대상물(B)이 적재된 팔레트(P)를 촬영하여 생성된 실시간 영상인 제3 영상정보를 상기 제어장치(300)로 전송한다.More specifically, in the palette photographing step (S200), the first image information generated by the first camera 110 of the camera unit 100 located in the center among three places located on the same line photographs the palette P as described above. It is transmitted to the control device 300. In addition, the second camera 120 of the camera unit 100 installed to be spaced apart from the first camera 110 is a real-time image generated by photographing the pallet P on which the object B is loaded through tilt-down. Image information is transmitted to the control device 300 . In addition, the third camera 130 of the camera unit 100 installed on the opposite side of the second camera 120 centered on the first camera 110 tilts down the pallet P on which the object B is loaded. The third image information, which is a real-time image generated by photographing, is transmitted to the control device 300 .

상기 중심점 분석단계(S300)에서는 제어장치(300)가 상기 카메라부(100)로부터 제공된 제1 영상정보를 상기 대상물 패턴데이터와 비교분석하여 팔레트(P)에 적재된 대상물(B)의 종류를 구분하고, 대상물(B)의 중심점에 대한 XY 좌표를 검출한다.In the center point analysis step (S300), the control device 300 compares and analyzes the first image information provided from the camera unit 100 with the object pattern data to distinguish the type of objects B loaded on the pallet P. and detect the XY coordinates of the center point of the object (B).

상기 중심점 분석단계(S300)에서는 제어장치(300)가 제1 영상정보를 분석하여 팔레트(P)에 대상물(B)이 적재되지 않은 것으로 판단되면, 디팔레타이징 작업이 종료되도록 컨베이어(400)의 동작을 정지시키고 로봇팔(200)이 초기 위치로 회동되도록 로봇팔(200)을 제어한다. In the center point analysis step (S300), when the controller 300 analyzes the first image information and determines that the object B is not loaded on the pallet P, the conveyor 400 so that the depalletizing operation is terminated. Stop the operation and control the robot arm 200 so that the robot arm 200 is rotated to the initial position.

상기 거리 분석단계(S400)에서는 상기 제어장치(300)가 제1 영상정보의 대상물(B)을 기준으로 틸트다운하며 촬영한 제2,3 영상정보의 대상물(B)을 비교분석하여 대상물(B)의 이미지가 서로 매칭된 시점의 틸트다운 변화값을 검출하고, 상기 틸트다운 변화값을 기반으로 상기 중심점의 Z 좌표를 산출한다. In the distance analysis step (S400), the control device 300 compares and analyzes the object (B) of the second and third image information captured while tilting down based on the object (B) of the first image information to determine the object (B) ) detects a tilt-down change value at a time when the images of ) are matched with each other, and calculates the Z coordinate of the center point based on the tilt-down change value.

상기 좌표정보 전송단계(S500)에서는 상기 제어장치(300)가 중심점의 XYZ 좌표가 포함된 좌표정보를 생성한 후 로봇팔(200)로 상기 좌표정보를 전송한다. In the coordinate information transmission step (S500), the control device 300 transmits the coordinate information to the robot arm 200 after generating coordinate information including the XYZ coordinates of the center point.

필요에 따라, 좌표정보 전송단계(S500)에서는 대상물(B)의 XYZ 좌표가 복수로 산출되는 경우에 상기 제어장치(300)가 Z 좌표가 작은 XYZ 좌표를 우선순위로 지정하여 상기 로봇팔(200)에 제공할 수 있다. 이는, 팔레트(P)에 2개 이상의 대상물(B)이 수평 방향으로 함께 적층된 경우, 제어장치(300)가 2개 이상의 대상물(B) 중 먼저 이송할 대상물(B)을 선정하기 위함이다. 다시 말해, 제어장치(300)는 영상정보를 분석하여 복수개의 XYZ 좌표가 산출되는 경우에 Z 좌표가 가장 작은 대상물(B)이 먼저 컨베이어(400)로 이송되도록 흡착 대상물(B)로 선정하고, 이에 대한 XYZ 좌표를 로봇팔(200)로 제공한다. As necessary, in the coordinate information transmission step (S500), when the XYZ coordinates of the object (B) are calculated in plurality, the control device 300 prioritizes the XYZ coordinates having the smallest Z coordinates, and the robot arm 200 ) can be provided. This is for the control device 300 to select the object B to be transferred first among the two or more objects B when two or more objects B are stacked together in the horizontal direction on the pallet P. In other words, when a plurality of XYZ coordinates are calculated by analyzing the image information, the control device 300 selects the object B having the smallest Z coordinate as the adsorption target object B so that it is transferred to the conveyor 400 first, XYZ coordinates for this are provided to the robot arm 200.

또한, 좌표정보 전송단계(S500)에서는 대상물(B)의 XYZ 좌표가 복수로 산출되고 각 대상물(B)의 Z 좌표가 미리 지정된 수치 범위 이내에서 차이가 발생된 경우, 상기 제어장치(300)가 각 대상물(B)이 Z 좌표 대신 XYZ 좌표와 로봇팔(200)의 이격거리를 분석한 후, 이격거리가 먼 대상물의 XYZ 좌표를 우선순위로 지정하여 상기 로봇팔(200)로 제공한다. 다시 말해, 제어장치(300)는 영상정보를 분석하여 Z 좌표가 미리 지정된 수치 범위 이내인 복수개의 XYZ 좌표가 산출되는 경우에 로봇팔(200)로부터 이격거리가 먼 대상물(B)부터 컨베이어(400)로 이송되도록 흡착 대상물(B)로 선정하고, 이에 대한 XYZ 좌표를 로봇팔(200)로 제공한다. In addition, in the coordinate information transmission step (S500), when the XYZ coordinates of the object (B) are calculated in plurality and the Z coordinate of each object (B) is different within a predetermined numerical range, the control device 300 After each object (B) analyzes the XYZ coordinates and the separation distance of the robot arm 200 instead of the Z coordinate, the XYZ coordinates of the object with the far separation distance are prioritized and provided to the robot arm 200. In other words, the control device 300 analyzes the image information, and when a plurality of XYZ coordinates in which the Z coordinate is within a predetermined numerical range are calculated, the conveyor 400 starts from the object B that is far from the robot arm 200. ) is selected as an adsorption object (B) to be transferred, and XYZ coordinates thereof are provided to the robot arm 200.

상기 이송단계(S600)에서는 상기 로봇팔(200)이 제어장치(300)로부터 수신된 좌표정보에 따라 팔레트(P)에 적층된 대상물(B)의 중심점을 흡착하여 컨베이어(400)로 이송한다.In the transfer step (S600), the robot arm 200 adsorbs the center point of the object B stacked on the pallet P according to the coordinate information received from the control device 300 and transfers it to the conveyor 400.

이러한 패턴데이터 저장단계(S100), 팔레트 촬영단계(S200), 중심점 분석단계(S300), 거리 분석단계(S400), 좌표정보 전송단계(S500), 이송단계(S600)에서는 전술한 디팔레타이징 자동화 시스템에 포함된 세부구성들이 사용되므로, 중복되는 내용은 생략한다. In the pattern data storage step (S100), pallet photographing step (S200), center point analysis step (S300), distance analysis step (S400), coordinate information transmission step (S500), and transfer step (S600), the above-described depalletizing Since detailed configurations included in the automation system are used, duplicate contents are omitted.

이상에서 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술분야의 숙련된 당업자는 하기의 특허청구범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although the above has been described with reference to preferred embodiments of the present invention, those skilled in the art can variously modify and change the present invention without departing from the spirit and scope of the present invention described in the claims below. You will understand that you can.

100 : 카메라부 110 : 제1 카메라
120 : 제2 카메라 130 : 제3 카메라
200 : 로봇팔 210 : 다관절 프레임부
211 : 제1 프레임모듈 212 : 제1 힌지
213 : 제2 프레임모듈 214 : 제2 힌지
215 : 제3 프레임모듈 216 : 제3 힌지
217 : 제4 프레임모듈 220 : 흡착부
300 : 제어장치 400 : 컨베이어
P : 팔레트 B : 대상물
100: camera unit 110: first camera
120: second camera 130: third camera
200: robot arm 210: multi-joint frame
211: first frame module 212: first hinge
213: second frame module 214: second hinge
215: third frame module 216: third hinge
217: fourth frame module 220: adsorption unit
300: control device 400: conveyor
P: Pallet B: Object

Claims (9)

동일선상에 위치한 3곳에서 아래 방향에 위치한 팔레트를 각각 촬영하여 제1 내지 제3 영상정보를 생성하고 상기 제1 내지 제3 영상정보를 외부로 전송하는 카메라부;
팔레트에 적층된 대상물의 XYZ 좌표에 따라 대상물의 중심점을 흡착하여 컨베이어로 이송하는 로봇팔; 및
팔레트에 적재된 대상물을 구분할 수 있도록 사용하는 각 대상물의 외형에 대한 대상물 패턴데이터가 저장되고, 상기 카메라부로부터 제공된 제1 영상정보를 상기 대상물 패턴데이터와 비교분석하여 대상물의 종류를 구분하고 대상물의 중심점에 대한 XY 좌표를 검출하며, 제1 영상정보와 틸트다운하며 촬영한 제2,3 영상정보의 이미지 매칭을 시도하여 이미지가 매칭된 시점의 틸트다운 변화값을 검출하고, 상기 틸트다운 변화값을 기반으로 상기 중심점의 Z 좌표를 산출하며, 대상물의 XYZ 좌표를 상기 로봇팔로 제공하는 제어장치를 포함하며,
상기 카메라부는 팔레트의 수직 방향에서 팔레트의 평면 영상을 촬영하여 생성된 제1 영상정보를 상기 제어장치로 전송하는 제1 카메라와, 상기 제1 카메라와 이격되도록 설치되며, 틸트다운을 통해 대상물이 적재된 팔레트를 촬영하여 생성된 실시간 영상인 제2 영상정보를 상기 제어장치로 전송하는 제2 카메라와, 상기 제1 카메라 및 제2 카메라와 동일 선상에 위치하고, 제1 카메라를 중심으로 제2 카메라의 반대편에 설치되며, 틸트다운을 통해 대상물이 적재된 팔레트를 촬영하여 생성된 실시간 영상인 제3 영상정보를 상기 제어장치로 전송하는 제3 카메라와, 상기 제2 카메라 및 제3 카메라가 틸트다운될 수 있도록 제2 카메라 및 제3 카메라에 설치되는 틸트 모터, 및 상기 틸트 모터에 설치되어 제2 카메라 및 제3 카메라의 회전각을 감지하는 엔코더를 포함하며,
상기 제어장치는 제2 카메라에 설치된 틸트 모터를 제어하여 제2 카메라를 회전시키고 상기 제1 영상정보와 제2 카메라의 틸트 모터를 틸트다운하며 촬영한 제2 영상정보의 이미지 매칭을 시도하여 이미지가 매칭된 시점의 제1 틸트다운 변화값을 제2 카메라의 틸트 모터에 설치된 엔코더로부터 수집하고, 제3 카메라에 설치된 틸트 모터를 제어하여 제3 카메라를 회전시키고 상기 제1 영상정보와 제3 카메라의 틸트 모터를 틸트다운하며 촬영한 제3 영상정보의 이미지 매칭을 시도하여 이미지가 매칭된 시점의 제2 틸트다운 변화값을 제3 카메라의 틸트 모터에 설치된 엔코더로부터 수집하며, 제1 틸트다운 변화값과 제2 틸트다운 변화값을 기반으로 제1 카메라와 대상물 중심점 사이의 거리인 Z 좌표를 산출하는 것을 특징으로 하는 디팔레타이징 자동화 시스템.
a camera unit for generating first to third image information by taking pictures of pallets located in the lower direction at three locations located on the same line, and transmitting the first to third image information to the outside;
A robot arm for adsorbing the center point of the object according to the XYZ coordinates of the object stacked on the pallet and transferring it to the conveyor; and
Object pattern data for the appearance of each object used to distinguish objects loaded on the pallet is stored, and the first image information provided from the camera unit is compared and analyzed with the object pattern data to classify the type of object and Detect the XY coordinates of the center point, try image matching between the first image information and the second and third image information captured while tilting down, detect the tilt-down change value at the time when the image is matched, and the tilt-down change value And a control device for calculating the Z coordinate of the center point based on and providing the XYZ coordinates of the object to the robot arm,
The camera unit is installed to be spaced apart from the first camera and the first camera for transmitting first image information generated by photographing a plane image of the pallet in the vertical direction of the pallet to the control device, and the object is loaded through tilt-down A second camera for transmitting second image information, which is a real-time image generated by photographing the pallet, to the control device, and located on the same line as the first camera and the second camera, A third camera installed on the opposite side and transmitting third image information, which is a real-time image generated by photographing a pallet loaded with objects through tilt-down, to the control device, and the second camera and the third camera are tilt-down a tilt motor installed in the second camera and the third camera, and an encoder installed in the tilt motor to detect rotation angles of the second camera and the third camera,
The control device rotates the second camera by controlling a tilt motor installed in the second camera, and attempts image matching between the first image information and the second image information captured by tilting down the tilt motor of the second camera to obtain an image. The first tilt-down change value at the matched time point is collected from the encoder installed in the tilt motor of the second camera, and the tilt motor installed in the third camera is controlled to rotate the third camera and the first image information and the third camera are rotated. The image matching of the third image information captured by tilting down the tilt motor is attempted, and the second tilt-down change value at the time when the image is matched is collected from the encoder installed in the tilt motor of the third camera, and the first tilt-down change value And the depalletizing automation system, characterized in that for calculating the Z coordinate, which is the distance between the first camera and the center point of the object, based on the second tilt-down change value.
삭제delete 제1 항에 있어서,
상기 카메라부는 팔레트를 촬영하여 생성된 팔레트 영상을 상기 제어장치로 전송하고, 상기 제어장치로부터 제공된 관심영역 정보에 따라 관심영역을 촬영하여 제1 영상정보 내지 제3 영상정보를 생성하며,
상기 제어장치는 카메라부로부터 제공된 팔레트 영상에서 대상물 검출영역을 추출하여 관심영역 정보를 생성하고, 상기 관심영역 정보를 카메라부로 제공하는 것을 특징으로 하는 디팔레타이징 자동화 시스템.
According to claim 1,
The camera unit transmits a palette image generated by photographing the palette to the control device, and captures an ROI according to ROI information provided from the control device to generate first to third image information,
The depalletizing automation system, characterized in that the control device extracts the object detection region from the pallet image provided from the camera unit, generates ROI information, and provides the ROI information to the camera unit.
삭제delete 제1 항에 있어서, 상기 제어장치는
대상물의 XYZ 좌표가 복수로 산출되면, Z 좌표가 작은 XYZ 좌표를 우선순위로 하여 상기 로봇팔에 제공하는 것을 특징으로 하는 디팔레타이징 자동화 시스템.
The method of claim 1, wherein the control device
When the XYZ coordinates of the object are calculated in plurality, the XYZ coordinates having the smallest Z coordinates are given priority and provided to the robot arm.
팔레트의 적재된 대상물을 구분할 수 있도록 사용하는 각 대상물의 외형에 대한 대상물 패턴데이터를 제어장치에 저장하는 패턴데이터 저장단계;
동일선상에 위치한 3곳 중 중앙에 위치한 카메라부의 제1 카메라가 팔레트의 수직 방향에서 팔레트의 평면 영상을 촬영하여 생성된 제1 영상정보를 상기 제어장치로 전송하고, 상기 제1 카메라와 이격되도록 설치된 카메라부의 제2 카메라가 틸트다운을 통해 대상물이 적재된 팔레트를 촬영하여 생성된 실시간 영상인 제2 영상정보를 상기 제어장치로 전송하며, 상기 제1 카메라를 중심으로 제2 카메라의 반대편에 설치된 카메라부의 제3 카메라가 틸트다운을 통해 대상물이 적재된 팔레트를 촬영하여 생성된 실시간 영상인 제3 영상정보를 상기 제어장치로 전송하는 팔레트 촬영단계;
상기 제어장치가 상기 카메라부로부터 제공된 제1 영상정보를 상기 대상물 패턴데이터와 비교분석하여 팔레트에 적재된 대상물의 종류를 구분하고, 대상물의 중심점에 대한 XY 좌표를 검출하는 중심점 분석단계;
상기 제어장치가 제2 카메라에 설치된 틸트 모터를 제어하여 제2 카메라를 회전시키고 상기 제1 영상정보와 제2 카메라의 틸트 모터를 틸트다운하며 촬영한 제2 영상정보의 이미지 매칭을 시도하여 이미지가 매칭된 시점의 제1 틸트다운 변화값을 제2 카메라의 틸트 모터에 설치된 엔코더로부터 수집하고, 제3 카메라에 설치된 틸트 모터를 제어하여 제3 카메라를 회전시키고 상기 제1 영상정보와 제3 카메라의 틸트 모터를 틸트다운하며 촬영한 제3 영상정보의 이미지 매칭을 시도하여 이미지가 매칭된 시점의 제2 틸트다운 변화값을 제3 카메라의 틸트 모터에 설치된 엔코더로부터 수집하며, 제1 틸트다운 변화값과 제2 틸트다운 변화값을 기반으로 제1 카메라와 대상물 중심점 사이의 거리인 Z 좌표를 산출하는 거리 분석단계;
상기 제어장치가 중심점의 XYZ 좌표가 포함된 좌표정보를 생성한 후 로봇팔로 좌표정보를 전송하는 좌표정보 전송단계; 및
상기 로봇팔이 제어장치로부터 수신된 좌표정보에 따라 팔레트에 적층된 대상물의 중심점을 흡착하여 컨베이어로 이송하는 이송단계를 포함하는 디팔레타이징 자동화 방법.
A pattern data storage step of storing object pattern data for the appearance of each object used to distinguish the objects loaded on the pallet in a control device;
The first camera of the camera unit located at the center of three locations located on the same line photographs a plane image of the pallet in the vertical direction of the pallet, transmits first image information generated to the control device, and is installed to be spaced apart from the first camera. The second camera of the camera unit transmits second image information, which is a real-time image generated by photographing a pallet loaded with objects through tilt-down, to the control device, and a camera installed opposite the second camera centered on the first camera A palette photographing step of transmitting third image information, which is a real-time image generated by photographing a pallet on which objects are loaded, to the control device by a third negative camera through a tilt-down;
A center point analysis step in which the control device compares and analyzes the first image information provided from the camera unit with the object pattern data to classify the type of objects loaded on the pallet and detects XY coordinates of the center point of the object;
The control device controls the tilt motor installed in the second camera to rotate the second camera, and attempts image matching between the first image information and the second image information captured by tilting down the tilt motor of the second camera to obtain an image. The first tilt-down change value at the matched time point is collected from an encoder installed in the tilt motor of the second camera, and the tilt motor installed in the third camera is controlled to rotate the third camera and the first image information and the third camera are rotated. The image matching of the third image information captured by tilting down the tilt motor is attempted, and the second tilt-down change value at the time when the image is matched is collected from the encoder installed in the tilt motor of the third camera, and the first tilt-down change value and a distance analysis step of calculating a Z coordinate that is a distance between the first camera and the central point of the object based on the second tilt-down change value;
Coordinate information transmission step of transmitting the coordinate information to the robot arm after the control device generates coordinate information including the XYZ coordinates of the center point; and
A method for automating depalletizing comprising a transfer step in which the robot arm adsorbs the center point of the objects stacked on the pallet according to the coordinate information received from the control device and transfers them to the conveyor.
삭제delete 제6 항에 있어서, 상기 좌표정보 전송단계에서는
대상물의 XYZ 좌표가 복수로 산출되는 경우, 상기 제어장치가 Z 좌표가 작은 XYZ 좌표를 우선순위로 지정하여 상기 로봇팔에 제공하는 것을 특징으로 하는 디팔레타이징 자동화 방법.
The method of claim 6, wherein in the step of transmitting the coordinate information
When a plurality of XYZ coordinates of the object are calculated, the control device prioritizes XYZ coordinates having a small Z coordinate and provides them to the robot arm.
제6 항에 있어서, 상기 좌표정보 전송단계에서는
대상물의 XYZ 좌표가 복수로 산출되고 각 대상물의 Z 좌표가 미리 지정된 수치 범위 이내에서 차이가 발생된 경우, 상기 제어장치가 각 대상물이 XYZ 좌표와 로봇팔의 이격거리를 분석한 후 이격거리가 먼 대상물의 XYZ 좌표를 우선순위로 지정하여 상기 로봇팔에 제공하는 것을 특징으로 하는 디팔레타이징 자동화 방법.
The method of claim 6, wherein in the step of transmitting the coordinate information
If the XYZ coordinates of the object are calculated in plurality and the Z coordinate of each object has a difference within a predetermined numerical range, the control device analyzes the XYZ coordinates of each object and the separation distance of the robot arm, and then A depalletizing automation method characterized in that the XYZ coordinates of the object are prioritized and provided to the robot arm.
KR1020220076957A 2022-06-23 2022-06-23 Depaletizing automatic system and method using robot arm KR102486009B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220076957A KR102486009B1 (en) 2022-06-23 2022-06-23 Depaletizing automatic system and method using robot arm

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220076957A KR102486009B1 (en) 2022-06-23 2022-06-23 Depaletizing automatic system and method using robot arm

Publications (1)

Publication Number Publication Date
KR102486009B1 true KR102486009B1 (en) 2023-01-10

Family

ID=84893441

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220076957A KR102486009B1 (en) 2022-06-23 2022-06-23 Depaletizing automatic system and method using robot arm

Country Status (1)

Country Link
KR (1) KR102486009B1 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100865165B1 (en) 2007-07-10 2008-10-24 현대중공업 주식회사 Optimized trajectory generation method for robot palletizing system
KR101187234B1 (en) 2007-06-12 2012-10-02 쿠카 로보테르 게엠베하 Method and system for depaletting tyres using a robot
JP2021503374A (en) * 2018-10-30 2021-02-12 株式会社Mujin Robot system equipped with automatic object detection mechanism and its operation method
KR20210068979A (en) 2019-12-02 2021-06-10 한국전자통신연구원 Method and apparatus for performing depalletizing tasks using a robot
KR20210137060A (en) 2019-02-22 2021-11-17 덱스테러티, 인크. Palletizing and depalletizing of robotic multi-item types
KR20210156594A (en) * 2020-06-18 2021-12-27 주식회사 비투코리아 System for monitoring abnormality of conveyor apparatus and method for the same
KR20220081377A (en) * 2019-10-16 2022-06-15 심보틱 캐나다, 유엘씨 Vision-Assisted Robotized Depalletizer

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101187234B1 (en) 2007-06-12 2012-10-02 쿠카 로보테르 게엠베하 Method and system for depaletting tyres using a robot
KR100865165B1 (en) 2007-07-10 2008-10-24 현대중공업 주식회사 Optimized trajectory generation method for robot palletizing system
JP2021503374A (en) * 2018-10-30 2021-02-12 株式会社Mujin Robot system equipped with automatic object detection mechanism and its operation method
KR20210137060A (en) 2019-02-22 2021-11-17 덱스테러티, 인크. Palletizing and depalletizing of robotic multi-item types
KR20220081377A (en) * 2019-10-16 2022-06-15 심보틱 캐나다, 유엘씨 Vision-Assisted Robotized Depalletizer
KR20210068979A (en) 2019-12-02 2021-06-10 한국전자통신연구원 Method and apparatus for performing depalletizing tasks using a robot
KR20210156594A (en) * 2020-06-18 2021-12-27 주식회사 비투코리아 System for monitoring abnormality of conveyor apparatus and method for the same

Similar Documents

Publication Publication Date Title
JP7548516B2 (en) Robotic system with automated package scanning and registration mechanism and method of operation thereof
CN110465960B (en) Robot system with article loss management mechanism
US20210114826A1 (en) Vision-assisted robotized depalletizer
JP6805465B2 (en) Box positioning, separation, and picking using sensor-guided robots
US9630321B2 (en) Continuous updating of plan for robotic object manipulation based on received sensor data
US9457970B1 (en) Modular cross-docking system
CN113771045B (en) Vision-guided high-adaptability positioning and grabbing method for middle frame of right-angle robot mobile phone
CN111434470A (en) Control device and control method for robot system
CA2887261C (en) Vision-assisted system and method for picking of rubber bales in a bin
JP7086380B2 (en) Goods transfer device and cargo pick-up position detection device
KR102350345B1 (en) Depalletizer system and controlling method for the same
JP7398662B2 (en) Robot multi-sided gripper assembly and its operating method
KR102486009B1 (en) Depaletizing automatic system and method using robot arm
KR20240101940A (en) Automatic product unloading, handling, and distribution
KR20210068979A (en) Method and apparatus for performing depalletizing tasks using a robot
EP4371711A1 (en) A robotic system transfer unit cell and method of operation thereof
JP7264387B2 (en) Robotic gripper assembly for openable objects and method for picking objects
KR20210057238A (en) Apparatus for Inspection of product combined with Autonomous Vehicle
CN116175540B (en) Grabbing control method, device, equipment and medium based on position and orientation
WO2024038323A1 (en) Item manipulation system and methods

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant