KR102027039B1 - Object auto arrangement system using image processing algorithm - Google Patents

Object auto arrangement system using image processing algorithm Download PDF

Info

Publication number
KR102027039B1
KR102027039B1 KR1020170168354A KR20170168354A KR102027039B1 KR 102027039 B1 KR102027039 B1 KR 102027039B1 KR 1020170168354 A KR1020170168354 A KR 1020170168354A KR 20170168354 A KR20170168354 A KR 20170168354A KR 102027039 B1 KR102027039 B1 KR 102027039B1
Authority
KR
South Korea
Prior art keywords
data
image
unit
image processing
center point
Prior art date
Application number
KR1020170168354A
Other languages
Korean (ko)
Other versions
KR20190068662A (en
Inventor
황희선
윤성조
김종걸
이종득
Original Assignee
한국로봇융합연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국로봇융합연구원 filed Critical 한국로봇융합연구원
Priority to KR1020170168354A priority Critical patent/KR102027039B1/en
Publication of KR20190068662A publication Critical patent/KR20190068662A/en
Application granted granted Critical
Publication of KR102027039B1 publication Critical patent/KR102027039B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A22BUTCHERING; MEAT TREATMENT; PROCESSING POULTRY OR FISH
    • A22CPROCESSING MEAT, POULTRY, OR FISH
    • A22C29/00Processing shellfish or bivalves, e.g. oysters, lobsters; Devices therefor, e.g. claw locks, claw crushers, grading devices; Processing lines
    • A22C29/02Processing shrimps, lobsters or the like ; Methods or machines for the shelling of shellfish
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65GTRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
    • B65G47/00Article or material-handling devices associated with conveyors; Methods employing such devices
    • B65G47/74Feeding, transfer, or discharging devices of particular kinds or types
    • B65G47/90Devices for picking-up and depositing articles or materials
    • B65G47/905Control arrangements
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65GTRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
    • B65G2201/00Indexing codes relating to handling devices, e.g. conveyors, characterised by the type of product or load being conveyed or handled
    • B65G2201/02Articles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65GTRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
    • B65G2203/00Indexing code relating to control or detection of the articles or the load carriers during conveying
    • B65G2203/02Control or detection
    • B65G2203/0208Control or detection relating to the transported articles
    • B65G2203/0225Orientation of the article
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65GTRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
    • B65G2203/00Indexing code relating to control or detection of the articles or the load carriers during conveying
    • B65G2203/02Control or detection
    • B65G2203/0208Control or detection relating to the transported articles
    • B65G2203/0233Position of the article
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65GTRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
    • B65G2203/00Indexing code relating to control or detection of the articles or the load carriers during conveying
    • B65G2203/04Detection means
    • B65G2203/041Camera

Landscapes

  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Wood Science & Technology (AREA)
  • Zoology (AREA)
  • Food Science & Technology (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)
  • Sorting Of Articles (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

본 발명은 영상처리분석을 이용한 대상물 자동 정렬, 공급 시스템, 및 대상물 자동 정렬, 공급 방법{에 대한 것이다. 보다 상세하게는, 대상물 자동 정렬, 공급 시스템에 있어서, 이송수단을 통해 이송되는 다수의 대상물 각각에 대한 영상 데이터를 획득하는 영상획득부; 상기 영상획득부에서 획득한 영상 데이터를 기반으로 상기 대상물의 위치, 방향정보를 획득하여 대상분석데이터를 산출하는 영상처리부; 및 상기 영상처리부에서 산출된 대상분석데이터를 기반으로 상기 대상물을 다음 공정라인으로 투입시키는 픽업유닛;을 포함하는 것을 특징으로 하는, 영상처리분석을 이용한 대상물 자동 정렬, 공급 시스템에 관한 것이다. The present invention relates to an object automatic alignment, a supply system using an image processing analysis, and an object automatic alignment, a supply method. More specifically, in the automatic object alignment, supply system, the image acquisition unit for acquiring the image data for each of the plurality of objects to be transferred through the transfer means; An image processor for obtaining object analysis data by obtaining position and direction information of the object based on the image data acquired by the image acquisition unit; And a pickup unit for inputting the object to the next process line based on the object analysis data calculated by the image processing unit.

Description

영상처리분석을 이용한 대상물 자동 정렬, 공급 시스템, 및 대상물 자동 정렬, 공급 방법{Object auto arrangement system using image processing algorithm}Object automatic arrangement system using image processing analysis, supply system and object automatic arrangement system using image processing algorithm

본 발명은 영상처리분석을 이용한 대상물 자동 정렬, 공급 시스템, 및 대상물 자동 정렬, 공급 방법{에 대한 것이다. 보다 상세하게는 대상물을 영상처리하여 산출된 대상분석데이터를 기반으로 대상물을 안정적으로 정렬, 공급할 수 있는 자동화 시스템에 대한 것이다. The present invention relates to an object automatic alignment, a supply system using an image processing analysis, and an object automatic alignment, a supply method. More specifically, the present invention relates to an automated system capable of stably sorting and supplying an object based on object analysis data calculated by image processing of the object.

게는 바다에 서식하는 갑각류의 일종으로서, 몸통이 납작하고 온몸이 딱딱한 껍질에 싸여 있으며, 좌우 각각 네상의 다리와, 다른 다리에 비해 굵기가 굵은 좌우 한 쌍의 집게다리가 있다.The crab is a kind of crustacean inhabiting the sea. Its body is flat and wrapped in hard shells. It has four legs on each side, and a pair of left and right pair of tongs thicker than other legs.

이러한 게는 깨끗한 물로 세척한 후, 그대로 쪄서 먹거나, 끓는 물에 삶아서 몸통이나 다리의 살을 발라 먹거나, 간장으로 조리를 하여 먹기도 하고, 각 부위별로 가공하여 판매하는 실정에 있다.These crabs are washed with clean water, steamed and eaten as it is, or boiled in boiling water to eat the flesh of the torso or legs, cooked with soy sauce, or processed and sold for each part.

그런데 게를 가공식품으로 가공하기 위해서는 게의 딱딱한 껍질을 제거하고 부위별로 분리하는 가공을 해야 하는데, 이를 위해서는 먼저 게의 껍질을 분리하고, 몸통과 다리를 절단하여 분리하는 작업을 하게 된다.However, in order to process crabs into processed foods, the crab must be removed to remove the hard shells of the crabs, and then the shells of the crabs are first separated, and the body and legs are cut and separated.

따라서 종래에는 작업자가 절단칼을 들고 작업대 위에 게를 놓고 수작업으로 게의 등껍질을 분리하고, 몸통과 게다리와 집게다리를 절단하여 분리하게 되는데 힘이 많이 들고 숙련된 기술력을 요하므로 작업비용이 많이 드는 불편이 있었다.Therefore, in the prior art, a worker lifts a crab on a workbench with a cutting knife, and separates the back shell of the crab by hand, and cuts and separates the torso, crab legs, and tongs legs, which requires a lot of power and skill. There was a discomfort.

이러한 게의 가공공정은 자숙전 공정, 자숙, 게살추출, 포장공정으로 크게 나눌 수 있으며 오랜기간 경험을 통해 부분적으로 자동화를 이루고 있다. 현재, 탈갑장치 등을 통해 절단과 몸통살과 다리살을 추출하는 공정은 어느정도 자동화되어 있는 실정이다. The crab processing process can be divided into self-cooking process, cooked meat, crab meat extraction, and packaging process, and has been partially automated through long time experience. At present, the process of extracting the cutting and torso and leg meat through the decapsulation device is somewhat automated.

이러한 게의 탈갑, 절단, 운반과정에 대한 자동화 기술을 대한민국 공개특허 제2017-0054975호, 등록특허 제1644991호 등에 기재되어 있다. 그러나 게의 크기, 분류, 다음공정(탈갑 및 절단)으로의 자동공급에 대한 기술은 현재 공개되어 있지 않다. Automated technology for the removal, cutting, and transporting of such crabs is described in Korean Patent Application Publication No. 2017-0054975, Korean Patent No. 16,4991, and the like. However, techniques for crab size, sorting and automatic feeding to the next process (eg stripping and cutting) are not currently available.

즉, 현재는 게를 크기별로 분류하여 일정한 방향으로 탈갑장치에 투입시키기 위해서 현재는 사람의 수작업으로 하나하나 분류하여 탈갑장치에 투입하고 있는 실정이다. 도 1에 도시된 바와 같이, 게의 측정, 분류, 공급과 관련된 일련의 작업자 대부분 수작업으로 수행하고 있으며, 이와 같은 수작업으로 인해 공정상 가장 많은 작업인원이 필요하며 노동집약적 작업으로 작업효율이 현저히 떨어질 뿐 아니라, 병목공정발생으로 인해 생산성이 현격히 떨어지는 문제점이 존재한다. That is, at present, in order to classify crabs by size and put them into the stripping apparatus in a certain direction, they are currently sorted one by one by hand and put into the stripping apparatus. As shown in Figure 1, most of the series of workers involved in the measurement, sorting, and supply of crabs are performed by hand, and this manual work requires the largest number of workers in the process and the work efficiency can be significantly reduced by labor-intensive work. In addition, there is a problem that productivity is significantly reduced due to the bottleneck process occurs.

따라서 게 등과 같은 대상물을 크기에 따라 자동분류하고, 분류된 대상물을 일정한 방향으로 자동으로 다음 공정으로 정렬시킬 수 있는 장치 및 방법이 요구되었다. Therefore, there is a need for an apparatus and method for automatically classifying objects such as crabs and the like, and sorting the sorted objects automatically in a predetermined direction to the next process.

대한민국 공개특허 제2017-0054975호Republic of Korea Patent Publication No. 2017-0054975 대한민국 등록특허 제1644991호Republic of Korea Registered Patent No. 일본 등록특허 제5482778호Japanese Patent No. 5542778 일본 등록특허 제5246161호Japanese Patent No. 5246161 대한민국 공개특허 제2014-0076828호Republic of Korea Patent Publication No. 2014-0076828 대한민국 공개특허 제2016-0080279호Republic of Korea Patent Application Publication No. 2016-0080279

따라서 본 발명은 상기와 같은 종래의 문제점을 해결하기 위하여 안출된 것으로서, 본 발명의 실시예에 따르면, 대상물의 가공공정에서 분류, 픽업, 공급 및 일정방향 정렬을 자동화할 수 시스템을 제공하는 데 그 목적이 있다.Therefore, the present invention has been made to solve the above-mentioned conventional problems, according to an embodiment of the present invention, to provide a system capable of automating sorting, pickup, supply and constant alignment in the processing of the object. There is a purpose.

또한, 본 발명의 실시예 따르면, 다관절 로봇으로 대상물을 픽업하여 다음 공정으로 이동시키는 과정에서, 대상물을 분류하고 이러한 대상물을 일정한 방향으로 다음 공정으로 정렬, 공급, 투입시킬 수 있는 자동화 시스템 및 방법을 제공하는데 목적이 있다.In addition, according to an embodiment of the present invention, in the process of picking up the object by the articulated robot and moving to the next process, an automated system and method capable of classifying the object and aligning, supplying, and feeding the object to the next process in a constant direction The purpose is to provide.

한편, 본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.On the other hand, the technical problems to be achieved in the present invention are not limited to the technical problems mentioned above, and other technical problems that are not mentioned are clearly to those skilled in the art from the following description. It can be understood.

본 발명의 제1목적은 대상물 자동 정렬, 공급 시스템에 있어서, 이송수단을 통해 이송되는 다수의 대상물 각각에 대한 영상 데이터를 획득하는 영상획득부; 상기 영상획득부에서 획득한 영상 데이터를 기반으로 상기 대상물의 위치, 방향정보를 획득하여 대상분석데이터를 산출하는 영상처리부; 및 상기 영상처리부에서 산출된 대상분석데이터를 기반으로 상기 대상물을 다음 공정라인으로 투입시키는 픽업유닛;을 포함하는 것을 특징으로 하는, 영상처리분석을 이용한 대상물 자동 정렬, 공급 시스템으로서 달성될 수 있다. A first object of the present invention is an automatic object alignment, supply system, Image acquisition unit for acquiring the image data for each of the plurality of objects to be transferred through the transfer means; An image processor for obtaining object analysis data by obtaining position and direction information of the object based on the image data acquired by the image acquisition unit; And a pickup unit for introducing the object to the next process line based on the object analysis data calculated by the image processor. The object may be achieved as an automatic object sorting and supplying system using the image processing analysis.

그리고 영상획득부는, 이송되는 상기 대상물 측으로 광원을 조사하는 광원조사부와, 상기 대상물을 포함한 영역을 촬상하는 카메라를 포함하는 것을 특징으로 할 수 있다. The image acquisition unit may include a light source irradiation unit for irradiating a light source to the object to be transferred, and a camera for imaging an area including the object.

또한, 영상획득부는 이송수단 일측에 구비되며, 상기 광원조사부와 상기 카메라가 장착되는 지지대를 포함하고, 상기 광원조사부와 상기 대상물 간의 거리, 및 상기 카메라와 상기 대상물 간의 거리 중 적어도 하나를 조절하는 위치조절부와, 상기 광원조사부와 상기 카메라 간의 간격을 조절하는 간격조절부와, 상기 광원조사부의 조사각도와, 상기 카메라의 촬상각도 중 적어도 하나를 조절하는 각도조절부, 중 적어도 하나를 포함하는 것을 특징으로 할 수 있다. In addition, the image acquisition unit is provided on one side of the transfer means, and includes a support on which the light source irradiator and the camera is mounted, the position for adjusting at least one of the distance between the light source and the object, and the distance between the camera and the object And at least one of an adjusting unit, a gap adjusting unit for adjusting a distance between the light source irradiating unit and the camera, and an angle adjusting unit for adjusting at least one of an irradiation angle of the light source irradiating unit and an imaging angle of the camera. It can be characterized.

그리고 영상처리부는, 상기 영상데이터에서 대상물의 외형정보를 획득하고, 관심영역을 획득하고, 상기 관심영역 내 각각의 픽셀간의 거리정보를 바탕으로 최대 거리정보를 가지는 중심점좌표를 산출하여 크기, 위치데이터를 획득하며, 상기 중심점좌표를 기준으로 대상물의 에지 위치와 에지간의 간격정보를 통해 가장 긴영역의 중심점좌표를 방향, 자세데이터로 획득하는 것을 특징으로 할 수 있다. The image processing unit obtains the appearance information of the object from the image data, obtains a region of interest, and calculates a center point coordinate having the maximum distance information based on the distance information between each pixel in the region of interest. And acquiring the center point coordinate of the longest region as direction and attitude data based on the edge position of the object and the interval information between the edges based on the center point coordinate.

또한 대상물은 갑각류이고, 영상처리부는 상기 중심점좌표를 기준으로 상기 갑각류의 다리위치와 다리 간의 간격정보를 통해 가장 긴영역의 중심점좌표를 방향, 자세데이터로 획득하는 것을 특징으로 할 수 있다. In addition, the object is a crustacean, and the image processor may obtain the center point coordinate of the longest region as direction and posture data based on the distance information between the leg position and the leg of the crustacean based on the center point coordinate.

그리고 픽업유닛은, 위치데이터를 기반으로 상기 대상물의 중심점에 접촉하여 상기 대상물을 픽업하며, 데이터베이스에 기 저장된 분류데이터와 상기 크기데이터를 대비하여 상기 대상물을 분류하고 분류별로 상기 대상물을 다음 공정라인으로 투입시키는 것을 특징으로 할 수 있다. The pickup unit picks up the object by contacting the center point of the object based on the position data, classifies the object in comparison with the classification data and the size data previously stored in a database, and classifies the object to the next process line by classification. It may be characterized in that the input.

또한 픽업유닛은, 방향, 자세데이터를 기반으로 상기 대상물이 일정한 방향으로 정렬되도록 상기 대상물을 다음 공정라인으로 투입시키는 것을 특징으로 할 수 있다. In addition, the pickup unit may be characterized in that the object is introduced into the next process line so that the object is aligned in a certain direction based on the direction, attitude data.

본 발명의 제2목적은 대상물 자동 정렬, 공급 방법에 있어서, 광원조사부가 이송수단을 통해 이송되는 복수의 대상물 각각으로 광원을 조사하고, 카메라가 상기 대상물을 포함한 영역을 촬상하여 영상데이터를 획득하는 단계; 상기 영상획득부에서 획득한 영상 데이터를 기반으로 영상처리부가 상기 대상물의 위치, 크기, 자세, 방향정보를 획득하여 대상분석데이터를 산출하는 단계; 및 상기 영상처리부에서 산출된 대상분석데이터를 기반으로 픽업유닛이 상기 대상물을 분류별로 일정한 방향으로 정렬되도록 다음 공정라인으로 투입시키는 단계;를 포함하는 것을 특징으로 하는, 영상처리분석을 이용한 대상물 자동 정렬, 공급 방법으로서 달성될 수 있다. According to a second aspect of the present invention, in a method for automatically aligning and supplying an object, a light source irradiating a light source to each of a plurality of objects conveyed through a conveying means, and the camera captures an area including the object to obtain image data. step; Calculating object analysis data by acquiring position, size, posture, and direction information of the object based on the image data acquired by the image acquisition unit; And inputting, by the pickup unit, the object into the next process line such that the object is aligned in a predetermined direction according to the classification based on the object analysis data calculated by the image processing unit. , As a supply method.

그리고 대상분석데이터를 산출하는 단계는, 영상데이터에서 대상물의 외형정보를 획득하고, 관심영역을 획득하고, 상기 관심영역 내 각각의 픽셀간의 거리정보를 바탕으로 최대 거리정보를 가지는 중심점좌표를 산출하여 크기, 위치데이터를 획득하며, 상기 중심점좌표를 기준으로 대상물의 에지 위치와 에지간의 간격정보를 통해 가장 긴영역의 중심점좌표를 방향, 자세데이터로 획득하는 것을 특징으로 할 수 있다. The calculating of the object analysis data may include obtaining outline information of an object from image data, obtaining a region of interest, and calculating a center point coordinate having maximum distance information based on distance information between respective pixels in the region of interest. The size and position data may be acquired, and the center point coordinate of the longest region may be obtained as direction and attitude data based on the edge position of the object and the gap information between the edges based on the center point coordinate.

또한 다음 공정라인으로 투입시키는 단계는 픽업유닛이 상기 위치데이터를 기반으로 상기 대상물의 중심점에 접촉하여 상기 대상물을 픽업하며, 데이터베이스에 기 저장된 분류데이터와 상기 크기데이터를 대비하여 상기 대상물을 분류하고 상기 방향, 자세데이터를 기반으로 상기 대상물이 일정한 방향으로 정렬되도록 상기 대상물을 다음 공정라인으로 분류별로 투입시키는 것을 특징으로 할 수 있다. In addition, the step of introducing into the next process line is a pickup unit in contact with the center point of the object based on the position data to pick up the object, classify the object in comparison with the classification data and the size data previously stored in the database and the The object may be introduced into the next process line by classification so that the object is aligned in a predetermined direction based on the direction and attitude data.

본 발명의 실시예에 따른 영상처리분석을 이용한 대상물 정렬 공급 자동화 시스템에 따르면 대상물의 가공공정에서 분류, 픽업, 공급 및 일정방향 정렬을 할 수 있는 효과를 갖는다.According to the object alignment supply automation system using the image processing analysis according to an embodiment of the present invention has the effect that can be sorted, picked up, fed and constant alignment in the processing of the object.

또한, 본 발명의 실시예에 따른 대상물 픽업 공급 자동화 시스템에 따르면, 다관절 로봇으로 대상물을 픽업하여 다음 공정으로 이동시키는 과정에서, 대상물을 분류하고 이러한 대상물을 일정한 방향으로 다음공정으로 정렬, 공급, 투입시킬 수 있는 효과를 갖는다.In addition, according to the object pickup supply automation system according to an embodiment of the present invention, in the process of picking up the object by the articulated robot and moving to the next process, classify the object and align, supply, such object in the next direction in a predetermined direction, It has an effect that can be injected.

그리고, 본 발명의 실시예에 따른 영상처리분석을 이용한 대상물 정렬 공급 자동화 시스템에 따르면, 대상물 가공공정에 로봇 자동화 시스템을 도입함에 따라 가공 인력 부족현상을 극복하고 상품가치를 극대시킬 수 있으며, 대상물의 크기측정, 자세, 방향측정, 분류, 및 자동공급 등의 일련의 과정을 로봇 자동화시스템을 통해 생산비 절감, 고령화되고 있는 작업인력을 대체, 작업환경을 개선할 수 있는 장점이 있다. In addition, according to the object alignment supply automation system using the image processing analysis according to an embodiment of the present invention, by introducing the robot automation system in the object processing process can overcome the shortage of processing personnel and maximize the value of the object, A series of processes, such as size measurement, posture, direction measurement, classification, and automatic supply, have the advantage of reducing production costs, replacing the aging workforce, and improving the working environment through the robot automation system.

한편, 본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.On the other hand, the effect obtained in the present invention is not limited to the above-mentioned effects, other effects that are not mentioned will be clearly understood by those skilled in the art from the following description. Could be.

본 명세서에 첨부되는 다음의 도면들은 본 발명의 바람직한 일실시예를 예시하는 것이며, 발명의 상세한 설명과 함께 본 발명의 기술적 사상을 더욱 이해시키는 역할을 하는 것이므로, 본 발명은 그러한 도면에 기재된 사항에만 한정되어 해석 되어서는 아니 된다.
도 1은 종래 수작업으로 홍게를 분류하고 있는 사진,
도 2는 본 발명의 실시예에 따른 영상처리분석을 이용한 대상물 정렬 공급 자동화 시스템의 영상획득부와 이송수단의 사시도,
도 3a 및 도 3b는 본 발명의 실시예에 따른 영상획득부의 사시도, 정면도,
도 4는 본 발명의 실시예에 따라 컨베어에 의해 이동되는 홍게와 영상획득부 사진,
도 5a 내지 도 5e는 본 발명의 실시예에 따른 영상처리부에 의해 대상물의 크기, 자세, 방향에 대한 데이터를 획득하는 과정,
도 6은 본 발명의 실시예에 따라 영상처리부에서 산출된 대상분석데이터,
도 7은 본 발명의 실시예에 따른 대상물 분류, 픽업, 정렬 공급 자동화 시스템의 사시도,
도 8은 본 발명의 실시예에 따른 트랙킹 유닛의 사시도,
도 9는 본 발명의 실시예에 따른 트랙킹 유닛의 속도위치감지엔코더의 분해 사시도,
도 10a는 본 발명의 제1실시예에 따른 픽업유닛의 사시도,
도 10b는 본 발명의 제1실시예에 따른 흡착수단의 단면도,
도 11은 본 발명의 제1실시예에 따라 홍게가 픽업된 픽업유닛의 사진,
도 12a는 본 발명의 제2실시예에 따른 팍업유닛의 사시도,
도 12b는 본 발명의 제2실시예에 따른 흡착수단의 사진,
도 12c는 본 발명의 제2실시예에 따라 홍게가 픽업된 픽업유닛의 사진,
도 13은 본 발명의 실시예에 따른 영상처리분석을 이용한 대상물 정렬 공급 자동화 시스템의 사시도를 도시한 것이다.
The following drawings, which are attached to this specification, illustrate one preferred embodiment of the present invention, and together with the detailed description thereof, serve to further understand the technical spirit of the present invention. It should not be construed as limited.
1 is a photograph classifying a red crab by conventional hand,
Figure 2 is a perspective view of the image acquisition unit and the transfer means of the object alignment supply automation system using image processing analysis according to an embodiment of the present invention,
3A and 3B are a perspective view, a front view, and an image acquisition unit according to an embodiment of the present invention;
Figure 4 is a red crab and the image acquisition unit moved by the conveyor according to an embodiment of the present invention,
5A to 5E illustrate a process of acquiring data on a size, a posture, and a direction of an object by an image processor according to an exemplary embodiment of the present invention;
6 is target analysis data calculated by an image processor according to an embodiment of the present invention;
7 is a perspective view of the object sorting, pick-up, alignment supply automation system according to an embodiment of the present invention,
8 is a perspective view of a tracking unit according to an embodiment of the present invention,
9 is an exploded perspective view of a speed position detecting encoder of a tracking unit according to an embodiment of the present invention;
10A is a perspective view of a pickup unit according to the first embodiment of the present invention;
10b is a cross-sectional view of the adsorption means according to the first embodiment of the present invention;
11 is a picture of the pickup unit picked up red crab according to the first embodiment of the present invention,
12A is a perspective view of a pack up unit according to a second embodiment of the present invention;
12b is a photograph of adsorption means in accordance with a second embodiment of the present invention;
12c is a photograph of a pickup unit picked up with red crabs in accordance with a second embodiment of the present invention;
13 is a perspective view of an object alignment supply automation system using image processing analysis according to an embodiment of the present invention.

이상의 본 발명의 목적들, 다른 목적들, 특징들 및 이점들은 첨부된 도면과 관련된 이하의 바람직한 실시예들을 통해서 쉽게 이해될 것이다. 그러나 본 발명은 여기서 설명되는 실시예들에 한정되지 않고 다른 형태로 구체화될 수도 있다. 오히려, 여기서 소개되는 실시예들은 개시된 내용이 철저하고 완전해질 수 있도록 그리고 통상의 기술자에게 본 발명의 사상이 충분히 전달될 수 있도록 하기 위해 제공되는 것이다.Objects, other objects, features and advantages of the present invention will be readily understood through the following preferred embodiments associated with the accompanying drawings. However, the present invention is not limited to the embodiments described herein and may be embodied in other forms. Rather, the embodiments introduced herein are provided so that the disclosure may be made thorough and complete, and to fully convey the spirit of the invention to those skilled in the art.

본 명세서에서, 어떤 구성요소가 다른 구성요소 상에 있다고 언급되는 경우에 그것은 다른 구성요소 상에 직접 형성될 수 있거나 또는 그들 사이에 제 3의 구성요소가 개재될 수도 있다는 것을 의미한다. 또한 도면들에 있어서, 구성요소들의 두께는 기술적 내용의 효과적인 설명을 위해 과장된 것이다.In the present specification, when a component is mentioned to be on another component, it means that it may be formed directly on the other component or a third component may be interposed therebetween. In addition, in the drawings, the thickness of the components are exaggerated for the effective description of the technical content.

본 명세서에서 기술하는 실시예들은 본 발명의 이상적인 예시도인 단면도 및/또는 평면도들을 참고하여 설명될 것이다. 도면들에 있어서, 막 및 영역들의 두께는 기술적 내용의 효과적인 설명을 위해 과장된 것이다. 따라서 제조 기술 및/또는 허용 오차 등에 의해 예시도의 형태가 변형될 수 있다. 따라서 본 발명의 실시예들은 도시된 특정 형태로 제한되는 것이 아니라 제조 공정에 따라 생성되는 형태의 변화도 포함하는 것이다. 예를 들면, 직각으로 도시된 영역은 라운드지거나 소정 곡률을 가지는 형태일 수 있다. 따라서 도면에서 예시된 영역들은 속성을 가지며, 도면에서 예시된 영역들의 모양은 소자의 영역의 특정 형태를 예시하기 위한 것이며 발명의 범주를 제한하기 위한 것이 아니다. 본 명세서의 다양한 실시예들에서 제1, 제2 등의 용어가 다양한 구성요소들을 기술하기 위해서 사용되었지만, 이들 구성요소들이 이 같은 용어들에 의해서 한정되어서는 안 된다. 이들 용어들은 단지 어느 구성요소를 다른 구성요소와 구별시키기 위해서 사용되었을 뿐이다. 여기에 설명되고 예시되는 실시예들은 그것의 상보적인 실시예들도 포함한다.Embodiments described herein will be described with reference to cross-sectional and / or plan views, which are ideal exemplary views of the present invention. In the drawings, the thicknesses of films and regions are exaggerated for effective explanation of technical content. Therefore, the shape of the exemplary diagram may be modified by manufacturing techniques and / or tolerances. Accordingly, the embodiments of the present invention are not limited to the specific forms shown, but also include changes in forms generated according to manufacturing processes. For example, the region shown at right angles may be rounded or have a predetermined curvature. Thus, the regions illustrated in the figures have properties, and the shape of the regions illustrated in the figures is intended to illustrate a particular form of region of the device and is not intended to limit the scope of the invention. Although terms such as first and second are used to describe various components in various embodiments of the present specification, these components should not be limited by such terms. These terms are only used to distinguish one component from another. The embodiments described and illustrated herein also include complementary embodiments thereof.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 '포함한다(comprises)' 및/또는 '포함하는(comprising)'은 언급된 구성요소는 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다.The terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention. In this specification, the singular also includes the plural unless specifically stated otherwise in the phrase. As used herein, the words 'comprises' and / or 'comprising' do not exclude the presence or addition of one or more other components.

아래의 특정 실시예들을 기술하는데 있어서, 여러 가지의 특정적인 내용들은 발명을 더 구체적으로 설명하고 이해를 돕기 위해 작성되었다. 하지만 본 발명을 이해할 수 있을 정도로 이 분야의 지식을 갖고 있는 독자는 이러한 여러 가지의 특정적인 내용들이 없어도 사용될 수 있다는 것을 인지할 수 있다. 어떤 경우에는, 발명을 기술하는 데 있어서 흔히 알려졌으면서 발명과 크게 관련 없는 부분들은 본 발명을 설명하는데 있어 별 이유 없이 혼돈이 오는 것을 막기 위해 기술하지 않음을 미리 언급해 둔다.In describing the specific embodiments below, various specific details are set forth in order to explain the invention more specifically and to help understand. However, those skilled in the art can understand that the present invention can be used without these various specific details. In some cases, it is mentioned in advance that parts of the invention which are commonly known in the description of the invention and which are not highly related to the invention are not described in order to prevent confusion in explaining the invention without cause.

이하에서는 본 발명에 따른 영상처리분석을 이용한 대상물 정렬 공급 자동화 시스템(1)의 구성 및 기능에 대해 설명하도록 한다. 본 발명에 따른 영상처리분석을 이용한 대상물 정렬 공급 자동화 시스템(1)은 전체적으로 영상획득부(10)와, 영상처리부, 트랙킹 유닛(30), 픽업유닛(60) 등을 포함하여 구성될 수 있다. Hereinafter, the configuration and function of the object alignment supply automation system 1 using image processing analysis according to the present invention will be described. The object alignment supply automation system 1 using the image processing analysis according to the present invention may be configured to include the image acquisition unit 10, the image processing unit, the tracking unit 30, the pickup unit 60 and the like as a whole.

영상획득부(10)는 이송수단을 통해 이송되는 다수의 대상물 각각에 대한 영상 데이터를 획득하도록 구성된다. 그리고, 영상처리부는 영상획득부(10)에서 획득한 영상 데이터를 기반으로 상기 대상물의 위치, 방향정보를 획득하여 대상분석데이터를 산출하도록 구성된다. 또한 픽업유닛(60)은 영상처리부에서 산출된 대상분석데이터를 기반으로 대상물을 다음 공정라인으로 투입시키도록 구성된다. The image acquisition unit 10 is configured to acquire image data for each of the plurality of objects transferred through the transfer means. The image processing unit is configured to acquire object position and orientation information based on the image data acquired by the image acquisition unit 10 to calculate object analysis data. In addition, the pickup unit 60 is configured to input the object to the next process line based on the object analysis data calculated by the image processing unit.

도 2는 본 발명의 실시예에 따른 영상처리분석을 이용한 대상물 정렬 공급 자동화 시스템(1)의 영상획득부(10)와 이송수단의 사시도를 도시한 것이다. 도 2에 도시된 바와 같이. 영상획득부(10)는, 컨베어(31) 등과 같은 이송수단을 통해 이송되는 대상물 측으로 광원을 조사하는 광원조사부(12)와, 대상물을 포함한 영역을 촬상하는 카메라(13)를 포함하여 구성될 수 있다. 도 3a 및 도 3b는 본 발명의 실시예에 따른 영상획득부(10)의 사시도, 정면도를 도시한 것이다. 그리고, 도 4는 본 발명의 실시예에 따라 컨베어에 의해 이동되는 홍게(2)와 영상획득부(10) 사진을 도시한 것이다. Figure 2 shows a perspective view of the image acquisition unit 10 and the transfer means of the object alignment supply automation system 1 using the image processing analysis according to an embodiment of the present invention. As shown in FIG. 2. The image acquisition unit 10 may be configured to include a light source irradiator 12 for irradiating a light source to an object to be conveyed through a transfer means such as a conveyor 31, and a camera 13 for imaging an area including the object. have. 3A and 3B illustrate a perspective view and a front view of the image acquisition unit 10 according to an embodiment of the present invention. And, Figure 4 shows a picture of the red crab 2 and the image acquisition unit 10 is moved by the conveyor in accordance with an embodiment of the present invention.

본 발명의 구체적 실시예에 따른 대상물은 갑각류일 수 있고, 보다 구체적으로 홍게(2)일 수 있다. 이하에서는 홍게(2)를 대상물의 일예로 하여 설명하도록 한다. 이러한 홍게(2)는 대상물의 예시에 불과할 뿐 권리범위를 제한해석해서는 아니될 것이다. An object according to a specific embodiment of the present invention may be a crustacean, and more specifically, may be a red crab (2). Hereinafter, the red crab 2 will be described as an example of the object. This red crab (2) is only an example of the object and should not be interpreted to limit the scope of rights.

도 2에 도시된 바와 같이, 영상획득부(10)는 이송수단 일측에 지지대(11)가 구비되며, 지지대(11)의 일측에는 광원조사부(12)와 카메라(13)가 장착되게 됨을 알 수 있다. 이러한 영상획득부(10)는 홍게(2)의 영상데이터를 획득하기 위한 것으로 광원조사부(12)는 레이저 센서로 구성될 수 있고, 카메라(13)는 레이저 카메라(13)로 구성되며, 이송수단은 컨베어로 구성된다. 따라서 다량으로 이송되어지는 홍게(2)의 영상데이터를 실시간으로 획득할 수 있게 된다. As shown in Figure 2, the image acquisition unit 10 is provided with a support 11 on one side of the transport means, it can be seen that the light source irradiator 12 and the camera 13 is mounted on one side of the support (11) have. The image acquisition unit 10 is to acquire the image data of the red crab 2, the light source irradiation unit 12 may be composed of a laser sensor, the camera 13 is composed of a laser camera 13, the transfer means Consists of a conveyor. Therefore, it is possible to obtain the image data of the red crab 2 to be transferred in a large amount in real time.

또한, 본 발명의 실시예에 따른 영상획득부(10)는 광원조사부(12)와 홍게(2) 간의 거리, 및 카메라(13)와 홍게(2) 간의 거리 중 적어도 하나를 조절하는 위치조절부와, 광원조사부(12)와 카메라(13) 간의 간격을 조절하는 간격조절부와, 광원조사부(12)의 조사각도와, 상기 카메라(13)의 촬상각도 중 적어도 하나를 조절하는 각도조절부를 더 포함하여 구성될 수도 있다. In addition, the image acquisition unit 10 according to an embodiment of the present invention is a position adjusting unit for adjusting at least one of the distance between the light source 12 and the red crab 2, and the distance between the camera 13 and the red crab (2). And an interval adjusting unit for adjusting a distance between the light source irradiating unit 12 and the camera 13, an angle adjusting unit for adjusting at least one of the irradiation angle of the light source irradiating unit 12 and the imaging angle of the camera 13. It may be configured to include.

본 발명의 실시예에 따른 영상처리부는, 영상데이터에서 대상물의 외형정보를 획득하고, 관심영역을 획득하고, 상기 관심영역 내 각각의 픽셀간의 거리정보를 바탕으로 최대 거리정보를 가지는 중심점좌표를 산출하여 크기, 위치데이터를 획득하며, 중심점좌표를 기준으로 대상물의 에지 위치와 에지간의 간격정보를 통해 가장 긴영역의 중심점좌표를 방향, 자세데이터로 획득하게 된다. The image processing unit according to an embodiment of the present invention obtains the appearance information of the object from the image data, obtains a region of interest, and calculates a center point coordinate having maximum distance information based on distance information between each pixel in the region of interest. It obtains size and position data, and obtains the center point coordinate of the longest region as direction and attitude data through the edge position of the object and the gap information between the edges based on the center point coordinate.

도 5a 내지 도 5e는 본 발명의 실시예에 따른 영상처리부에 의해 대상물의 크기, 자세, 방향에 대한 데이터를 획득하는 과정을 도시한 것이고, 도 6은 본 발명의 실시예에 따라 영상처리부에서 산출된 대상분석데이터를 도시한 것이다. 5A to 5E illustrate a process of acquiring data on a size, posture, and direction of an object by an image processor according to an exemplary embodiment of the present invention, and FIG. 6 is calculated by the image processor according to an exemplary embodiment of the present invention. Shows the targeted analysis data.

도 5a, 도 5b에 도시된 바와 같이, 먼저, 영상처리부는 홍게(2)의 외형정보를 파악하게 되고, 도 5c 및 도 5d에 도시된 바와 같이, 홍게(2)의 외형정보에서 관심영역(ROI)을 획득하고, 도 5e에 ROI 영역 내 각각의 픽셀 간 거리정보를 바탕으로 최대 거리정보를 가지는 무게 중심점 좌표를 계산하게 된다. As shown in FIGS. 5A and 5B, first, the image processing unit grasps the outline information of the red crab 2, and as shown in FIGS. 5C and 5D, the region of interest in the outline information of the red crab 2 is shown. ROI) is calculated, and the center of gravity coordinates having the maximum distance information are calculated based on distance information between respective pixels in the ROI region in FIG. 5E.

즉, 관심영역 내의 모든 픽셀 각각에 대하여 각픽셀의 현위치에서 홍게의 외형정보 외곽까지의 최단거리를 산출하고, 이러한 최단거리값중 가장 큰 거리정보를 갖는 픽셀의 위치를 중심점 좌표로 결정하게 된다. That is, for each pixel in the ROI, the shortest distance from the current position of each pixel to the outside of the contour information of the red crab is calculated, and the position of the pixel having the largest distance information among these shortest distance values is determined as the center point coordinate. .

그리고, 도 5e, 도 6에 도시된 바와 같이, 중심점좌표를 기준으로 한 특정 원 영역에서, 홍게(2)의 다리위치와 다리 간의 간격정보를 통해 가장 긴영역의 중심점좌표를 기반으로 홍게(2)의 방향, 자세데이터로 획득하게 됨을 알 수 있다. 5E and 6, in a specific circle region based on the center point coordinates, the red crab (2) based on the center point coordinates of the longest region through the leg position of the red crab 2 and the distance information between the legs. Direction and attitude data.

따라서 픽업유닛(60)은, 영상처리부에서 산출된 위치데이터를 기반으로 홍게(2)의 중심점에 접촉하여 홍게(2)를 픽업할 수 있게 된다. 또한, 데이터베이스에 기 저장된 분류데이터와 영상처리부에서 산출된 크기데이터를 대비하여 홍게(2)를 크기별로 분류하고 분류별로 홍게(2)를 다음 공정라인으로 분류하여 투입시킬 수 있게 된다. Therefore, the pickup unit 60 may pick up the red crab 2 by contacting the center point of the red crab 2 based on the position data calculated by the image processor. In addition, it is possible to classify the red crab (2) by size and classify the red crab (2) into the next process line by classifying the classification data stored in the database and the size data calculated by the image processor.

또한, 픽업유닛(60)은, 영상처리부에서 산출된 방향, 자세데이터를 기반으로 홍게(2)가 일정한 방향으로 정렬되도록 홍게(2)를 다음 공정라인인 탈갑, 절단 공정으로 투입시킬 수 있게 된다. In addition, the pick-up unit 60, it is possible to put the red crab 2 in the next process line, the removal process, cutting process so that the red crab 2 is aligned in a predetermined direction based on the direction and posture data calculated by the image processing unit. .

이하에서는 대상물 자동 정렬, 공급 방법에 대해 설명하도록 한다. 먼저, 광원조사부(12)가 이송수단을 통해 이송되는 복수의 대상물 각각으로 광원을 조사하고, 카메라(13)가 대상물을 포함한 영역을 촬상하여 영상데이터를 획득하게 된다. Hereinafter, a description will be given of the automatic object alignment, supply method. First, the light source irradiator 12 irradiates a light source to each of a plurality of objects transferred through the transfer means, and the camera 13 captures an area including the object to acquire image data.

그리고, 영상획득부(10)에서 획득한 영상 데이터를 기반으로 영상처리부가 대상물의 위치, 크기, 자세, 방향정보를 획득하여 대상분석데이터를 산출하게 된다. 앞서 언급한 바와 같이, 영상처리부는 영상데이터에서 대상물의 외형정보를 획득하고, 관심영역을 획득하고, 상기 관심영역 내 각각의 픽셀간의 거리정보를 바탕으로 최대 거리정보를 가지는 중심점좌표를 산출하여 크기, 위치데이터를 획득하며, 상기 중심점좌표를 기준으로 대상물의 에지 위치와 에지간의 간격정보를 통해 가장 긴영역의 중심점좌표를 방향, 자세데이터로 획득하게 된다. The image processor acquires the position, size, posture, and direction information of the object based on the image data acquired by the image acquisition unit 10 to calculate the target analysis data. As mentioned above, the image processing unit obtains the outline information of the object from the image data, obtains a region of interest, and calculates a center point coordinate having the maximum distance information based on the distance information between each pixel in the region of interest. And acquiring position data, and obtaining the center point coordinate of the longest region as direction and attitude data based on the edge position of the object and the interval information between the edges based on the center point coordinate.

그리고, 영상처리부에서 산출된 대상분석데이터를 기반으로 픽업유닛(60)이 상기 대상물을 분류별로 일정한 방향으로 정렬되도록 다음 공정라인으로 투입시키게 된다. 앞서 언급한 바와 같이, 픽업유닛(60)은 위치데이터를 기반으로 상기 대상물의 중심점에 접촉하여 상기 대상물을 픽업하며, 데이터베이스에 기 저장된 분류데이터와 상기 크기데이터를 대비하여 상기 대상물을 분류하고 상기 방향, 자세데이터를 기반으로 상기 대상물이 일정한 방향으로 정렬되도록 상기 대상물을 다음 공정라인으로 분류별로 투입시키게 된다.  Then, based on the object analysis data calculated by the image processor, the pickup unit 60 inputs the object to the next process line so that the object is aligned in a predetermined direction for each classification. As mentioned above, the pickup unit 60 picks up the object by contacting the center point of the object based on the position data, classifies the object in comparison with the classification data and the size data previously stored in the database and the direction. In order to align the object in a predetermined direction based on the posture data, the object is input to each process line by classification.

이하에서는 본 발명의 실시예에 따른 트랙킹 유닛(30)과 픽업유닛(60)의 구성을 보다 상세하게 설명하도록 한다. 본 발명의 실시예에 따르면 안정적으로 대상물을 이송 및 정확한 이동좌표 추적을 위해 컨베어 트랙킹 유닛(30)을 포함하여 구성될 수 있다. 도 7은 본 발명의 실시예에 따른 영상처리분석을 이용한 대상물 정렬 공급 자동화 시스템(1)의 사시도를 도시한 것이다. 그리고, 도 8은 본 발명의 실시예에 따른 트랙킹 유닛(30)의 사시도를 도시한 것이다. 또한, 도 9는 본 발명의 실시예에 따른 트랙킹 유닛(30)의 속도위치감지엔코더(50)의 분해 사시도를 도시한 것이다. Hereinafter, the configuration of the tracking unit 30 and the pickup unit 60 according to an embodiment of the present invention will be described in more detail. According to the exemplary embodiment of the present invention, the conveyor tracking unit 30 may be configured to stably transport the object and accurately track the moving coordinates. 7 is a perspective view of an object alignment supply automation system 1 using image processing analysis according to an embodiment of the present invention. 8 shows a perspective view of the tracking unit 30 according to the embodiment of the present invention. 9 shows an exploded perspective view of the speed position detecting encoder 50 of the tracking unit 30 according to the embodiment of the present invention.

이러한 트랙킹 유닛(30)은 앞서 언급한 영상처리부에서 산출된 대상물의 위치, 자세, 방향좌표를 일정하게 유지 및 이송시켜 픽업유닛(60)이 대상물을 정확하게 픽업할 수 있도록 한다. 이하의 실시예에 따른 대상물은 앞서 언급한 바와 같이, 홍게(2)를 예를 들어 설명하도록 한다. The tracking unit 30 maintains and transfers the position, posture, and direction coordinates of the object calculated by the image processing unit mentioned above so that the pickup unit 60 can pick up the object accurately. As described above, the object according to the following embodiment will be described by using the red crab 2 as an example.

트랙킹 유닛(30)은 영상처리부에서 산출된 대상분석데이터를 기반으로 홍게(2)의 위치 및 자세좌표가 일정하게 유지되도록 이송수단인 컨베어의 구성을 제어하고, 대상물의 이동거리를 측정하여 픽업유닛에 전송하게 된다. The tracking unit 30 controls the configuration of the conveyor, which is a conveying means, to maintain the position and attitude coordinates of the red crab 2 on the basis of the target analysis data calculated by the image processing unit, and measures the moving distance of the target pickup unit. Will be sent to.

즉, 트랙킹 유닛(30)은, 영상처리부에서 산출된 홍게(2)의 위치, 방향, 자세 좌표를 일정하게 유지 및 이송시켜 픽업유닛(60)이 대상물을 픽업할 수 있도록 이송수단을 제어하게 된다. That is, the tracking unit 30 maintains and transfers the position, direction, and posture coordinates of the red crab 2 calculated by the image processor to control the transfer means so that the pickup unit 60 can pick up the object. .

이러한 트랙킹 유닛(30)은, 컨베어를 구동시키기 위해 컨베어 일측에 구비된 서보모터(41)와 감속기(42)로 구성된 구동장치(40)를 포함한다. 감속기는 홍게(2)의 위치데이터를 기반으로 서보모터를 제어하여 컨베어의 이동속도를 조절할 수 있다. The tracking unit 30 includes a driving device 40 composed of a servo motor 41 and a speed reducer 42 provided at one side of the conveyor to drive the conveyor. The reducer can adjust the moving speed of the conveyor by controlling the servo motor based on the position data of the red crab 2.

컨베어 타측에 속도위치감지엔코더가 구비되어, 홍게(2)의 위치, 방향 및 자세좌표의 이송거리를 측정하고, 측정된 값을 픽업유닛으로 전송하게 된다. A speed position detecting encoder is provided on the other side of the conveyor to measure the position, direction, and conveyance distance of the red crab 2, and transmit the measured value to the pickup unit.

즉 이송수단인 컨베어의 속도는 예를 들어 시간당 2000마리 정도를 이송할 수 있도록 구동장치(40)가 구동되며, 정확한 홍게(2)의 위치 및 자세좌표의 이송거리를 측정하기 위해 속도위치감지엔코더(50)가 적용되게 된다. In other words, the speed of the conveyor, which is a conveying means, is driven by the driving device 40 so as to transport about 2000 animals per hour, and the speed position sensing encoder to measure the precise position of the red crab 2 and the conveying distance of the attitude coordinates. 50 is to be applied.

이러한 속도위치감지엔코더(50)는, 도 9에 도시된 바와 같이, 회전롤러(52), 텐션조정장치(53), 회전축(51), 엔코더(54) 등을 포함하여 구성될 수 있다. 회전롤러(52)는 컨베어와 접촉하여 회전되게 된다. 이러한 회전롤러(52)는 컨베어와 선접촉하여 회전하며 미끄럼 방지를 위해 우레탄 고무재질이 적용된다. The speed position sensing encoder 50, as shown in Figure 9, may include a rotary roller 52, tension adjusting device 53, a rotating shaft 51, an encoder 54 and the like. The rotary roller 52 is rotated in contact with the conveyor. The rotary roller 52 is rotated in line contact with the conveyor and a urethane rubber material is applied to prevent slipping.

텐션조정장치(53)는 회전롤러(52)가 컨베어와 접촉되도록 장력을 조절할 수 있도록 구성된다. 즉, 텐션조정장치(53)는 장력을 조정하여 회전롤러(52)가 항상 컨베어와 견고하게 접촉이 일어날 수 있도록 한다. The tension adjusting device 53 is configured to adjust the tension so that the rotary roller 52 is in contact with the conveyor. That is, the tension adjusting device 53 adjusts the tension so that the rotary roller 52 can always be firmly in contact with the conveyor.

그리고 회전축(51)은 일측 끝단이 회전롤러(52)와 결합되며, 엔코더(54)는 회전롤러(52)의 회전수를 기반으로 대상물의 이송거리를 측정하여 측정값을 픽업유닛에 전송하게 된다. And one end of the rotating shaft 51 is coupled to the rotary roller 52, the encoder 54 measures the transfer distance of the object based on the number of revolutions of the rotary roller 52 to transmit the measured value to the pickup unit .

이하에서는 본 발명의 실시예에 따른 픽업유닛(60)의 구성 및 기능에 대해 설명하도록 한다. 앞서 언급한 바와 같이, 픽업유닛(60)은 영상처리부에서 산출된 위치데이터를 기반으로 홍게(2)의 중심점에 접촉하여 홍게(2)를 픽업할 수 있게 된다. 또한, 데이터베이스에 기 저장된 분류데이터와 영상처리부에서 산출된 크기데이터를 대비하여 홍게(2)를 크기별로 분류하고 분류별로 홍게(2)를 다음 공정라인으로 분류하여 투입시킬 수 있게 된다. Hereinafter will be described the configuration and function of the pickup unit 60 according to an embodiment of the present invention. As mentioned above, the pickup unit 60 may pick up the red crab 2 in contact with the center point of the red crab 2 based on the position data calculated by the image processor. In addition, it is possible to classify the red crab (2) by size and classify the red crab (2) into the next process line by classifying the classification data stored in the database and the size data calculated by the image processor.

또한, 픽업유닛(60)은, 영상처리부에서 산출된 방향, 자세데이터를 기반으로 홍게(2)가 일정한 방향으로 정렬되도록 홍게(2)를 다음 공정라인인 탈갑, 절단 공정으로 투입시킬 수 있게 된다. In addition, the pick-up unit 60, it is possible to put the red crab 2 in the next process line, the removal process, cutting process so that the red crab 2 is aligned in a predetermined direction based on the direction and posture data calculated by the image processing unit. .

즉, 픽업유닛(60)은, 대상물의 이송방향으로 서로 특정간격 이격되어 배치되는 다수의 다관절로봇(61)으로 구성되어, 다수의 상기 다관절로봇(61) 각각은 상기 대상분석데이터를 기반으로 대상물을 픽업하여 다음 공정라인으로 투입시키게 된다. That is, the pickup unit 60 is composed of a plurality of articulated robots 61 which are arranged to be spaced apart from each other by a specific interval in the direction of transport of the object, each of the plurality of articulated robots 61 is based on the target analysis data Pick up the object and put it into the next process line.

이러한 다관절로봇(61)은 다축구동부와, 다축구동부 끝단에 구비되어 대상물의 위치 정보를 기반으로 상기 대상물의 중심점 부분을 흡착시키는 진공흡착수단(70)을 포함하고, 다축구동부는 상기 대상물의 방향, 자세데이터를 기반으로 픽업된 상기 대상물이 다음 공정라인에 일정한 방향을 정렬되도록 투입시키도록 한다. The multi-joint robot 61 includes a multi-axis driving unit and a vacuum suction unit 70 provided at the end of the multi-axis driving unit and adsorbs a central point portion of the object based on the position information of the object. The object picked up on the basis of the direction and posture data of the object is placed in a predetermined direction in the next process line.

도 10a는 본 발명의 제1실시예에 따른 픽업유닛(60)의 사시도를 도시한 것이다. 그리고, 도 10b는 본 발명의 제1실시예에 따른 흡착수단(70)의 단면도를 도시한 것이다. 또한, 도 11은 본 발명의 제1실시예에 따라 홍게(2)가 픽업된 픽업유닛(60)의 사진을 도시한 것이다. 10A illustrates a perspective view of a pickup unit 60 according to the first embodiment of the present invention. 10B shows a cross-sectional view of the adsorption means 70 according to the first embodiment of the present invention. 11 shows a picture of the pickup unit 60 in which the red crab 2 is picked up according to the first embodiment of the present invention.

본 발명에 따른 흡착수단(70)은 빠른 작업속도(사이클 타입 1초)에 대응하기 위해 진공흡착방식이 적용되며 진공흡착수단(70)의 시퀀스 제어는 영상처리부에서 생성된 좌표와 다관절로봇(61)의 구동프로그램 및 입출력 신호를 이용하여 온, 오프 제어되게 된다. Adsorption means 70 according to the present invention is applied to the vacuum adsorption method in order to correspond to a high working speed (cycle type 1 second) and the sequence control of the vacuum adsorption means 70 is coordinated by the image processing unit and the articulated robot ( On / off control is performed by using the drive program and input / output signals of 61).

도 10a 및 도 10b 및 도 11에 도시된 바와 같이, 본 발명의 제1실시예에 따른 진공흡착수단(70)은, 일단에 흡입단(72)이 구비되고 타단에 배출단(73)이 구비된 몸체(71)와, 이러한 몸체(71) 하단 중단에 구비되며 주름관 형태로 구성된 흡착패드(74)와, 이러한 흡착패드(74) 측에 진공이 발생되도록 몸체(71)에 구비되는 진공발생기(75)와 공압밸브(76)를 포함하여 구성될 수 있다. 10A and 10B and 11, the vacuum suction means 70 according to the first embodiment of the present invention, the suction end 72 is provided at one end and the discharge end 73 is provided at the other end The body 71, the suction pad 74 is provided in the lower end of the body 71, the corrugated pipe form, and the vacuum generator is provided on the body 71 to generate a vacuum on the suction pad 74 side ( 75) and the pneumatic valve 76 may be configured.

즉, 본 발명의 제1실시예에 따른 진공흡착수단(70)은 다관절 로봇(61), 진공발생기(75), 흡착패드(74)가 일체화되어있고 1개의 흡착 패드(74)가 홍게(2)의 중간부분을 흡착하도록 구성된다. 진공 흡착 시퀀스 제어는 다관절 로봇(61)에 장착된 입출력 신호 및 2포지션 양쪽솔레노이드 방식의 공압제어 밸브가 적용되게 된다. That is, in the vacuum suction means 70 according to the first embodiment of the present invention, the articulated robot 61, the vacuum generator 75, and the suction pad 74 are integrated, and one suction pad 74 is a red crab ( It is configured to adsorb the middle part of 2). In the vacuum suction sequence control, an input / output signal mounted on the articulated robot 61 and a two position solenoid type pneumatic control valve are applied.

도 12a는 본 발명의 제2실시예에 따른 팍업유닛의 사시도를 도시한 것이다. 그리고, 도 12b는 본 발명의 제2실시예에 따른 흡착수단(70)의 사진을 도시한 것이다 또한, 도 12c는 본 발명의 제2실시예에 따라 홍게(2)가 픽업된 픽업유닛(60)의 사진을 도시한 것이다. 그리고 도 13은 본 발명의 실시예에 따른 영상처리분석을 이용한 대상물 정렬 공급 자동화 시스템(1)의 사시도를 도시한 것이다. 12A illustrates a perspective view of a pack up unit according to a second exemplary embodiment of the present invention. 12B illustrates a photograph of the adsorption means 70 according to the second embodiment of the present invention. In addition, FIG. 12C illustrates a pickup unit 60 in which the red crab 2 is picked up according to the second embodiment of the present invention. ) Shows a picture. 13 is a perspective view of an object alignment supply automation system 1 using image processing analysis according to an embodiment of the present invention.

본 발명의 제2실시예에 따른 진공흡착수단(70)은, 도 12a 내지 도 12c에 도시된 바와 같이, 몸체(71)와, 이러한 몸체(71)의 외주면에 서로 특정 반경 사이로 이격된 3개의 진공발생기(75)와, 3개의 진동발생기(75) 각각에 연결된 공압밸브(76)와, 몸체(71) 하부면에 구비되어 3개의 진공발생기(75) 각각에 의해 생성된 흡착력에 의해 홍게(2)를 픽업하는 주름관 형태로 구성된 3개의 흡착패드(74)를 포함하여 구성된다. 12A to 12C, the vacuum suction means 70 according to the second embodiment of the present invention, the body 71 and the three outer spaced apart from each other by a certain radius on the outer peripheral surface of the body 71 It is provided with a vacuum generator 75, a pneumatic valve 76 connected to each of the three vibration generators 75, and a lower surface of the body 71, and the red crab by the suction force generated by each of the three vacuum generators 75. It is configured to include three adsorption pads 74 configured in the form of a corrugated pipe to pick up 2).

본 발명의 제2실시예에서는 홍게(2) 흡착을 위한 진공도를 높이기 위해 진공 발생기(75) 및 흡착패드(74)를 트리 플형으로 구성한다. 다관절 로봇(61)에 3개의 공압밸브(76), 3개의 진공발생기(75), 그리고 3개 흡착패드(74)을 구성하여 앞서 언급한 제1실시예에 딸느 싱글형에 비해 흡착에러 발생 빈도 감소시킬 수 있다. 즉, 3개의 흡착패드(74) 중 1개에 진공 흡착에러가 발생하여도 2개의 흡착패드(74)로 인해 픽업 작업이 가능하게 된다. 또한, 주름형의 흡착패드(74)를 적용하게 되므로 굴곡이 심한 면에 대한 진공 발생이 용이한 장점이 있다. In the second embodiment of the present invention, in order to increase the degree of vacuum for the red crab 2, the vacuum generator 75 and the suction pad 74 are configured in a triple shape. Three pneumatic valves 76, three vacuum generators 75, and three adsorption pads 74 are configured on the articulated robot 61 to generate adsorption errors compared to the single type of the first embodiment described above. Frequency can be reduced. That is, even if a vacuum suction error occurs in one of the three suction pads 74, the pick-up operation is possible due to the two suction pads 74. In addition, since the pleated suction pad 74 is applied, there is an advantage of easily generating a vacuum on a curved surface.

이하에서는 본 발명의 실시예에 따른 영상처리분석을 이용한 대상물 정렬 공급 자동화 시스템(1)을 이용한 자동 픽업 공급방법에 대해 설명하도록 한다. 대상물 픽업 공급 방법에 있어서, 먼저, 이송수단으로 다수의 대상물이 투입되어 대상물이 일정방향으로 이송된다. 그리고 영상획득부(10)가 대상물에 대한 영상데이터를 획득하고, 영상처리부가 이송수단을 통해 이송되는 다수의 대상물 각각에 대한 위치, 방향, 자세정보를 획득하여 대상분석데이터를 산출하게 된다. Hereinafter, an automatic pickup supply method using an object alignment supply automation system 1 using image processing analysis according to an embodiment of the present invention will be described. In the object pick-up supply method, first, a plurality of objects are introduced into the conveying means, and the objects are conveyed in a predetermined direction. The image acquisition unit 10 obtains image data about the object, and the image processor calculates object analysis data by obtaining position, direction, and attitude information of each of the plurality of objects transferred through the transfer unit.

그리고, 영상처리부에서 산출된 위치 데이터를 기반으로 다관절로봇(61)이 대상물을 중심점 부분을 진공흡착수단(70)에 의해 픽업하게 된다. Then, the articulated robot 61 picks up the center point portion by the vacuum suction means 70 based on the position data calculated by the image processor.

그리고 다관절로봇(61)의 다축구동부에 의해, 픽업된 대상물을 이송하여 대상물의 자세, 방향데이터를 기반으로 대상물이 일정한 방향으로 정렬되도록 다음 공정라인으로 이동시키게 된다. 그리고, 진공흡착수단(70)의 흡착력을 해제하여 대상물이 일정한 방향으로 정렬되도록 다음 공정라인으로 투입되게 된다. In addition, the multi-axis driving unit of the articulated robot 61 transfers the picked-up object to move the object to the next process line so that the object is aligned in a certain direction based on the attitude and direction data of the object. Then, the suction force of the vacuum adsorption means 70 is released to be introduced into the next process line so that the object is aligned in a predetermined direction.

이때 트랙킹 유닛(30)은, 영상처리부에서 산출된 대상물의 위치, 방향, 자세 좌표를 일정하게 유지 및 이송시켜 픽업유닛(60)이 대상물을 픽업할 수 있도록 이송수단을 제어하게 된다. At this time, the tracking unit 30 controls the transport means so that the pickup unit 60 can pick up the object by maintaining and transferring the position, direction, and attitude coordinates of the object calculated by the image processor.

또한, 상기와 같이 설명된 장치 및 방법은 상기 설명된 실시예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.In addition, the above-described apparatus and method may not be limitedly applied to the configuration and method of the above-described embodiments, but the embodiments may be selectively combined in whole or in part in each of the embodiments so that various modifications may be made. It may be configured.

1:대상물 분류, 픽업, 정렬 공급 자동화 시스템
2:홍게
10:영상획득부
11:지지대
12:광원조사부
13:카메라
30:트랙킹 유닛
31:컨베어
40:구동장치
41:서보모터
42:감속기
50:속도위치감지엔코더
51:회전축
52:회전롤러
53:텐션조정장치
54:엔코더
60:픽업유닛
61:다관절로봇
70:진공흡착수단
71:몸체
72:흡입단
73:배출단
74:흡착패드
75:진공발생기
76:공압밸브
1: Object sorting, pick-up, sorting supply automation system
2: red
10: image acquisition unit
11: Support stand
12: Light source irradiation department
13: Camera
30: tracking unit
31: Conveyor
40: drive unit
41: servo motor
42: reducer
50: velocity position sensing encoder
51: rotating shaft
52: rotary roller
53: tension adjustment device
54: encoder
60: pickup unit
61: articulated robot
70: vacuum adsorption means
71: body
72: suction end
73: discharge end
74: adsorption pad
75: vacuum generator
76: pneumatic valve

Claims (10)

대상물 자동 정렬, 공급 시스템에 있어서,
이송수단을 통해 이송되는 다수의 대상물 각각에 대한 영상 데이터를 획득하는 영상획득부;
상기 영상획득부에서 획득한 영상 데이터를 기반으로 상기 대상물의 위치, 방향정보를 획득하여 대상분석데이터를 산출하는 영상처리부; 및
상기 영상처리부에서 산출된 대상분석데이터를 기반으로 상기 대상물을 다음 공정라인으로 투입시키는 픽업유닛;을 포함하고,
상기 영상처리부는, 상기 영상데이터에서 대상물의 외형정보를 획득하여 관심영역을 설정하고, 상기 관심영역 내 각각의 픽셀간의 거리정보를 바탕으로 최대 거리정보를 가지는 중심점좌표를 산출하여 크기데이터와 위치데이터를 획득하며,
상기 중심점좌표를 기준으로 대상물의 에지 위치와 에지간의 간격정보를 통해 가장 긴영역의 중심점좌표를 방향데이터와, 자세데이터로 획득하고,
상기 대상물은 갑각류이고, 상기 영상처리부는 상기 중심점좌표를 기준으로 상기 갑각류의 다리위치와 다리 간의 간격정보를 통해 가장 긴영역의 중심점좌표를 방향데이터와, 자세데이터로 획득하며,
상기 픽업유닛은, 상기 위치데이터를 기반으로 상기 대상물의 중심점에 접촉하여 상기 대상물을 픽업하며, 데이터베이스에 기 저장된 분류데이터와 상기 크기데이터를 대비하여 상기 대상물을 분류하고 분류별로 상기 대상물을 다음 공정라인으로 투입시키고,
상기 픽업유닛은, 상기 방향, 자세데이터를 기반으로 상기 대상물이 일정한 방향으로 정렬되도록 상기 대상물을 다음 공정라인으로 투입시키는 것을 특징으로 하는, 영상처리분석을 이용한 대상물 자동 정렬, 공급 시스템.
In the automatic object alignment, supply system,
An image acquisition unit for acquiring image data of each of a plurality of objects transferred through the transfer means;
An image processor for obtaining object analysis data by obtaining position and direction information of the object based on the image data acquired by the image acquisition unit; And
And a pickup unit for introducing the object into the next process line based on the object analysis data calculated by the image processor.
The image processing unit obtains external information of the object from the image data, sets a region of interest, calculates a center point coordinate having maximum distance information based on distance information between pixels in the region of interest, and obtains size data and position data. To obtain
The center point coordinates of the longest region are obtained as direction data and attitude data based on the edge position of the object and the interval information between the edges based on the center point coordinates.
The object is a crustacean, and the image processor obtains the center point coordinates of the longest region as direction data and attitude data based on the center position coordinates and the distance information between the legs.
The pickup unit picks up the object by contacting the center point of the object based on the position data, classifies the object in comparison with the classification data and the size data previously stored in a database, and classifies the object by classification. Into the
The pickup unit is characterized in that the object is introduced into the next process line so that the object is aligned in a predetermined direction based on the direction, attitude data, automatic object alignment, supply system using image processing analysis.
제 1 항에 있어서,
상기 영상획득부는,
이송되는 상기 대상물 측으로 광원을 조사하는 광원조사부와, 상기 대상물을 포함한 영역을 촬상하는 카메라를 포함하는 것을 특징으로 하는, 영상처리분석을 이용한 대상물 자동 정렬, 공급 시스템.
The method of claim 1,
The image acquisition unit,
And a camera for photographing an area including the object, and a light source irradiating a light source toward the object to be transported.
제 2항에 있어서,
상기 영상획득부는
상기 이송수단 일측에 구비되며, 상기 광원조사부와 상기 카메라가 장착되는 지지대를 포함하고,
상기 광원조사부와 상기 대상물 간의 거리, 및 상기 카메라와 상기 대상물 간의 거리 중 적어도 하나를 조절하는 위치조절부와,
상기 광원조사부와 상기 카메라 간의 간격을 조절하는 간격조절부와,
상기 광원조사부의 조사각도와, 상기 카메라의 촬상각도 중 적어도 하나를 조절하는 각도조절부, 중 적어도 하나를 포함하는 것을 특징으로 하는, 영상처리분석을 이용한 대상물 자동 정렬, 공급 시스템.
The method of claim 2,
The image acquisition unit
It is provided on one side of the conveying means, and includes a support on which the light source irradiation unit and the camera is mounted,
A position adjusting unit for adjusting at least one of a distance between the light source and the object, and a distance between the camera and the object;
A spacing controller for adjusting a spacing between the light source and the camera;
And at least one of an angle adjusting unit for adjusting at least one of an irradiation angle of the light source irradiating unit and an imaging angle of the camera, automatic object alignment and supply system using image processing analysis.
삭제delete 삭제delete 삭제delete 삭제delete 제 1항에 따른 영상처리분석을 이용한 대상물 자동 정렬, 공급 시스템을 통한 대상물의 자동 정렬, 공급 방법에 있어서,
광원조사부가 이송수단을 통해 이송되는 복수의 대상물 각각으로 광원을 조사하고, 카메라가 상기 대상물을 포함한 영역을 촬상하여 영상회득부가 영상데이터를 획득하는 단계;
상기 영상획득부에서 획득한 영상 데이터를 기반으로 영상처리부가 상기 대상물의 위치, 크기, 자세, 방향정보를 획득하여 대상분석데이터를 산출하는 단계; 및
상기 영상처리부에서 산출된 대상분석데이터를 기반으로 픽업유닛이 상기 대상물을 분류별로 일정한 방향으로 정렬되도록 다음 공정라인으로 투입시키는 단계;를 포함하는 것을 특징으로 하는, 영상처리분석을 이용한 대상물 자동 정렬, 공급 방법.
In the automatic object alignment using the image processing analysis according to claim 1, the automatic alignment of the object through the supply system, the supply method,
Irradiating a light source to each of the plurality of objects transferred by the light source irradiation unit through the transfer means, and imaging the area including the object by the camera to obtain image data by the image acquisition unit;
Calculating object analysis data by acquiring position, size, posture, and direction information of the object based on the image data acquired by the image acquisition unit; And
Automatically sorting the target object using the image processing analysis, comprising the step of: the pickup unit based on the target analysis data calculated by the image processing unit to put the object in a predetermined direction by sorting in a predetermined direction; Supply method.
제 8항에 있어서,
상기 대상분석데이터를 산출하는 단계는,
상기 영상데이터에서 대상물의 외형정보를 획득하고, 관심영역을 획득하고, 상기 관심영역 내 각각의 픽셀간의 거리정보를 바탕으로 최대 거리정보를 가지는 중심점좌표를 산출하여 크기, 위치데이터를 획득하며, 상기 중심점좌표를 기준으로 대상물의 에지 위치와 에지간의 간격정보를 통해 가장 긴영역의 중심점좌표를 방향, 자세데이터로 획득하는 것을 특징으로 하는, 영상처리분석을 이용한 대상물 자동 정렬, 공급 방법.
The method of claim 8,
The step of calculating the target analysis data,
Acquiring the appearance information of the object from the image data, obtaining a region of interest, calculating a center point coordinate having the maximum distance information based on the distance information between each pixel in the region of interest, and obtaining size and position data; A method for automatically aligning and supplying an object using image processing analysis, characterized in that the center point coordinate of the longest region is obtained as direction and attitude data through the edge position of the object and the interval information between the edges based on the center point coordinate.
제 9항에 있어서,
상기 다음 공정라인으로 투입시키는 단계는
상기 픽업유닛이 상기 위치데이터를 기반으로 상기 대상물의 중심점에 접촉하여 상기 대상물을 픽업하며, 데이터베이스에 기 저장된 분류데이터와 상기 크기데이터를 대비하여 상기 대상물을 분류하고 상기 방향, 자세데이터를 기반으로 상기 대상물이 일정한 방향으로 정렬되도록 상기 대상물을 다음 공정라인으로 분류별로 투입시키는 것을 특징으로 하는, 영상처리분석을 이용한 대상물 자동 정렬, 공급 방법.
The method of claim 9,
Injecting into the next process line
The pickup unit picks up the object by contacting the center point of the object based on the position data, classifies the object in comparison with the classification data and the size data previously stored in a database and based on the direction and attitude data. Method for automatically sorting and supplying an object using an image processing analysis, characterized in that the object is put into the next process line so that the object is aligned in a predetermined direction.
KR1020170168354A 2017-12-08 2017-12-08 Object auto arrangement system using image processing algorithm KR102027039B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170168354A KR102027039B1 (en) 2017-12-08 2017-12-08 Object auto arrangement system using image processing algorithm

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170168354A KR102027039B1 (en) 2017-12-08 2017-12-08 Object auto arrangement system using image processing algorithm

Publications (2)

Publication Number Publication Date
KR20190068662A KR20190068662A (en) 2019-06-19
KR102027039B1 true KR102027039B1 (en) 2019-09-30

Family

ID=67104414

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170168354A KR102027039B1 (en) 2017-12-08 2017-12-08 Object auto arrangement system using image processing algorithm

Country Status (1)

Country Link
KR (1) KR102027039B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112905525B (en) * 2019-11-19 2024-04-05 中科寒武纪科技股份有限公司 Method and equipment for controlling computing device to perform computation

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014014346A (en) * 2012-07-05 2014-01-30 Fuji Mach Mfg Co Ltd Fish small bone pulling-out machine
WO2017049384A1 (en) * 2015-09-24 2017-03-30 Canadian Centre For Fisheries Innovation (Ccfi) A sensor-guided automated method and system for processing crustaceans
JP2017195891A (en) * 2013-02-06 2017-11-02 クリアウォーター シーフーズ リミテッド パートナーシップ Imaging for determining physique of crustacea

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5246161A (en) 1975-10-07 1977-04-12 Toyo Boseki Measuring device for quality of spun yarn
JPS5482778A (en) 1977-12-15 1979-07-02 Senichi Masuda Particle charger
KR101962204B1 (en) 2012-12-13 2019-07-31 한미반도체 주식회사 Vacuum pickup device
KR20160080279A (en) 2014-12-26 2016-07-08 (주)구일엔지니어링 Grip for the solar wafer contact pad unit and the carrier unit comprising the
KR101644991B1 (en) 2015-08-20 2016-08-02 임영호 Crab Shells Removal Apparatus Which Can Be Easily Removed Gill
KR101838940B1 (en) 2015-11-10 2018-03-15 이중직 Apparatus for automatic cutting and peel processing a red crab

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014014346A (en) * 2012-07-05 2014-01-30 Fuji Mach Mfg Co Ltd Fish small bone pulling-out machine
JP2017195891A (en) * 2013-02-06 2017-11-02 クリアウォーター シーフーズ リミテッド パートナーシップ Imaging for determining physique of crustacea
WO2017049384A1 (en) * 2015-09-24 2017-03-30 Canadian Centre For Fisheries Innovation (Ccfi) A sensor-guided automated method and system for processing crustaceans

Also Published As

Publication number Publication date
KR20190068662A (en) 2019-06-19

Similar Documents

Publication Publication Date Title
KR102027040B1 (en) Object auto arrangement system using image processing algorithm
KR102109698B1 (en) Object auto sorting, classifying system using image processing algorithm
CN107150032B (en) Workpiece identification and sorting device and method based on multi-image acquisition equipment
US9700060B2 (en) Contour measurement apparatus and contour measurement method for measuring contour of poultry carcass, and deboning device for poultry carcass
US10576526B2 (en) Workpiece conveying system, and workpiece conveying method
JP6752891B2 (en) Sensor-guided automated methods and systems for processing crustaceans
US11357237B2 (en) Apparatus for processing and grading food articles and related methods
CN103056884A (en) Robot system and processed object manufacturing method
CA2887261A1 (en) Vision-assisted system and method for picking of rubber bales in a bin
JP7201313B2 (en) Food transfer system and food gripping device
CN107649406A (en) A kind of efficient more material picking up system of binocular vision and method
KR102027039B1 (en) Object auto arrangement system using image processing algorithm
US10194670B2 (en) Method and apparatus for deshelling shellfish
CN108326864B (en) System of processing
WO2022152638A1 (en) Robotic meat packing plant and method of operating a meat packing plant
JP5370788B2 (en) Object processing system
DK180343B1 (en) System and method for automatic removal of foreign objects from a food surface
JP2020192677A (en) Identification transfer device and identification transfer method of target workpiece
DK181389B1 (en) A robotic working tool, a robotic meat handling system and a method for handling meat products for use in slaughterhouses
JP7408143B2 (en) blood removal device
US20240164391A1 (en) Combined multi-vision automated cutting system
JP6167134B2 (en) Article assembly equipment
US11053618B2 (en) Unwrinkling systems and methods
EP4359176A1 (en) A robotic working tool and a robotic meat handling system for use in slaughterhouses
Daley et al. Robotics and the poultry processing industry

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant