KR102027039B1 - Object auto arrangement system using image processing algorithm - Google Patents
Object auto arrangement system using image processing algorithm Download PDFInfo
- Publication number
- KR102027039B1 KR102027039B1 KR1020170168354A KR20170168354A KR102027039B1 KR 102027039 B1 KR102027039 B1 KR 102027039B1 KR 1020170168354 A KR1020170168354 A KR 1020170168354A KR 20170168354 A KR20170168354 A KR 20170168354A KR 102027039 B1 KR102027039 B1 KR 102027039B1
- Authority
- KR
- South Korea
- Prior art keywords
- data
- image
- unit
- image processing
- center point
- Prior art date
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A22—BUTCHERING; MEAT TREATMENT; PROCESSING POULTRY OR FISH
- A22C—PROCESSING MEAT, POULTRY, OR FISH
- A22C29/00—Processing shellfish or bivalves, e.g. oysters, lobsters; Devices therefor, e.g. claw locks, claw crushers, grading devices; Processing lines
- A22C29/02—Processing shrimps, lobsters or the like ; Methods or machines for the shelling of shellfish
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B65—CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
- B65G—TRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
- B65G47/00—Article or material-handling devices associated with conveyors; Methods employing such devices
- B65G47/74—Feeding, transfer, or discharging devices of particular kinds or types
- B65G47/90—Devices for picking-up and depositing articles or materials
- B65G47/905—Control arrangements
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B65—CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
- B65G—TRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
- B65G2201/00—Indexing codes relating to handling devices, e.g. conveyors, characterised by the type of product or load being conveyed or handled
- B65G2201/02—Articles
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B65—CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
- B65G—TRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
- B65G2203/00—Indexing code relating to control or detection of the articles or the load carriers during conveying
- B65G2203/02—Control or detection
- B65G2203/0208—Control or detection relating to the transported articles
- B65G2203/0225—Orientation of the article
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B65—CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
- B65G—TRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
- B65G2203/00—Indexing code relating to control or detection of the articles or the load carriers during conveying
- B65G2203/02—Control or detection
- B65G2203/0208—Control or detection relating to the transported articles
- B65G2203/0233—Position of the article
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B65—CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
- B65G—TRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
- B65G2203/00—Indexing code relating to control or detection of the articles or the load carriers during conveying
- B65G2203/04—Detection means
- B65G2203/041—Camera
Landscapes
- Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Wood Science & Technology (AREA)
- Zoology (AREA)
- Food Science & Technology (AREA)
- Mechanical Engineering (AREA)
- Manipulator (AREA)
- Sorting Of Articles (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
본 발명은 영상처리분석을 이용한 대상물 자동 정렬, 공급 시스템, 및 대상물 자동 정렬, 공급 방법{에 대한 것이다. 보다 상세하게는, 대상물 자동 정렬, 공급 시스템에 있어서, 이송수단을 통해 이송되는 다수의 대상물 각각에 대한 영상 데이터를 획득하는 영상획득부; 상기 영상획득부에서 획득한 영상 데이터를 기반으로 상기 대상물의 위치, 방향정보를 획득하여 대상분석데이터를 산출하는 영상처리부; 및 상기 영상처리부에서 산출된 대상분석데이터를 기반으로 상기 대상물을 다음 공정라인으로 투입시키는 픽업유닛;을 포함하는 것을 특징으로 하는, 영상처리분석을 이용한 대상물 자동 정렬, 공급 시스템에 관한 것이다. The present invention relates to an object automatic alignment, a supply system using an image processing analysis, and an object automatic alignment, a supply method. More specifically, in the automatic object alignment, supply system, the image acquisition unit for acquiring the image data for each of the plurality of objects to be transferred through the transfer means; An image processor for obtaining object analysis data by obtaining position and direction information of the object based on the image data acquired by the image acquisition unit; And a pickup unit for inputting the object to the next process line based on the object analysis data calculated by the image processing unit.
Description
본 발명은 영상처리분석을 이용한 대상물 자동 정렬, 공급 시스템, 및 대상물 자동 정렬, 공급 방법{에 대한 것이다. 보다 상세하게는 대상물을 영상처리하여 산출된 대상분석데이터를 기반으로 대상물을 안정적으로 정렬, 공급할 수 있는 자동화 시스템에 대한 것이다. The present invention relates to an object automatic alignment, a supply system using an image processing analysis, and an object automatic alignment, a supply method. More specifically, the present invention relates to an automated system capable of stably sorting and supplying an object based on object analysis data calculated by image processing of the object.
게는 바다에 서식하는 갑각류의 일종으로서, 몸통이 납작하고 온몸이 딱딱한 껍질에 싸여 있으며, 좌우 각각 네상의 다리와, 다른 다리에 비해 굵기가 굵은 좌우 한 쌍의 집게다리가 있다.The crab is a kind of crustacean inhabiting the sea. Its body is flat and wrapped in hard shells. It has four legs on each side, and a pair of left and right pair of tongs thicker than other legs.
이러한 게는 깨끗한 물로 세척한 후, 그대로 쪄서 먹거나, 끓는 물에 삶아서 몸통이나 다리의 살을 발라 먹거나, 간장으로 조리를 하여 먹기도 하고, 각 부위별로 가공하여 판매하는 실정에 있다.These crabs are washed with clean water, steamed and eaten as it is, or boiled in boiling water to eat the flesh of the torso or legs, cooked with soy sauce, or processed and sold for each part.
그런데 게를 가공식품으로 가공하기 위해서는 게의 딱딱한 껍질을 제거하고 부위별로 분리하는 가공을 해야 하는데, 이를 위해서는 먼저 게의 껍질을 분리하고, 몸통과 다리를 절단하여 분리하는 작업을 하게 된다.However, in order to process crabs into processed foods, the crab must be removed to remove the hard shells of the crabs, and then the shells of the crabs are first separated, and the body and legs are cut and separated.
따라서 종래에는 작업자가 절단칼을 들고 작업대 위에 게를 놓고 수작업으로 게의 등껍질을 분리하고, 몸통과 게다리와 집게다리를 절단하여 분리하게 되는데 힘이 많이 들고 숙련된 기술력을 요하므로 작업비용이 많이 드는 불편이 있었다.Therefore, in the prior art, a worker lifts a crab on a workbench with a cutting knife, and separates the back shell of the crab by hand, and cuts and separates the torso, crab legs, and tongs legs, which requires a lot of power and skill. There was a discomfort.
이러한 게의 가공공정은 자숙전 공정, 자숙, 게살추출, 포장공정으로 크게 나눌 수 있으며 오랜기간 경험을 통해 부분적으로 자동화를 이루고 있다. 현재, 탈갑장치 등을 통해 절단과 몸통살과 다리살을 추출하는 공정은 어느정도 자동화되어 있는 실정이다. The crab processing process can be divided into self-cooking process, cooked meat, crab meat extraction, and packaging process, and has been partially automated through long time experience. At present, the process of extracting the cutting and torso and leg meat through the decapsulation device is somewhat automated.
이러한 게의 탈갑, 절단, 운반과정에 대한 자동화 기술을 대한민국 공개특허 제2017-0054975호, 등록특허 제1644991호 등에 기재되어 있다. 그러나 게의 크기, 분류, 다음공정(탈갑 및 절단)으로의 자동공급에 대한 기술은 현재 공개되어 있지 않다. Automated technology for the removal, cutting, and transporting of such crabs is described in Korean Patent Application Publication No. 2017-0054975, Korean Patent No. 16,4991, and the like. However, techniques for crab size, sorting and automatic feeding to the next process (eg stripping and cutting) are not currently available.
즉, 현재는 게를 크기별로 분류하여 일정한 방향으로 탈갑장치에 투입시키기 위해서 현재는 사람의 수작업으로 하나하나 분류하여 탈갑장치에 투입하고 있는 실정이다. 도 1에 도시된 바와 같이, 게의 측정, 분류, 공급과 관련된 일련의 작업자 대부분 수작업으로 수행하고 있으며, 이와 같은 수작업으로 인해 공정상 가장 많은 작업인원이 필요하며 노동집약적 작업으로 작업효율이 현저히 떨어질 뿐 아니라, 병목공정발생으로 인해 생산성이 현격히 떨어지는 문제점이 존재한다. That is, at present, in order to classify crabs by size and put them into the stripping apparatus in a certain direction, they are currently sorted one by one by hand and put into the stripping apparatus. As shown in Figure 1, most of the series of workers involved in the measurement, sorting, and supply of crabs are performed by hand, and this manual work requires the largest number of workers in the process and the work efficiency can be significantly reduced by labor-intensive work. In addition, there is a problem that productivity is significantly reduced due to the bottleneck process occurs.
따라서 게 등과 같은 대상물을 크기에 따라 자동분류하고, 분류된 대상물을 일정한 방향으로 자동으로 다음 공정으로 정렬시킬 수 있는 장치 및 방법이 요구되었다. Therefore, there is a need for an apparatus and method for automatically classifying objects such as crabs and the like, and sorting the sorted objects automatically in a predetermined direction to the next process.
따라서 본 발명은 상기와 같은 종래의 문제점을 해결하기 위하여 안출된 것으로서, 본 발명의 실시예에 따르면, 대상물의 가공공정에서 분류, 픽업, 공급 및 일정방향 정렬을 자동화할 수 시스템을 제공하는 데 그 목적이 있다.Therefore, the present invention has been made to solve the above-mentioned conventional problems, according to an embodiment of the present invention, to provide a system capable of automating sorting, pickup, supply and constant alignment in the processing of the object. There is a purpose.
또한, 본 발명의 실시예 따르면, 다관절 로봇으로 대상물을 픽업하여 다음 공정으로 이동시키는 과정에서, 대상물을 분류하고 이러한 대상물을 일정한 방향으로 다음 공정으로 정렬, 공급, 투입시킬 수 있는 자동화 시스템 및 방법을 제공하는데 목적이 있다.In addition, according to an embodiment of the present invention, in the process of picking up the object by the articulated robot and moving to the next process, an automated system and method capable of classifying the object and aligning, supplying, and feeding the object to the next process in a constant direction The purpose is to provide.
한편, 본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.On the other hand, the technical problems to be achieved in the present invention are not limited to the technical problems mentioned above, and other technical problems that are not mentioned are clearly to those skilled in the art from the following description. It can be understood.
본 발명의 제1목적은 대상물 자동 정렬, 공급 시스템에 있어서, 이송수단을 통해 이송되는 다수의 대상물 각각에 대한 영상 데이터를 획득하는 영상획득부; 상기 영상획득부에서 획득한 영상 데이터를 기반으로 상기 대상물의 위치, 방향정보를 획득하여 대상분석데이터를 산출하는 영상처리부; 및 상기 영상처리부에서 산출된 대상분석데이터를 기반으로 상기 대상물을 다음 공정라인으로 투입시키는 픽업유닛;을 포함하는 것을 특징으로 하는, 영상처리분석을 이용한 대상물 자동 정렬, 공급 시스템으로서 달성될 수 있다. A first object of the present invention is an automatic object alignment, supply system, Image acquisition unit for acquiring the image data for each of the plurality of objects to be transferred through the transfer means; An image processor for obtaining object analysis data by obtaining position and direction information of the object based on the image data acquired by the image acquisition unit; And a pickup unit for introducing the object to the next process line based on the object analysis data calculated by the image processor. The object may be achieved as an automatic object sorting and supplying system using the image processing analysis.
그리고 영상획득부는, 이송되는 상기 대상물 측으로 광원을 조사하는 광원조사부와, 상기 대상물을 포함한 영역을 촬상하는 카메라를 포함하는 것을 특징으로 할 수 있다. The image acquisition unit may include a light source irradiation unit for irradiating a light source to the object to be transferred, and a camera for imaging an area including the object.
또한, 영상획득부는 이송수단 일측에 구비되며, 상기 광원조사부와 상기 카메라가 장착되는 지지대를 포함하고, 상기 광원조사부와 상기 대상물 간의 거리, 및 상기 카메라와 상기 대상물 간의 거리 중 적어도 하나를 조절하는 위치조절부와, 상기 광원조사부와 상기 카메라 간의 간격을 조절하는 간격조절부와, 상기 광원조사부의 조사각도와, 상기 카메라의 촬상각도 중 적어도 하나를 조절하는 각도조절부, 중 적어도 하나를 포함하는 것을 특징으로 할 수 있다. In addition, the image acquisition unit is provided on one side of the transfer means, and includes a support on which the light source irradiator and the camera is mounted, the position for adjusting at least one of the distance between the light source and the object, and the distance between the camera and the object And at least one of an adjusting unit, a gap adjusting unit for adjusting a distance between the light source irradiating unit and the camera, and an angle adjusting unit for adjusting at least one of an irradiation angle of the light source irradiating unit and an imaging angle of the camera. It can be characterized.
그리고 영상처리부는, 상기 영상데이터에서 대상물의 외형정보를 획득하고, 관심영역을 획득하고, 상기 관심영역 내 각각의 픽셀간의 거리정보를 바탕으로 최대 거리정보를 가지는 중심점좌표를 산출하여 크기, 위치데이터를 획득하며, 상기 중심점좌표를 기준으로 대상물의 에지 위치와 에지간의 간격정보를 통해 가장 긴영역의 중심점좌표를 방향, 자세데이터로 획득하는 것을 특징으로 할 수 있다. The image processing unit obtains the appearance information of the object from the image data, obtains a region of interest, and calculates a center point coordinate having the maximum distance information based on the distance information between each pixel in the region of interest. And acquiring the center point coordinate of the longest region as direction and attitude data based on the edge position of the object and the interval information between the edges based on the center point coordinate.
또한 대상물은 갑각류이고, 영상처리부는 상기 중심점좌표를 기준으로 상기 갑각류의 다리위치와 다리 간의 간격정보를 통해 가장 긴영역의 중심점좌표를 방향, 자세데이터로 획득하는 것을 특징으로 할 수 있다. In addition, the object is a crustacean, and the image processor may obtain the center point coordinate of the longest region as direction and posture data based on the distance information between the leg position and the leg of the crustacean based on the center point coordinate.
그리고 픽업유닛은, 위치데이터를 기반으로 상기 대상물의 중심점에 접촉하여 상기 대상물을 픽업하며, 데이터베이스에 기 저장된 분류데이터와 상기 크기데이터를 대비하여 상기 대상물을 분류하고 분류별로 상기 대상물을 다음 공정라인으로 투입시키는 것을 특징으로 할 수 있다. The pickup unit picks up the object by contacting the center point of the object based on the position data, classifies the object in comparison with the classification data and the size data previously stored in a database, and classifies the object to the next process line by classification. It may be characterized in that the input.
또한 픽업유닛은, 방향, 자세데이터를 기반으로 상기 대상물이 일정한 방향으로 정렬되도록 상기 대상물을 다음 공정라인으로 투입시키는 것을 특징으로 할 수 있다. In addition, the pickup unit may be characterized in that the object is introduced into the next process line so that the object is aligned in a certain direction based on the direction, attitude data.
본 발명의 제2목적은 대상물 자동 정렬, 공급 방법에 있어서, 광원조사부가 이송수단을 통해 이송되는 복수의 대상물 각각으로 광원을 조사하고, 카메라가 상기 대상물을 포함한 영역을 촬상하여 영상데이터를 획득하는 단계; 상기 영상획득부에서 획득한 영상 데이터를 기반으로 영상처리부가 상기 대상물의 위치, 크기, 자세, 방향정보를 획득하여 대상분석데이터를 산출하는 단계; 및 상기 영상처리부에서 산출된 대상분석데이터를 기반으로 픽업유닛이 상기 대상물을 분류별로 일정한 방향으로 정렬되도록 다음 공정라인으로 투입시키는 단계;를 포함하는 것을 특징으로 하는, 영상처리분석을 이용한 대상물 자동 정렬, 공급 방법으로서 달성될 수 있다. According to a second aspect of the present invention, in a method for automatically aligning and supplying an object, a light source irradiating a light source to each of a plurality of objects conveyed through a conveying means, and the camera captures an area including the object to obtain image data. step; Calculating object analysis data by acquiring position, size, posture, and direction information of the object based on the image data acquired by the image acquisition unit; And inputting, by the pickup unit, the object into the next process line such that the object is aligned in a predetermined direction according to the classification based on the object analysis data calculated by the image processing unit. , As a supply method.
그리고 대상분석데이터를 산출하는 단계는, 영상데이터에서 대상물의 외형정보를 획득하고, 관심영역을 획득하고, 상기 관심영역 내 각각의 픽셀간의 거리정보를 바탕으로 최대 거리정보를 가지는 중심점좌표를 산출하여 크기, 위치데이터를 획득하며, 상기 중심점좌표를 기준으로 대상물의 에지 위치와 에지간의 간격정보를 통해 가장 긴영역의 중심점좌표를 방향, 자세데이터로 획득하는 것을 특징으로 할 수 있다. The calculating of the object analysis data may include obtaining outline information of an object from image data, obtaining a region of interest, and calculating a center point coordinate having maximum distance information based on distance information between respective pixels in the region of interest. The size and position data may be acquired, and the center point coordinate of the longest region may be obtained as direction and attitude data based on the edge position of the object and the gap information between the edges based on the center point coordinate.
또한 다음 공정라인으로 투입시키는 단계는 픽업유닛이 상기 위치데이터를 기반으로 상기 대상물의 중심점에 접촉하여 상기 대상물을 픽업하며, 데이터베이스에 기 저장된 분류데이터와 상기 크기데이터를 대비하여 상기 대상물을 분류하고 상기 방향, 자세데이터를 기반으로 상기 대상물이 일정한 방향으로 정렬되도록 상기 대상물을 다음 공정라인으로 분류별로 투입시키는 것을 특징으로 할 수 있다. In addition, the step of introducing into the next process line is a pickup unit in contact with the center point of the object based on the position data to pick up the object, classify the object in comparison with the classification data and the size data previously stored in the database and the The object may be introduced into the next process line by classification so that the object is aligned in a predetermined direction based on the direction and attitude data.
본 발명의 실시예에 따른 영상처리분석을 이용한 대상물 정렬 공급 자동화 시스템에 따르면 대상물의 가공공정에서 분류, 픽업, 공급 및 일정방향 정렬을 할 수 있는 효과를 갖는다.According to the object alignment supply automation system using the image processing analysis according to an embodiment of the present invention has the effect that can be sorted, picked up, fed and constant alignment in the processing of the object.
또한, 본 발명의 실시예에 따른 대상물 픽업 공급 자동화 시스템에 따르면, 다관절 로봇으로 대상물을 픽업하여 다음 공정으로 이동시키는 과정에서, 대상물을 분류하고 이러한 대상물을 일정한 방향으로 다음공정으로 정렬, 공급, 투입시킬 수 있는 효과를 갖는다.In addition, according to the object pickup supply automation system according to an embodiment of the present invention, in the process of picking up the object by the articulated robot and moving to the next process, classify the object and align, supply, such object in the next direction in a predetermined direction, It has an effect that can be injected.
그리고, 본 발명의 실시예에 따른 영상처리분석을 이용한 대상물 정렬 공급 자동화 시스템에 따르면, 대상물 가공공정에 로봇 자동화 시스템을 도입함에 따라 가공 인력 부족현상을 극복하고 상품가치를 극대시킬 수 있으며, 대상물의 크기측정, 자세, 방향측정, 분류, 및 자동공급 등의 일련의 과정을 로봇 자동화시스템을 통해 생산비 절감, 고령화되고 있는 작업인력을 대체, 작업환경을 개선할 수 있는 장점이 있다. In addition, according to the object alignment supply automation system using the image processing analysis according to an embodiment of the present invention, by introducing the robot automation system in the object processing process can overcome the shortage of processing personnel and maximize the value of the object, A series of processes, such as size measurement, posture, direction measurement, classification, and automatic supply, have the advantage of reducing production costs, replacing the aging workforce, and improving the working environment through the robot automation system.
한편, 본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.On the other hand, the effect obtained in the present invention is not limited to the above-mentioned effects, other effects that are not mentioned will be clearly understood by those skilled in the art from the following description. Could be.
본 명세서에 첨부되는 다음의 도면들은 본 발명의 바람직한 일실시예를 예시하는 것이며, 발명의 상세한 설명과 함께 본 발명의 기술적 사상을 더욱 이해시키는 역할을 하는 것이므로, 본 발명은 그러한 도면에 기재된 사항에만 한정되어 해석 되어서는 아니 된다.
도 1은 종래 수작업으로 홍게를 분류하고 있는 사진,
도 2는 본 발명의 실시예에 따른 영상처리분석을 이용한 대상물 정렬 공급 자동화 시스템의 영상획득부와 이송수단의 사시도,
도 3a 및 도 3b는 본 발명의 실시예에 따른 영상획득부의 사시도, 정면도,
도 4는 본 발명의 실시예에 따라 컨베어에 의해 이동되는 홍게와 영상획득부 사진,
도 5a 내지 도 5e는 본 발명의 실시예에 따른 영상처리부에 의해 대상물의 크기, 자세, 방향에 대한 데이터를 획득하는 과정,
도 6은 본 발명의 실시예에 따라 영상처리부에서 산출된 대상분석데이터,
도 7은 본 발명의 실시예에 따른 대상물 분류, 픽업, 정렬 공급 자동화 시스템의 사시도,
도 8은 본 발명의 실시예에 따른 트랙킹 유닛의 사시도,
도 9는 본 발명의 실시예에 따른 트랙킹 유닛의 속도위치감지엔코더의 분해 사시도,
도 10a는 본 발명의 제1실시예에 따른 픽업유닛의 사시도,
도 10b는 본 발명의 제1실시예에 따른 흡착수단의 단면도,
도 11은 본 발명의 제1실시예에 따라 홍게가 픽업된 픽업유닛의 사진,
도 12a는 본 발명의 제2실시예에 따른 팍업유닛의 사시도,
도 12b는 본 발명의 제2실시예에 따른 흡착수단의 사진,
도 12c는 본 발명의 제2실시예에 따라 홍게가 픽업된 픽업유닛의 사진,
도 13은 본 발명의 실시예에 따른 영상처리분석을 이용한 대상물 정렬 공급 자동화 시스템의 사시도를 도시한 것이다. The following drawings, which are attached to this specification, illustrate one preferred embodiment of the present invention, and together with the detailed description thereof, serve to further understand the technical spirit of the present invention. It should not be construed as limited.
1 is a photograph classifying a red crab by conventional hand,
Figure 2 is a perspective view of the image acquisition unit and the transfer means of the object alignment supply automation system using image processing analysis according to an embodiment of the present invention,
3A and 3B are a perspective view, a front view, and an image acquisition unit according to an embodiment of the present invention;
Figure 4 is a red crab and the image acquisition unit moved by the conveyor according to an embodiment of the present invention,
5A to 5E illustrate a process of acquiring data on a size, a posture, and a direction of an object by an image processor according to an exemplary embodiment of the present invention;
6 is target analysis data calculated by an image processor according to an embodiment of the present invention;
7 is a perspective view of the object sorting, pick-up, alignment supply automation system according to an embodiment of the present invention,
8 is a perspective view of a tracking unit according to an embodiment of the present invention,
9 is an exploded perspective view of a speed position detecting encoder of a tracking unit according to an embodiment of the present invention;
10A is a perspective view of a pickup unit according to the first embodiment of the present invention;
10b is a cross-sectional view of the adsorption means according to the first embodiment of the present invention;
11 is a picture of the pickup unit picked up red crab according to the first embodiment of the present invention,
12A is a perspective view of a pack up unit according to a second embodiment of the present invention;
12b is a photograph of adsorption means in accordance with a second embodiment of the present invention;
12c is a photograph of a pickup unit picked up with red crabs in accordance with a second embodiment of the present invention;
13 is a perspective view of an object alignment supply automation system using image processing analysis according to an embodiment of the present invention.
이상의 본 발명의 목적들, 다른 목적들, 특징들 및 이점들은 첨부된 도면과 관련된 이하의 바람직한 실시예들을 통해서 쉽게 이해될 것이다. 그러나 본 발명은 여기서 설명되는 실시예들에 한정되지 않고 다른 형태로 구체화될 수도 있다. 오히려, 여기서 소개되는 실시예들은 개시된 내용이 철저하고 완전해질 수 있도록 그리고 통상의 기술자에게 본 발명의 사상이 충분히 전달될 수 있도록 하기 위해 제공되는 것이다.Objects, other objects, features and advantages of the present invention will be readily understood through the following preferred embodiments associated with the accompanying drawings. However, the present invention is not limited to the embodiments described herein and may be embodied in other forms. Rather, the embodiments introduced herein are provided so that the disclosure may be made thorough and complete, and to fully convey the spirit of the invention to those skilled in the art.
본 명세서에서, 어떤 구성요소가 다른 구성요소 상에 있다고 언급되는 경우에 그것은 다른 구성요소 상에 직접 형성될 수 있거나 또는 그들 사이에 제 3의 구성요소가 개재될 수도 있다는 것을 의미한다. 또한 도면들에 있어서, 구성요소들의 두께는 기술적 내용의 효과적인 설명을 위해 과장된 것이다.In the present specification, when a component is mentioned to be on another component, it means that it may be formed directly on the other component or a third component may be interposed therebetween. In addition, in the drawings, the thickness of the components are exaggerated for the effective description of the technical content.
본 명세서에서 기술하는 실시예들은 본 발명의 이상적인 예시도인 단면도 및/또는 평면도들을 참고하여 설명될 것이다. 도면들에 있어서, 막 및 영역들의 두께는 기술적 내용의 효과적인 설명을 위해 과장된 것이다. 따라서 제조 기술 및/또는 허용 오차 등에 의해 예시도의 형태가 변형될 수 있다. 따라서 본 발명의 실시예들은 도시된 특정 형태로 제한되는 것이 아니라 제조 공정에 따라 생성되는 형태의 변화도 포함하는 것이다. 예를 들면, 직각으로 도시된 영역은 라운드지거나 소정 곡률을 가지는 형태일 수 있다. 따라서 도면에서 예시된 영역들은 속성을 가지며, 도면에서 예시된 영역들의 모양은 소자의 영역의 특정 형태를 예시하기 위한 것이며 발명의 범주를 제한하기 위한 것이 아니다. 본 명세서의 다양한 실시예들에서 제1, 제2 등의 용어가 다양한 구성요소들을 기술하기 위해서 사용되었지만, 이들 구성요소들이 이 같은 용어들에 의해서 한정되어서는 안 된다. 이들 용어들은 단지 어느 구성요소를 다른 구성요소와 구별시키기 위해서 사용되었을 뿐이다. 여기에 설명되고 예시되는 실시예들은 그것의 상보적인 실시예들도 포함한다.Embodiments described herein will be described with reference to cross-sectional and / or plan views, which are ideal exemplary views of the present invention. In the drawings, the thicknesses of films and regions are exaggerated for effective explanation of technical content. Therefore, the shape of the exemplary diagram may be modified by manufacturing techniques and / or tolerances. Accordingly, the embodiments of the present invention are not limited to the specific forms shown, but also include changes in forms generated according to manufacturing processes. For example, the region shown at right angles may be rounded or have a predetermined curvature. Thus, the regions illustrated in the figures have properties, and the shape of the regions illustrated in the figures is intended to illustrate a particular form of region of the device and is not intended to limit the scope of the invention. Although terms such as first and second are used to describe various components in various embodiments of the present specification, these components should not be limited by such terms. These terms are only used to distinguish one component from another. The embodiments described and illustrated herein also include complementary embodiments thereof.
본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 '포함한다(comprises)' 및/또는 '포함하는(comprising)'은 언급된 구성요소는 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다.The terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention. In this specification, the singular also includes the plural unless specifically stated otherwise in the phrase. As used herein, the words 'comprises' and / or 'comprising' do not exclude the presence or addition of one or more other components.
아래의 특정 실시예들을 기술하는데 있어서, 여러 가지의 특정적인 내용들은 발명을 더 구체적으로 설명하고 이해를 돕기 위해 작성되었다. 하지만 본 발명을 이해할 수 있을 정도로 이 분야의 지식을 갖고 있는 독자는 이러한 여러 가지의 특정적인 내용들이 없어도 사용될 수 있다는 것을 인지할 수 있다. 어떤 경우에는, 발명을 기술하는 데 있어서 흔히 알려졌으면서 발명과 크게 관련 없는 부분들은 본 발명을 설명하는데 있어 별 이유 없이 혼돈이 오는 것을 막기 위해 기술하지 않음을 미리 언급해 둔다.In describing the specific embodiments below, various specific details are set forth in order to explain the invention more specifically and to help understand. However, those skilled in the art can understand that the present invention can be used without these various specific details. In some cases, it is mentioned in advance that parts of the invention which are commonly known in the description of the invention and which are not highly related to the invention are not described in order to prevent confusion in explaining the invention without cause.
이하에서는 본 발명에 따른 영상처리분석을 이용한 대상물 정렬 공급 자동화 시스템(1)의 구성 및 기능에 대해 설명하도록 한다. 본 발명에 따른 영상처리분석을 이용한 대상물 정렬 공급 자동화 시스템(1)은 전체적으로 영상획득부(10)와, 영상처리부, 트랙킹 유닛(30), 픽업유닛(60) 등을 포함하여 구성될 수 있다. Hereinafter, the configuration and function of the object alignment
영상획득부(10)는 이송수단을 통해 이송되는 다수의 대상물 각각에 대한 영상 데이터를 획득하도록 구성된다. 그리고, 영상처리부는 영상획득부(10)에서 획득한 영상 데이터를 기반으로 상기 대상물의 위치, 방향정보를 획득하여 대상분석데이터를 산출하도록 구성된다. 또한 픽업유닛(60)은 영상처리부에서 산출된 대상분석데이터를 기반으로 대상물을 다음 공정라인으로 투입시키도록 구성된다. The
도 2는 본 발명의 실시예에 따른 영상처리분석을 이용한 대상물 정렬 공급 자동화 시스템(1)의 영상획득부(10)와 이송수단의 사시도를 도시한 것이다. 도 2에 도시된 바와 같이. 영상획득부(10)는, 컨베어(31) 등과 같은 이송수단을 통해 이송되는 대상물 측으로 광원을 조사하는 광원조사부(12)와, 대상물을 포함한 영역을 촬상하는 카메라(13)를 포함하여 구성될 수 있다. 도 3a 및 도 3b는 본 발명의 실시예에 따른 영상획득부(10)의 사시도, 정면도를 도시한 것이다. 그리고, 도 4는 본 발명의 실시예에 따라 컨베어에 의해 이동되는 홍게(2)와 영상획득부(10) 사진을 도시한 것이다. Figure 2 shows a perspective view of the
본 발명의 구체적 실시예에 따른 대상물은 갑각류일 수 있고, 보다 구체적으로 홍게(2)일 수 있다. 이하에서는 홍게(2)를 대상물의 일예로 하여 설명하도록 한다. 이러한 홍게(2)는 대상물의 예시에 불과할 뿐 권리범위를 제한해석해서는 아니될 것이다. An object according to a specific embodiment of the present invention may be a crustacean, and more specifically, may be a red crab (2). Hereinafter, the
도 2에 도시된 바와 같이, 영상획득부(10)는 이송수단 일측에 지지대(11)가 구비되며, 지지대(11)의 일측에는 광원조사부(12)와 카메라(13)가 장착되게 됨을 알 수 있다. 이러한 영상획득부(10)는 홍게(2)의 영상데이터를 획득하기 위한 것으로 광원조사부(12)는 레이저 센서로 구성될 수 있고, 카메라(13)는 레이저 카메라(13)로 구성되며, 이송수단은 컨베어로 구성된다. 따라서 다량으로 이송되어지는 홍게(2)의 영상데이터를 실시간으로 획득할 수 있게 된다. As shown in Figure 2, the
또한, 본 발명의 실시예에 따른 영상획득부(10)는 광원조사부(12)와 홍게(2) 간의 거리, 및 카메라(13)와 홍게(2) 간의 거리 중 적어도 하나를 조절하는 위치조절부와, 광원조사부(12)와 카메라(13) 간의 간격을 조절하는 간격조절부와, 광원조사부(12)의 조사각도와, 상기 카메라(13)의 촬상각도 중 적어도 하나를 조절하는 각도조절부를 더 포함하여 구성될 수도 있다. In addition, the
본 발명의 실시예에 따른 영상처리부는, 영상데이터에서 대상물의 외형정보를 획득하고, 관심영역을 획득하고, 상기 관심영역 내 각각의 픽셀간의 거리정보를 바탕으로 최대 거리정보를 가지는 중심점좌표를 산출하여 크기, 위치데이터를 획득하며, 중심점좌표를 기준으로 대상물의 에지 위치와 에지간의 간격정보를 통해 가장 긴영역의 중심점좌표를 방향, 자세데이터로 획득하게 된다. The image processing unit according to an embodiment of the present invention obtains the appearance information of the object from the image data, obtains a region of interest, and calculates a center point coordinate having maximum distance information based on distance information between each pixel in the region of interest. It obtains size and position data, and obtains the center point coordinate of the longest region as direction and attitude data through the edge position of the object and the gap information between the edges based on the center point coordinate.
도 5a 내지 도 5e는 본 발명의 실시예에 따른 영상처리부에 의해 대상물의 크기, 자세, 방향에 대한 데이터를 획득하는 과정을 도시한 것이고, 도 6은 본 발명의 실시예에 따라 영상처리부에서 산출된 대상분석데이터를 도시한 것이다. 5A to 5E illustrate a process of acquiring data on a size, posture, and direction of an object by an image processor according to an exemplary embodiment of the present invention, and FIG. 6 is calculated by the image processor according to an exemplary embodiment of the present invention. Shows the targeted analysis data.
도 5a, 도 5b에 도시된 바와 같이, 먼저, 영상처리부는 홍게(2)의 외형정보를 파악하게 되고, 도 5c 및 도 5d에 도시된 바와 같이, 홍게(2)의 외형정보에서 관심영역(ROI)을 획득하고, 도 5e에 ROI 영역 내 각각의 픽셀 간 거리정보를 바탕으로 최대 거리정보를 가지는 무게 중심점 좌표를 계산하게 된다. As shown in FIGS. 5A and 5B, first, the image processing unit grasps the outline information of the
즉, 관심영역 내의 모든 픽셀 각각에 대하여 각픽셀의 현위치에서 홍게의 외형정보 외곽까지의 최단거리를 산출하고, 이러한 최단거리값중 가장 큰 거리정보를 갖는 픽셀의 위치를 중심점 좌표로 결정하게 된다. That is, for each pixel in the ROI, the shortest distance from the current position of each pixel to the outside of the contour information of the red crab is calculated, and the position of the pixel having the largest distance information among these shortest distance values is determined as the center point coordinate. .
그리고, 도 5e, 도 6에 도시된 바와 같이, 중심점좌표를 기준으로 한 특정 원 영역에서, 홍게(2)의 다리위치와 다리 간의 간격정보를 통해 가장 긴영역의 중심점좌표를 기반으로 홍게(2)의 방향, 자세데이터로 획득하게 됨을 알 수 있다. 5E and 6, in a specific circle region based on the center point coordinates, the red crab (2) based on the center point coordinates of the longest region through the leg position of the
따라서 픽업유닛(60)은, 영상처리부에서 산출된 위치데이터를 기반으로 홍게(2)의 중심점에 접촉하여 홍게(2)를 픽업할 수 있게 된다. 또한, 데이터베이스에 기 저장된 분류데이터와 영상처리부에서 산출된 크기데이터를 대비하여 홍게(2)를 크기별로 분류하고 분류별로 홍게(2)를 다음 공정라인으로 분류하여 투입시킬 수 있게 된다. Therefore, the
또한, 픽업유닛(60)은, 영상처리부에서 산출된 방향, 자세데이터를 기반으로 홍게(2)가 일정한 방향으로 정렬되도록 홍게(2)를 다음 공정라인인 탈갑, 절단 공정으로 투입시킬 수 있게 된다. In addition, the pick-up
이하에서는 대상물 자동 정렬, 공급 방법에 대해 설명하도록 한다. 먼저, 광원조사부(12)가 이송수단을 통해 이송되는 복수의 대상물 각각으로 광원을 조사하고, 카메라(13)가 대상물을 포함한 영역을 촬상하여 영상데이터를 획득하게 된다. Hereinafter, a description will be given of the automatic object alignment, supply method. First, the
그리고, 영상획득부(10)에서 획득한 영상 데이터를 기반으로 영상처리부가 대상물의 위치, 크기, 자세, 방향정보를 획득하여 대상분석데이터를 산출하게 된다. 앞서 언급한 바와 같이, 영상처리부는 영상데이터에서 대상물의 외형정보를 획득하고, 관심영역을 획득하고, 상기 관심영역 내 각각의 픽셀간의 거리정보를 바탕으로 최대 거리정보를 가지는 중심점좌표를 산출하여 크기, 위치데이터를 획득하며, 상기 중심점좌표를 기준으로 대상물의 에지 위치와 에지간의 간격정보를 통해 가장 긴영역의 중심점좌표를 방향, 자세데이터로 획득하게 된다. The image processor acquires the position, size, posture, and direction information of the object based on the image data acquired by the
그리고, 영상처리부에서 산출된 대상분석데이터를 기반으로 픽업유닛(60)이 상기 대상물을 분류별로 일정한 방향으로 정렬되도록 다음 공정라인으로 투입시키게 된다. 앞서 언급한 바와 같이, 픽업유닛(60)은 위치데이터를 기반으로 상기 대상물의 중심점에 접촉하여 상기 대상물을 픽업하며, 데이터베이스에 기 저장된 분류데이터와 상기 크기데이터를 대비하여 상기 대상물을 분류하고 상기 방향, 자세데이터를 기반으로 상기 대상물이 일정한 방향으로 정렬되도록 상기 대상물을 다음 공정라인으로 분류별로 투입시키게 된다. Then, based on the object analysis data calculated by the image processor, the
이하에서는 본 발명의 실시예에 따른 트랙킹 유닛(30)과 픽업유닛(60)의 구성을 보다 상세하게 설명하도록 한다. 본 발명의 실시예에 따르면 안정적으로 대상물을 이송 및 정확한 이동좌표 추적을 위해 컨베어 트랙킹 유닛(30)을 포함하여 구성될 수 있다. 도 7은 본 발명의 실시예에 따른 영상처리분석을 이용한 대상물 정렬 공급 자동화 시스템(1)의 사시도를 도시한 것이다. 그리고, 도 8은 본 발명의 실시예에 따른 트랙킹 유닛(30)의 사시도를 도시한 것이다. 또한, 도 9는 본 발명의 실시예에 따른 트랙킹 유닛(30)의 속도위치감지엔코더(50)의 분해 사시도를 도시한 것이다. Hereinafter, the configuration of the
이러한 트랙킹 유닛(30)은 앞서 언급한 영상처리부에서 산출된 대상물의 위치, 자세, 방향좌표를 일정하게 유지 및 이송시켜 픽업유닛(60)이 대상물을 정확하게 픽업할 수 있도록 한다. 이하의 실시예에 따른 대상물은 앞서 언급한 바와 같이, 홍게(2)를 예를 들어 설명하도록 한다. The
트랙킹 유닛(30)은 영상처리부에서 산출된 대상분석데이터를 기반으로 홍게(2)의 위치 및 자세좌표가 일정하게 유지되도록 이송수단인 컨베어의 구성을 제어하고, 대상물의 이동거리를 측정하여 픽업유닛에 전송하게 된다. The
즉, 트랙킹 유닛(30)은, 영상처리부에서 산출된 홍게(2)의 위치, 방향, 자세 좌표를 일정하게 유지 및 이송시켜 픽업유닛(60)이 대상물을 픽업할 수 있도록 이송수단을 제어하게 된다. That is, the
이러한 트랙킹 유닛(30)은, 컨베어를 구동시키기 위해 컨베어 일측에 구비된 서보모터(41)와 감속기(42)로 구성된 구동장치(40)를 포함한다. 감속기는 홍게(2)의 위치데이터를 기반으로 서보모터를 제어하여 컨베어의 이동속도를 조절할 수 있다. The
컨베어 타측에 속도위치감지엔코더가 구비되어, 홍게(2)의 위치, 방향 및 자세좌표의 이송거리를 측정하고, 측정된 값을 픽업유닛으로 전송하게 된다. A speed position detecting encoder is provided on the other side of the conveyor to measure the position, direction, and conveyance distance of the
즉 이송수단인 컨베어의 속도는 예를 들어 시간당 2000마리 정도를 이송할 수 있도록 구동장치(40)가 구동되며, 정확한 홍게(2)의 위치 및 자세좌표의 이송거리를 측정하기 위해 속도위치감지엔코더(50)가 적용되게 된다. In other words, the speed of the conveyor, which is a conveying means, is driven by the driving
이러한 속도위치감지엔코더(50)는, 도 9에 도시된 바와 같이, 회전롤러(52), 텐션조정장치(53), 회전축(51), 엔코더(54) 등을 포함하여 구성될 수 있다. 회전롤러(52)는 컨베어와 접촉하여 회전되게 된다. 이러한 회전롤러(52)는 컨베어와 선접촉하여 회전하며 미끄럼 방지를 위해 우레탄 고무재질이 적용된다. The speed
텐션조정장치(53)는 회전롤러(52)가 컨베어와 접촉되도록 장력을 조절할 수 있도록 구성된다. 즉, 텐션조정장치(53)는 장력을 조정하여 회전롤러(52)가 항상 컨베어와 견고하게 접촉이 일어날 수 있도록 한다. The
그리고 회전축(51)은 일측 끝단이 회전롤러(52)와 결합되며, 엔코더(54)는 회전롤러(52)의 회전수를 기반으로 대상물의 이송거리를 측정하여 측정값을 픽업유닛에 전송하게 된다. And one end of the
이하에서는 본 발명의 실시예에 따른 픽업유닛(60)의 구성 및 기능에 대해 설명하도록 한다. 앞서 언급한 바와 같이, 픽업유닛(60)은 영상처리부에서 산출된 위치데이터를 기반으로 홍게(2)의 중심점에 접촉하여 홍게(2)를 픽업할 수 있게 된다. 또한, 데이터베이스에 기 저장된 분류데이터와 영상처리부에서 산출된 크기데이터를 대비하여 홍게(2)를 크기별로 분류하고 분류별로 홍게(2)를 다음 공정라인으로 분류하여 투입시킬 수 있게 된다. Hereinafter will be described the configuration and function of the
또한, 픽업유닛(60)은, 영상처리부에서 산출된 방향, 자세데이터를 기반으로 홍게(2)가 일정한 방향으로 정렬되도록 홍게(2)를 다음 공정라인인 탈갑, 절단 공정으로 투입시킬 수 있게 된다. In addition, the pick-up
즉, 픽업유닛(60)은, 대상물의 이송방향으로 서로 특정간격 이격되어 배치되는 다수의 다관절로봇(61)으로 구성되어, 다수의 상기 다관절로봇(61) 각각은 상기 대상분석데이터를 기반으로 대상물을 픽업하여 다음 공정라인으로 투입시키게 된다. That is, the
이러한 다관절로봇(61)은 다축구동부와, 다축구동부 끝단에 구비되어 대상물의 위치 정보를 기반으로 상기 대상물의 중심점 부분을 흡착시키는 진공흡착수단(70)을 포함하고, 다축구동부는 상기 대상물의 방향, 자세데이터를 기반으로 픽업된 상기 대상물이 다음 공정라인에 일정한 방향을 정렬되도록 투입시키도록 한다. The
도 10a는 본 발명의 제1실시예에 따른 픽업유닛(60)의 사시도를 도시한 것이다. 그리고, 도 10b는 본 발명의 제1실시예에 따른 흡착수단(70)의 단면도를 도시한 것이다. 또한, 도 11은 본 발명의 제1실시예에 따라 홍게(2)가 픽업된 픽업유닛(60)의 사진을 도시한 것이다. 10A illustrates a perspective view of a
본 발명에 따른 흡착수단(70)은 빠른 작업속도(사이클 타입 1초)에 대응하기 위해 진공흡착방식이 적용되며 진공흡착수단(70)의 시퀀스 제어는 영상처리부에서 생성된 좌표와 다관절로봇(61)의 구동프로그램 및 입출력 신호를 이용하여 온, 오프 제어되게 된다. Adsorption means 70 according to the present invention is applied to the vacuum adsorption method in order to correspond to a high working speed (
도 10a 및 도 10b 및 도 11에 도시된 바와 같이, 본 발명의 제1실시예에 따른 진공흡착수단(70)은, 일단에 흡입단(72)이 구비되고 타단에 배출단(73)이 구비된 몸체(71)와, 이러한 몸체(71) 하단 중단에 구비되며 주름관 형태로 구성된 흡착패드(74)와, 이러한 흡착패드(74) 측에 진공이 발생되도록 몸체(71)에 구비되는 진공발생기(75)와 공압밸브(76)를 포함하여 구성될 수 있다. 10A and 10B and 11, the vacuum suction means 70 according to the first embodiment of the present invention, the
즉, 본 발명의 제1실시예에 따른 진공흡착수단(70)은 다관절 로봇(61), 진공발생기(75), 흡착패드(74)가 일체화되어있고 1개의 흡착 패드(74)가 홍게(2)의 중간부분을 흡착하도록 구성된다. 진공 흡착 시퀀스 제어는 다관절 로봇(61)에 장착된 입출력 신호 및 2포지션 양쪽솔레노이드 방식의 공압제어 밸브가 적용되게 된다. That is, in the vacuum suction means 70 according to the first embodiment of the present invention, the articulated
도 12a는 본 발명의 제2실시예에 따른 팍업유닛의 사시도를 도시한 것이다. 그리고, 도 12b는 본 발명의 제2실시예에 따른 흡착수단(70)의 사진을 도시한 것이다 또한, 도 12c는 본 발명의 제2실시예에 따라 홍게(2)가 픽업된 픽업유닛(60)의 사진을 도시한 것이다. 그리고 도 13은 본 발명의 실시예에 따른 영상처리분석을 이용한 대상물 정렬 공급 자동화 시스템(1)의 사시도를 도시한 것이다. 12A illustrates a perspective view of a pack up unit according to a second exemplary embodiment of the present invention. 12B illustrates a photograph of the adsorption means 70 according to the second embodiment of the present invention. In addition, FIG. 12C illustrates a
본 발명의 제2실시예에 따른 진공흡착수단(70)은, 도 12a 내지 도 12c에 도시된 바와 같이, 몸체(71)와, 이러한 몸체(71)의 외주면에 서로 특정 반경 사이로 이격된 3개의 진공발생기(75)와, 3개의 진동발생기(75) 각각에 연결된 공압밸브(76)와, 몸체(71) 하부면에 구비되어 3개의 진공발생기(75) 각각에 의해 생성된 흡착력에 의해 홍게(2)를 픽업하는 주름관 형태로 구성된 3개의 흡착패드(74)를 포함하여 구성된다. 12A to 12C, the vacuum suction means 70 according to the second embodiment of the present invention, the
본 발명의 제2실시예에서는 홍게(2) 흡착을 위한 진공도를 높이기 위해 진공 발생기(75) 및 흡착패드(74)를 트리 플형으로 구성한다. 다관절 로봇(61)에 3개의 공압밸브(76), 3개의 진공발생기(75), 그리고 3개 흡착패드(74)을 구성하여 앞서 언급한 제1실시예에 딸느 싱글형에 비해 흡착에러 발생 빈도 감소시킬 수 있다. 즉, 3개의 흡착패드(74) 중 1개에 진공 흡착에러가 발생하여도 2개의 흡착패드(74)로 인해 픽업 작업이 가능하게 된다. 또한, 주름형의 흡착패드(74)를 적용하게 되므로 굴곡이 심한 면에 대한 진공 발생이 용이한 장점이 있다. In the second embodiment of the present invention, in order to increase the degree of vacuum for the
이하에서는 본 발명의 실시예에 따른 영상처리분석을 이용한 대상물 정렬 공급 자동화 시스템(1)을 이용한 자동 픽업 공급방법에 대해 설명하도록 한다. 대상물 픽업 공급 방법에 있어서, 먼저, 이송수단으로 다수의 대상물이 투입되어 대상물이 일정방향으로 이송된다. 그리고 영상획득부(10)가 대상물에 대한 영상데이터를 획득하고, 영상처리부가 이송수단을 통해 이송되는 다수의 대상물 각각에 대한 위치, 방향, 자세정보를 획득하여 대상분석데이터를 산출하게 된다. Hereinafter, an automatic pickup supply method using an object alignment
그리고, 영상처리부에서 산출된 위치 데이터를 기반으로 다관절로봇(61)이 대상물을 중심점 부분을 진공흡착수단(70)에 의해 픽업하게 된다. Then, the articulated
그리고 다관절로봇(61)의 다축구동부에 의해, 픽업된 대상물을 이송하여 대상물의 자세, 방향데이터를 기반으로 대상물이 일정한 방향으로 정렬되도록 다음 공정라인으로 이동시키게 된다. 그리고, 진공흡착수단(70)의 흡착력을 해제하여 대상물이 일정한 방향으로 정렬되도록 다음 공정라인으로 투입되게 된다. In addition, the multi-axis driving unit of the articulated
이때 트랙킹 유닛(30)은, 영상처리부에서 산출된 대상물의 위치, 방향, 자세 좌표를 일정하게 유지 및 이송시켜 픽업유닛(60)이 대상물을 픽업할 수 있도록 이송수단을 제어하게 된다. At this time, the
또한, 상기와 같이 설명된 장치 및 방법은 상기 설명된 실시예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.In addition, the above-described apparatus and method may not be limitedly applied to the configuration and method of the above-described embodiments, but the embodiments may be selectively combined in whole or in part in each of the embodiments so that various modifications may be made. It may be configured.
1:대상물 분류, 픽업, 정렬 공급 자동화 시스템
2:홍게
10:영상획득부
11:지지대
12:광원조사부
13:카메라
30:트랙킹 유닛
31:컨베어
40:구동장치
41:서보모터
42:감속기
50:속도위치감지엔코더
51:회전축
52:회전롤러
53:텐션조정장치
54:엔코더
60:픽업유닛
61:다관절로봇
70:진공흡착수단
71:몸체
72:흡입단
73:배출단
74:흡착패드
75:진공발생기
76:공압밸브1: Object sorting, pick-up, sorting supply automation system
2: red
10: image acquisition unit
11: Support stand
12: Light source irradiation department
13: Camera
30: tracking unit
31: Conveyor
40: drive unit
41: servo motor
42: reducer
50: velocity position sensing encoder
51: rotating shaft
52: rotary roller
53: tension adjustment device
54: encoder
60: pickup unit
61: articulated robot
70: vacuum adsorption means
71: body
72: suction end
73: discharge end
74: adsorption pad
75: vacuum generator
76: pneumatic valve
Claims (10)
이송수단을 통해 이송되는 다수의 대상물 각각에 대한 영상 데이터를 획득하는 영상획득부;
상기 영상획득부에서 획득한 영상 데이터를 기반으로 상기 대상물의 위치, 방향정보를 획득하여 대상분석데이터를 산출하는 영상처리부; 및
상기 영상처리부에서 산출된 대상분석데이터를 기반으로 상기 대상물을 다음 공정라인으로 투입시키는 픽업유닛;을 포함하고,
상기 영상처리부는, 상기 영상데이터에서 대상물의 외형정보를 획득하여 관심영역을 설정하고, 상기 관심영역 내 각각의 픽셀간의 거리정보를 바탕으로 최대 거리정보를 가지는 중심점좌표를 산출하여 크기데이터와 위치데이터를 획득하며,
상기 중심점좌표를 기준으로 대상물의 에지 위치와 에지간의 간격정보를 통해 가장 긴영역의 중심점좌표를 방향데이터와, 자세데이터로 획득하고,
상기 대상물은 갑각류이고, 상기 영상처리부는 상기 중심점좌표를 기준으로 상기 갑각류의 다리위치와 다리 간의 간격정보를 통해 가장 긴영역의 중심점좌표를 방향데이터와, 자세데이터로 획득하며,
상기 픽업유닛은, 상기 위치데이터를 기반으로 상기 대상물의 중심점에 접촉하여 상기 대상물을 픽업하며, 데이터베이스에 기 저장된 분류데이터와 상기 크기데이터를 대비하여 상기 대상물을 분류하고 분류별로 상기 대상물을 다음 공정라인으로 투입시키고,
상기 픽업유닛은, 상기 방향, 자세데이터를 기반으로 상기 대상물이 일정한 방향으로 정렬되도록 상기 대상물을 다음 공정라인으로 투입시키는 것을 특징으로 하는, 영상처리분석을 이용한 대상물 자동 정렬, 공급 시스템. In the automatic object alignment, supply system,
An image acquisition unit for acquiring image data of each of a plurality of objects transferred through the transfer means;
An image processor for obtaining object analysis data by obtaining position and direction information of the object based on the image data acquired by the image acquisition unit; And
And a pickup unit for introducing the object into the next process line based on the object analysis data calculated by the image processor.
The image processing unit obtains external information of the object from the image data, sets a region of interest, calculates a center point coordinate having maximum distance information based on distance information between pixels in the region of interest, and obtains size data and position data. To obtain
The center point coordinates of the longest region are obtained as direction data and attitude data based on the edge position of the object and the interval information between the edges based on the center point coordinates.
The object is a crustacean, and the image processor obtains the center point coordinates of the longest region as direction data and attitude data based on the center position coordinates and the distance information between the legs.
The pickup unit picks up the object by contacting the center point of the object based on the position data, classifies the object in comparison with the classification data and the size data previously stored in a database, and classifies the object by classification. Into the
The pickup unit is characterized in that the object is introduced into the next process line so that the object is aligned in a predetermined direction based on the direction, attitude data, automatic object alignment, supply system using image processing analysis.
상기 영상획득부는,
이송되는 상기 대상물 측으로 광원을 조사하는 광원조사부와, 상기 대상물을 포함한 영역을 촬상하는 카메라를 포함하는 것을 특징으로 하는, 영상처리분석을 이용한 대상물 자동 정렬, 공급 시스템. The method of claim 1,
The image acquisition unit,
And a camera for photographing an area including the object, and a light source irradiating a light source toward the object to be transported.
상기 영상획득부는
상기 이송수단 일측에 구비되며, 상기 광원조사부와 상기 카메라가 장착되는 지지대를 포함하고,
상기 광원조사부와 상기 대상물 간의 거리, 및 상기 카메라와 상기 대상물 간의 거리 중 적어도 하나를 조절하는 위치조절부와,
상기 광원조사부와 상기 카메라 간의 간격을 조절하는 간격조절부와,
상기 광원조사부의 조사각도와, 상기 카메라의 촬상각도 중 적어도 하나를 조절하는 각도조절부, 중 적어도 하나를 포함하는 것을 특징으로 하는, 영상처리분석을 이용한 대상물 자동 정렬, 공급 시스템. The method of claim 2,
The image acquisition unit
It is provided on one side of the conveying means, and includes a support on which the light source irradiation unit and the camera is mounted,
A position adjusting unit for adjusting at least one of a distance between the light source and the object, and a distance between the camera and the object;
A spacing controller for adjusting a spacing between the light source and the camera;
And at least one of an angle adjusting unit for adjusting at least one of an irradiation angle of the light source irradiating unit and an imaging angle of the camera, automatic object alignment and supply system using image processing analysis.
광원조사부가 이송수단을 통해 이송되는 복수의 대상물 각각으로 광원을 조사하고, 카메라가 상기 대상물을 포함한 영역을 촬상하여 영상회득부가 영상데이터를 획득하는 단계;
상기 영상획득부에서 획득한 영상 데이터를 기반으로 영상처리부가 상기 대상물의 위치, 크기, 자세, 방향정보를 획득하여 대상분석데이터를 산출하는 단계; 및
상기 영상처리부에서 산출된 대상분석데이터를 기반으로 픽업유닛이 상기 대상물을 분류별로 일정한 방향으로 정렬되도록 다음 공정라인으로 투입시키는 단계;를 포함하는 것을 특징으로 하는, 영상처리분석을 이용한 대상물 자동 정렬, 공급 방법.In the automatic object alignment using the image processing analysis according to claim 1, the automatic alignment of the object through the supply system, the supply method,
Irradiating a light source to each of the plurality of objects transferred by the light source irradiation unit through the transfer means, and imaging the area including the object by the camera to obtain image data by the image acquisition unit;
Calculating object analysis data by acquiring position, size, posture, and direction information of the object based on the image data acquired by the image acquisition unit; And
Automatically sorting the target object using the image processing analysis, comprising the step of: the pickup unit based on the target analysis data calculated by the image processing unit to put the object in a predetermined direction by sorting in a predetermined direction; Supply method.
상기 대상분석데이터를 산출하는 단계는,
상기 영상데이터에서 대상물의 외형정보를 획득하고, 관심영역을 획득하고, 상기 관심영역 내 각각의 픽셀간의 거리정보를 바탕으로 최대 거리정보를 가지는 중심점좌표를 산출하여 크기, 위치데이터를 획득하며, 상기 중심점좌표를 기준으로 대상물의 에지 위치와 에지간의 간격정보를 통해 가장 긴영역의 중심점좌표를 방향, 자세데이터로 획득하는 것을 특징으로 하는, 영상처리분석을 이용한 대상물 자동 정렬, 공급 방법.The method of claim 8,
The step of calculating the target analysis data,
Acquiring the appearance information of the object from the image data, obtaining a region of interest, calculating a center point coordinate having the maximum distance information based on the distance information between each pixel in the region of interest, and obtaining size and position data; A method for automatically aligning and supplying an object using image processing analysis, characterized in that the center point coordinate of the longest region is obtained as direction and attitude data through the edge position of the object and the interval information between the edges based on the center point coordinate.
상기 다음 공정라인으로 투입시키는 단계는
상기 픽업유닛이 상기 위치데이터를 기반으로 상기 대상물의 중심점에 접촉하여 상기 대상물을 픽업하며, 데이터베이스에 기 저장된 분류데이터와 상기 크기데이터를 대비하여 상기 대상물을 분류하고 상기 방향, 자세데이터를 기반으로 상기 대상물이 일정한 방향으로 정렬되도록 상기 대상물을 다음 공정라인으로 분류별로 투입시키는 것을 특징으로 하는, 영상처리분석을 이용한 대상물 자동 정렬, 공급 방법.The method of claim 9,
Injecting into the next process line
The pickup unit picks up the object by contacting the center point of the object based on the position data, classifies the object in comparison with the classification data and the size data previously stored in a database and based on the direction and attitude data. Method for automatically sorting and supplying an object using an image processing analysis, characterized in that the object is put into the next process line so that the object is aligned in a predetermined direction.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170168354A KR102027039B1 (en) | 2017-12-08 | 2017-12-08 | Object auto arrangement system using image processing algorithm |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170168354A KR102027039B1 (en) | 2017-12-08 | 2017-12-08 | Object auto arrangement system using image processing algorithm |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20190068662A KR20190068662A (en) | 2019-06-19 |
KR102027039B1 true KR102027039B1 (en) | 2019-09-30 |
Family
ID=67104414
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170168354A KR102027039B1 (en) | 2017-12-08 | 2017-12-08 | Object auto arrangement system using image processing algorithm |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102027039B1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112905525B (en) * | 2019-11-19 | 2024-04-05 | 中科寒武纪科技股份有限公司 | Method and equipment for controlling computing device to perform computation |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014014346A (en) * | 2012-07-05 | 2014-01-30 | Fuji Mach Mfg Co Ltd | Fish small bone pulling-out machine |
WO2017049384A1 (en) * | 2015-09-24 | 2017-03-30 | Canadian Centre For Fisheries Innovation (Ccfi) | A sensor-guided automated method and system for processing crustaceans |
JP2017195891A (en) * | 2013-02-06 | 2017-11-02 | クリアウォーター シーフーズ リミテッド パートナーシップ | Imaging for determining physique of crustacea |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS5246161A (en) | 1975-10-07 | 1977-04-12 | Toyo Boseki | Measuring device for quality of spun yarn |
JPS5482778A (en) | 1977-12-15 | 1979-07-02 | Senichi Masuda | Particle charger |
KR101962204B1 (en) | 2012-12-13 | 2019-07-31 | 한미반도체 주식회사 | Vacuum pickup device |
KR20160080279A (en) | 2014-12-26 | 2016-07-08 | (주)구일엔지니어링 | Grip for the solar wafer contact pad unit and the carrier unit comprising the |
KR101644991B1 (en) | 2015-08-20 | 2016-08-02 | 임영호 | Crab Shells Removal Apparatus Which Can Be Easily Removed Gill |
KR101838940B1 (en) | 2015-11-10 | 2018-03-15 | 이중직 | Apparatus for automatic cutting and peel processing a red crab |
-
2017
- 2017-12-08 KR KR1020170168354A patent/KR102027039B1/en active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014014346A (en) * | 2012-07-05 | 2014-01-30 | Fuji Mach Mfg Co Ltd | Fish small bone pulling-out machine |
JP2017195891A (en) * | 2013-02-06 | 2017-11-02 | クリアウォーター シーフーズ リミテッド パートナーシップ | Imaging for determining physique of crustacea |
WO2017049384A1 (en) * | 2015-09-24 | 2017-03-30 | Canadian Centre For Fisheries Innovation (Ccfi) | A sensor-guided automated method and system for processing crustaceans |
Also Published As
Publication number | Publication date |
---|---|
KR20190068662A (en) | 2019-06-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102027040B1 (en) | Object auto arrangement system using image processing algorithm | |
KR102109698B1 (en) | Object auto sorting, classifying system using image processing algorithm | |
CN107150032B (en) | Workpiece identification and sorting device and method based on multi-image acquisition equipment | |
US9700060B2 (en) | Contour measurement apparatus and contour measurement method for measuring contour of poultry carcass, and deboning device for poultry carcass | |
US10576526B2 (en) | Workpiece conveying system, and workpiece conveying method | |
JP6752891B2 (en) | Sensor-guided automated methods and systems for processing crustaceans | |
US11357237B2 (en) | Apparatus for processing and grading food articles and related methods | |
CN103056884A (en) | Robot system and processed object manufacturing method | |
CA2887261A1 (en) | Vision-assisted system and method for picking of rubber bales in a bin | |
JP7201313B2 (en) | Food transfer system and food gripping device | |
CN107649406A (en) | A kind of efficient more material picking up system of binocular vision and method | |
KR102027039B1 (en) | Object auto arrangement system using image processing algorithm | |
US10194670B2 (en) | Method and apparatus for deshelling shellfish | |
CN108326864B (en) | System of processing | |
WO2022152638A1 (en) | Robotic meat packing plant and method of operating a meat packing plant | |
JP5370788B2 (en) | Object processing system | |
DK180343B1 (en) | System and method for automatic removal of foreign objects from a food surface | |
JP2020192677A (en) | Identification transfer device and identification transfer method of target workpiece | |
DK181389B1 (en) | A robotic working tool, a robotic meat handling system and a method for handling meat products for use in slaughterhouses | |
JP7408143B2 (en) | blood removal device | |
US20240164391A1 (en) | Combined multi-vision automated cutting system | |
JP6167134B2 (en) | Article assembly equipment | |
US11053618B2 (en) | Unwrinkling systems and methods | |
EP4359176A1 (en) | A robotic working tool and a robotic meat handling system for use in slaughterhouses | |
Daley et al. | Robotics and the poultry processing industry |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |