KR20190068663A - Object auto sorting, classifying system using image processing algorithm - Google Patents

Object auto sorting, classifying system using image processing algorithm Download PDF

Info

Publication number
KR20190068663A
KR20190068663A KR1020170168355A KR20170168355A KR20190068663A KR 20190068663 A KR20190068663 A KR 20190068663A KR 1020170168355 A KR1020170168355 A KR 1020170168355A KR 20170168355 A KR20170168355 A KR 20170168355A KR 20190068663 A KR20190068663 A KR 20190068663A
Authority
KR
South Korea
Prior art keywords
data
unit
information
objects
calculating
Prior art date
Application number
KR1020170168355A
Other languages
Korean (ko)
Other versions
KR102109698B1 (en
Inventor
황희선
윤성조
김종걸
이종득
Original Assignee
한국로봇융합연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국로봇융합연구원 filed Critical 한국로봇융합연구원
Priority to KR1020170168355A priority Critical patent/KR102109698B1/en
Publication of KR20190068663A publication Critical patent/KR20190068663A/en
Application granted granted Critical
Publication of KR102109698B1 publication Critical patent/KR102109698B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B07SEPARATING SOLIDS FROM SOLIDS; SORTING
    • B07CPOSTAL SORTING; SORTING INDIVIDUAL ARTICLES, OR BULK MATERIAL FIT TO BE SORTED PIECE-MEAL, e.g. BY PICKING
    • B07C5/00Sorting according to a characteristic or feature of the articles or material being sorted, e.g. by control effected by devices which detect or measure such characteristic or feature; Sorting by manually actuated devices, e.g. switches
    • B07C5/34Sorting according to other particular properties
    • B07C5/342Sorting according to other particular properties according to optical properties, e.g. colour
    • B07C5/3422Sorting according to other particular properties according to optical properties, e.g. colour using video scanning devices, e.g. TV-cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B07SEPARATING SOLIDS FROM SOLIDS; SORTING
    • B07CPOSTAL SORTING; SORTING INDIVIDUAL ARTICLES, OR BULK MATERIAL FIT TO BE SORTED PIECE-MEAL, e.g. BY PICKING
    • B07C5/00Sorting according to a characteristic or feature of the articles or material being sorted, e.g. by control effected by devices which detect or measure such characteristic or feature; Sorting by manually actuated devices, e.g. switches
    • B07C5/36Sorting apparatus characterised by the means used for distribution
    • B07C5/361Processing or control devices therefor, e.g. escort memory
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B07SEPARATING SOLIDS FROM SOLIDS; SORTING
    • B07CPOSTAL SORTING; SORTING INDIVIDUAL ARTICLES, OR BULK MATERIAL FIT TO BE SORTED PIECE-MEAL, e.g. BY PICKING
    • B07C5/00Sorting according to a characteristic or feature of the articles or material being sorted, e.g. by control effected by devices which detect or measure such characteristic or feature; Sorting by manually actuated devices, e.g. switches
    • B07C5/36Sorting apparatus characterised by the means used for distribution
    • B07C5/38Collecting or arranging articles in groups
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J15/00Gripping heads and other end effectors
    • B25J15/06Gripping heads and other end effectors with vacuum or magnetic holding means
    • B25J15/0616Gripping heads and other end effectors with vacuum or magnetic holding means with vacuum
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0093Programme-controlled manipulators co-operating with conveyor means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/10Programme-controlled manipulators characterised by positioning means for manipulator elements
    • B25J9/106Programme-controlled manipulators characterised by positioning means for manipulator elements with articulated links

Abstract

The present invention relates to an object pickup supply automation system and an automatic object pickup supply method. More specifically, the object pickup supply automation system includes: a transfer unit receiving and transferring a plurality of objects in a predetermined direction; an image processing part calculating target analysis data by obtaining image data about each of the objects transferred through the transfer unit; a pickup unit bringing the objects into the next process line based on the target analysis data calculated by the image processing part; and a tracking unit controlling the transfer unit to keep constant the position and posture coordinates of the objects based on the target analysis data. The tracking unit controls the transfer unit to enable the pickup unit to pick up the objects by keeping the position, direction, and posture coordinates of the objects constant as calculated by the image processing part and transferring the objects.

Description

영상처리분석을 이용한 대상물 자동 선별, 분류 시스템 및 자동선별 분류방법{Object auto sorting, classifying system using image processing algorithm}{Object auto sorting, classifying system using image processing algorithm}

본 발명은 영상처리분석을 이용한 대상물 자동 선별, 분류 시스템 및 자동선별 분류방법에 대한 것이다. 보다 상세하게는 대상물인 갑각류의 살(다리살)을 영상처리하여 산출된 대상분석데이터를 기반으로 대상물을 자동으로 등급화하여 선별, 분류, 픽업 공급할 수 있는 장치 및 방법에 대한 것이다. The present invention relates to an automatic object sorting and sorting system and an automatic sorting and sorting method using image processing analysis. More particularly, the present invention relates to an apparatus and method capable of automatically sorting, sorting, sorting, and supplying objects based on object analysis data obtained by image processing a crustacean of a crustacean as an object.

게는 바다에 서식하는 갑각류의 일종으로서, 몸통이 납작하고 온몸이 딱딱한 껍질에 싸여 있으며, 좌우 각각 네상의 다리와, 다른 다리에 비해 굵기가 굵은 좌우 한 쌍의 집게다리가 있다.Crab is a type of crustacea inhabiting the sea. Its body is flat and its body is wrapped in a hard shell. There are four pairs of legs on each side, and a pair of left and right legs, which are thicker than the other legs.

이러한 게는 깨끗한 물로 세척한 후, 그대로 쪄서 먹거나, 끓는 물에 삶아서 몸통이나 다리의 살을 발라 먹거나, 간장으로 조리를 하여 먹기도 하고, 각 부위별로 가공하여 판매하는 실정에 있다.These crabs are washed with clean water and then steamed or boiled, boiled in boiling water to boil the body and legs, eat soy sauce, eat, and processed each part is in the market.

그런데 게를 가공식품으로 가공하기 위해서는 게의 딱딱한 껍질을 제거하고 부위별로 분리하는 가공을 해야 하는데, 이를 위해서는 먼저 게의 껍질을 분리하고, 몸통과 다리를 절단하여 분리하는 작업을 하게 된다.However, in order to process the crab as a processed food, it is necessary to remove the hard shell of the crab and separate it into separate parts. In order to do this, the shell of the crab is first separated and the trunk and leg are cut and separated.

따라서 종래에는 작업자가 절단칼을 들고 작업대 위에 게를 놓고 수작업으로 게의 등껍질을 분리하고, 몸통과 게다리와 집게다리를 절단하여 분리하게 되는데 힘이 많이 들고 숙련된 기술력을 요하므로 작업비용이 많이 드는 불편이 있었다.Therefore, conventionally, an operator places a crab on a work table with a cutting knife, separates the back skin of the crab manually, and cuts off the trunk, the leg and the legs of the crab. There was an inconvenience.

이러한 게의 가공공정은 자숙전 공정, 자숙, 게살추출, 포장공정으로 크게 나눌 수 있으며 오랜기간 경험을 통해 부분적으로 자동화를 이루고 있다. 현재, 탈갑장치 등을 통해 절단과 몸통살과 다리살을 추출하는 공정은 어느정도 자동화되어 있는 실정이다. The process of processing crabs can be broadly divided into pre - processing, digestion, crab meat extraction, and packaging processes, and has been partly automated through long experience. At present, the process of cutting, body trimming, and leg flesh extraction through an eavesdropping device is somewhat automated.

이러한 게의 탈갑, 절단, 운반과정에 대한 자동화 기술을 대한민국 공개특허 제2017-0054975호, 등록특허 제1644991호 등에 기재되어 있다. 그러나 게의 탈갑, 절단 후 생성된 다리살을 등급화, 분류화하여 자동공급하기 위한 기술은 현재 공개되어 있지 않다. Automatic techniques for eliminating, cutting and transporting such crabs are disclosed in Korean Patent Laid-Open Nos. 2017-0054975 and 1644991. [ However, the technology for classifying and classifying and automatically supplying the leg flesh generated after the cutting of the crab and the cut is not disclosed at present.

즉, 현재는 갑각류의 다리살을 크기별로 불량품과 정상품을 선별하고, 정상품 내에서 등급별로 분류하기 위해서 현재는 사람의 수작업으로 하나하나 분류하여 투입하고 있는 실정이다. 도 1에 도시된 바와 같이, 갑각류의 다리살의 측정, 분류, 선별, 공급과 관련된 일련의 작업자 대부분 수작업으로 수행하고 있으며, 이와 같은 수작업으로 인해 공정상 가장 많은 작업인원이 필요하며 노동집약적 작업으로 작업효율이 현저히 떨어질 뿐 아니라, 생산성이 현격히 떨어지는 문제점이 존재한다. In other words, currently we are classifying crustaceans by hand in order to sort out the defective and fixed products by size, and to classify them into classified products in regular products. As shown in FIG. 1, most of the workers involved in the measurement, sorting, screening, and supplying of the leg flesh of crustaceans are manually operated. Due to this manual operation, the most number of workers is required in the process. There is a problem that not only efficiency is significantly lowered but productivity is significantly reduced.

따라서 갑각류의 다리살 등과 같은 대상물을 크기에 따라 정상품을 선별하고, 선별된 대상물을 등급화 분류하여 자동으로 이동, 공급, 정렬시킬 수 있는 장치 및 방법이 요구되었다. Therefore, there has been a demand for an apparatus and a method that can automatically move, supply, and align the selected objects according to the sizes of objects such as crustacean of the crustacean, classify and sort the selected objects, and so on.

대한민국 공개특허 제2017-0054975호Korean Patent Publication No. 2017-0054975 대한민국 등록특허 제1644991호Korea Patent No. 1644991 일본 등록특허 제5482778호Japanese Patent No. 5482778 일본 등록특허 제5246161호Japanese Patent No. 5246161 대한민국 공개특허 제2014-0076828호Korea Patent Publication No. 2014-0076828 대한민국 공개특허 제2016-0080279호Korean Patent Publication No. 2016-0080279

따라서 본 발명은 상기와 같은 종래의 문제점을 해결하기 위하여 안출된 것으로서, 본 발명의 실시예에 따르면, 대상물의 선별, 등급별 분류를 위해 영상처리를 이용하여 위치, 길이, 방향을 계산 산출할 수 있는 방법을 제공하는 데 그 목적이 있다.SUMMARY OF THE INVENTION Accordingly, the present invention has been made keeping in mind the above problems occurring in the prior art, and it is an object of the present invention to provide an image processing apparatus and method capable of calculating and calculating a position, a length, The purpose is to provide a method.

또한, 본 발명의 실시예 따르면, 다관절 로봇으로 대상물을 안전, 정확하게 픽업하여 다음 공정으로 이동시키는 과정에서, 대상물 픽업 전에 대상물의 위치와, 크기, 방향을 산출하여 자동적으로 대상물을 선별, 분류하고 이러한 대상물을 정렬, 공급, 투입시킬 수 있는 장치 및 방법을 제공하는데 목적이 있다.According to an embodiment of the present invention, in a process of picking up an object safely and accurately with the articulated robot and moving it to the next process, the position, size and direction of the object are calculated before picking up the object, And an object of the present invention is to provide an apparatus and a method for aligning, supplying, and dispensing such objects.

한편, 본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.It is to be understood that both the foregoing general description and the following detailed description of the present invention are exemplary and explanatory and are not intended to limit the invention to the precise form disclosed. It can be understood.

본 발명의 제1목적은 대상물 자동 선별, 분류 시스템에 있어서, 이송수단을 통해 이송되는 다수의 대상물 각각에 대한 영상 데이터를 획득하는 영상획득부; 상기 영상획득부에서 획득한 영상 데이터를 기반으로 상기 대상물의 위치, 길이, 두께, 방향정보를 획득하여 대상분석데이터를 산출하는 영상처리부; 상기 대상분석데이터를 기반으로 상기 대상물을 선별, 분류하여 등급화하는 등급화 수단; 및 상기 등급화수단에 의해 선별, 분류된 상기 대상물을 등급별로 픽업하여 분리, 이송시키는 픽업유닛;을 포함하는 것을 특징으로 하는, 영상처리분석을 이용한 대상물 자동 선별, 분류 시스템으로서 달성될 수 있다. A first object of the present invention is to provide an automatic object sorting and classification system for an object, comprising: an image acquisition unit for acquiring image data for each of a plurality of objects transferred through a transfer means; An image processing unit for acquiring position, length, thickness, and direction information of the object based on the image data acquired by the image acquisition unit and calculating object analysis data; A grading unit for sorting and classifying the objects based on the object analysis data; And a pick-up unit that picks up, separates, and transports the objects selected and sorted by the grading means, by class, and performs automatic object sorting and sorting using image processing analysis.

그리고, 영상처리부는, 영상데이터에서 대상물의 외형정보를 획득하여, 관심영역 설정을 통해 개별 대상물을 분류하고, 각각의 상기 관심영역 내 픽셀간의 거리정보를 바탕으로 최대 거리정보를 가지는 중심점좌표를 산출하여 위치데이터를 획득하며, 상기 대상물 외형정보의 컨투어(contour)정보를 획득하여 길이데이터를 산출하고, 상기 중심점좌표를 기준으로 2 포인트 교점 중 상기 컨투어까지 최소길이를 획득하여 두께데이터를 산출하고, 상기 2 포인트 교점 정보를 바탕으로 이외의 다른 교점 정보로부터 방향데이터를 획득하는 것을 특징으로 할 수 있다. The image processing unit obtains the external shape information of the object from the image data, classifies the individual objects by setting the ROI, and calculates the center point coordinate having the maximum distance information based on the distance information between the pixels in each ROI Obtaining contour information of the object contour information to calculate length data, calculating thickness data by obtaining a minimum length from the two-point intersection point based on the center point coordinate to the contour, And acquires direction data from other intersection information based on the two-point intersection information.

그리고, 상기 대상물은 갑각류의 다리살이고, 영상처리부는 상기 다리살의 외형정보를 획득하여 관심영역설정을 통해 개별 다리살을 분류하고, 각각의 관심영역 내 픽셀간의 거리정보를 이용하여 중심점좌표를 획득하여 위치데이터를 산출하고, 상기 다리살의 외형정보의 컨투어 정보를 획득 및 1/2하여 길이데이터를 계산하고, 상기 중심점좌표를 기준으로 상기 컨투어까지 최소길이 및 2 포인트 교점을 획득하여 두께데이터를 산출하고, 상기 2 포인트 교점 정보를 바탕으로 이외의 최소 교점으로부터 방향데이터를 획득하는 것을 특징으로 할 수 있다. The image processing unit obtains the external shape information of the legs to classify the individual legs by setting the region of interest and obtains the center point coordinates using the distance information between pixels in each region of interest Calculating length data by obtaining contour information of the contour information of the bristles and calculating the length data and obtaining the minimum length and two point intersections from the contour to the contour based on the center point coordinates to calculate thickness data And acquires direction data from other minimum intersection points based on the two-point intersection information.

또한, 상기 픽업 유닛은 이송방향을 따라 서로 특정간격 이격되어 배치되는 다수의 다관절로봇으로 구성되어, 다관절로봇 각각은 상기 위치데이터를 기반으로 상기 대상물의 중심점을 흡착하여 상기 대상물을 픽업하며, 상기 등급화수단은 데이터베이스에 기 저장된 분류데이터와 상기 길이, 두께데이터를 대비하여 상기 대상물을 불량과 정상으로 선별하고, 상기 대상물을 등급화하며, 상기 다관절로봇은 동일 등급별로 상기 대상물을 픽업하여 등급별로 상기 대상물을 다음 공정라인으로 분리 공급시키는 것을 특징으로 할 수 있다. The pick-up unit may include a plurality of articulated robots spaced apart from each other by a predetermined distance along a conveying direction. Each of the articulated robots picks up the object by picking up a center point of the object based on the position data, Wherein the grading means classifies the object into a defect and a normal by comparing the classification data previously stored in the database with the length and thickness data, and grades the object, and the articulated robot picks up the object by the same grade And the object is separately supplied to the next process line for each grade.

그리고, 다관절로봇은, 방향데이터를 기반으로 상기 대상물이 일정한 방향으로 정렬되도록 상기 대상물을 다음 공정라인으로 투입시키는 것을 특징으로 할 수 있다. And, the articulated robot may be configured to insert the object into the next process line so that the object is aligned in a certain direction based on the direction data.

또한, 상기 다관절로봇은 다축구동부와, 다축구동부 끝단에 구비되어 상기 대상물의 위치 정보를 기반으로 상기 대상물의 중심점 부분을 흡착시키는 진공흡착수단을 포함하고, 상기 다축구동부는 상기 대상물의 방향데이터를 기반으로 픽업된 상기 대상물이 다음 공정라인에 일정한 방향을 정렬되도록 투입시키도록 하는 것을 특징으로 할 수 있다. Also, the articulated robot may include a multi-soccer robot and a vacuum adsorption unit provided at an end of the multi-soccer hoop for adsorbing a center point portion of the object based on the positional information of the object, And the object picked up on the basis of the direction data is inserted into the next process line so as to be aligned in a certain direction.

그리고, 상기 진공흡착수단은, 일단에 흡입단이 구비되고 타단에 배출단이 구비된 몸체와, 상기 몸체 하단 중단에 구비되며 주름관 형태로 구성된 흡착패드와, 상기 흡착패드 측에 진공이 발생되도록 상기 몸체에 구비되는 진공발생기와 공압밸브를 포함하거나, 또는 몸체와, 상기 몸체의 외주면에 서로 특정 반경으로 이격된 복수의 진공발생기와, 복수의 상기 진공발생기 각각에 연결된 공압밸브와, 상기 몸체 하부면에 구비되어 복수의 상기 진공발생기 각각에 의해 생성된 흡착력에 의해 상기 대상물을 픽업하는 주름관 형태로 구성된 복수의 흡착패드를 포함하는 것을 특징으로 할 수 있다. The vacuum adsorption unit may include a body having a suction end at one end and a discharge end at the other end, an adsorption pad provided at the lower end of the body and having a corrugated tube shape, A vacuum cleaner comprising: a vacuum generator and a pneumatic valve provided on a body; a body; a plurality of vacuum generators spaced apart from each other by a specific radius on an outer circumferential surface of the body; a pneumatic valve connected to each of the plurality of vacuum generators; And a plurality of suction pads arranged in a shape of a corrugated pipe for picking up the object by an attraction force generated by each of the plurality of vacuum generators.

또한, 진공흡착수단은 상기 대상물 흡착시 수분, 이물질을 필터링하도록 상기 흡착패드 내부에 구비되는 필터를 더 포함하는 것을 특징으로 할 수 있다. The vacuum adsorption unit may further include a filter disposed inside the adsorption pad to filter moisture and foreign substances when the object is adsorbed.

본 발명의 제2목적은 대상물 자동 선별, 분류 방법에 있어서, 이송수단으로 다수의 대상물이 투입되어 상기 대상물이 일정방향으로 이송되는 단계; 영상획득부가 상기 대상물을 포함한 영역의 영상데이터를 획득하는 단계; 영상처리부가 상기 이송수단을 통해 이송되는 다수의 대상물 각각에 대한 위치, 길이, 두께, 방향데이터를 획득하여 대상분석데이터를 산출하는 단계; 등급화 수단이 길이, 두께데이터를 기반으로 상기 대상물을 선별, 분류하여 등급화하는 단계; 및 상기 영상처리부에서 산출된 위치데이터를 기반으로 다수의 다관절로봇 각각이 상기 등급화 수단에 의해 등급화된 분류별로 상기 대상물을 중심점 부분을 진공흡착수단에 의해 픽업하는 단계; 상기 다관절로봇의 다축구동부에 의해 픽업된 상기 대상물을 이송하여 상기 대상물의 방향데이터를 기반으로 상기 대상물이 등급별로 일정한 방향으로 정렬되도록 다음 공정라인으로 이동시키는 단계; 및 상기 진공흡착수단의 흡착력을 해제하여 상기 대상물이 분류별로 일정한 방향으로 정렬되도록 다음 공정라인으로 투입되는 단계;를 포함하는 것을 특징으로 하는 영상처리분석을 이용한 대상물 자동 선별, 분류 방법으로서 달성될 수 있다. A second object of the present invention is to provide a method and apparatus for automatic sorting and sorting of objects, comprising the steps of feeding a plurality of objects by a conveying means and conveying the objects in a predetermined direction; An image acquiring unit acquiring image data of an area including the object; Acquiring position, length, thickness, and orientation data for each of a plurality of objects transferred through the transfer unit, and calculating object analysis data; Classifying means for sorting and classifying the objects based on length and thickness data; And a plurality of articulated robots each picking up a center point portion of the object by the vacuum suction means according to the classification classified by the gradation means, based on the position data calculated by the image processing portion; Moving the object picked up by the multi-joint eccentricity of the articulated robot to a next process line so that the object is aligned in a predetermined direction on the basis of direction data of the object; And releasing the attraction force of the vacuum adsorption means and inputting the object to the next process line so that the object is sorted in a predetermined direction according to the classification. have.

또한, 상기 대상분석데이터를 산출하는 단계는, 상기 영상데이터에서 대상물의 외형정보를 획득하여, 관심영역 설정을 통해 개별 대상물을 분류하고, 각각의 상기 관심영역 내 픽셀간의 거리정보를 바탕으로 최대 거리정보를 가지는 중심점좌표를 산출하여 위치데이터를 획득하며, 상기 대상물 외형정보의 컨투어(Contour) 정보를 획득하여 길이데이터를 산출하고, 상기 중심점좌표를 기준으로 상기 컨투어까지 최소길이 및 2 포인트 교점을 획득하여 두께데이터를 산출하고, 상기 2 포인트 교점 정보를 바탕으로 이외의 최소 교점으로부터 방향데이터를 획득하는 것을 특징으로 할 수 있다. The step of calculating the object analysis data may include the steps of acquiring the external shape information of the object from the image data, classifying individual objects through the ROI setting, Obtaining contour information of the contour information of the object, calculating length data, obtaining a minimum length and a two-point intersection point to the contour based on the center point coordinate, And acquiring direction data from other minimum intersection points based on the two-point intersection information.

본 발명의 일실시예에 따른 영상처리분석을 이용한 대상물 자동 선별, 분류 시스템에 따르면, 대상물의 선별, 분류 및 자동정렬시키기 위해 영상처리를 이용하여 위치, 길이, 방향을 계산 산출할 수 있는 효과를 갖는다. According to an automatic object sorting and sorting system using image processing analysis according to an embodiment of the present invention, an effect of calculating and calculating a position, a length, and a direction using image processing for sorting, sorting, and automatically aligning objects .

또한, 본 발명의 일실시예에 따른 영상처리분석을 이용한 대상물 자동 선별, 분류 시스템에 따르면, 다관절 로봇으로 대상물을 픽업하여 이동시키는 과정에서, 대상물 픽업 전에 대상물의 위치와, 크기, 방향을 산출하여 자동적으로 대상물을 선별, 분류하고 이러한 대상물을 일정한 방향으로 다음공정으로 정렬, 공급, 투입시킬 수 있는 효과를 갖는다. According to the object sorting and sorting system using image processing analysis according to an embodiment of the present invention, in the process of picking up and moving an object with the articulated robot, the position, size, and direction of the object are calculated It is possible to automatically sort, sort, sort and sort the objects and arrange, supply, and input the objects in a predetermined direction to the next process.

그리고, 본 발명의 일실시예에 따른 영상처리분석을 이용한 대상물 자동 선별, 분류 시스템에 따르면, 대상물을 선별, 분류하고자 할 경우 대상물의 위치, 길이, 방향을 계산하여 가공공정의 반복, 획일적인 부분을 자동화할 수 있어 분류 공정의 오류를 최소화할 수 있고, 가공품의 품질을 일정하게 유지시킬 수 있는 장점이 있다. According to the object sorting and sorting system using image processing analysis according to an embodiment of the present invention, when the object is selected and classified, the position, length, and direction of the object are calculated, It is possible to minimize errors in the sorting process and to maintain the quality of the workpieces constantly.

한편, 본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.It should be understood, however, that the effects obtained by the present invention are not limited to the above-mentioned effects, and other effects not mentioned may be clearly understood by those skilled in the art to which the present invention belongs It will be possible.

본 명세서에 첨부되는 다음의 도면들은 본 발명의 바람직한 일실시예를 예시하는 것이며, 발명의 상세한 설명과 함께 본 발명의 기술적 사상을 더욱 이해시키는 역할을 하는 것이므로, 본 발명은 그러한 도면에 기재된 사항에만 한정되어 해석 되어서는 아니 된다.
도 1은 종래 수작업으로 다리살을 선별, 분류하고 있는 사진,
도 2는 본 발명의 실시예에 따른 영상처리분석을 이용한 대상물 자동 선별, 분류 시스템의 사시도,
도 3은 본 발명의 실시예에 따른 영상처리분석을 이용한 대상물 자동 선별, 분류 시스템의 영상획득부와 이동수단의 사시도,
도 4a 및 도 4b는 본 발명의 실시예에 따른 영상획득부의 사시도, 정면도,
도 5a는 본 발명의 실시예에 따른 영상획득부에서 획득된 영상데이터
도 5b는 본 발명의 실시예에 따른 영상처리부에 의해 획득된 대상물의 ROI영역을 나타낸 데이터,
도 5c는 본 발명의 실시예에 따라 영상처리부에서 산출된 대상분석데이터,
도 6은 본 발명의 실시예에 따른 트랙킹 유닛의 사시도,
도 7은 본 발명의 실시예에 따른 트랙킹 유닛의 속도위치감지엔코더의 분해 사시도,
도 8a는 본 발명의 실시예에 따른 픽업유닛의 사시도,
도 8b는 본 발명의 실시예에 따른 흡착수단의 단면도를 도시한 것이다.
BRIEF DESCRIPTION OF THE DRAWINGS The accompanying drawings, which are incorporated in and constitute a part of the specification, illustrate preferred embodiments of the invention and, together with the description, serve to further the understanding of the technical idea of the invention, It should not be construed as limited.
FIG. 1 is a photograph showing a conventional method of sorting and sorting leg fingers by hand,
2 is a perspective view of an automatic object sorting and sorting system using image processing analysis according to an embodiment of the present invention,
3 is a perspective view of an image acquiring unit and a moving unit of an automatic object sorting and sorting system using image processing analysis according to an embodiment of the present invention,
FIGS. 4A and 4B are a perspective view, a front view, a side view, and a side view of the image acquiring unit according to the embodiment of the present invention;
FIG. 5A is a diagram illustrating an example of the image data obtained by the image obtaining unit according to the embodiment of the present invention.
FIG. 5B is a diagram illustrating data representing an ROI area of an object obtained by the image processing unit according to an embodiment of the present invention,
FIG. 5C is a diagram illustrating an example of the target analysis data calculated in the image processing unit according to the embodiment of the present invention,
6 is a perspective view of a tracking unit according to an embodiment of the present invention,
7 is an exploded perspective view of a speed position sensing encoder of a tracking unit according to an embodiment of the present invention,
8A is a perspective view of a pickup unit according to an embodiment of the present invention,
8B shows a cross-sectional view of the absorption means according to the embodiment of the present invention.

이상의 본 발명의 목적들, 다른 목적들, 특징들 및 이점들은 첨부된 도면과 관련된 이하의 바람직한 실시예들을 통해서 쉽게 이해될 것이다. 그러나 본 발명은 여기서 설명되는 실시예들에 한정되지 않고 다른 형태로 구체화될 수도 있다. 오히려, 여기서 소개되는 실시예들은 개시된 내용이 철저하고 완전해질 수 있도록 그리고 통상의 기술자에게 본 발명의 사상이 충분히 전달될 수 있도록 하기 위해 제공되는 것이다.BRIEF DESCRIPTION OF THE DRAWINGS The above and other objects, features, and advantages of the present invention will become more readily apparent from the following description of preferred embodiments with reference to the accompanying drawings. However, the present invention is not limited to the embodiments described herein but may be embodied in other forms. Rather, the embodiments disclosed herein are provided so that this disclosure will be thorough and complete, and will fully convey the concept of the invention to those skilled in the art.

본 명세서에서, 어떤 구성요소가 다른 구성요소 상에 있다고 언급되는 경우에 그것은 다른 구성요소 상에 직접 형성될 수 있거나 또는 그들 사이에 제 3의 구성요소가 개재될 수도 있다는 것을 의미한다. 또한 도면들에 있어서, 구성요소들의 두께는 기술적 내용의 효과적인 설명을 위해 과장된 것이다.In this specification, when an element is referred to as being on another element, it may be directly formed on another element, or a third element may be interposed therebetween. Also in the figures, the thickness of the components is exaggerated for an effective description of the technical content.

본 명세서에서 기술하는 실시예들은 본 발명의 이상적인 예시도인 단면도 및/또는 평면도들을 참고하여 설명될 것이다. 도면들에 있어서, 막 및 영역들의 두께는 기술적 내용의 효과적인 설명을 위해 과장된 것이다. 따라서 제조 기술 및/또는 허용 오차 등에 의해 예시도의 형태가 변형될 수 있다. 따라서 본 발명의 실시예들은 도시된 특정 형태로 제한되는 것이 아니라 제조 공정에 따라 생성되는 형태의 변화도 포함하는 것이다. 예를 들면, 직각으로 도시된 영역은 라운드지거나 소정 곡률을 가지는 형태일 수 있다. 따라서 도면에서 예시된 영역들은 속성을 가지며, 도면에서 예시된 영역들의 모양은 소자의 영역의 특정 형태를 예시하기 위한 것이며 발명의 범주를 제한하기 위한 것이 아니다. 본 명세서의 다양한 실시예들에서 제1, 제2 등의 용어가 다양한 구성요소들을 기술하기 위해서 사용되었지만, 이들 구성요소들이 이 같은 용어들에 의해서 한정되어서는 안 된다. 이들 용어들은 단지 어느 구성요소를 다른 구성요소와 구별시키기 위해서 사용되었을 뿐이다. 여기에 설명되고 예시되는 실시예들은 그것의 상보적인 실시예들도 포함한다.Embodiments described herein will be described with reference to cross-sectional views and / or plan views that are ideal illustrations of the present invention. In the drawings, the thicknesses of the films and regions are exaggerated for an effective description of the technical content. Thus, the shape of the illustrations may be modified by manufacturing techniques and / or tolerances. Accordingly, the embodiments of the present invention are not limited to the specific forms shown, but also include changes in the shapes that are produced according to the manufacturing process. For example, the area shown at right angles may be rounded or may have a shape with a certain curvature. Thus, the regions illustrated in the figures have attributes, and the shapes of the regions illustrated in the figures are intended to illustrate specific forms of regions of the elements and are not intended to limit the scope of the invention. Although the terms first, second, etc. have been used in various embodiments of the present disclosure to describe various components, these components should not be limited by these terms. These terms have only been used to distinguish one component from another. The embodiments described and exemplified herein also include their complementary embodiments.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 '포함한다(comprises)' 및/또는 '포함하는(comprising)'은 언급된 구성요소는 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다.The terminology used herein is for the purpose of illustrating embodiments and is not intended to be limiting of the present invention. In the present specification, the singular form includes plural forms unless otherwise specified in the specification. The terms "comprises" and / or "comprising" used in the specification do not exclude the presence or addition of one or more other elements.

아래의 특정 실시예들을 기술하는데 있어서, 여러 가지의 특정적인 내용들은 발명을 더 구체적으로 설명하고 이해를 돕기 위해 작성되었다. 하지만 본 발명을 이해할 수 있을 정도로 이 분야의 지식을 갖고 있는 독자는 이러한 여러 가지의 특정적인 내용들이 없어도 사용될 수 있다는 것을 인지할 수 있다. 어떤 경우에는, 발명을 기술하는 데 있어서 흔히 알려졌으면서 발명과 크게 관련 없는 부분들은 본 발명을 설명하는데 있어 별 이유 없이 혼돈이 오는 것을 막기 위해 기술하지 않음을 미리 언급해 둔다.In describing the specific embodiments below, various specific details have been set forth in order to explain the invention in greater detail and to assist in understanding it. However, it will be appreciated by those skilled in the art that the present invention may be understood by those skilled in the art without departing from such specific details. In some instances, it should be noted that portions of the invention that are not commonly known in the description of the invention and are not significantly related to the invention do not describe confusing reasons to explain the present invention.

이하에서는 본 발명에 따른 영상처리분석을 이용한 대상물 자동 선별, 분류 시스템(1)의 구성 및 기능에 대해 설명하도록 한다. 본 발명에 따른 영상처리분석을 이용한 대상물 자동 선별, 분류 시스템(1)은 전체적으로 영상획득부(10)와, 영상처리부, 등급화수단, 트랙킹 유닛(30), 픽업유닛(60) 등을 포함하여 구성될 수 있다. Hereinafter, the structure and function of the object sorting and sorting system 1 using the image processing analysis according to the present invention will be described. The object automatic sorting and sorting system 1 using the image processing analysis according to the present invention includes an image obtaining unit 10, an image processing unit, a grading unit, a tracking unit 30, a pick-up unit 60, Lt; / RTI >

영상획득부(10)는 이송수단을 통해 이송되는 다수의 대상물 각각에 대한 영상 데이터를 획득하도록 구성된다. 그리고, 영상처리부는 영상획득부(10)에서 획득한 영상 데이터를 기반으로 상기 대상물의 위치, 방향정보를 획득하여 대상분석데이터를 산출하도록 구성된다. 또한 픽업유닛(60)은 영상처리부에서 산출된 대상분석데이터를 기반으로 대상물을 다음 공정라인으로 분류 투입시키도록 구성된다. The image acquiring unit 10 is configured to acquire image data for each of a plurality of objects conveyed through the conveying means. The image processing unit is configured to acquire position and direction information of the object based on the image data acquired by the image acquisition unit 10, and to calculate the object analysis data. In addition, the pick-up unit 60 is configured to classify the object into the next process line based on the analysis data calculated by the image processor.

도 2는 본 발명의 실시예에 따른 영상처리분석을 이용한 대상물 자동 선별, 분류 시스템의 사시도를 도시한 것이다. 그리고, 도 3은 본 발명의 실시예에 따른 영상처리분석을 이용한 대상물 자동 선별, 분류 시스템의 영상획득부와 이동수단의 사시도를 도시한 것이다. 도 2 및 도 3에 도시된 바와 같이. 영상획득부(10)는, 컨베어(31) 등과 같은 이송수단을 통해 이송되는 대상물 측으로 광원을 조사하는 광원조사부(12)와, 대상물을 포함한 영역을 촬상하는 카메라(13)를 포함하여 구성될 수 있다. 도 4a 및 도 4b는 본 발명의 실시예에 따른 영상획득부(10)의 사시도, 정면도를 도시한 것이다. 2 is a perspective view of an automatic object sorting and sorting system using image processing analysis according to an embodiment of the present invention. 3 is a perspective view of an image acquisition unit and a moving unit of an object sorting and sorting system using image processing analysis according to an exemplary embodiment of the present invention. As shown in Figures 2 and 3, The image acquiring unit 10 may include a light source irradiating unit 12 for irradiating a light source toward an object to be transferred through a conveying unit such as a conveyor 31 and a camera 13 for imaging an area including the object have. 4A and 4B are a perspective view and a front view of the image acquiring unit 10 according to the embodiment of the present invention.

본 발명의 구체적 실시예에 따른 대상물은 갑각류일 수 있고, 보다 구체적으로 게의 다리살(2)일 수 있다. 이하에서는 다리살(2)을 대상물의 일예로 하여 설명하도록 한다. 이러한 다리살(2)은 대상물의 예시에 불과할 뿐 권리범위를 제한해석해서는 아니될 것이다. The object according to a specific embodiment of the present invention may be a crustacean, and more specifically a crab leg 2. Hereinafter, the leg flesh 2 will be described as an example of the object. These legs (2) are merely examples of objects and should not be construed as limiting the scope of rights.

도 3에 도시된 바와 같이, 영상획득부(10)는 이송수단 일측에 지지대(11)가 구비되며, 지지대(11)의 일측에는 광원조사부(12)와 카메라(13)가 장착되게 됨을 알 수 있다. 이러한 영상획득부(10)는 다리살(2)의 영상데이터를 획득하기 위한 것으로 광원조사부(12)는 레이저 센서로 구성될 수 있고, 카메라(13)는 레이저 카메라(13)로 구성되며, 이송수단은 컨베어(31)로 구성된다. 따라서 다량으로 이송되어지는 다리살(2)의 영상데이터를 실시간으로 획득할 수 있게 된다. 3, the image acquiring unit 10 is provided with a support 11 on one side of the conveying means and a light source irradiating unit 12 and a camera 13 are mounted on one side of the support 11 have. The image acquiring unit 10 is for acquiring image data of the legs 2 and the light source irradiating unit 12 may be constituted by a laser sensor. The camera 13 is composed of a laser camera 13, The means consists of a conveyor 31. Accordingly, the image data of the legs 2 to be transferred in a large quantity can be acquired in real time.

또한, 본 발명의 실시예에 따른 영상획득부(10)는 광원조사부(12)와 다리살(2) 간의 거리, 및 카메라(13)와 다리살(2) 간의 거리 중 적어도 하나를 조절하는 위치조절부와, 광원조사부(12)와 카메라(13) 간의 간격을 조절하는 간격조절부와, 광원조사부(12)의 조사각도와, 상기 카메라(13)의 촬상각도 중 적어도 하나를 조절하는 각도조절부를 더 포함하여 구성될 수도 있다. The image acquiring unit 10 according to the embodiment of the present invention may further include a position adjusting unit for adjusting at least one of the distance between the light source irradiating unit 12 and the legs 2 and the distance between the camera 13 and the legs 2, An adjusting unit for adjusting at least one of an irradiation angle of the light source irradiating unit 12 and an imaging angle of the camera 13, a distance adjusting unit for adjusting the distance between the light source irradiating unit 12 and the camera 13, May be further included.

본 발명의 실시예에 따른 영상처리부는, 영상데이터에서 대상물의 외형정보를 획득하여, 관심영역 설정을 통해 개별 대상물을 분류하고, 각각의 상기 관심영역 내 픽셀간의 거리정보를 바탕으로 최대 거리정보를 가지는 중심점좌표를 산출하여 위치데이터를 획득하게 된다. The image processing unit according to the embodiment of the present invention acquires the external shape information of the object from the image data, classifies the individual objects through the ROI setting, and calculates the maximum distance information based on the distance information between pixels in each ROI The positional data is obtained by calculating the coordinates of the center point.

또한, 영상처리부는 대상물 외형정보의 컨투어(contour)정보(둘레값 정보)를 획득하여 길이데이터를 산출하고, 중심점좌표를 기준으로 2 포인트 교점 중 상기 컨투어까지 최소길이를 획득하여 두께데이터를 산출하고, 2 포인트 교점 정보를 바탕으로 이외의 다른 교점 정보로부터 방향데이터를 획득하게 된다. Also, the image processing unit obtains contour information (circumference value information) of the object contour information, calculates length data, calculates thickness data by obtaining a minimum length from the two-point intersection point to the contour with reference to the center point coordinate , Direction data is acquired from other intersection information based on the 2-point intersection information.

도 5a는 본 발명의 실시예에 따른 영상획득부에서 획득된 영상데이터를 도시한 것이다. 그리고, 도 5b는 본 발명의 실시예에 따른 영상처리부에 의해 획득된 대상물의 ROI영역을 나타낸 데이터를 도시한 것이다. 그리고, 도 5c는 본 발명의 실시예에 따라 영상처리부에서 산출된 대상분석데이터를 도시한 것이다. FIG. 5A illustrates image data obtained by an image acquisition unit according to an embodiment of the present invention. FIG. FIG. 5B illustrates data representing an ROI region of an object acquired by the image processing unit according to the embodiment of the present invention. FIG. 5C shows the analysis data of the object calculated by the image processing unit according to the embodiment of the present invention.

도 5a, 도 5b에 도시된 바와 같이, 먼저, 영상처리부는 다리살(2)의 외형정보를 파악하게 되고, 다리살(2)의 외형정보에서 관심영역(ROI)을 획득하게 된다. As shown in FIGS. 5A and 5B, first, the image processing unit grasps the appearance information of the legs 2 and obtains the ROIs from the external information of the legs 2.

그리고, 도 5c에 도시된 바와 같이, ROI 영역 내 각각의 픽셀 간 거리정보를 바탕으로 최대 거리정보를 가지는 무게 중심점 좌표를 계산하게 된다. 이러한 중심점 좌표로부터 다리살(2)의 위치데이터를 획득하게 된다. 즉, 관심영역 내의 모든 픽셀에 대하여 픽셀의 위치와 컨투어 까지의 최단거리를 각각 구하고, 이러한 최단 거리중 최대 거리를 갖는 픽셀의 위치를 중심점 좌표로 결정하게 된다. Then, as shown in FIG. 5C, the center-of-gravity coordinates having the maximum distance information are calculated based on the distance information between the pixels in the ROI region. And obtains the position data of the legs 2 from these center point coordinates. That is, the position of the pixel and the shortest distance to the contour are obtained for all the pixels in the ROI, and the position of the pixel having the maximum distance among the shortest distances is determined as the coordinates of the center point.

그리고 도 5c에 도시된 바와 같이, 다리살(2)의 외형정보의 컨투어 정보를 획득 및 1/2하여 길이데이터를 계산하게 된다. 즉, 다리살(2) 컨투어 정보는 다리살(2)의 둘레 길이가 되고, 이러한 둘레길이의 1/2을 길이데이터로 획득하게 된다. Then, as shown in FIG. 5C, the contour information of the contour information of the legs 2 is acquired and half is calculated to calculate the length data. That is, the contour information of the legs 2 is the circumference of the legs 2, and 1/2 of the circumference is obtained as the length data.

또한, 도 5c에 도시된 바와 같이, 중심점좌표를 기준으로 컨투어까지 최소길이, 2 포인트 교점을 획득하여 이러한 최소길이를 두께데이터를 산출하게 된다. 그리고, 도 5c에 도시된 바와 같이, 최소 2 포인트 교점 선과 직교하는 방향을 다리살의 방향데이터를 획득하게 된다. In addition, as shown in FIG. 5C, the minimum length and the two-point intersection are obtained up to the contour based on the center point coordinates, and the minimum length is calculated as the thickness data. Then, as shown in FIG. 5C, directional data of the legs are obtained in a direction orthogonal to the intersection line of at least two points.

그리고, 등급화수단은 대상분석데이터를 기반으로 대상물을 선별, 분류하여 등급화하게 된다. 또한, 픽업 유닛은 이송방향을 따라 서로 특정간격 이격되어 배치되는 다수의 다관절로봇으로 구성된다. Then, the grading means classifies the objects based on the object analysis data. Further, the pick-up unit is constituted by a plurality of articulated robots arranged at specific intervals from each other along the transport direction.

따라서 다관절로봇 각각은 영상처리부에서 획득한 다리살(2)의 위치데이터를 기반으로 다리살(2)의 중심점을 흡착하여 다리살을 픽업하게 된다. Therefore, each of the articulated robots picks up the legs by absorbing the center point of the legs 2 based on the position data of the legs 2 acquired by the image processing unit.

또한, 등급화수단은 데이터베이스에 기 저장된 분류데이터와 영상처리부에서 획득한 다리살의 길이, 두께데이터를 대비하여 다리살(2)을 불량과 정상으로 선별하고, 정상으로 선별된 다리살(2)을 길이, 두께 데이터에 기반하여, 분류(예를 들어 1등급, 2등급, 3등급)하게 된다. In addition, the grading means selects the legs 2 as defective and normal by comparing the length data and the thickness data obtained from the image processing unit with the classification data previously stored in the database, (For example, 1 grade, 2 grades, 3 grades) based on length, thickness data.

다관절로봇(61)은 불량으로 선별된 다리살(2)은 픽업하지 않고, 동일 등급별로 다리살(2)을 픽업하여 등급별로 다리살(2)을 다음 공정라인으로 분리 공급시키게 된다. 즉, 예를 들어 3등급으로 분류되는 경우, 다관절로봇(61)은 3개로 구성되며 각각의 다관절로봇(61)은 동일한 등급만을 픽업하여 분류하여 분리공급시키게 된다. The articulated robot 61 picks up the leg flesh 2 by the same grade without picking up the leg flesh 2 that has been selected as defective and separately supplies the leg flesh 2 to the next process line by grade. That is, for example, in the case of classifying into three classes, the articulated robot 61 is composed of three bodies, and each of the articulated robots 61 picks up only the same class and classifies and supplies them separately.

또한, 각각의 다관절로봇(61)은, 앞서 언급한 영상처리부에서 산출한 방향데이터를 기반으로 다리살(2)이 일정한 방향으로 정렬되도록 다리살(2)을 다음 공정라인으로 투입시키게 된다. Each of the articulated robots 61 inputs the legs 2 to the next process line so that the legs 2 are aligned in a predetermined direction based on the direction data calculated by the image processor.

이하에서는 영상처리분석을 이용한 대상물 자동 선별, 분류 방법에 대해 설명하도록 한다. 먼저, 컨베어(31)등으로 구성된 이송수단으로 다수의 대상물이 투입되어 대상물이 일정방향으로 이송되게 된다. 그리고, 영상획득부(10)가 대상물을 포함한 영역의 영상데이터를 획득하게 된다. Hereinafter, an automatic object sorting and sorting method using image processing analysis will be described. First, a plurality of objects are inserted into a conveying unit composed of a conveyor 31 or the like, and the object is conveyed in a predetermined direction. Then, the image acquiring unit 10 acquires image data of an area including the object.

그리고, 영상처리부가 이송수단을 통해 이송되는 다수의 대상물 각각에 대한 위치, 길이, 두께, 방향데이터를 획득하여 대상분석데이터를 산출하게 된다. 그리고, 등급화 수단이 길이, 두께데이터를 기반으로 대상물을 분량, 정상으로 선별하고, 정상품을 분류하여 등급화하게 된다. Then, the image processing unit acquires position, length, thickness, and direction data for each of a plurality of objects to be transferred through the transfer means, and calculates the object analysis data. Then, the grading means classifies the objects into small pieces and normal pieces based on the length and the thickness data, and classifies and classifies the regular articles.

그리고 영상처리부에서 산출된 위치데이터를 기반으로 다수의 다관절로봇 각각이 등급화 수단에 의해 등급화된 분류별로 대상물을 중심점 부분을 진공흡착수단에 의해 픽업하게 된다. Then, based on the position data calculated by the image processing unit, each of the plurality of articulated robots picks up the object by the vacuum suction means by the classification classified by the grading means.

그리고 다관절로봇의 다축구동부에 의해 픽업된 대상물을 이송하여 대상물의 방향데이터를 기반으로 대상물이 등급별로 일정한 방향으로 정렬되도록 다음 공정라인으로 이동시키게 된다. Then, the object picked up by the multi-joint robot of the multi-joint robot is transferred and the object is moved to the next process line so that the object is aligned in a predetermined direction based on the direction data of the object.

그리고, 진공흡착수단의 흡착력을 해제하여 대상물이 분류별로 일정한 방향으로 정렬되도록 다음 공정라인으로 투입되게 된다. Then, the adsorption force of the vacuum adsorption unit is released, and the object is put into the next process line so that the object is sorted in a certain direction according to the classification.

이하에서는 본 발명의 실시예에 따른 트랙킹 유닛(30)과 픽업유닛(60)의 구성을 보다 상세하게 설명하도록 한다. 본 발명의 실시예에 따르면 안정적으로 대상물을 이송 및 정확한 이동좌표 추적을 위해 컨베어 트랙킹 유닛(30)을 포함하여 구성될 수 있다. 그리고, 도 6은 본 발명의 실시예에 따른 트랙킹 유닛(30)의 사시도를 도시한 것이다. 또한, 도 7은 본 발명의 실시예에 따른 트랙킹 유닛(30)의 속도위치감지엔코더(50)의 분해 사시도를 도시한 것이다. Hereinafter, the configuration of the tracking unit 30 and the pickup unit 60 according to the embodiment of the present invention will be described in more detail. According to the embodiment of the present invention, the conveyor tracking unit 30 can be configured to transport the object stably and accurately track the movement coordinates. 6 shows a perspective view of the tracking unit 30 according to the embodiment of the present invention. 7 shows an exploded perspective view of the speed position sensing encoder 50 of the tracking unit 30 according to the embodiment of the present invention.

이러한 트랙킹 유닛(30)은 앞서 언급한 영상처리부에서 산출된 대상물의 위치, 방향좌표를 일정하게 유지 및 이송시켜 픽업유닛(60)이 대상물을 정확하게 픽업할 수 있도록 한다. 이하의 실시예에 따른 대상물은 앞서 언급한 바와 같이, 다리살(2)를 예를 들어 설명하도록 한다. The tracking unit 30 maintains and transmits the position and direction coordinates of the object calculated by the image processing unit mentioned above so that the pick-up unit 60 can accurately pick up the object. As described above, the object according to the following embodiment will be described by way of example of the leg cuff 2. [

트랙킹 유닛(30)은 영상처리부에서 산출된 대상분석데이터를 기반으로 다리살(2)의 위치 및 방향좌표가 일정하게 유지되도록 이송수단인 컨베어의 구성을 제어하기 위해 구성된다. 또한, 트랙킹 유닛(30)은 대상물의 이송거리를 측정하여 측정값을 픽업유닛에 전송하게 된다. The tracking unit 30 is configured to control the configuration of the conveyor, which is a conveying means, so that the position and direction coordinates of the legs 2 are kept constant based on the analysis data calculated by the image processing unit. Further, the tracking unit 30 measures the transport distance of the object and transmits the measured value to the pickup unit.

즉, 트랙킹 유닛(30)은, 영상처리부에서 산출된 다리살(2)의 위치, 방향 좌표를 일정하게 유지 및 이송시켜 픽업유닛(60)이 대상물을 픽업할 수 있도록 이송수단을 제어하게 된다. That is, the tracking unit 30 controls the transporting unit so that the pick-up unit 60 picks up the object by keeping the position and direction coordinates of the legs 2 calculated by the image processing unit constant.

이러한 트랙킹 유닛(30)은, 컨베어(31)를 구동시키기 위해 컨베어(31) 일측에 구비된 서보모터(41)와 감속기(42)로 구성된 구동장치(40)를 포함하여 구성된다. 감속기(42)는 대상물의 위치데이터를 기반으로 서보모터를 제어하여 켄베어(31)의 이동속도를 조절하게 된다. The tracking unit 30 includes a driving unit 40 including a servo motor 41 and a speed reducer 42 provided at one side of the conveyor 31 to drive the conveyor 31. [ The speed reducer 42 controls the moving speed of the ken bear 31 by controlling the servo motor based on the position data of the object.

또한, 컨베어(31) 타측에 속도위치감지엔코더(30)가 구비되어, 다리살(2)의 위치, 방향 좌표의 이송거리를 측정하고 측정값을 픽업유닛에 전송하게 된다. Further, a speed position sensing encoder 30 is provided on the other side of the conveyor 31 to measure the distance of the legs 2 and the distance of the coordinates, and transmits the measured value to the pick-up unit.

즉 이송수단인 컨베어(31)는 구동장치(40)에 의해 구동되며, 정확한 다리살(2)의 위치 및 좌표의 이송거리를 측정하기 위해 속도위치감지엔코더(50)가 적용되게 된다. That is, the conveyor 31, which is the conveying means, is driven by the driving device 40, and the speed position sensing encoder 50 is applied to measure the position of the accurate legs 2 and the distance of travel of the coordinates.

이러한 속도위치감지엔코더(50)는, 도 7에 도시된 바와 같이, 회전롤러(52), 텐션조정장치(53), 회전축(51), 엔코더(54) 등을 포함하여 구성될 수 있다. 회전롤러(52)는 컨베어와 접촉하여 회전되게 된다. 이러한 회전롤러(52)는 컨베어와 선접촉하여 회전하며 미끄럼 방지를 위해 우레탄 고무재질이 적용된다. The speed position sensing encoder 50 may be configured to include a rotating roller 52, a tension adjusting device 53, a rotating shaft 51, an encoder 54, and the like, as shown in FIG. The rotating roller 52 is rotated in contact with the conveyor. The rotating roller 52 is rotated in line with the conveyor and is made of a urethane rubber material for preventing slippage.

텐션조정장치(53)는 회전롤러(52)가 컨베어와 접촉되도록 장력을 조절할 수 있도록 구성된다. 즉, 텐션조정장치(53)는 장력을 조정하여 회전롤러(52)가 항상 컨베어와 견고하게 접촉이 일어날 수 있도록 한다. The tension adjusting device 53 is configured to adjust the tension so that the rotating roller 52 is in contact with the conveyor. In other words, the tension adjusting device 53 adjusts the tension so that the rotating roller 52 always makes firm contact with the conveyor.

그리고 회전축(51)은 일측 끝단이 회전롤러(52)와 결합되며, 엔코더(54)는 이러한 회전축(51)의 타측 끝단에 결합되며 회전롤러(52)의 회전수를 기반으로 대상물의 이송거리를 측정하여 픽업유닛에 전송하게 된다. The encoder 54 is coupled to the other end of the rotary shaft 51 and has a moving distance of the object based on the rotation speed of the rotary roller 52 And transmits it to the pickup unit.

이하에서는 본 발명의 실시예에 따른 픽업유닛(60)의 구성 및 기능에 대해 설명하도록 한다. 앞서 언급한 바와 같이, 픽업유닛(60)은 영상처리부에서 산출된 위치데이터를 기반으로 다리살(2)의 중심점에 접촉하여 다리살(2)를 픽업할 수 있게 된다. Hereinafter, the configuration and functions of the pick-up unit 60 according to the embodiment of the present invention will be described. As described above, the pick-up unit 60 can pick up the legs 2 by contacting the center point of the legs 2 based on the position data calculated by the image processing unit.

다관절로봇(61)은 다축구동부와, 다축구동부 끝단에 구비되어 다리살의 위치 정보를 기반으로 다리살의 중심점 부분을 흡착시키는 진공흡착수단(70)을 포함하고, 다축구동부는 다리살(2)의 방향데이터를 기반으로 픽업된 다리살이 다음 공정라인에 일정한 방향을 정렬되도록 투입시키도록 한다. The multi-joint robot (61) includes a multi-jointed soccer (61) and a vacuum absorbing means (70) provided at an end of the multi-soccer hoop for absorbing a central point portion of the leg, based on position information of the leg, 2 to be aligned in a predetermined direction on the next process line.

도 8a는 본 발명의 실시예에 따른 픽업유닛(60)의 사시도를 도시한 것이다. 그리고, 도 8b는 본 발명의 제1실시예에 따른 흡착수단(70)의 단면도를 도시한 것이다. 8A shows a perspective view of the pick-up unit 60 according to the embodiment of the present invention. 8B shows a cross-sectional view of the adsorption means 70 according to the first embodiment of the present invention.

본 발명에 따른 흡착수단(70)은 빠른 작업속도(사이클 타입 1초)에 대응하기 위해 진공흡착방식이 적용되며 진공흡착수단(70)의 시퀀스 제어는 영상처리부에서 생성된 좌표와 다관절로봇(61)의 구동프로그램 및 입출력 신호를 이용하여 온, 오프 제어되게 된다. The vacuum adsorption method is applied to correspond to the fast operation speed (cycle type 1 second) of the adsorption means 70 according to the present invention and the sequence control of the vacuum adsorption means 70 is performed by the coordinates generated in the image processing portion and the coordinates Off control by using the drive program and the input / output signal of the microcomputer 61.

도 8a 및 도 8b에 도시된 바와 같이, 본 발명의 실시예에 따른 진공흡착수단(70)은, 일단에 흡입단(72)이 구비되고 타단에 배출단(73)이 구비된 몸체(71)와, 이러한 몸체(71) 하단 중단에 구비되며 주름관 형태로 구성된 흡착패드(74)와, 이러한 흡착패드(74) 측에 진공이 발생되도록 몸체(71)에 구비되는 진공발생기(75)와 공압밸브(76)를 포함하여 구성될 수 있다. 8A and 8B, the vacuum adsorption unit 70 according to the embodiment of the present invention includes a body 71 having a suction end 72 at one end and a discharge end 73 at the other end, A vacuum generator 75 provided in the body 71 to generate a vacuum on the suction pad 74 side and a pneumatic valve 73 provided in the body 71 to generate vacuum on the suction pad 74 side, (Not shown).

즉, 본 발명의 실시예에 따른 진공흡착수단(70)은 다관절 로봇(61), 진공발생기(75), 흡착패드(74)가 일체화되어있고 1개의 흡착 패드(74)가 다리살(2)의 중심점 부분을 흡착하도록 구성된다. 진공 흡착 시퀀스 제어는 다관절 로봇(61)에 장착된 입출력 신호 및 2포지션 양쪽솔레노이드 방식의 공압제어 밸브가 적용되게 된다. 또한, 본 발명의 실시예에 따른 진공흡착수단은 다리살 흡착시 수분, 이물질을 필터링하도록 흡착패드 내부에 구비되는 수분 필터가 장착되어 질 수 있다. That is, in the vacuum absorption means 70 according to the embodiment of the present invention, the articulated robot 61, the vacuum generator 75, and the absorption pad 74 are integrated and one absorption pad 74 is connected to the legs 2 ) Of the center portion. In the vacuum suction sequence control, input / output signals mounted on the articulated robot 61 and a two-position solenoid type pneumatic control valve are applied. In addition, the vacuum adsorption unit according to the embodiment of the present invention may be equipped with a moisture filter provided inside the adsorption pad to filter moisture and foreign substances when the legs are adsorbed.

또한, 상기와 같이 설명된 장치 및 방법은 상기 설명된 실시예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.It should be noted that the above-described apparatus and method are not limited to the configurations and methods of the embodiments described above, but the embodiments may be modified so that all or some of the embodiments are selectively combined .

1:영상처리분석을 이용한 대상물 자동 선별, 분류 시스템
2:다리살
10:영상획득부
11:지지대
12:광원조사부
13:카메라
30:트랙킹 유닛
31:컨베어
40:구동장치
41:서보모터
42:감속기
50:속도위치감지엔코더
51:회전축
52:회전롤러
53:텐션조정장치
54:엔코더
55:힌지
60:픽업유닛
61:다관절로봇
70:진공흡착수단
71:몸체
72:흡입단
73:배출단
74:흡착패드
75:진공발생기
76:공압밸브
1: Automatic object sorting and classification system using image processing analysis
2: Legs
10:
11: Support
12: Light source unit
13: Camera
30: Tracking unit
31: Conveyor
40: Driving device
41: Servo motor
42: Reducer
50: Speed position sensing encoder
51:
52:
53: tension adjusting device
54: Encoder
55: Hinge
60: Pickup unit
61: articulated robot
70: Vacuum suction means
71: Body
72: suction stage
73: Discharge end
74: Adsorption pad
75: Vacuum generator
76: Pneumatic valve

Claims (10)

대상물 자동 선별, 분류 시스템에 있어서,
이송수단을 통해 이송되는 다수의 대상물 각각에 대한 영상 데이터를 획득하는 영상획득부;
상기 영상획득부에서 획득한 영상 데이터를 기반으로 상기 대상물의 위치, 길이, 두께, 방향정보를 획득하여 대상분석데이터를 산출하는 영상처리부;
상기 대상분석데이터를 기반으로 상기 대상물을 선별, 분류하여 등급화하는 등급화 수단; 및
상기 등급화수단에 의해 선별, 분류된 상기 대상물을 등급별로 픽업하여 분리, 이송시키는 픽업유닛;을 포함하는 것을 특징으로 하는, 영상처리분석을 이용한 대상물 자동 선별, 분류 시스템.
An object sorting and sorting system comprising:
An image acquiring unit acquiring image data for each of a plurality of objects conveyed through the conveying unit;
An image processing unit for acquiring position, length, thickness, and direction information of the object based on the image data acquired by the image acquisition unit and calculating object analysis data;
A grading unit for sorting and classifying the objects based on the object analysis data; And
And a pick-up unit that picks up, separates, and transports the objects selected and sorted by the grading means by class, and automatically picks up the object.
제 1 항에 있어서,
상기 영상처리부는,
상기 영상데이터에서 대상물의 외형정보를 획득하여, 관심영역 설정을 통해 크기데이터를 획득하고, 각각의 상기 관심영역 내 픽셀간의 거리정보를 바탕으로 최대 거리정보를 가지는 중심점좌표를 산출하여 위치데이터를 획득하며,
상기 대상물 외형정보의 둘레값을 획득하여 길이데이터를 산출하고, 상기 중심점좌표를 기준으로 2 포인트 교점 중 외형정보 외곽까지 최소길이를 획득하여 두께데이터를 산출하고, 상기 2 포인트 교점 정보를 바탕으로 이외의 다른 교점 정보로부터 방향데이터를 획득하는 것을 특징으로 하는, 영상처리분석을 이용한 대상물 자동 선별, 분류 시스템.
The method according to claim 1,
Wherein the image processing unit comprises:
Acquiring size information of the object from the image data, obtaining size data by setting the ROI, calculating center point coordinates having the maximum distance information based on the distance information between pixels in each ROI, and acquiring position data In addition,
Calculating length data by obtaining a circumference value of the object outline information, calculating thickness data by obtaining a minimum length from the two-point intersection to the outline information out of the center point coordinates, and calculating thickness data based on the two-point intersection information And the direction data is acquired from the other intersection information of the object.
제 2항에 있어서,
상기 대상물은 갑각류의 다리살이고,
상기 영상처리부는 상기 다리살의 외형정보를 획득하여 관심영역설정을 통해 개별 다리살을 분류하고, 각각의 관심영역 내 픽셀간의 거리정보를 이용하여 중심점좌표를 획득하여 위치데이터를 산출하고, 상기 다리살의 외형정보의 둘레값을 획득 및 1/2하여 길이데이터를 계산하고, 상기 중심점좌표를 기준으로 상기 외형정보 외곽까지 최소길이 및 2 포인트 교점을 획득하여 두께데이터를 산출하고, 상기 2 포인트 교점 정보를 바탕으로 이외의 최소 교점으로부터 방향데이터를 획득하는 것을 특징으로 하는, 영상처리분석을 이용한 대상물 자동 선별, 분류 시스템.
3. The method of claim 2,
The object is a limb of crustacean,
Wherein the image processing unit obtains the external shape information of the leggings, classifies individual leggings by setting the region of interest, obtains the center point coordinates using the distance information between the pixels in each region of interest, calculates the position data, Calculating thickness data by calculating length data by acquiring and 1/2 of a circumference value of the outline information, obtaining minimum length and two-point intersection from the center point coordinate to the outline information outline, calculating the thickness data, And direction data is acquired from a minimum intersection other than the background.
제 3항에 있어서,
상기 픽업 유닛은 이송방향을 따라 서로 특정간격 이격되어 배치되는 다수의 다관절로봇으로 구성되어,
상기 다관절로봇 각각은 상기 위치데이터를 기반으로 상기 대상물의 중심점을 흡착하여 상기 대상물을 픽업하며,
상기 등급화수단은 데이터베이스에 기 저장된 분류데이터와 상기 길이, 두께데이터를 대비하여 상기 대상물을 불량과 정상으로 선별하고, 상기 대상물을 등급화하며,
상기 다관절로봇은 동일 등급별로 상기 대상물을 픽업하여 등급별로 상기 대상물을 다음 공정라인으로 분리 공급시키는 것을 특징으로 하는, 영상처리분석을 이용한 대상물 자동 선별, 분류 시스템.
The method of claim 3,
Wherein the pick-up unit is constituted by a plurality of articulated robots disposed at a specific interval from each other along the transport direction,
Wherein each of the articulated robots picks up the object by adsorbing a center point of the object on the basis of the position data,
Wherein the grading means grades the object by comparing the length data and the thickness data stored in the database with the classification data previously stored in the database,
Wherein the articulated robot picks up the object for the same grade and separately supplies the object to the next process line for each grade.
제 6항에 있어서,
상기 다관절로봇은,
상기 방향데이터를 기반으로 상기 대상물이 일정한 방향으로 정렬되도록 상기 대상물을 다음 공정라인으로 투입시키는 것을 특징으로 하는, 영상처리분석을 이용한 대상물 자동 선별, 분류 시스템.
The method according to claim 6,
In the articulated robot,
And the object is inserted into a next process line so that the object is aligned in a predetermined direction based on the direction data.
제 4항에 있어서,
상기 다관절로봇은 다축구동부와, 다축구동부 끝단에 구비되어 상기 대상물의 위치 정보를 기반으로 상기 대상물의 중심점 부분을 흡착시키는 진공흡착수단을 포함하고, 상기 다축구동부는 상기 대상물의 방향데이터를 기반으로 픽업된 상기 대상물이 다음 공정라인에 일정한 방향을 정렬되도록 투입시키도록 하는 것을 특징으로 하는, 영상처리분석을 이용한 대상물 자동 선별, 분류 시스템.
5. The method of claim 4,
Wherein the articulated robot includes a multi-soccer robot and a vacuum adsorption unit provided at an end of the multi-soccer hoop for adsorbing a center point portion of the object based on the positional information of the object, Wherein the object picked up on the basis of the image of the object to be picked up is aligned with a predetermined direction on a next process line.
제 6항에 있어서,
상기 진공흡착수단은,
일단에 흡입단이 구비되고 타단에 배출단이 구비된 몸체와, 상기 몸체 하단 중단에 구비되며 주름관 형태로 구성된 흡착패드와, 상기 흡착패드 측에 진공이 발생되도록 상기 몸체에 구비되는 진공발생기와 공압밸브를 포함하거나, 또는
몸체와, 상기 몸체의 외주면에 서로 특정 반경으로 이격된 복수의 진공발생기와, 복수의 상기 진공발생기 각각에 연결된 공압밸브와, 상기 몸체 하부면에 구비되어 복수의 상기 진공발생기 각각에 의해 생성된 흡착력에 의해 상기 대상물을 픽업하는 주름관 형태로 구성된 복수의 흡착패드를 포함하는 것을 특징으로 하는, 영상처리분석을 이용한 대상물 자동 선별, 분류 시스템.
The method according to claim 6,
Wherein the vacuum adsorption means comprises:
A suction pad provided at one end of the body and having a discharge end at the other end thereof; a suction pad provided at a lower end of the body to form a corrugated tube; a vacuum generator provided in the body for generating a vacuum on the suction pad side; Valve, or
A vacuum cleaner comprising: a body; a plurality of vacuum generators spaced apart from each other by a specific radius on an outer circumferential surface of the body; a pneumatic valve connected to each of the plurality of vacuum generators; And a plurality of adsorption pads formed in the shape of a corrugated pipe for picking up the object by the image pickup device.
제 7항에 있어서,
상기 진공흡착수단은 상기 대상물 흡착시 수분, 이물질을 필터링하도록 상기 흡착패드 내부에 구비되는 필터를 더 포함하는 것을 특징으로 하는 영상처리분석을 이용한 대상물 자동 선별, 분류 시스템.
8. The method of claim 7,
Wherein the vacuum adsorption means further comprises a filter disposed inside the adsorption pad to filter moisture and foreign substances when the object is adsorbed.
대상물 자동 선별, 분류 방법에 있어서,
이송수단으로 다수의 대상물이 투입되어 상기 대상물이 일정방향으로 이송되는 단계;
영상획득부가 상기 대상물을 포함한 영역의 영상데이터를 획득하는 단계;
영상처리부가 상기 이송수단을 통해 이송되는 다수의 대상물 각각에 대한 위치, 길이, 두께, 방향데이터를 획득하여 대상분석데이터를 산출하는 단계;
등급화 수단이 길이, 두께데이터를 기반으로 상기 대상물을 선별, 분류하여 등급화하는 단계; 및
상기 영상처리부에서 산출된 위치데이터를 기반으로 다수의 다관절로봇 각각이 상기 등급화 수단에 의해 등급화된 분류별로 상기 대상물을 중심점 부분을 진공흡착수단에 의해 픽업하는 단계;
상기 다관절로봇의 다축구동부에 의해 픽업된 상기 대상물을 이송하여 상기 대상물의 방향데이터를 기반으로 상기 대상물이 등급별로 일정한 방향으로 정렬되도록 다음 공정라인으로 이동시키는 단계; 및
상기 진공흡착수단의 흡착력을 해제하여 상기 대상물이 분류별로 일정한 방향으로 정렬되도록 다음 공정라인으로 투입되는 단계;를 포함하는 것을 특징으로 하는 영상처리분석을 이용한 대상물 자동 선별, 분류 방법.
In automatic object sorting and sorting method,
A plurality of objects are fed by the conveying means and the object is conveyed in a predetermined direction;
An image acquiring unit acquiring image data of an area including the object;
Acquiring position, length, thickness, and orientation data for each of a plurality of objects transferred through the transfer unit, and calculating object analysis data;
Classifying means for sorting and classifying the objects based on length and thickness data; And
A plurality of articulated robots each picking up a center point portion of the object by the vacuum suction means based on the classifications classified by the grading means based on the position data calculated by the image processing portion;
Moving the object picked up by the multi-joint eccentricity of the articulated robot to a next process line so that the object is aligned in a predetermined direction on the basis of direction data of the object; And
And releasing the attraction force of the vacuum adsorption means and inputting the object to a next process line so that the object is sorted in a predetermined direction according to the classification.
제 9항에 있어서,
상기 대상분석데이터를 산출하는 단계는,
상기 영상데이터에서 대상물의 외형정보를 획득하여, 관심영역 설정을 통해 개별 대상물을 분류하고, 각각의 상기 관심영역 내 픽셀간의 거리정보를 바탕으로 최대 거리정보를 가지는 중심점좌표를 산출하여 위치데이터를 획득하며,
상기 대상물 외형정보의 컨투어(Contour) 정보를 획득하여 길이데이터를 산출하고, 상기 중심점좌표를 기준으로 상기 컨투어까지 최소길이 및 2 포인트 교점을 획득하여 두께데이터를 산출하고, 상기 2 포인트 교점 정보를 바탕으로 이외의 최소 교점으로부터 방향데이터를 획득하는 것을 특징으로 하는, 영상처리분석을 이용한 대상물 자동 선별, 분류 방법.
10. The method of claim 9,
Wherein the step of calculating the object analysis data comprises:
Acquiring contour information of an object from the image data, classifying individual objects by setting a region of interest, calculating center-point coordinates having maximum distance information based on distance information between pixels in each ROI, and acquiring position data In addition,
Acquiring contour information of the object contour information to calculate length data, calculating thickness data by obtaining a minimum length and a two-point intersection point from the center point coordinate to the contour, And directional data is acquired from a minimum intersection other than the intersection point.
KR1020170168355A 2017-12-08 2017-12-08 Object auto sorting, classifying system using image processing algorithm KR102109698B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170168355A KR102109698B1 (en) 2017-12-08 2017-12-08 Object auto sorting, classifying system using image processing algorithm

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170168355A KR102109698B1 (en) 2017-12-08 2017-12-08 Object auto sorting, classifying system using image processing algorithm

Publications (2)

Publication Number Publication Date
KR20190068663A true KR20190068663A (en) 2019-06-19
KR102109698B1 KR102109698B1 (en) 2020-05-12

Family

ID=67104418

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170168355A KR102109698B1 (en) 2017-12-08 2017-12-08 Object auto sorting, classifying system using image processing algorithm

Country Status (1)

Country Link
KR (1) KR102109698B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110449381A (en) * 2019-08-19 2019-11-15 黄山小罐茶业有限公司 Tealeaves impurity picks manipulator
CN113021401A (en) * 2019-08-21 2021-06-25 牧今科技 Robotic multi-jaw gripper assembly and method for gripping and holding objects
KR102620688B1 (en) * 2023-04-25 2024-01-03 주식회사 하버 Calculation system of crustacea leavel based on artificial intelligence
US11904468B2 (en) 2019-08-21 2024-02-20 Mujin, Inc. Robotic multi-gripper assemblies and methods for gripping and holding objects

Citations (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002192436A (en) * 2000-12-25 2002-07-10 Amada Co Ltd Pick-up device and method for work
JP2003211096A (en) * 2002-01-18 2003-07-29 Fuji Photo Film Co Ltd Sorting/array apparatus of article
KR20120033611A (en) * 2010-09-30 2012-04-09 주식회사 로보스 Robot gripper for selection apparatus
KR101251462B1 (en) * 2005-07-11 2013-04-04 시부야 세이키 가부시키가이샤 Agricultural products sorting apparatus
JP5246161B2 (en) 2007-07-02 2013-07-24 東芝三菱電機産業システム株式会社 Tracking device
JP5482778B2 (en) 2011-12-27 2014-05-07 井関農機株式会社 Tray placement position detection method
CN103801520A (en) * 2014-01-27 2014-05-21 浙江大学 Method and device for automatically carefully sorting and grading shrimps
KR20140076828A (en) 2012-12-13 2014-06-23 한미반도체 주식회사 Vacuum pickup device
JP2015003284A (en) * 2013-06-19 2015-01-08 ヤンマー株式会社 Selector
KR101540707B1 (en) * 2014-10-30 2015-08-03 대한민국 Method for the automatic grading of abalone based on image processing technology
KR20160080279A (en) 2014-12-26 2016-07-08 (주)구일엔지니어링 Grip for the solar wafer contact pad unit and the carrier unit comprising the
KR101644991B1 (en) 2015-08-20 2016-08-02 임영호 Crab Shells Removal Apparatus Which Can Be Easily Removed Gill
WO2016147203A1 (en) * 2015-03-16 2016-09-22 Nanopix Iss (P) Ltd. A novel intelligent grading machine with trajectory tracking sensor network and a process thereof
KR101703542B1 (en) * 2016-11-30 2017-02-23 대한민국 Automatic sorting method of sea-squirt using feature measurement and HSV color model
KR20170054975A (en) 2015-11-10 2017-05-18 이중직 Apparatus for automatic cutting and peel processing a red crab
CN107014757A (en) * 2017-05-24 2017-08-04 华中农业大学 Steamed crab male and female and the online Non-Destructive Testing classifying equipoment of size

Patent Citations (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002192436A (en) * 2000-12-25 2002-07-10 Amada Co Ltd Pick-up device and method for work
JP2003211096A (en) * 2002-01-18 2003-07-29 Fuji Photo Film Co Ltd Sorting/array apparatus of article
KR101251462B1 (en) * 2005-07-11 2013-04-04 시부야 세이키 가부시키가이샤 Agricultural products sorting apparatus
JP5246161B2 (en) 2007-07-02 2013-07-24 東芝三菱電機産業システム株式会社 Tracking device
KR20120033611A (en) * 2010-09-30 2012-04-09 주식회사 로보스 Robot gripper for selection apparatus
JP5482778B2 (en) 2011-12-27 2014-05-07 井関農機株式会社 Tray placement position detection method
KR20140076828A (en) 2012-12-13 2014-06-23 한미반도체 주식회사 Vacuum pickup device
JP2015003284A (en) * 2013-06-19 2015-01-08 ヤンマー株式会社 Selector
CN103801520A (en) * 2014-01-27 2014-05-21 浙江大学 Method and device for automatically carefully sorting and grading shrimps
KR101540707B1 (en) * 2014-10-30 2015-08-03 대한민국 Method for the automatic grading of abalone based on image processing technology
KR20160080279A (en) 2014-12-26 2016-07-08 (주)구일엔지니어링 Grip for the solar wafer contact pad unit and the carrier unit comprising the
WO2016147203A1 (en) * 2015-03-16 2016-09-22 Nanopix Iss (P) Ltd. A novel intelligent grading machine with trajectory tracking sensor network and a process thereof
KR101644991B1 (en) 2015-08-20 2016-08-02 임영호 Crab Shells Removal Apparatus Which Can Be Easily Removed Gill
KR20170054975A (en) 2015-11-10 2017-05-18 이중직 Apparatus for automatic cutting and peel processing a red crab
KR101703542B1 (en) * 2016-11-30 2017-02-23 대한민국 Automatic sorting method of sea-squirt using feature measurement and HSV color model
CN107014757A (en) * 2017-05-24 2017-08-04 华中农业大学 Steamed crab male and female and the online Non-Destructive Testing classifying equipoment of size

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110449381A (en) * 2019-08-19 2019-11-15 黄山小罐茶业有限公司 Tealeaves impurity picks manipulator
CN113021401A (en) * 2019-08-21 2021-06-25 牧今科技 Robotic multi-jaw gripper assembly and method for gripping and holding objects
CN113021401B (en) * 2019-08-21 2022-06-28 牧今科技 Robotic multi-jaw gripper assembly and method for gripping and holding objects
US11904468B2 (en) 2019-08-21 2024-02-20 Mujin, Inc. Robotic multi-gripper assemblies and methods for gripping and holding objects
US11958191B2 (en) 2019-08-21 2024-04-16 Mujin, Inc. Robotic multi-gripper assemblies and methods for gripping and holding objects
KR102620688B1 (en) * 2023-04-25 2024-01-03 주식회사 하버 Calculation system of crustacea leavel based on artificial intelligence

Also Published As

Publication number Publication date
KR102109698B1 (en) 2020-05-12

Similar Documents

Publication Publication Date Title
KR102027040B1 (en) Object auto arrangement system using image processing algorithm
KR20190068663A (en) Object auto sorting, classifying system using image processing algorithm
US10485242B2 (en) Sensor-guided automated method and system for processing crustaceans
US11344036B2 (en) Apparatus for processing and grading food articles and related methods
US11014257B2 (en) Method and apparatus for removing foreign objects from food pieces
JP2001508571A (en) Workpiece processing apparatus and processing method thereof
JP5440885B2 (en) Robot system
US10745839B1 (en) Unwrinkling systems and methods
KR102027039B1 (en) Object auto arrangement system using image processing algorithm
JP7201313B2 (en) Food transfer system and food gripping device
JP6761569B2 (en) Goods sorting device
Failli et al. An innovative approach to the automated stacking and grasping of leather plies
WO2022138234A1 (en) Tool checking device, tool checking program, and tool checking method for robot arm
WO2018225827A1 (en) Workpiece recognition device, and method for recognizing workpiece
US8207467B2 (en) Automatic method and system for the determination and classification of foods
CN113496177A (en) Visual inspection system and method of inspecting parts
US11053618B2 (en) Unwrinkling systems and methods
US20240033934A1 (en) Tool checking device, storage device storing tool checking program, and tool checking method for robot arm
DK180343B1 (en) System and method for automatic removal of foreign objects from a food surface
Wang et al. The Acquisition of Position and Orientation of the Conveyor Belt Workpiece Based on the Inter Frame Difference in ROI in Camera Video
KR20230042655A (en) Foreign matter removal device for sheet-shaped laver
CN114451147A (en) Automatic picking equipment
NL2012983C2 (en) INSPECTION AND TRANSITION SYSTEM FOR INSPECTING AND TRANSFERRING NATURAL PRODUCTS AND METHOD FOR THIS.
Lanzetta et al. Design and development of a vision based leather trimming machine
JP2001009778A (en) Unnecessary part cutting device of farm product

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant