KR20190068663A - Object auto sorting, classifying system using image processing algorithm - Google Patents
Object auto sorting, classifying system using image processing algorithm Download PDFInfo
- Publication number
- KR20190068663A KR20190068663A KR1020170168355A KR20170168355A KR20190068663A KR 20190068663 A KR20190068663 A KR 20190068663A KR 1020170168355 A KR1020170168355 A KR 1020170168355A KR 20170168355 A KR20170168355 A KR 20170168355A KR 20190068663 A KR20190068663 A KR 20190068663A
- Authority
- KR
- South Korea
- Prior art keywords
- data
- unit
- information
- objects
- calculating
- Prior art date
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B07—SEPARATING SOLIDS FROM SOLIDS; SORTING
- B07C—POSTAL SORTING; SORTING INDIVIDUAL ARTICLES, OR BULK MATERIAL FIT TO BE SORTED PIECE-MEAL, e.g. BY PICKING
- B07C5/00—Sorting according to a characteristic or feature of the articles or material being sorted, e.g. by control effected by devices which detect or measure such characteristic or feature; Sorting by manually actuated devices, e.g. switches
- B07C5/34—Sorting according to other particular properties
- B07C5/342—Sorting according to other particular properties according to optical properties, e.g. colour
- B07C5/3422—Sorting according to other particular properties according to optical properties, e.g. colour using video scanning devices, e.g. TV-cameras
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B07—SEPARATING SOLIDS FROM SOLIDS; SORTING
- B07C—POSTAL SORTING; SORTING INDIVIDUAL ARTICLES, OR BULK MATERIAL FIT TO BE SORTED PIECE-MEAL, e.g. BY PICKING
- B07C5/00—Sorting according to a characteristic or feature of the articles or material being sorted, e.g. by control effected by devices which detect or measure such characteristic or feature; Sorting by manually actuated devices, e.g. switches
- B07C5/36—Sorting apparatus characterised by the means used for distribution
- B07C5/361—Processing or control devices therefor, e.g. escort memory
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B07—SEPARATING SOLIDS FROM SOLIDS; SORTING
- B07C—POSTAL SORTING; SORTING INDIVIDUAL ARTICLES, OR BULK MATERIAL FIT TO BE SORTED PIECE-MEAL, e.g. BY PICKING
- B07C5/00—Sorting according to a characteristic or feature of the articles or material being sorted, e.g. by control effected by devices which detect or measure such characteristic or feature; Sorting by manually actuated devices, e.g. switches
- B07C5/36—Sorting apparatus characterised by the means used for distribution
- B07C5/38—Collecting or arranging articles in groups
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J15/00—Gripping heads and other end effectors
- B25J15/06—Gripping heads and other end effectors with vacuum or magnetic holding means
- B25J15/0616—Gripping heads and other end effectors with vacuum or magnetic holding means with vacuum
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/0093—Programme-controlled manipulators co-operating with conveyor means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/10—Programme-controlled manipulators characterised by positioning means for manipulator elements
- B25J9/106—Programme-controlled manipulators characterised by positioning means for manipulator elements with articulated links
Abstract
Description
본 발명은 영상처리분석을 이용한 대상물 자동 선별, 분류 시스템 및 자동선별 분류방법에 대한 것이다. 보다 상세하게는 대상물인 갑각류의 살(다리살)을 영상처리하여 산출된 대상분석데이터를 기반으로 대상물을 자동으로 등급화하여 선별, 분류, 픽업 공급할 수 있는 장치 및 방법에 대한 것이다. The present invention relates to an automatic object sorting and sorting system and an automatic sorting and sorting method using image processing analysis. More particularly, the present invention relates to an apparatus and method capable of automatically sorting, sorting, sorting, and supplying objects based on object analysis data obtained by image processing a crustacean of a crustacean as an object.
게는 바다에 서식하는 갑각류의 일종으로서, 몸통이 납작하고 온몸이 딱딱한 껍질에 싸여 있으며, 좌우 각각 네상의 다리와, 다른 다리에 비해 굵기가 굵은 좌우 한 쌍의 집게다리가 있다.Crab is a type of crustacea inhabiting the sea. Its body is flat and its body is wrapped in a hard shell. There are four pairs of legs on each side, and a pair of left and right legs, which are thicker than the other legs.
이러한 게는 깨끗한 물로 세척한 후, 그대로 쪄서 먹거나, 끓는 물에 삶아서 몸통이나 다리의 살을 발라 먹거나, 간장으로 조리를 하여 먹기도 하고, 각 부위별로 가공하여 판매하는 실정에 있다.These crabs are washed with clean water and then steamed or boiled, boiled in boiling water to boil the body and legs, eat soy sauce, eat, and processed each part is in the market.
그런데 게를 가공식품으로 가공하기 위해서는 게의 딱딱한 껍질을 제거하고 부위별로 분리하는 가공을 해야 하는데, 이를 위해서는 먼저 게의 껍질을 분리하고, 몸통과 다리를 절단하여 분리하는 작업을 하게 된다.However, in order to process the crab as a processed food, it is necessary to remove the hard shell of the crab and separate it into separate parts. In order to do this, the shell of the crab is first separated and the trunk and leg are cut and separated.
따라서 종래에는 작업자가 절단칼을 들고 작업대 위에 게를 놓고 수작업으로 게의 등껍질을 분리하고, 몸통과 게다리와 집게다리를 절단하여 분리하게 되는데 힘이 많이 들고 숙련된 기술력을 요하므로 작업비용이 많이 드는 불편이 있었다.Therefore, conventionally, an operator places a crab on a work table with a cutting knife, separates the back skin of the crab manually, and cuts off the trunk, the leg and the legs of the crab. There was an inconvenience.
이러한 게의 가공공정은 자숙전 공정, 자숙, 게살추출, 포장공정으로 크게 나눌 수 있으며 오랜기간 경험을 통해 부분적으로 자동화를 이루고 있다. 현재, 탈갑장치 등을 통해 절단과 몸통살과 다리살을 추출하는 공정은 어느정도 자동화되어 있는 실정이다. The process of processing crabs can be broadly divided into pre - processing, digestion, crab meat extraction, and packaging processes, and has been partly automated through long experience. At present, the process of cutting, body trimming, and leg flesh extraction through an eavesdropping device is somewhat automated.
이러한 게의 탈갑, 절단, 운반과정에 대한 자동화 기술을 대한민국 공개특허 제2017-0054975호, 등록특허 제1644991호 등에 기재되어 있다. 그러나 게의 탈갑, 절단 후 생성된 다리살을 등급화, 분류화하여 자동공급하기 위한 기술은 현재 공개되어 있지 않다. Automatic techniques for eliminating, cutting and transporting such crabs are disclosed in Korean Patent Laid-Open Nos. 2017-0054975 and 1644991. [ However, the technology for classifying and classifying and automatically supplying the leg flesh generated after the cutting of the crab and the cut is not disclosed at present.
즉, 현재는 갑각류의 다리살을 크기별로 불량품과 정상품을 선별하고, 정상품 내에서 등급별로 분류하기 위해서 현재는 사람의 수작업으로 하나하나 분류하여 투입하고 있는 실정이다. 도 1에 도시된 바와 같이, 갑각류의 다리살의 측정, 분류, 선별, 공급과 관련된 일련의 작업자 대부분 수작업으로 수행하고 있으며, 이와 같은 수작업으로 인해 공정상 가장 많은 작업인원이 필요하며 노동집약적 작업으로 작업효율이 현저히 떨어질 뿐 아니라, 생산성이 현격히 떨어지는 문제점이 존재한다. In other words, currently we are classifying crustaceans by hand in order to sort out the defective and fixed products by size, and to classify them into classified products in regular products. As shown in FIG. 1, most of the workers involved in the measurement, sorting, screening, and supplying of the leg flesh of crustaceans are manually operated. Due to this manual operation, the most number of workers is required in the process. There is a problem that not only efficiency is significantly lowered but productivity is significantly reduced.
따라서 갑각류의 다리살 등과 같은 대상물을 크기에 따라 정상품을 선별하고, 선별된 대상물을 등급화 분류하여 자동으로 이동, 공급, 정렬시킬 수 있는 장치 및 방법이 요구되었다. Therefore, there has been a demand for an apparatus and a method that can automatically move, supply, and align the selected objects according to the sizes of objects such as crustacean of the crustacean, classify and sort the selected objects, and so on.
따라서 본 발명은 상기와 같은 종래의 문제점을 해결하기 위하여 안출된 것으로서, 본 발명의 실시예에 따르면, 대상물의 선별, 등급별 분류를 위해 영상처리를 이용하여 위치, 길이, 방향을 계산 산출할 수 있는 방법을 제공하는 데 그 목적이 있다.SUMMARY OF THE INVENTION Accordingly, the present invention has been made keeping in mind the above problems occurring in the prior art, and it is an object of the present invention to provide an image processing apparatus and method capable of calculating and calculating a position, a length, The purpose is to provide a method.
또한, 본 발명의 실시예 따르면, 다관절 로봇으로 대상물을 안전, 정확하게 픽업하여 다음 공정으로 이동시키는 과정에서, 대상물 픽업 전에 대상물의 위치와, 크기, 방향을 산출하여 자동적으로 대상물을 선별, 분류하고 이러한 대상물을 정렬, 공급, 투입시킬 수 있는 장치 및 방법을 제공하는데 목적이 있다.According to an embodiment of the present invention, in a process of picking up an object safely and accurately with the articulated robot and moving it to the next process, the position, size and direction of the object are calculated before picking up the object, And an object of the present invention is to provide an apparatus and a method for aligning, supplying, and dispensing such objects.
한편, 본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.It is to be understood that both the foregoing general description and the following detailed description of the present invention are exemplary and explanatory and are not intended to limit the invention to the precise form disclosed. It can be understood.
본 발명의 제1목적은 대상물 자동 선별, 분류 시스템에 있어서, 이송수단을 통해 이송되는 다수의 대상물 각각에 대한 영상 데이터를 획득하는 영상획득부; 상기 영상획득부에서 획득한 영상 데이터를 기반으로 상기 대상물의 위치, 길이, 두께, 방향정보를 획득하여 대상분석데이터를 산출하는 영상처리부; 상기 대상분석데이터를 기반으로 상기 대상물을 선별, 분류하여 등급화하는 등급화 수단; 및 상기 등급화수단에 의해 선별, 분류된 상기 대상물을 등급별로 픽업하여 분리, 이송시키는 픽업유닛;을 포함하는 것을 특징으로 하는, 영상처리분석을 이용한 대상물 자동 선별, 분류 시스템으로서 달성될 수 있다. A first object of the present invention is to provide an automatic object sorting and classification system for an object, comprising: an image acquisition unit for acquiring image data for each of a plurality of objects transferred through a transfer means; An image processing unit for acquiring position, length, thickness, and direction information of the object based on the image data acquired by the image acquisition unit and calculating object analysis data; A grading unit for sorting and classifying the objects based on the object analysis data; And a pick-up unit that picks up, separates, and transports the objects selected and sorted by the grading means, by class, and performs automatic object sorting and sorting using image processing analysis.
그리고, 영상처리부는, 영상데이터에서 대상물의 외형정보를 획득하여, 관심영역 설정을 통해 개별 대상물을 분류하고, 각각의 상기 관심영역 내 픽셀간의 거리정보를 바탕으로 최대 거리정보를 가지는 중심점좌표를 산출하여 위치데이터를 획득하며, 상기 대상물 외형정보의 컨투어(contour)정보를 획득하여 길이데이터를 산출하고, 상기 중심점좌표를 기준으로 2 포인트 교점 중 상기 컨투어까지 최소길이를 획득하여 두께데이터를 산출하고, 상기 2 포인트 교점 정보를 바탕으로 이외의 다른 교점 정보로부터 방향데이터를 획득하는 것을 특징으로 할 수 있다. The image processing unit obtains the external shape information of the object from the image data, classifies the individual objects by setting the ROI, and calculates the center point coordinate having the maximum distance information based on the distance information between the pixels in each ROI Obtaining contour information of the object contour information to calculate length data, calculating thickness data by obtaining a minimum length from the two-point intersection point based on the center point coordinate to the contour, And acquires direction data from other intersection information based on the two-point intersection information.
그리고, 상기 대상물은 갑각류의 다리살이고, 영상처리부는 상기 다리살의 외형정보를 획득하여 관심영역설정을 통해 개별 다리살을 분류하고, 각각의 관심영역 내 픽셀간의 거리정보를 이용하여 중심점좌표를 획득하여 위치데이터를 산출하고, 상기 다리살의 외형정보의 컨투어 정보를 획득 및 1/2하여 길이데이터를 계산하고, 상기 중심점좌표를 기준으로 상기 컨투어까지 최소길이 및 2 포인트 교점을 획득하여 두께데이터를 산출하고, 상기 2 포인트 교점 정보를 바탕으로 이외의 최소 교점으로부터 방향데이터를 획득하는 것을 특징으로 할 수 있다. The image processing unit obtains the external shape information of the legs to classify the individual legs by setting the region of interest and obtains the center point coordinates using the distance information between pixels in each region of interest Calculating length data by obtaining contour information of the contour information of the bristles and calculating the length data and obtaining the minimum length and two point intersections from the contour to the contour based on the center point coordinates to calculate thickness data And acquires direction data from other minimum intersection points based on the two-point intersection information.
또한, 상기 픽업 유닛은 이송방향을 따라 서로 특정간격 이격되어 배치되는 다수의 다관절로봇으로 구성되어, 다관절로봇 각각은 상기 위치데이터를 기반으로 상기 대상물의 중심점을 흡착하여 상기 대상물을 픽업하며, 상기 등급화수단은 데이터베이스에 기 저장된 분류데이터와 상기 길이, 두께데이터를 대비하여 상기 대상물을 불량과 정상으로 선별하고, 상기 대상물을 등급화하며, 상기 다관절로봇은 동일 등급별로 상기 대상물을 픽업하여 등급별로 상기 대상물을 다음 공정라인으로 분리 공급시키는 것을 특징으로 할 수 있다. The pick-up unit may include a plurality of articulated robots spaced apart from each other by a predetermined distance along a conveying direction. Each of the articulated robots picks up the object by picking up a center point of the object based on the position data, Wherein the grading means classifies the object into a defect and a normal by comparing the classification data previously stored in the database with the length and thickness data, and grades the object, and the articulated robot picks up the object by the same grade And the object is separately supplied to the next process line for each grade.
그리고, 다관절로봇은, 방향데이터를 기반으로 상기 대상물이 일정한 방향으로 정렬되도록 상기 대상물을 다음 공정라인으로 투입시키는 것을 특징으로 할 수 있다. And, the articulated robot may be configured to insert the object into the next process line so that the object is aligned in a certain direction based on the direction data.
또한, 상기 다관절로봇은 다축구동부와, 다축구동부 끝단에 구비되어 상기 대상물의 위치 정보를 기반으로 상기 대상물의 중심점 부분을 흡착시키는 진공흡착수단을 포함하고, 상기 다축구동부는 상기 대상물의 방향데이터를 기반으로 픽업된 상기 대상물이 다음 공정라인에 일정한 방향을 정렬되도록 투입시키도록 하는 것을 특징으로 할 수 있다. Also, the articulated robot may include a multi-soccer robot and a vacuum adsorption unit provided at an end of the multi-soccer hoop for adsorbing a center point portion of the object based on the positional information of the object, And the object picked up on the basis of the direction data is inserted into the next process line so as to be aligned in a certain direction.
그리고, 상기 진공흡착수단은, 일단에 흡입단이 구비되고 타단에 배출단이 구비된 몸체와, 상기 몸체 하단 중단에 구비되며 주름관 형태로 구성된 흡착패드와, 상기 흡착패드 측에 진공이 발생되도록 상기 몸체에 구비되는 진공발생기와 공압밸브를 포함하거나, 또는 몸체와, 상기 몸체의 외주면에 서로 특정 반경으로 이격된 복수의 진공발생기와, 복수의 상기 진공발생기 각각에 연결된 공압밸브와, 상기 몸체 하부면에 구비되어 복수의 상기 진공발생기 각각에 의해 생성된 흡착력에 의해 상기 대상물을 픽업하는 주름관 형태로 구성된 복수의 흡착패드를 포함하는 것을 특징으로 할 수 있다. The vacuum adsorption unit may include a body having a suction end at one end and a discharge end at the other end, an adsorption pad provided at the lower end of the body and having a corrugated tube shape, A vacuum cleaner comprising: a vacuum generator and a pneumatic valve provided on a body; a body; a plurality of vacuum generators spaced apart from each other by a specific radius on an outer circumferential surface of the body; a pneumatic valve connected to each of the plurality of vacuum generators; And a plurality of suction pads arranged in a shape of a corrugated pipe for picking up the object by an attraction force generated by each of the plurality of vacuum generators.
또한, 진공흡착수단은 상기 대상물 흡착시 수분, 이물질을 필터링하도록 상기 흡착패드 내부에 구비되는 필터를 더 포함하는 것을 특징으로 할 수 있다. The vacuum adsorption unit may further include a filter disposed inside the adsorption pad to filter moisture and foreign substances when the object is adsorbed.
본 발명의 제2목적은 대상물 자동 선별, 분류 방법에 있어서, 이송수단으로 다수의 대상물이 투입되어 상기 대상물이 일정방향으로 이송되는 단계; 영상획득부가 상기 대상물을 포함한 영역의 영상데이터를 획득하는 단계; 영상처리부가 상기 이송수단을 통해 이송되는 다수의 대상물 각각에 대한 위치, 길이, 두께, 방향데이터를 획득하여 대상분석데이터를 산출하는 단계; 등급화 수단이 길이, 두께데이터를 기반으로 상기 대상물을 선별, 분류하여 등급화하는 단계; 및 상기 영상처리부에서 산출된 위치데이터를 기반으로 다수의 다관절로봇 각각이 상기 등급화 수단에 의해 등급화된 분류별로 상기 대상물을 중심점 부분을 진공흡착수단에 의해 픽업하는 단계; 상기 다관절로봇의 다축구동부에 의해 픽업된 상기 대상물을 이송하여 상기 대상물의 방향데이터를 기반으로 상기 대상물이 등급별로 일정한 방향으로 정렬되도록 다음 공정라인으로 이동시키는 단계; 및 상기 진공흡착수단의 흡착력을 해제하여 상기 대상물이 분류별로 일정한 방향으로 정렬되도록 다음 공정라인으로 투입되는 단계;를 포함하는 것을 특징으로 하는 영상처리분석을 이용한 대상물 자동 선별, 분류 방법으로서 달성될 수 있다. A second object of the present invention is to provide a method and apparatus for automatic sorting and sorting of objects, comprising the steps of feeding a plurality of objects by a conveying means and conveying the objects in a predetermined direction; An image acquiring unit acquiring image data of an area including the object; Acquiring position, length, thickness, and orientation data for each of a plurality of objects transferred through the transfer unit, and calculating object analysis data; Classifying means for sorting and classifying the objects based on length and thickness data; And a plurality of articulated robots each picking up a center point portion of the object by the vacuum suction means according to the classification classified by the gradation means, based on the position data calculated by the image processing portion; Moving the object picked up by the multi-joint eccentricity of the articulated robot to a next process line so that the object is aligned in a predetermined direction on the basis of direction data of the object; And releasing the attraction force of the vacuum adsorption means and inputting the object to the next process line so that the object is sorted in a predetermined direction according to the classification. have.
또한, 상기 대상분석데이터를 산출하는 단계는, 상기 영상데이터에서 대상물의 외형정보를 획득하여, 관심영역 설정을 통해 개별 대상물을 분류하고, 각각의 상기 관심영역 내 픽셀간의 거리정보를 바탕으로 최대 거리정보를 가지는 중심점좌표를 산출하여 위치데이터를 획득하며, 상기 대상물 외형정보의 컨투어(Contour) 정보를 획득하여 길이데이터를 산출하고, 상기 중심점좌표를 기준으로 상기 컨투어까지 최소길이 및 2 포인트 교점을 획득하여 두께데이터를 산출하고, 상기 2 포인트 교점 정보를 바탕으로 이외의 최소 교점으로부터 방향데이터를 획득하는 것을 특징으로 할 수 있다. The step of calculating the object analysis data may include the steps of acquiring the external shape information of the object from the image data, classifying individual objects through the ROI setting, Obtaining contour information of the contour information of the object, calculating length data, obtaining a minimum length and a two-point intersection point to the contour based on the center point coordinate, And acquiring direction data from other minimum intersection points based on the two-point intersection information.
본 발명의 일실시예에 따른 영상처리분석을 이용한 대상물 자동 선별, 분류 시스템에 따르면, 대상물의 선별, 분류 및 자동정렬시키기 위해 영상처리를 이용하여 위치, 길이, 방향을 계산 산출할 수 있는 효과를 갖는다. According to an automatic object sorting and sorting system using image processing analysis according to an embodiment of the present invention, an effect of calculating and calculating a position, a length, and a direction using image processing for sorting, sorting, and automatically aligning objects .
또한, 본 발명의 일실시예에 따른 영상처리분석을 이용한 대상물 자동 선별, 분류 시스템에 따르면, 다관절 로봇으로 대상물을 픽업하여 이동시키는 과정에서, 대상물 픽업 전에 대상물의 위치와, 크기, 방향을 산출하여 자동적으로 대상물을 선별, 분류하고 이러한 대상물을 일정한 방향으로 다음공정으로 정렬, 공급, 투입시킬 수 있는 효과를 갖는다. According to the object sorting and sorting system using image processing analysis according to an embodiment of the present invention, in the process of picking up and moving an object with the articulated robot, the position, size, and direction of the object are calculated It is possible to automatically sort, sort, sort and sort the objects and arrange, supply, and input the objects in a predetermined direction to the next process.
그리고, 본 발명의 일실시예에 따른 영상처리분석을 이용한 대상물 자동 선별, 분류 시스템에 따르면, 대상물을 선별, 분류하고자 할 경우 대상물의 위치, 길이, 방향을 계산하여 가공공정의 반복, 획일적인 부분을 자동화할 수 있어 분류 공정의 오류를 최소화할 수 있고, 가공품의 품질을 일정하게 유지시킬 수 있는 장점이 있다. According to the object sorting and sorting system using image processing analysis according to an embodiment of the present invention, when the object is selected and classified, the position, length, and direction of the object are calculated, It is possible to minimize errors in the sorting process and to maintain the quality of the workpieces constantly.
한편, 본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.It should be understood, however, that the effects obtained by the present invention are not limited to the above-mentioned effects, and other effects not mentioned may be clearly understood by those skilled in the art to which the present invention belongs It will be possible.
본 명세서에 첨부되는 다음의 도면들은 본 발명의 바람직한 일실시예를 예시하는 것이며, 발명의 상세한 설명과 함께 본 발명의 기술적 사상을 더욱 이해시키는 역할을 하는 것이므로, 본 발명은 그러한 도면에 기재된 사항에만 한정되어 해석 되어서는 아니 된다.
도 1은 종래 수작업으로 다리살을 선별, 분류하고 있는 사진,
도 2는 본 발명의 실시예에 따른 영상처리분석을 이용한 대상물 자동 선별, 분류 시스템의 사시도,
도 3은 본 발명의 실시예에 따른 영상처리분석을 이용한 대상물 자동 선별, 분류 시스템의 영상획득부와 이동수단의 사시도,
도 4a 및 도 4b는 본 발명의 실시예에 따른 영상획득부의 사시도, 정면도,
도 5a는 본 발명의 실시예에 따른 영상획득부에서 획득된 영상데이터
도 5b는 본 발명의 실시예에 따른 영상처리부에 의해 획득된 대상물의 ROI영역을 나타낸 데이터,
도 5c는 본 발명의 실시예에 따라 영상처리부에서 산출된 대상분석데이터,
도 6은 본 발명의 실시예에 따른 트랙킹 유닛의 사시도,
도 7은 본 발명의 실시예에 따른 트랙킹 유닛의 속도위치감지엔코더의 분해 사시도,
도 8a는 본 발명의 실시예에 따른 픽업유닛의 사시도,
도 8b는 본 발명의 실시예에 따른 흡착수단의 단면도를 도시한 것이다. BRIEF DESCRIPTION OF THE DRAWINGS The accompanying drawings, which are incorporated in and constitute a part of the specification, illustrate preferred embodiments of the invention and, together with the description, serve to further the understanding of the technical idea of the invention, It should not be construed as limited.
FIG. 1 is a photograph showing a conventional method of sorting and sorting leg fingers by hand,
2 is a perspective view of an automatic object sorting and sorting system using image processing analysis according to an embodiment of the present invention,
3 is a perspective view of an image acquiring unit and a moving unit of an automatic object sorting and sorting system using image processing analysis according to an embodiment of the present invention,
FIGS. 4A and 4B are a perspective view, a front view, a side view, and a side view of the image acquiring unit according to the embodiment of the present invention;
FIG. 5A is a diagram illustrating an example of the image data obtained by the image obtaining unit according to the embodiment of the present invention.
FIG. 5B is a diagram illustrating data representing an ROI area of an object obtained by the image processing unit according to an embodiment of the present invention,
FIG. 5C is a diagram illustrating an example of the target analysis data calculated in the image processing unit according to the embodiment of the present invention,
6 is a perspective view of a tracking unit according to an embodiment of the present invention,
7 is an exploded perspective view of a speed position sensing encoder of a tracking unit according to an embodiment of the present invention,
8A is a perspective view of a pickup unit according to an embodiment of the present invention,
8B shows a cross-sectional view of the absorption means according to the embodiment of the present invention.
이상의 본 발명의 목적들, 다른 목적들, 특징들 및 이점들은 첨부된 도면과 관련된 이하의 바람직한 실시예들을 통해서 쉽게 이해될 것이다. 그러나 본 발명은 여기서 설명되는 실시예들에 한정되지 않고 다른 형태로 구체화될 수도 있다. 오히려, 여기서 소개되는 실시예들은 개시된 내용이 철저하고 완전해질 수 있도록 그리고 통상의 기술자에게 본 발명의 사상이 충분히 전달될 수 있도록 하기 위해 제공되는 것이다.BRIEF DESCRIPTION OF THE DRAWINGS The above and other objects, features, and advantages of the present invention will become more readily apparent from the following description of preferred embodiments with reference to the accompanying drawings. However, the present invention is not limited to the embodiments described herein but may be embodied in other forms. Rather, the embodiments disclosed herein are provided so that this disclosure will be thorough and complete, and will fully convey the concept of the invention to those skilled in the art.
본 명세서에서, 어떤 구성요소가 다른 구성요소 상에 있다고 언급되는 경우에 그것은 다른 구성요소 상에 직접 형성될 수 있거나 또는 그들 사이에 제 3의 구성요소가 개재될 수도 있다는 것을 의미한다. 또한 도면들에 있어서, 구성요소들의 두께는 기술적 내용의 효과적인 설명을 위해 과장된 것이다.In this specification, when an element is referred to as being on another element, it may be directly formed on another element, or a third element may be interposed therebetween. Also in the figures, the thickness of the components is exaggerated for an effective description of the technical content.
본 명세서에서 기술하는 실시예들은 본 발명의 이상적인 예시도인 단면도 및/또는 평면도들을 참고하여 설명될 것이다. 도면들에 있어서, 막 및 영역들의 두께는 기술적 내용의 효과적인 설명을 위해 과장된 것이다. 따라서 제조 기술 및/또는 허용 오차 등에 의해 예시도의 형태가 변형될 수 있다. 따라서 본 발명의 실시예들은 도시된 특정 형태로 제한되는 것이 아니라 제조 공정에 따라 생성되는 형태의 변화도 포함하는 것이다. 예를 들면, 직각으로 도시된 영역은 라운드지거나 소정 곡률을 가지는 형태일 수 있다. 따라서 도면에서 예시된 영역들은 속성을 가지며, 도면에서 예시된 영역들의 모양은 소자의 영역의 특정 형태를 예시하기 위한 것이며 발명의 범주를 제한하기 위한 것이 아니다. 본 명세서의 다양한 실시예들에서 제1, 제2 등의 용어가 다양한 구성요소들을 기술하기 위해서 사용되었지만, 이들 구성요소들이 이 같은 용어들에 의해서 한정되어서는 안 된다. 이들 용어들은 단지 어느 구성요소를 다른 구성요소와 구별시키기 위해서 사용되었을 뿐이다. 여기에 설명되고 예시되는 실시예들은 그것의 상보적인 실시예들도 포함한다.Embodiments described herein will be described with reference to cross-sectional views and / or plan views that are ideal illustrations of the present invention. In the drawings, the thicknesses of the films and regions are exaggerated for an effective description of the technical content. Thus, the shape of the illustrations may be modified by manufacturing techniques and / or tolerances. Accordingly, the embodiments of the present invention are not limited to the specific forms shown, but also include changes in the shapes that are produced according to the manufacturing process. For example, the area shown at right angles may be rounded or may have a shape with a certain curvature. Thus, the regions illustrated in the figures have attributes, and the shapes of the regions illustrated in the figures are intended to illustrate specific forms of regions of the elements and are not intended to limit the scope of the invention. Although the terms first, second, etc. have been used in various embodiments of the present disclosure to describe various components, these components should not be limited by these terms. These terms have only been used to distinguish one component from another. The embodiments described and exemplified herein also include their complementary embodiments.
본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 '포함한다(comprises)' 및/또는 '포함하는(comprising)'은 언급된 구성요소는 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다.The terminology used herein is for the purpose of illustrating embodiments and is not intended to be limiting of the present invention. In the present specification, the singular form includes plural forms unless otherwise specified in the specification. The terms "comprises" and / or "comprising" used in the specification do not exclude the presence or addition of one or more other elements.
아래의 특정 실시예들을 기술하는데 있어서, 여러 가지의 특정적인 내용들은 발명을 더 구체적으로 설명하고 이해를 돕기 위해 작성되었다. 하지만 본 발명을 이해할 수 있을 정도로 이 분야의 지식을 갖고 있는 독자는 이러한 여러 가지의 특정적인 내용들이 없어도 사용될 수 있다는 것을 인지할 수 있다. 어떤 경우에는, 발명을 기술하는 데 있어서 흔히 알려졌으면서 발명과 크게 관련 없는 부분들은 본 발명을 설명하는데 있어 별 이유 없이 혼돈이 오는 것을 막기 위해 기술하지 않음을 미리 언급해 둔다.In describing the specific embodiments below, various specific details have been set forth in order to explain the invention in greater detail and to assist in understanding it. However, it will be appreciated by those skilled in the art that the present invention may be understood by those skilled in the art without departing from such specific details. In some instances, it should be noted that portions of the invention that are not commonly known in the description of the invention and are not significantly related to the invention do not describe confusing reasons to explain the present invention.
이하에서는 본 발명에 따른 영상처리분석을 이용한 대상물 자동 선별, 분류 시스템(1)의 구성 및 기능에 대해 설명하도록 한다. 본 발명에 따른 영상처리분석을 이용한 대상물 자동 선별, 분류 시스템(1)은 전체적으로 영상획득부(10)와, 영상처리부, 등급화수단, 트랙킹 유닛(30), 픽업유닛(60) 등을 포함하여 구성될 수 있다. Hereinafter, the structure and function of the object sorting and
영상획득부(10)는 이송수단을 통해 이송되는 다수의 대상물 각각에 대한 영상 데이터를 획득하도록 구성된다. 그리고, 영상처리부는 영상획득부(10)에서 획득한 영상 데이터를 기반으로 상기 대상물의 위치, 방향정보를 획득하여 대상분석데이터를 산출하도록 구성된다. 또한 픽업유닛(60)은 영상처리부에서 산출된 대상분석데이터를 기반으로 대상물을 다음 공정라인으로 분류 투입시키도록 구성된다. The
도 2는 본 발명의 실시예에 따른 영상처리분석을 이용한 대상물 자동 선별, 분류 시스템의 사시도를 도시한 것이다. 그리고, 도 3은 본 발명의 실시예에 따른 영상처리분석을 이용한 대상물 자동 선별, 분류 시스템의 영상획득부와 이동수단의 사시도를 도시한 것이다. 도 2 및 도 3에 도시된 바와 같이. 영상획득부(10)는, 컨베어(31) 등과 같은 이송수단을 통해 이송되는 대상물 측으로 광원을 조사하는 광원조사부(12)와, 대상물을 포함한 영역을 촬상하는 카메라(13)를 포함하여 구성될 수 있다. 도 4a 및 도 4b는 본 발명의 실시예에 따른 영상획득부(10)의 사시도, 정면도를 도시한 것이다. 2 is a perspective view of an automatic object sorting and sorting system using image processing analysis according to an embodiment of the present invention. 3 is a perspective view of an image acquisition unit and a moving unit of an object sorting and sorting system using image processing analysis according to an exemplary embodiment of the present invention. As shown in Figures 2 and 3, The
본 발명의 구체적 실시예에 따른 대상물은 갑각류일 수 있고, 보다 구체적으로 게의 다리살(2)일 수 있다. 이하에서는 다리살(2)을 대상물의 일예로 하여 설명하도록 한다. 이러한 다리살(2)은 대상물의 예시에 불과할 뿐 권리범위를 제한해석해서는 아니될 것이다. The object according to a specific embodiment of the present invention may be a crustacean, and more specifically a
도 3에 도시된 바와 같이, 영상획득부(10)는 이송수단 일측에 지지대(11)가 구비되며, 지지대(11)의 일측에는 광원조사부(12)와 카메라(13)가 장착되게 됨을 알 수 있다. 이러한 영상획득부(10)는 다리살(2)의 영상데이터를 획득하기 위한 것으로 광원조사부(12)는 레이저 센서로 구성될 수 있고, 카메라(13)는 레이저 카메라(13)로 구성되며, 이송수단은 컨베어(31)로 구성된다. 따라서 다량으로 이송되어지는 다리살(2)의 영상데이터를 실시간으로 획득할 수 있게 된다. 3, the
또한, 본 발명의 실시예에 따른 영상획득부(10)는 광원조사부(12)와 다리살(2) 간의 거리, 및 카메라(13)와 다리살(2) 간의 거리 중 적어도 하나를 조절하는 위치조절부와, 광원조사부(12)와 카메라(13) 간의 간격을 조절하는 간격조절부와, 광원조사부(12)의 조사각도와, 상기 카메라(13)의 촬상각도 중 적어도 하나를 조절하는 각도조절부를 더 포함하여 구성될 수도 있다. The
본 발명의 실시예에 따른 영상처리부는, 영상데이터에서 대상물의 외형정보를 획득하여, 관심영역 설정을 통해 개별 대상물을 분류하고, 각각의 상기 관심영역 내 픽셀간의 거리정보를 바탕으로 최대 거리정보를 가지는 중심점좌표를 산출하여 위치데이터를 획득하게 된다. The image processing unit according to the embodiment of the present invention acquires the external shape information of the object from the image data, classifies the individual objects through the ROI setting, and calculates the maximum distance information based on the distance information between pixels in each ROI The positional data is obtained by calculating the coordinates of the center point.
또한, 영상처리부는 대상물 외형정보의 컨투어(contour)정보(둘레값 정보)를 획득하여 길이데이터를 산출하고, 중심점좌표를 기준으로 2 포인트 교점 중 상기 컨투어까지 최소길이를 획득하여 두께데이터를 산출하고, 2 포인트 교점 정보를 바탕으로 이외의 다른 교점 정보로부터 방향데이터를 획득하게 된다. Also, the image processing unit obtains contour information (circumference value information) of the object contour information, calculates length data, calculates thickness data by obtaining a minimum length from the two-point intersection point to the contour with reference to the center point coordinate , Direction data is acquired from other intersection information based on the 2-point intersection information.
도 5a는 본 발명의 실시예에 따른 영상획득부에서 획득된 영상데이터를 도시한 것이다. 그리고, 도 5b는 본 발명의 실시예에 따른 영상처리부에 의해 획득된 대상물의 ROI영역을 나타낸 데이터를 도시한 것이다. 그리고, 도 5c는 본 발명의 실시예에 따라 영상처리부에서 산출된 대상분석데이터를 도시한 것이다. FIG. 5A illustrates image data obtained by an image acquisition unit according to an embodiment of the present invention. FIG. FIG. 5B illustrates data representing an ROI region of an object acquired by the image processing unit according to the embodiment of the present invention. FIG. 5C shows the analysis data of the object calculated by the image processing unit according to the embodiment of the present invention.
도 5a, 도 5b에 도시된 바와 같이, 먼저, 영상처리부는 다리살(2)의 외형정보를 파악하게 되고, 다리살(2)의 외형정보에서 관심영역(ROI)을 획득하게 된다. As shown in FIGS. 5A and 5B, first, the image processing unit grasps the appearance information of the
그리고, 도 5c에 도시된 바와 같이, ROI 영역 내 각각의 픽셀 간 거리정보를 바탕으로 최대 거리정보를 가지는 무게 중심점 좌표를 계산하게 된다. 이러한 중심점 좌표로부터 다리살(2)의 위치데이터를 획득하게 된다. 즉, 관심영역 내의 모든 픽셀에 대하여 픽셀의 위치와 컨투어 까지의 최단거리를 각각 구하고, 이러한 최단 거리중 최대 거리를 갖는 픽셀의 위치를 중심점 좌표로 결정하게 된다. Then, as shown in FIG. 5C, the center-of-gravity coordinates having the maximum distance information are calculated based on the distance information between the pixels in the ROI region. And obtains the position data of the
그리고 도 5c에 도시된 바와 같이, 다리살(2)의 외형정보의 컨투어 정보를 획득 및 1/2하여 길이데이터를 계산하게 된다. 즉, 다리살(2) 컨투어 정보는 다리살(2)의 둘레 길이가 되고, 이러한 둘레길이의 1/2을 길이데이터로 획득하게 된다. Then, as shown in FIG. 5C, the contour information of the contour information of the
또한, 도 5c에 도시된 바와 같이, 중심점좌표를 기준으로 컨투어까지 최소길이, 2 포인트 교점을 획득하여 이러한 최소길이를 두께데이터를 산출하게 된다. 그리고, 도 5c에 도시된 바와 같이, 최소 2 포인트 교점 선과 직교하는 방향을 다리살의 방향데이터를 획득하게 된다. In addition, as shown in FIG. 5C, the minimum length and the two-point intersection are obtained up to the contour based on the center point coordinates, and the minimum length is calculated as the thickness data. Then, as shown in FIG. 5C, directional data of the legs are obtained in a direction orthogonal to the intersection line of at least two points.
그리고, 등급화수단은 대상분석데이터를 기반으로 대상물을 선별, 분류하여 등급화하게 된다. 또한, 픽업 유닛은 이송방향을 따라 서로 특정간격 이격되어 배치되는 다수의 다관절로봇으로 구성된다. Then, the grading means classifies the objects based on the object analysis data. Further, the pick-up unit is constituted by a plurality of articulated robots arranged at specific intervals from each other along the transport direction.
따라서 다관절로봇 각각은 영상처리부에서 획득한 다리살(2)의 위치데이터를 기반으로 다리살(2)의 중심점을 흡착하여 다리살을 픽업하게 된다. Therefore, each of the articulated robots picks up the legs by absorbing the center point of the
또한, 등급화수단은 데이터베이스에 기 저장된 분류데이터와 영상처리부에서 획득한 다리살의 길이, 두께데이터를 대비하여 다리살(2)을 불량과 정상으로 선별하고, 정상으로 선별된 다리살(2)을 길이, 두께 데이터에 기반하여, 분류(예를 들어 1등급, 2등급, 3등급)하게 된다. In addition, the grading means selects the
다관절로봇(61)은 불량으로 선별된 다리살(2)은 픽업하지 않고, 동일 등급별로 다리살(2)을 픽업하여 등급별로 다리살(2)을 다음 공정라인으로 분리 공급시키게 된다. 즉, 예를 들어 3등급으로 분류되는 경우, 다관절로봇(61)은 3개로 구성되며 각각의 다관절로봇(61)은 동일한 등급만을 픽업하여 분류하여 분리공급시키게 된다. The articulated
또한, 각각의 다관절로봇(61)은, 앞서 언급한 영상처리부에서 산출한 방향데이터를 기반으로 다리살(2)이 일정한 방향으로 정렬되도록 다리살(2)을 다음 공정라인으로 투입시키게 된다. Each of the articulated
이하에서는 영상처리분석을 이용한 대상물 자동 선별, 분류 방법에 대해 설명하도록 한다. 먼저, 컨베어(31)등으로 구성된 이송수단으로 다수의 대상물이 투입되어 대상물이 일정방향으로 이송되게 된다. 그리고, 영상획득부(10)가 대상물을 포함한 영역의 영상데이터를 획득하게 된다. Hereinafter, an automatic object sorting and sorting method using image processing analysis will be described. First, a plurality of objects are inserted into a conveying unit composed of a
그리고, 영상처리부가 이송수단을 통해 이송되는 다수의 대상물 각각에 대한 위치, 길이, 두께, 방향데이터를 획득하여 대상분석데이터를 산출하게 된다. 그리고, 등급화 수단이 길이, 두께데이터를 기반으로 대상물을 분량, 정상으로 선별하고, 정상품을 분류하여 등급화하게 된다. Then, the image processing unit acquires position, length, thickness, and direction data for each of a plurality of objects to be transferred through the transfer means, and calculates the object analysis data. Then, the grading means classifies the objects into small pieces and normal pieces based on the length and the thickness data, and classifies and classifies the regular articles.
그리고 영상처리부에서 산출된 위치데이터를 기반으로 다수의 다관절로봇 각각이 등급화 수단에 의해 등급화된 분류별로 대상물을 중심점 부분을 진공흡착수단에 의해 픽업하게 된다. Then, based on the position data calculated by the image processing unit, each of the plurality of articulated robots picks up the object by the vacuum suction means by the classification classified by the grading means.
그리고 다관절로봇의 다축구동부에 의해 픽업된 대상물을 이송하여 대상물의 방향데이터를 기반으로 대상물이 등급별로 일정한 방향으로 정렬되도록 다음 공정라인으로 이동시키게 된다. Then, the object picked up by the multi-joint robot of the multi-joint robot is transferred and the object is moved to the next process line so that the object is aligned in a predetermined direction based on the direction data of the object.
그리고, 진공흡착수단의 흡착력을 해제하여 대상물이 분류별로 일정한 방향으로 정렬되도록 다음 공정라인으로 투입되게 된다. Then, the adsorption force of the vacuum adsorption unit is released, and the object is put into the next process line so that the object is sorted in a certain direction according to the classification.
이하에서는 본 발명의 실시예에 따른 트랙킹 유닛(30)과 픽업유닛(60)의 구성을 보다 상세하게 설명하도록 한다. 본 발명의 실시예에 따르면 안정적으로 대상물을 이송 및 정확한 이동좌표 추적을 위해 컨베어 트랙킹 유닛(30)을 포함하여 구성될 수 있다. 그리고, 도 6은 본 발명의 실시예에 따른 트랙킹 유닛(30)의 사시도를 도시한 것이다. 또한, 도 7은 본 발명의 실시예에 따른 트랙킹 유닛(30)의 속도위치감지엔코더(50)의 분해 사시도를 도시한 것이다. Hereinafter, the configuration of the
이러한 트랙킹 유닛(30)은 앞서 언급한 영상처리부에서 산출된 대상물의 위치, 방향좌표를 일정하게 유지 및 이송시켜 픽업유닛(60)이 대상물을 정확하게 픽업할 수 있도록 한다. 이하의 실시예에 따른 대상물은 앞서 언급한 바와 같이, 다리살(2)를 예를 들어 설명하도록 한다. The
트랙킹 유닛(30)은 영상처리부에서 산출된 대상분석데이터를 기반으로 다리살(2)의 위치 및 방향좌표가 일정하게 유지되도록 이송수단인 컨베어의 구성을 제어하기 위해 구성된다. 또한, 트랙킹 유닛(30)은 대상물의 이송거리를 측정하여 측정값을 픽업유닛에 전송하게 된다. The
즉, 트랙킹 유닛(30)은, 영상처리부에서 산출된 다리살(2)의 위치, 방향 좌표를 일정하게 유지 및 이송시켜 픽업유닛(60)이 대상물을 픽업할 수 있도록 이송수단을 제어하게 된다. That is, the
이러한 트랙킹 유닛(30)은, 컨베어(31)를 구동시키기 위해 컨베어(31) 일측에 구비된 서보모터(41)와 감속기(42)로 구성된 구동장치(40)를 포함하여 구성된다. 감속기(42)는 대상물의 위치데이터를 기반으로 서보모터를 제어하여 켄베어(31)의 이동속도를 조절하게 된다. The
또한, 컨베어(31) 타측에 속도위치감지엔코더(30)가 구비되어, 다리살(2)의 위치, 방향 좌표의 이송거리를 측정하고 측정값을 픽업유닛에 전송하게 된다. Further, a speed
즉 이송수단인 컨베어(31)는 구동장치(40)에 의해 구동되며, 정확한 다리살(2)의 위치 및 좌표의 이송거리를 측정하기 위해 속도위치감지엔코더(50)가 적용되게 된다. That is, the
이러한 속도위치감지엔코더(50)는, 도 7에 도시된 바와 같이, 회전롤러(52), 텐션조정장치(53), 회전축(51), 엔코더(54) 등을 포함하여 구성될 수 있다. 회전롤러(52)는 컨베어와 접촉하여 회전되게 된다. 이러한 회전롤러(52)는 컨베어와 선접촉하여 회전하며 미끄럼 방지를 위해 우레탄 고무재질이 적용된다. The speed
텐션조정장치(53)는 회전롤러(52)가 컨베어와 접촉되도록 장력을 조절할 수 있도록 구성된다. 즉, 텐션조정장치(53)는 장력을 조정하여 회전롤러(52)가 항상 컨베어와 견고하게 접촉이 일어날 수 있도록 한다. The
그리고 회전축(51)은 일측 끝단이 회전롤러(52)와 결합되며, 엔코더(54)는 이러한 회전축(51)의 타측 끝단에 결합되며 회전롤러(52)의 회전수를 기반으로 대상물의 이송거리를 측정하여 픽업유닛에 전송하게 된다. The
이하에서는 본 발명의 실시예에 따른 픽업유닛(60)의 구성 및 기능에 대해 설명하도록 한다. 앞서 언급한 바와 같이, 픽업유닛(60)은 영상처리부에서 산출된 위치데이터를 기반으로 다리살(2)의 중심점에 접촉하여 다리살(2)를 픽업할 수 있게 된다. Hereinafter, the configuration and functions of the pick-up
다관절로봇(61)은 다축구동부와, 다축구동부 끝단에 구비되어 다리살의 위치 정보를 기반으로 다리살의 중심점 부분을 흡착시키는 진공흡착수단(70)을 포함하고, 다축구동부는 다리살(2)의 방향데이터를 기반으로 픽업된 다리살이 다음 공정라인에 일정한 방향을 정렬되도록 투입시키도록 한다. The multi-joint robot (61) includes a multi-jointed soccer (61) and a vacuum absorbing means (70) provided at an end of the multi-soccer hoop for absorbing a central point portion of the leg, based on position information of the leg, 2 to be aligned in a predetermined direction on the next process line.
도 8a는 본 발명의 실시예에 따른 픽업유닛(60)의 사시도를 도시한 것이다. 그리고, 도 8b는 본 발명의 제1실시예에 따른 흡착수단(70)의 단면도를 도시한 것이다. 8A shows a perspective view of the pick-up
본 발명에 따른 흡착수단(70)은 빠른 작업속도(사이클 타입 1초)에 대응하기 위해 진공흡착방식이 적용되며 진공흡착수단(70)의 시퀀스 제어는 영상처리부에서 생성된 좌표와 다관절로봇(61)의 구동프로그램 및 입출력 신호를 이용하여 온, 오프 제어되게 된다. The vacuum adsorption method is applied to correspond to the fast operation speed (
도 8a 및 도 8b에 도시된 바와 같이, 본 발명의 실시예에 따른 진공흡착수단(70)은, 일단에 흡입단(72)이 구비되고 타단에 배출단(73)이 구비된 몸체(71)와, 이러한 몸체(71) 하단 중단에 구비되며 주름관 형태로 구성된 흡착패드(74)와, 이러한 흡착패드(74) 측에 진공이 발생되도록 몸체(71)에 구비되는 진공발생기(75)와 공압밸브(76)를 포함하여 구성될 수 있다. 8A and 8B, the
즉, 본 발명의 실시예에 따른 진공흡착수단(70)은 다관절 로봇(61), 진공발생기(75), 흡착패드(74)가 일체화되어있고 1개의 흡착 패드(74)가 다리살(2)의 중심점 부분을 흡착하도록 구성된다. 진공 흡착 시퀀스 제어는 다관절 로봇(61)에 장착된 입출력 신호 및 2포지션 양쪽솔레노이드 방식의 공압제어 밸브가 적용되게 된다. 또한, 본 발명의 실시예에 따른 진공흡착수단은 다리살 흡착시 수분, 이물질을 필터링하도록 흡착패드 내부에 구비되는 수분 필터가 장착되어 질 수 있다. That is, in the vacuum absorption means 70 according to the embodiment of the present invention, the articulated
또한, 상기와 같이 설명된 장치 및 방법은 상기 설명된 실시예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.It should be noted that the above-described apparatus and method are not limited to the configurations and methods of the embodiments described above, but the embodiments may be modified so that all or some of the embodiments are selectively combined .
1:영상처리분석을 이용한 대상물 자동 선별, 분류 시스템
2:다리살
10:영상획득부
11:지지대
12:광원조사부
13:카메라
30:트랙킹 유닛
31:컨베어
40:구동장치
41:서보모터
42:감속기
50:속도위치감지엔코더
51:회전축
52:회전롤러
53:텐션조정장치
54:엔코더
55:힌지
60:픽업유닛
61:다관절로봇
70:진공흡착수단
71:몸체
72:흡입단
73:배출단
74:흡착패드
75:진공발생기
76:공압밸브1: Automatic object sorting and classification system using image processing analysis
2: Legs
10:
11: Support
12: Light source unit
13: Camera
30: Tracking unit
31: Conveyor
40: Driving device
41: Servo motor
42: Reducer
50: Speed position sensing encoder
51:
52:
53: tension adjusting device
54: Encoder
55: Hinge
60: Pickup unit
61: articulated robot
70: Vacuum suction means
71: Body
72: suction stage
73: Discharge end
74: Adsorption pad
75: Vacuum generator
76: Pneumatic valve
Claims (10)
이송수단을 통해 이송되는 다수의 대상물 각각에 대한 영상 데이터를 획득하는 영상획득부;
상기 영상획득부에서 획득한 영상 데이터를 기반으로 상기 대상물의 위치, 길이, 두께, 방향정보를 획득하여 대상분석데이터를 산출하는 영상처리부;
상기 대상분석데이터를 기반으로 상기 대상물을 선별, 분류하여 등급화하는 등급화 수단; 및
상기 등급화수단에 의해 선별, 분류된 상기 대상물을 등급별로 픽업하여 분리, 이송시키는 픽업유닛;을 포함하는 것을 특징으로 하는, 영상처리분석을 이용한 대상물 자동 선별, 분류 시스템. An object sorting and sorting system comprising:
An image acquiring unit acquiring image data for each of a plurality of objects conveyed through the conveying unit;
An image processing unit for acquiring position, length, thickness, and direction information of the object based on the image data acquired by the image acquisition unit and calculating object analysis data;
A grading unit for sorting and classifying the objects based on the object analysis data; And
And a pick-up unit that picks up, separates, and transports the objects selected and sorted by the grading means by class, and automatically picks up the object.
상기 영상처리부는,
상기 영상데이터에서 대상물의 외형정보를 획득하여, 관심영역 설정을 통해 크기데이터를 획득하고, 각각의 상기 관심영역 내 픽셀간의 거리정보를 바탕으로 최대 거리정보를 가지는 중심점좌표를 산출하여 위치데이터를 획득하며,
상기 대상물 외형정보의 둘레값을 획득하여 길이데이터를 산출하고, 상기 중심점좌표를 기준으로 2 포인트 교점 중 외형정보 외곽까지 최소길이를 획득하여 두께데이터를 산출하고, 상기 2 포인트 교점 정보를 바탕으로 이외의 다른 교점 정보로부터 방향데이터를 획득하는 것을 특징으로 하는, 영상처리분석을 이용한 대상물 자동 선별, 분류 시스템. The method according to claim 1,
Wherein the image processing unit comprises:
Acquiring size information of the object from the image data, obtaining size data by setting the ROI, calculating center point coordinates having the maximum distance information based on the distance information between pixels in each ROI, and acquiring position data In addition,
Calculating length data by obtaining a circumference value of the object outline information, calculating thickness data by obtaining a minimum length from the two-point intersection to the outline information out of the center point coordinates, and calculating thickness data based on the two-point intersection information And the direction data is acquired from the other intersection information of the object.
상기 대상물은 갑각류의 다리살이고,
상기 영상처리부는 상기 다리살의 외형정보를 획득하여 관심영역설정을 통해 개별 다리살을 분류하고, 각각의 관심영역 내 픽셀간의 거리정보를 이용하여 중심점좌표를 획득하여 위치데이터를 산출하고, 상기 다리살의 외형정보의 둘레값을 획득 및 1/2하여 길이데이터를 계산하고, 상기 중심점좌표를 기준으로 상기 외형정보 외곽까지 최소길이 및 2 포인트 교점을 획득하여 두께데이터를 산출하고, 상기 2 포인트 교점 정보를 바탕으로 이외의 최소 교점으로부터 방향데이터를 획득하는 것을 특징으로 하는, 영상처리분석을 이용한 대상물 자동 선별, 분류 시스템. 3. The method of claim 2,
The object is a limb of crustacean,
Wherein the image processing unit obtains the external shape information of the leggings, classifies individual leggings by setting the region of interest, obtains the center point coordinates using the distance information between the pixels in each region of interest, calculates the position data, Calculating thickness data by calculating length data by acquiring and 1/2 of a circumference value of the outline information, obtaining minimum length and two-point intersection from the center point coordinate to the outline information outline, calculating the thickness data, And direction data is acquired from a minimum intersection other than the background.
상기 픽업 유닛은 이송방향을 따라 서로 특정간격 이격되어 배치되는 다수의 다관절로봇으로 구성되어,
상기 다관절로봇 각각은 상기 위치데이터를 기반으로 상기 대상물의 중심점을 흡착하여 상기 대상물을 픽업하며,
상기 등급화수단은 데이터베이스에 기 저장된 분류데이터와 상기 길이, 두께데이터를 대비하여 상기 대상물을 불량과 정상으로 선별하고, 상기 대상물을 등급화하며,
상기 다관절로봇은 동일 등급별로 상기 대상물을 픽업하여 등급별로 상기 대상물을 다음 공정라인으로 분리 공급시키는 것을 특징으로 하는, 영상처리분석을 이용한 대상물 자동 선별, 분류 시스템. The method of claim 3,
Wherein the pick-up unit is constituted by a plurality of articulated robots disposed at a specific interval from each other along the transport direction,
Wherein each of the articulated robots picks up the object by adsorbing a center point of the object on the basis of the position data,
Wherein the grading means grades the object by comparing the length data and the thickness data stored in the database with the classification data previously stored in the database,
Wherein the articulated robot picks up the object for the same grade and separately supplies the object to the next process line for each grade.
상기 다관절로봇은,
상기 방향데이터를 기반으로 상기 대상물이 일정한 방향으로 정렬되도록 상기 대상물을 다음 공정라인으로 투입시키는 것을 특징으로 하는, 영상처리분석을 이용한 대상물 자동 선별, 분류 시스템. The method according to claim 6,
In the articulated robot,
And the object is inserted into a next process line so that the object is aligned in a predetermined direction based on the direction data.
상기 다관절로봇은 다축구동부와, 다축구동부 끝단에 구비되어 상기 대상물의 위치 정보를 기반으로 상기 대상물의 중심점 부분을 흡착시키는 진공흡착수단을 포함하고, 상기 다축구동부는 상기 대상물의 방향데이터를 기반으로 픽업된 상기 대상물이 다음 공정라인에 일정한 방향을 정렬되도록 투입시키도록 하는 것을 특징으로 하는, 영상처리분석을 이용한 대상물 자동 선별, 분류 시스템. 5. The method of claim 4,
Wherein the articulated robot includes a multi-soccer robot and a vacuum adsorption unit provided at an end of the multi-soccer hoop for adsorbing a center point portion of the object based on the positional information of the object, Wherein the object picked up on the basis of the image of the object to be picked up is aligned with a predetermined direction on a next process line.
상기 진공흡착수단은,
일단에 흡입단이 구비되고 타단에 배출단이 구비된 몸체와, 상기 몸체 하단 중단에 구비되며 주름관 형태로 구성된 흡착패드와, 상기 흡착패드 측에 진공이 발생되도록 상기 몸체에 구비되는 진공발생기와 공압밸브를 포함하거나, 또는
몸체와, 상기 몸체의 외주면에 서로 특정 반경으로 이격된 복수의 진공발생기와, 복수의 상기 진공발생기 각각에 연결된 공압밸브와, 상기 몸체 하부면에 구비되어 복수의 상기 진공발생기 각각에 의해 생성된 흡착력에 의해 상기 대상물을 픽업하는 주름관 형태로 구성된 복수의 흡착패드를 포함하는 것을 특징으로 하는, 영상처리분석을 이용한 대상물 자동 선별, 분류 시스템. The method according to claim 6,
Wherein the vacuum adsorption means comprises:
A suction pad provided at one end of the body and having a discharge end at the other end thereof; a suction pad provided at a lower end of the body to form a corrugated tube; a vacuum generator provided in the body for generating a vacuum on the suction pad side; Valve, or
A vacuum cleaner comprising: a body; a plurality of vacuum generators spaced apart from each other by a specific radius on an outer circumferential surface of the body; a pneumatic valve connected to each of the plurality of vacuum generators; And a plurality of adsorption pads formed in the shape of a corrugated pipe for picking up the object by the image pickup device.
상기 진공흡착수단은 상기 대상물 흡착시 수분, 이물질을 필터링하도록 상기 흡착패드 내부에 구비되는 필터를 더 포함하는 것을 특징으로 하는 영상처리분석을 이용한 대상물 자동 선별, 분류 시스템. 8. The method of claim 7,
Wherein the vacuum adsorption means further comprises a filter disposed inside the adsorption pad to filter moisture and foreign substances when the object is adsorbed.
이송수단으로 다수의 대상물이 투입되어 상기 대상물이 일정방향으로 이송되는 단계;
영상획득부가 상기 대상물을 포함한 영역의 영상데이터를 획득하는 단계;
영상처리부가 상기 이송수단을 통해 이송되는 다수의 대상물 각각에 대한 위치, 길이, 두께, 방향데이터를 획득하여 대상분석데이터를 산출하는 단계;
등급화 수단이 길이, 두께데이터를 기반으로 상기 대상물을 선별, 분류하여 등급화하는 단계; 및
상기 영상처리부에서 산출된 위치데이터를 기반으로 다수의 다관절로봇 각각이 상기 등급화 수단에 의해 등급화된 분류별로 상기 대상물을 중심점 부분을 진공흡착수단에 의해 픽업하는 단계;
상기 다관절로봇의 다축구동부에 의해 픽업된 상기 대상물을 이송하여 상기 대상물의 방향데이터를 기반으로 상기 대상물이 등급별로 일정한 방향으로 정렬되도록 다음 공정라인으로 이동시키는 단계; 및
상기 진공흡착수단의 흡착력을 해제하여 상기 대상물이 분류별로 일정한 방향으로 정렬되도록 다음 공정라인으로 투입되는 단계;를 포함하는 것을 특징으로 하는 영상처리분석을 이용한 대상물 자동 선별, 분류 방법. In automatic object sorting and sorting method,
A plurality of objects are fed by the conveying means and the object is conveyed in a predetermined direction;
An image acquiring unit acquiring image data of an area including the object;
Acquiring position, length, thickness, and orientation data for each of a plurality of objects transferred through the transfer unit, and calculating object analysis data;
Classifying means for sorting and classifying the objects based on length and thickness data; And
A plurality of articulated robots each picking up a center point portion of the object by the vacuum suction means based on the classifications classified by the grading means based on the position data calculated by the image processing portion;
Moving the object picked up by the multi-joint eccentricity of the articulated robot to a next process line so that the object is aligned in a predetermined direction on the basis of direction data of the object; And
And releasing the attraction force of the vacuum adsorption means and inputting the object to a next process line so that the object is sorted in a predetermined direction according to the classification.
상기 대상분석데이터를 산출하는 단계는,
상기 영상데이터에서 대상물의 외형정보를 획득하여, 관심영역 설정을 통해 개별 대상물을 분류하고, 각각의 상기 관심영역 내 픽셀간의 거리정보를 바탕으로 최대 거리정보를 가지는 중심점좌표를 산출하여 위치데이터를 획득하며,
상기 대상물 외형정보의 컨투어(Contour) 정보를 획득하여 길이데이터를 산출하고, 상기 중심점좌표를 기준으로 상기 컨투어까지 최소길이 및 2 포인트 교점을 획득하여 두께데이터를 산출하고, 상기 2 포인트 교점 정보를 바탕으로 이외의 최소 교점으로부터 방향데이터를 획득하는 것을 특징으로 하는, 영상처리분석을 이용한 대상물 자동 선별, 분류 방법. 10. The method of claim 9,
Wherein the step of calculating the object analysis data comprises:
Acquiring contour information of an object from the image data, classifying individual objects by setting a region of interest, calculating center-point coordinates having maximum distance information based on distance information between pixels in each ROI, and acquiring position data In addition,
Acquiring contour information of the object contour information to calculate length data, calculating thickness data by obtaining a minimum length and a two-point intersection point from the center point coordinate to the contour, And directional data is acquired from a minimum intersection other than the intersection point.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170168355A KR102109698B1 (en) | 2017-12-08 | 2017-12-08 | Object auto sorting, classifying system using image processing algorithm |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170168355A KR102109698B1 (en) | 2017-12-08 | 2017-12-08 | Object auto sorting, classifying system using image processing algorithm |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20190068663A true KR20190068663A (en) | 2019-06-19 |
KR102109698B1 KR102109698B1 (en) | 2020-05-12 |
Family
ID=67104418
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170168355A KR102109698B1 (en) | 2017-12-08 | 2017-12-08 | Object auto sorting, classifying system using image processing algorithm |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102109698B1 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110449381A (en) * | 2019-08-19 | 2019-11-15 | 黄山小罐茶业有限公司 | Tealeaves impurity picks manipulator |
CN113021401A (en) * | 2019-08-21 | 2021-06-25 | 牧今科技 | Robotic multi-jaw gripper assembly and method for gripping and holding objects |
KR102620688B1 (en) * | 2023-04-25 | 2024-01-03 | 주식회사 하버 | Calculation system of crustacea leavel based on artificial intelligence |
US11904468B2 (en) | 2019-08-21 | 2024-02-20 | Mujin, Inc. | Robotic multi-gripper assemblies and methods for gripping and holding objects |
Citations (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002192436A (en) * | 2000-12-25 | 2002-07-10 | Amada Co Ltd | Pick-up device and method for work |
JP2003211096A (en) * | 2002-01-18 | 2003-07-29 | Fuji Photo Film Co Ltd | Sorting/array apparatus of article |
KR20120033611A (en) * | 2010-09-30 | 2012-04-09 | 주식회사 로보스 | Robot gripper for selection apparatus |
KR101251462B1 (en) * | 2005-07-11 | 2013-04-04 | 시부야 세이키 가부시키가이샤 | Agricultural products sorting apparatus |
JP5246161B2 (en) | 2007-07-02 | 2013-07-24 | 東芝三菱電機産業システム株式会社 | Tracking device |
JP5482778B2 (en) | 2011-12-27 | 2014-05-07 | 井関農機株式会社 | Tray placement position detection method |
CN103801520A (en) * | 2014-01-27 | 2014-05-21 | 浙江大学 | Method and device for automatically carefully sorting and grading shrimps |
KR20140076828A (en) | 2012-12-13 | 2014-06-23 | 한미반도체 주식회사 | Vacuum pickup device |
JP2015003284A (en) * | 2013-06-19 | 2015-01-08 | ヤンマー株式会社 | Selector |
KR101540707B1 (en) * | 2014-10-30 | 2015-08-03 | 대한민국 | Method for the automatic grading of abalone based on image processing technology |
KR20160080279A (en) | 2014-12-26 | 2016-07-08 | (주)구일엔지니어링 | Grip for the solar wafer contact pad unit and the carrier unit comprising the |
KR101644991B1 (en) | 2015-08-20 | 2016-08-02 | 임영호 | Crab Shells Removal Apparatus Which Can Be Easily Removed Gill |
WO2016147203A1 (en) * | 2015-03-16 | 2016-09-22 | Nanopix Iss (P) Ltd. | A novel intelligent grading machine with trajectory tracking sensor network and a process thereof |
KR101703542B1 (en) * | 2016-11-30 | 2017-02-23 | 대한민국 | Automatic sorting method of sea-squirt using feature measurement and HSV color model |
KR20170054975A (en) | 2015-11-10 | 2017-05-18 | 이중직 | Apparatus for automatic cutting and peel processing a red crab |
CN107014757A (en) * | 2017-05-24 | 2017-08-04 | 华中农业大学 | Steamed crab male and female and the online Non-Destructive Testing classifying equipoment of size |
-
2017
- 2017-12-08 KR KR1020170168355A patent/KR102109698B1/en active IP Right Grant
Patent Citations (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002192436A (en) * | 2000-12-25 | 2002-07-10 | Amada Co Ltd | Pick-up device and method for work |
JP2003211096A (en) * | 2002-01-18 | 2003-07-29 | Fuji Photo Film Co Ltd | Sorting/array apparatus of article |
KR101251462B1 (en) * | 2005-07-11 | 2013-04-04 | 시부야 세이키 가부시키가이샤 | Agricultural products sorting apparatus |
JP5246161B2 (en) | 2007-07-02 | 2013-07-24 | 東芝三菱電機産業システム株式会社 | Tracking device |
KR20120033611A (en) * | 2010-09-30 | 2012-04-09 | 주식회사 로보스 | Robot gripper for selection apparatus |
JP5482778B2 (en) | 2011-12-27 | 2014-05-07 | 井関農機株式会社 | Tray placement position detection method |
KR20140076828A (en) | 2012-12-13 | 2014-06-23 | 한미반도체 주식회사 | Vacuum pickup device |
JP2015003284A (en) * | 2013-06-19 | 2015-01-08 | ヤンマー株式会社 | Selector |
CN103801520A (en) * | 2014-01-27 | 2014-05-21 | 浙江大学 | Method and device for automatically carefully sorting and grading shrimps |
KR101540707B1 (en) * | 2014-10-30 | 2015-08-03 | 대한민국 | Method for the automatic grading of abalone based on image processing technology |
KR20160080279A (en) | 2014-12-26 | 2016-07-08 | (주)구일엔지니어링 | Grip for the solar wafer contact pad unit and the carrier unit comprising the |
WO2016147203A1 (en) * | 2015-03-16 | 2016-09-22 | Nanopix Iss (P) Ltd. | A novel intelligent grading machine with trajectory tracking sensor network and a process thereof |
KR101644991B1 (en) | 2015-08-20 | 2016-08-02 | 임영호 | Crab Shells Removal Apparatus Which Can Be Easily Removed Gill |
KR20170054975A (en) | 2015-11-10 | 2017-05-18 | 이중직 | Apparatus for automatic cutting and peel processing a red crab |
KR101703542B1 (en) * | 2016-11-30 | 2017-02-23 | 대한민국 | Automatic sorting method of sea-squirt using feature measurement and HSV color model |
CN107014757A (en) * | 2017-05-24 | 2017-08-04 | 华中农业大学 | Steamed crab male and female and the online Non-Destructive Testing classifying equipoment of size |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110449381A (en) * | 2019-08-19 | 2019-11-15 | 黄山小罐茶业有限公司 | Tealeaves impurity picks manipulator |
CN113021401A (en) * | 2019-08-21 | 2021-06-25 | 牧今科技 | Robotic multi-jaw gripper assembly and method for gripping and holding objects |
CN113021401B (en) * | 2019-08-21 | 2022-06-28 | 牧今科技 | Robotic multi-jaw gripper assembly and method for gripping and holding objects |
US11904468B2 (en) | 2019-08-21 | 2024-02-20 | Mujin, Inc. | Robotic multi-gripper assemblies and methods for gripping and holding objects |
US11958191B2 (en) | 2019-08-21 | 2024-04-16 | Mujin, Inc. | Robotic multi-gripper assemblies and methods for gripping and holding objects |
KR102620688B1 (en) * | 2023-04-25 | 2024-01-03 | 주식회사 하버 | Calculation system of crustacea leavel based on artificial intelligence |
Also Published As
Publication number | Publication date |
---|---|
KR102109698B1 (en) | 2020-05-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102027040B1 (en) | Object auto arrangement system using image processing algorithm | |
KR20190068663A (en) | Object auto sorting, classifying system using image processing algorithm | |
US10485242B2 (en) | Sensor-guided automated method and system for processing crustaceans | |
US11344036B2 (en) | Apparatus for processing and grading food articles and related methods | |
US11014257B2 (en) | Method and apparatus for removing foreign objects from food pieces | |
JP2001508571A (en) | Workpiece processing apparatus and processing method thereof | |
JP5440885B2 (en) | Robot system | |
US10745839B1 (en) | Unwrinkling systems and methods | |
KR102027039B1 (en) | Object auto arrangement system using image processing algorithm | |
JP7201313B2 (en) | Food transfer system and food gripping device | |
JP6761569B2 (en) | Goods sorting device | |
Failli et al. | An innovative approach to the automated stacking and grasping of leather plies | |
WO2022138234A1 (en) | Tool checking device, tool checking program, and tool checking method for robot arm | |
WO2018225827A1 (en) | Workpiece recognition device, and method for recognizing workpiece | |
US8207467B2 (en) | Automatic method and system for the determination and classification of foods | |
CN113496177A (en) | Visual inspection system and method of inspecting parts | |
US11053618B2 (en) | Unwrinkling systems and methods | |
US20240033934A1 (en) | Tool checking device, storage device storing tool checking program, and tool checking method for robot arm | |
DK180343B1 (en) | System and method for automatic removal of foreign objects from a food surface | |
Wang et al. | The Acquisition of Position and Orientation of the Conveyor Belt Workpiece Based on the Inter Frame Difference in ROI in Camera Video | |
KR20230042655A (en) | Foreign matter removal device for sheet-shaped laver | |
CN114451147A (en) | Automatic picking equipment | |
NL2012983C2 (en) | INSPECTION AND TRANSITION SYSTEM FOR INSPECTING AND TRANSFERRING NATURAL PRODUCTS AND METHOD FOR THIS. | |
Lanzetta et al. | Design and development of a vision based leather trimming machine | |
JP2001009778A (en) | Unnecessary part cutting device of farm product |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E90F | Notification of reason for final refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |