KR102646286B1 - Part inspection system - Google Patents

Part inspection system Download PDF

Info

Publication number
KR102646286B1
KR102646286B1 KR1020210125958A KR20210125958A KR102646286B1 KR 102646286 B1 KR102646286 B1 KR 102646286B1 KR 1020210125958 A KR1020210125958 A KR 1020210125958A KR 20210125958 A KR20210125958 A KR 20210125958A KR 102646286 B1 KR102646286 B1 KR 102646286B1
Authority
KR
South Korea
Prior art keywords
feature point
parts
unit
coordinates
dimensional feature
Prior art date
Application number
KR1020210125958A
Other languages
Korean (ko)
Other versions
KR20230042995A (en
Inventor
서경철
박철우
이계섭
Original Assignee
주식회사 스피어테크
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 스피어테크 filed Critical 주식회사 스피어테크
Priority to KR1020210125958A priority Critical patent/KR102646286B1/en
Publication of KR20230042995A publication Critical patent/KR20230042995A/en
Application granted granted Critical
Publication of KR102646286B1 publication Critical patent/KR102646286B1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/89Investigating the presence of flaws or contamination in moving material, e.g. running paper or textiles
    • G01N21/8901Optical details; Scanning details
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/95Investigating the presence of flaws or contamination characterised by the material or shape of the object to be examined
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • G01N2021/8887Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges based on image processing techniques

Abstract

본 발명은 부품을 식별 및 계수하기 위한 부품 검사 시스템에 관한 것으로서, 보다 상세하게는 두 대의 카메라에서 각각 추출한 부품의 3차원 특징점을 비교 분석하여 부품의 불량 여부를 판단할 수 있는 부품 검사 시스템에 관한 것이다.The present invention relates to a parts inspection system for identifying and counting parts, and more specifically, to a parts inspection system that can determine whether a part is defective by comparing and analyzing three-dimensional feature points of a part extracted from two cameras. will be.

Description

부품 검사 시스템 {Part inspection system}Part inspection system {Part inspection system}

본 발명은 부품을 식별 및 계수하기 위한 부품 검사 시스템에 관한 것으로서, 보다 상세하게는 두 대의 카메라에서 각각 추출한 부품의 3차원 특징점을 비교 분석하여 부품의 불량 여부를 판단할 수 있는 부품 검사 시스템에 관한 것이다.The present invention relates to a parts inspection system for identifying and counting parts, and more specifically, to a parts inspection system that can determine whether a part is defective by comparing and analyzing three-dimensional feature points of a part extracted from two cameras. will be.

소비자들은 빠르게 변화하는 제품 트렌드로 인해 점차 차별화된 제품을 원하고 있다. 또한, 소비자의 모든 구매 내역 실시간으로 데이터베이스화 할 수 있음에 따라 현대에서는 당일에 필요한 제품에 대한 정확한 재고관리가 가능해짐에 따라 대량의 재고를 만들 필요가 없다. Consumers increasingly want differentiated products due to rapidly changing product trends. In addition, as all of a consumer's purchase history can be databased in real time, accurate inventory management of products needed on the same day is possible in modern times, eliminating the need to create large quantities of inventory.

이러한 제품 트렌드 및 재고관리로 인해 다품종을 소량생산하기 위한 니즈가 점점 증가 하고 있으나, 자동화 설비가 되어 있는 공장에서는 수시로 변하는 품종 변화에 빠르게 대응하지 못하고 있다. 또한, 자동화 설비보다 인력에 의존하고 있는 소규모 공장에서는 인건비 증가로 인해 제품의 원가가 상승된다. Due to these product trends and inventory management, the need to produce small quantities of multiple varieties is increasing, but factories with automated facilities are unable to quickly respond to frequent changes in varieties. Additionally, in small factories that rely on manpower rather than automated facilities, product costs rise due to increased labor costs.

이러한 원가 상승에 대한 대응책으로 제품을 조립하는 공정에서 부품의 양을 최소화 하여 자동화 공정으로 하나의 제품을 조립하고자 하나, 각각의 부품이 별도의 이송장치를 통해 공급되어야 함으로 해서 대부분의 조립 공정에서는 부품 공급 이송장치를 만드는 일이 불가능하거나 어렵다. 이러한 문제를 해결할 수 있는 방법으로는 하나의 이송장치에 다종의 부품을 순차적으로 공급하는 방법인데, 부품을 순차적으로 공급한 후에는 이를 검수할 수 있는 장치가 필수적이다. As a response to this increase in cost, we try to assemble one product through an automated process by minimizing the amount of parts in the product assembly process. However, since each part must be supplied through a separate transfer device, most assembly processes require parts to be assembled together. It is difficult or impossible to create a supply transfer device. A way to solve this problem is to sequentially supply various parts to one transfer device, and a device that can inspect the parts after they are sequentially supplied is essential.

다중의 부품이 정확한 자세와 간격으로 공급되지 않는 환경에서는 각 부품별로 검수하기 위해서는 특징점 추출을 통해 부품을 구분할 수 있는 영상검사장치가 필수적인데, 이러한 영상검사장치는 영상장치가 획득하는 영상의 정확한 위치에 있지 않는 부품을 검수하는데는 강인하나, 부품이 평면적이지 않고 3차원 구조를 갖고 있을 경우 영상이 획득되는 위치와 영상과 부품의 각도가 바뀜에 따라 2차원 특징점은 동일한 부품에 대해서 서로 다르게 나타나는 문제가 있다. In an environment where multiple parts are not supplied at accurate positions and intervals, an image inspection device that can distinguish parts through feature point extraction is essential in order to inspect each part. It is robust in inspecting parts that are not in the area, but when the part is not flat and has a three-dimensional structure, the two-dimensional feature points appear different for the same part as the location where the image is acquired and the angle between the image and the part change. There is.

이를 해결하기 위해서는 3차원 특징점 분포를 획득하여 비교할 수 있는 방법을 사용해야 하고 그러기 위해서는 두 대 이상의 카메라를 사용하여 부품의 3차원 특징점 분포를 획득하고 이를 통해 부품을 특징지어야 한다.To solve this problem, a method that can obtain and compare 3D feature point distributions must be used. To do this, two or more cameras must be used to obtain the 3D feature point distribution of the part and characterize the part through this.

따라서, 유사한 대상 객체의 형상을 명확하게 구분하여 오차 발생율을 감소시키고, 식별 정확도를 향상시킬 수 있는 검사시스템의 개발이 필요한 실정이다.Therefore, there is a need to develop an inspection system that can clearly distinguish the shapes of similar target objects, reduce the error rate, and improve identification accuracy.

1. 한국등록특허 제10-2185322호 '적외선 스테레오 카메라를 이용한 위치 검출 시스템' (등록일자 2020.11.25)1. Korean Patent No. 10-2185322 ‘Position detection system using infrared stereo camera’ (registration date 2020.11.25) 2. 한국공개특허공보 제10-2019-0063967호 '스테레오 카메라와 3D 바코드를 이용한 위치 측정 방법 및 장치' (공개일자 2019.06.10)2. Korea Patent Publication No. 10-2019-0063967 ‘Position measurement method and device using a stereo camera and 3D barcode’ (Publication date 2019.06.10) 3. 한국등록특허 제10-0837776호 '2차원 영상을 3차원 영상으로 변환하는 영상 변환 장치 및 그 방법' (등록일자 2008.06.05)3. Korean Patent No. 10-0837776 ‘Image conversion device and method for converting a 2-dimensional image into a 3-dimensional image’ (registration date 2008.06.05)

본 발명은 상기의 문제점을 해결하기 위해 안출된 것으로서, 스테레오 카메라를 이용하여 촬영한 영상으로 제품의 3차원 특징점을 식별하여 제품의 불량 여부를 보다 명확하게 판단하고, 다종의 부품을 종류별로 계수할 수 있는 검사시스템을 제공하는데 그 목적이 있다. The present invention was developed to solve the above problems. It identifies three-dimensional feature points of a product using images captured using a stereo camera, determines more clearly whether the product is defective, and counts various types of parts by type. The purpose is to provide a capable inspection system.

본 발명의 부품 검사 시스템은 이동하는 대상물을 각각 다른 각도에서 촬영하여 복수의 영상을 획득하도록 적어도 2개 이상의 영상촬영장치를 포함하는 영상촬영부; 상기 영상촬영장치에서 촬영된 각각의 영상에서 적어도 하나 이상의 특징점을 생성하여 대상물의 2차원 특징점 좌표를 획득하는 특징점생성부; 상기 각각의 영상촬영장치를 통해 생성된 2차원 특징점 좌표 정보를 전달받아 각각의 특징점의 교차점을 통해 3차원 특징점 좌표를 획득하는 부품추출부; 데이터베이스에 저장된 대상물의 3차원 특징점의 기준 좌표와 상기 부품추출부에서 획득한 3차원 특징점 좌표를 비교하여 일치여부를 판단하는 부품공급판단부;를 포함하는 것을 특징으로 한다.The parts inspection system of the present invention includes an image capture unit including at least two image capture devices to acquire a plurality of images by photographing a moving object from different angles; a feature point generator that generates at least one feature point from each image captured by the image capture device and obtains two-dimensional feature point coordinates of the object; a part extraction unit that receives two-dimensional feature point coordinate information generated through each of the image capture devices and obtains three-dimensional feature point coordinates through the intersection of each feature point; and a parts supply determination unit that compares the reference coordinates of the three-dimensional feature points of the object stored in the database with the three-dimensional feature point coordinates obtained from the parts extraction unit to determine whether they match.

본 발명에 있어서, 상기 특징점생성부 또는 상기 부품추출부에서 획득한 특징점 좌표의 점군(Point cloud)을 분석하여 상기 데이터베이스에 저장된 대상물의 특징점 좌표와 유사도 비교 후 대상물을 부품별로 식별하는 부품식별부;가 더 구비되는 것을 특징으로 한다. In the present invention, a part identification unit that analyzes a point cloud of feature point coordinates obtained from the feature point generation unit or the part extraction unit and compares the similarity with the feature point coordinates of the object stored in the database to identify the object for each part; It is characterized in that it is further provided.

본 발명에 있어서, 상기 부품식별부는 식별된 대상물의 순서가 기 설정된 순서대로 식별되는지 여부를 판단하는 부품계수부;를 더 포함하는 것을 특징으로 한다. In the present invention, the parts identification unit further includes a parts counting unit that determines whether the identified objects are identified in a preset order.

아울러 본 발명은 최초로 이동된 대상물의 2차원 특징점 좌표를 전달받아 기준이 되는 대상물의 좌표를 설정하고, 이후 이동하는 대상물의 2차원 특징점 좌표와 비교하여 대상물의 위치 변동 여부를 식별하는 위치식별부;를 더 포함하는 것을 특징으로 한다.In addition, the present invention first receives the two-dimensional feature point coordinates of the moving object, sets the coordinates of the reference object, and then compares them with the two-dimensional feature point coordinates of the moving object to identify whether the object's position has changed; a location identification unit; It is characterized in that it further includes.

본 발명은 적어도 2대 이상의 카메라가 다양한 각도에서 부품을 촬영하여 특징점을 추출하기 때문에 부품의 위치나 자세 정보 등을 매우 정확하게 획득할 수 있어 부품의 분류, 계수 및 불량을 판별하는 정확도를 향상시킬 수 있는 장점이 있다. In the present invention, since at least two or more cameras photograph parts from various angles and extract feature points, the position and posture information of the part can be obtained very accurately, improving the accuracy of classifying, counting, and determining defects of parts. There is an advantage.

도 1 은 본 발명의 부품 검사 시스템의 개략도.
도 2 는 본 발명의 부품 검사 시스템의 구성도.
도 3 은 본 발명에 따른 제품 영상에서 특징점을 추출한 일실시예를 나타낸 도면 및 사진.
도 4 는 본 발명의 특징점 무리를 나타내는 도면.
도 5 는 본 발명의 무리로부터 부품 식별을 나타내는 도면.
도 6 은 본 발명의 위치식별을 위해 기준 특징점추출과 특징점을 비교하는 일실시예를 나타낸 도면.
도 7 은 본 발명의 대상물을 검사하기 위한 내용을 설명한 순서도.
1 is a schematic diagram of a component inspection system of the present invention.
Figure 2 is a configuration diagram of the component inspection system of the present invention.
Figure 3 is a drawing and a photograph showing an example of extracting feature points from a product image according to the present invention.
Figure 4 is a diagram showing a group of feature points of the present invention.
Figure 5 is a diagram showing component identification from the group of the present invention.
Figure 6 is a diagram showing an embodiment of comparing reference feature point extraction and feature points for location identification according to the present invention.
Figure 7 is a flowchart explaining the contents for inspecting an object of the present invention.

이하, 도면을 참조하여 본 발명의 부품 검사 시스템의 일실시예에 대해 상세히 설명한다. 본 발명의 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에 그 상세한 설명을 생략하기로 한다.Hereinafter, an embodiment of the component inspection system of the present invention will be described in detail with reference to the drawings. In describing embodiments of the present invention, if it is determined that a detailed description of related known technologies may unnecessarily obscure the gist of the present invention, the detailed description will be omitted.

도 1 을 참조하면 대상물은 컨베이어벨트에 안착된 상태에서 컨베이어벨트의 구동에 따라 이동한다. 그리고, 이동하는 대상물을 각각 다른 각도, 바람직하게는 상호 마주보며 대칭을 이루는 각도에서 촬영할 수 있는 영상촬영장치가 더 구비된다. 영상촬영장치는 적어도 2개 이상 구비되는 것이 바람직하다. 따라서, 영상촬영장치를 통해 다른 각도에서 촬영된 대상물의 영상 이미지를 획득할 수 있다.Referring to Figure 1, an object is seated on a conveyor belt and moves according to the drive of the conveyor belt. In addition, an image capture device is further provided that can capture moving objects at different angles, preferably at angles that are symmetrical while facing each other. It is desirable to have at least two video recording devices. Therefore, it is possible to obtain video images of an object photographed from different angles through an imaging device.

영상촬영장치는 카메라일 수 있으며, PC는 Nvidia TX 모듈과 같은 GPU 연상 장치를 사용하여 연산속도 상승은 물론 인터페이스 모듈도 단일 구성할 수 있다. 인터페이스 모듈은 USB 3.0, WIFI통신, HDMI 영상출력 등의 기능을 포함한다. 영상촬영장치는 컨베이어벨트에 안내되어 이송중인 대상물의 영상을 촬영한다. 상기에서 언급한 부품 검사 시스템은 개략적인 것으로, 카메라의 위치, 대상물을 이송시키기 위한 운송수단 등은 모두 설계변경 가능한 사항이다. The video recording device can be a camera, and the PC can use a GPU-related device such as the Nvidia TX module to increase operation speed and configure a single interface module. The interface module includes functions such as USB 3.0, WIFI communication, and HDMI video output. The video recording device captures images of objects being transported along a conveyor belt. The parts inspection system mentioned above is a rough outline, and the location of the camera and means of transportation for transporting the object are all subject to design changes.

도 2 를 참조하면 부품 검사 시스템은 영상촬영부(100), 특징점생성부(200), 부품추출부(300), 부품공급판단부(400), 부품분류부(500), 위치식별부(600) 및 데이터베이스(700)를 포함할 수 있다.Referring to FIG. 2, the parts inspection system includes an image capture unit 100, a feature point generation unit 200, a parts extraction unit 300, a parts supply determination unit 400, a parts classification unit 500, and a location identification unit 600. ) and a database 700.

[영상촬영][Video shooting]

영상촬영부(100)는 영상 촬영이 제1 촬영장치(110)와 제2 촬영장치(120)를 포함한다. 제1 촬영장치(110)와 제2 촬영장치(120)는 도 1 을 기준으로 서로 대칭을 이루며 일정각도로 경사를 유지하여 대상물을 연속적으로 촬영할 수 있다. The image capture unit 100 includes a first image capture device 110 and a second image capture device 120. The first photographing device 110 and the second photographing device 120 are symmetrical to each other with respect to FIG. 1 and can continuously photograph an object by maintaining an inclination at a certain angle.

[특징점 추출][Feature point extraction]

특징점생성부(200)는 영상촬영부(100)에서 촬영된 영상으로부터 부품을 식별하기 위한 장치로, 특징점추출부(210), 무리식별부(220), 무리추출부(230)를 포함할 수 있다. 특징점생성부(210)는 영상촬영부(100)에서 촬영된 영상으로부터 적어도 하나의 특징점을 생성한다. 특징점은 영상 내 특정 물체의 선, 원, 모서리 등의 특징되는 영역을 의미하며, led corner edge detection, Image descriptor, SURF(Speeded Up Robust Feature), ORB(Oriented FAST and Rotated BRIEF) 알고리즘 등이 사용될 수 있다. The feature point generation unit 200 is a device for identifying parts from images captured by the image capture unit 100, and may include a feature point extraction unit 210, a group identification unit 220, and a group extraction unit 230. there is. The feature point generator 210 generates at least one feature point from an image captured by the image capture unit 100. A feature point refers to a characteristic area such as a line, circle, or corner of a specific object in an image, and led corner edge detection, Image descriptor, SURF (Speeded Up Robust Feature), ORB (Oriented FAST and Rotated BRIEF) algorithms can be used. there is.

본 발명은 FAST key point detector와 BRIEF descriptor에 기반하여 만들어졌으며, 적은 계산으로 좋은 성능을 낼 수 있는 ORB(Oriented FAST and Rotated BRIEF) 알고리즘을 사용하는 것이 바람직하다. 알고리즘의 인식 속도의 향상 및 실시간성을 위해 멀티 GPU 연산을 위한 코드 변경 최적화를 수행할 수 있다.The present invention was created based on the FAST key point detector and BRIEF descriptor, and it is desirable to use the ORB (Oriented FAST and Rotated BRIEF) algorithm, which can achieve good performance with less calculation. Code change optimization for multi-GPU calculation can be performed to improve the recognition speed and real-time of the algorithm.

또한, 특징점추출부(210)는 노이즈필터를 더 구비할 수 있으며, 추출된 특징점 중에서 노이즈에 해당되는 특징점을 제거한다. 일 예로, 노이즈필터는 일정영역 내에 위치한 특징점이 기 설정된 개수조건을 만족하는지 여부에 따라 노이즈 여부를 판단할 수 있다.Additionally, the feature point extraction unit 210 may further include a noise filter, and remove feature points corresponding to noise from the extracted feature points. For example, the noise filter may determine whether feature points located within a certain area are noise based on whether they satisfy a preset number condition.

도 3 을 참조하면 특징점추출부(210)가 촬영된 영상에서 특징점을 추출한 것을 나타낸 도면으로 특징점이 생성된 것을 확인할 수 있다. 도 3에 도시된 특징점은 본 발명의 기술 설명을 용이하게 하기 위해 임의로 도식화한 것으로, 실제 영상에서 생성되는 특징점은 이와 상이할 수 있다. Referring to FIG. 3, it is a diagram showing the feature point extraction unit 210 extracting feature points from a captured image, and it can be seen that feature points have been created. The feature points shown in FIG. 3 are arbitrarily schematized to facilitate technical description of the present invention, and feature points generated in an actual image may be different from these.

특징점추출부(210)에서 추출된 특징점은 제1 및 제2 촬영장치(100,120) 각각에서 촬영한 영상에서 적어도 하나 이상 바람직하게는 다수개의 2차원의 특징점 좌표를 추출한다. The feature point extracted by the feature point extraction unit 210 extracts at least one or more two-dimensional feature point coordinates, preferably a plurality of them, from images captured by each of the first and second photographing devices 100 and 120.

무리식별부(220)는 기 설정된 조건을 통해 인접하는 특징점들을 하나의 특징점 무리로 식별한다. 기 설정된 조건으로는 이미지 픽셀(pixel) 단위로 임의로 설정된 거리 내에 위치한 특징점 등을 하나의 특징점 무리로 식별하는 방법 등이 사용될 수 있다.The group identification unit 220 identifies adjacent feature points as one feature point group through preset conditions. As a preset condition, a method of identifying feature points located within an arbitrarily set distance in image pixel units as a group of feature points may be used.

도 4 를 참조하면 제1 및 제2 촬영장치(110,120)에서 대상물(P1)에서 추출한 특징점을 하나의 무리(C1)로, 다른 대상물(P2)에서 다른 하나의 무리(C2)로 지정한 것을 확인할 수 있다. Referring to FIG. 4, it can be seen that the first and second imaging devices 110 and 120 designated the feature points extracted from the object (P1) as one group (C1) and the other objects (P2) as another group (C2). there is.

이후 무리추출부(230)는 식별된 특징점 무리의 분포정보를 추출한다. 즉, 무리(C1,C2)로 지정된 대상물이 어느 정도의 크기인지 특징점이 어디에 위치하는지 분석하여 벡터 정보를 포함한다. Afterwards, the cluster extraction unit 230 extracts distribution information of the identified cluster of feature points. In other words, vector information is included by analyzing the size of the object designated as a group (C1, C2) and where the feature points are located.

[3차원 좌표 획득][Acquisition of 3D coordinates]

부품추출부(300)는 제1 촬영장치(110)에서 추출한 2차원 특징점 좌표 정보와 제2 촬영장치(120)에서 추출한 2차원 특징점 좌표 정보를 각각 전달받아 특징점의 교차점을 통해 에피폴라 기하 원리(epipolar line)로 3차원 특징점 좌표를 생성하는 좌표생성부(320)를 포함한다. 그리고, 2차원 특징점에서 기 설정된 간격 이상으로 이격된 특징점을 제거하는 노이즈제거부(310)를 더 포함한다. The part extraction unit 300 receives the two-dimensional feature point coordinate information extracted from the first imaging device 110 and the two-dimensional feature point coordinate information extracted from the second photographing device 120, and uses the epipolar geometry principle ( It includes a coordinate generator 320 that generates three-dimensional feature point coordinates using an epipolar line. In addition, it further includes a noise removal unit 310 that removes feature points that are spaced apart from the two-dimensional feature points by more than a preset interval.

즉, 상기 동일한 특징점들의 정보와 에피폴라 기하 원리로부터 특징점들의 위치 및 각각의 특징점들 간의 기하학적 관계를 이용하여, 각 3차원 특징점 좌표의 연결 시에 보간법을 적용한 곡선화를 통하여 상기 대상 물체의 공간화 모델을 구현할 수 있다. 그리고, 3차원 좌표를 분석하여 대상물의 높이와 부피에 대한 특성값도 획득할 수 있어 제품 구분의 정확도를 향상시킬 수 있다.That is, using the information of the same feature points and the location of the feature points and the geometric relationship between each feature point from the epipolar geometry principle, a spatial model of the target object is created through curved application of interpolation when connecting the coordinates of each 3D feature point. can be implemented. In addition, by analyzing the 3D coordinates, characteristic values for the height and volume of the object can also be obtained, improving the accuracy of product classification.

[일치여부 판정][Judgment of match]

부품공급판단부(400)는 데이터베이스(700)에 저장된 대상물의 3차원 특징점의 기준 좌표와 부품추출부(300)에서 획득한 3차원 특징점 좌표를 비교하여 일치여부를 판단한다. 이때, 3차원 정보는 제품의 높이, 부피 정보까지 획득할 수 있다. 획득한 정보를 통하여 데이터베이스(700)에 저장된 부품정보리스트와 특징점 무리의 분포정보의 유사도를 비교한다. The parts supply determination unit 400 compares the reference coordinates of the 3D feature points of the object stored in the database 700 with the 3D feature point coordinates obtained from the part extraction unit 300 to determine whether they match. At this time, 3D information can be obtained including height and volume information of the product. Through the obtained information, the similarity between the parts information list stored in the database 700 and the distribution information of the feature point group is compared.

부품정보리스트는 관리자에 의해 등록된 3차원 대표 좌표이며, 부품의 규격, 종류 부피 등 부품을 정의한 데이터뿐 아니라, 각각의 부품에 대한 분포정보가 저장된 데이터이다. 이후 특징점들의 벡터군을 비교하여 대상물과 일치여부를 판독한다. 따라서, 검사 시스템의 정확도를 높일 수 있다.The parts information list is 3D representative coordinates registered by the administrator, and is data that stores distribution information for each part as well as data defining the part, such as part specifications, type, and volume. Afterwards, the vector group of feature points is compared to determine whether it matches the object. Therefore, the accuracy of the inspection system can be improved.

[부품 식별][Part Identification]

부품식별부(500)는 특징점생성부(200) 또는 부품추출부(300)에서 획득한 특징점 좌표의 점군(Point cloud)을 분석하여 상기 데이터베이스에 저장된 대상물의 특징점 좌표와 유사도를 비교한다. The part identification unit 500 analyzes a point cloud of feature point coordinates obtained from the feature point generation unit 200 or the part extraction unit 300 and compares the similarity with the feature point coordinates of the object stored in the database.

특징점 좌표의 점군의 분석은 기 설정된 특징점 상호간의 간격 범위 내에 위치한 특징점을 다수의 그룹으로 지정한다. 이후 지정된 그룹의 모양과 데이터베이스(700)에 저장된 부품리스트의 점군의 모양의 일치 여부를 비교하고, 비교하여 분석한 데이터는 데이터베이스(700)에 저장한다. 이를 통해 대상물의 제품의 종류를 식별할 수 있다. In the analysis of the point group of feature point coordinates, feature points located within a preset interval between feature points are designated into multiple groups. Afterwards, the shape of the designated group is compared with the shape of the point group of the parts list stored in the database 700, and the compared and analyzed data is stored in the database 700. Through this, the type of product of the object can be identified.

상기 특징점의 다수 그룹은 기준이 되는 어느 하나의 그룹(A1)이 설정되며, 설정된 그룹(A1)과 인접한 다른 그룹(A2)이 순차적으로 지정된다. 이후 상기 무리(C1)로 지정된 영역 내의 모든 특징점의 그룹의 지정이 완료되어 특정한 모양을 갖는 데이터를 획득할 수 있다. One group (A1) is set as a standard for the plurality of groups of feature points, and other groups (A2) adjacent to the set group (A1) are sequentially designated. Afterwards, the designation of all groups of feature points within the area designated as the cluster (C1) is completed, and data having a specific shape can be obtained.

[부품 계수][Part Count]

부품식별부(500)는 부품공급판단부(400)를 통과하는 대상물을 계수하는 부품계수부(510)를 더 포함한다. 보다 상세히 설명하면, 부품계수부(510)는 대상물을 계수하는 것과 더불어 부품식별부()에서 식별된 대상물의 순서가 기 설정된 순서대로 식별되는지 여부를 판단한다. The parts identification unit 500 further includes a parts counting unit 510 that counts objects passing through the parts supply determination unit 400. In more detail, the parts counting unit 510 counts objects and determines whether the order of objects identified in the parts identification unit () is identified in a preset order.

즉, 대상물을 계수하면서 대상물이 순서대로 컨베이어로 이동하는지의 여부를 파악한다. 예를 들면 대상물이 PSU, PCB, SPEAKER 인 경우 차례대로 컨베이어벨트를 통해 이동하여 영상촬영부(100)에 촬영되어야 하는데, 컨베이어벨트 상에 나열되는 순서가 맞지 않으면 오류 판정을 내리는 것이다. 대상물의 기 설정된 순서는 데이터베이스(700)에 저장된 정보를 전달받아 비교하여 판단한다. 기 설정되는 순서의 배치는 작업별, 공정에 따라 용이하게 조절이 가능하며, 순서의 오류 발생시, 컨베이어벨트를 정지하거나, 작업자에게 알림신호를 줄 수 있는 별도의 신호수단을 구비하는 것이 바람직하다.In other words, while counting the objects, it is determined whether the objects are moving on the conveyor in order. For example, if the objects are PSU, PCB, and SPEAKER, they must move sequentially through the conveyor belt and be photographed in the video capture unit 100, but if the order in which they are listed on the conveyor belt does not match, an error judgment is made. The preset order of objects is determined by receiving and comparing information stored in the database 700. The arrangement of the preset order can be easily adjusted according to each task and process, and when an error in the order occurs, it is desirable to provide a separate signal means to stop the conveyor belt or provide a notification signal to the operator.

[대상물의 위치 식별][Identification of location of object]

대상물의 위치 변동 여부를 식별하는 위치식별부(600)를 더 포함한다. 위치식별부(600)는 최초로 이동된 대상물의 2차원 특징점 좌표를 전달받아 기준이 되는 대상물의 좌표를 설정하고, 이동하는 대상물의 2차원 특징점 좌표와 비교하여 대상물의 위치 변동 여부를 식별한다. It further includes a location identification unit 600 that identifies whether the location of the object has changed. The location identification unit 600 first receives the two-dimensional feature point coordinates of the moved object, sets the coordinates of the reference object, and identifies whether the object's position has changed by comparing it with the two-dimensional feature point coordinates of the moving object.

보다 상세히 설명하면, 위치식별부(600)는 영상촬영부(100)에서 최초로 촬영된 영상을 기반으로 특징점생성부(200)에서 생성되는 2차원 특징점으로부터 기준이되는 대상물의 특징점(B)을 임의로 설정한다. 설정하는 기준이 되는 대상물의 특징점은 특징점이 밀집된 구역에서 추출하며, 적어도 2개 이상의 기준이 되는 대상물의 특징점(B1, B2...Bn)을 설정할 수 있다. 설정된 특징점(B)의 데이터는 데이터베이스(700)에 저장된다. 한편, 기준이되는 특징점(B)의 수가 증가할수록 대상물의 위치 식별의 정확도를 향상시킬 수 있다. In more detail, the location identification unit 600 randomly selects the feature point (B) of the reference object from the two-dimensional feature point generated by the feature point generator 200 based on the image first captured by the image capture unit 100. Set it. The feature points of the object that serve as the standard for setting are extracted from an area where feature points are dense, and at least two feature points (B1, B2...Bn) of the object that serve as the standard can be set. The data of the set feature point (B) is stored in the database 700. Meanwhile, as the number of reference feature points (B) increases, the accuracy of identifying the location of an object can be improved.

이후 이동하는 다른 대상물을 촬영한 영상에서 추출된 2차원 특징점 좌표와 데이터베이스(700)에 저장된 기준이 되는 대상물의 특징점(B)의 좌표 정보를 비교하여 대상물의 위치가 변동되었는지의 여부를 식별한다. 설정된 특징점(B)와 동일한 위치에 특징점이 위치하면 대상물의 위치가 동일한 것으로 간주한다. (도 6 참조)Thereafter, the two-dimensional feature point coordinates extracted from the image of another moving object are compared with the coordinate information of the reference feature point (B) of the object stored in the database 700 to identify whether the object's position has changed. If the feature point is located at the same location as the set feature point (B), the location of the object is considered to be the same. (see Figure 6)

위치 변동이 있거나, 식별하기 어려운 대상물이 감지되면 컨베이어벨트를 정지시키거나 작업자가 육안으로 상황을 확인할 수 있는 별도의 알림장치를 구비하고, 대상물에 위치변동이 없으면 식별된 대상물의 정보에 고유의 일련번호를 부여하여 일련번호가 부여된 대상물만 부품공급판단부(400)에서 일치 여부를 판독한다.If there is a change in position or an object that is difficult to identify is detected, the conveyor belt is stopped or a separate notification device is provided so that the worker can check the situation with the naked eye. If there is no change in the position of the object, a unique series of information on the identified object is provided. Numbers are assigned and only objects to which serial numbers are assigned are read to see if they match in the parts supply determination unit 400.

따라서, 좌우가 대칭이거나, 형태가 유사한 제품을 하나의 부품으로 식별하는 오류를 방지하여 정확도를 향상시킬 수 있다. Therefore, accuracy can be improved by preventing errors in identifying products that are left and right symmetrical or have similar shapes as one part.

도 7 을 통해 본 발명의 대상물의 부품 검사 시스템의 순서를 설명한다.The sequence of the object parts inspection system of the present invention will be explained through FIG. 7.

영상촬영부(100)를 통해 특정 제품에 대한 영상이 촬영된다(S1000). An image of a specific product is captured through the image capture unit 100 (S1000).

특징점추출부(210)가 영상촬영부(100)에서 촬영된 영상으로부터 특정 물체의 윤곽선, 모서리 등의 특징점을 생성한다(S1010). The feature point extraction unit 210 generates feature points such as outlines and edges of a specific object from the image captured by the image capture unit 100 (S1010).

무리식별부(220)가 이미지 픽셀(pixel) 단위로 임의로 설정된 거래 내에 위치한 특징점 등을 하나의 특징점 무리로 식별한다(S1020). The group identification unit 220 identifies feature points located within a randomly set transaction on an image pixel basis as a group of feature points (S1020).

무리추출부(230)가 무리식별부(220)에 의해 식별된 특징점 무리의 분포정보를 추출한다(S1030). The cluster extraction unit 230 extracts distribution information of the cluster of feature points identified by the cluster identification unit 220 (S1030).

부품추출부(300)가 특징점생성부(200)에서 생성한 2차원 특징점 좌표를 통해 3차원 특징점 좌표를 생성한다.(S1040)The part extraction unit 300 generates 3D feature point coordinates using the 2D feature point coordinates generated by the feature point generation unit 200 (S1040).

위치식별부(500)가 대상물의 위치변동 여부를 식별하고, 고유의 일련번호를 부여한다. 대상물의 위치가 변동되면 작업자에게 이를 인지시키기 위해 알림수단을 가동시킨다. (S1050)The location identification unit 500 identifies whether the object's location has changed and assigns a unique serial number. When the position of an object changes, a notification means is activated to notify the operator. (S1050)

부품공급판단부(400)는 일련번호를 부여받은 대상물의 3차원 정보와 데이터베이스(700)에 저장된 부품정보리스트의 특징점 간에 유사여부를 비교하여 유사도가 90%이상일 경우 데이터베이스(700)에 저장된 정보와 일치하다고 판단한다. (S1060)The parts supply determination unit 400 compares the similarity between the three-dimensional information of the object given a serial number and the feature points of the parts information list stored in the database 700, and if the similarity is more than 90%, the information stored in the database 700 It is judged to be consistent. (S1060)

이와 같은 구성에 의한 본 발명의 부품 검사 시스템은 2대 이상의 카메라가 다양한 각도에서 부품을 촬영하여 특징점을 추출하기 때문에 부품의 위치나 자세 정보 등을 매우 정확하게 획득할 수 있어 부품의 분류, 계수 및 불량을 판별하는 정확도를 향상시킬 수 있는 장점이 있다. The parts inspection system of the present invention with this configuration uses two or more cameras to photograph parts from various angles and extract feature points, so the position and posture information of parts can be obtained very accurately, so that the parts can be classified, counted, and defected. It has the advantage of improving the accuracy of determining .

100 : 영상촬영부 200 : 특징점생성부
300 : 부품추출부 400 : 부품공급판단부
500 : 부품식별부 600 : 위치식별부
700 : 데이터베이스
100: video recording unit 200: feature point generation unit
300: Parts extraction unit 400: Parts supply determination unit
500: Part identification unit 600: Location identification unit
700: database

Claims (4)

이동하는 대상물을 각각 다른 각도에서 촬영하여 복수의 영상을 획득하도록 적어도 2개 이상의 영상촬영장치를 포함하는 영상촬영부;
상기 영상촬영장치에서 촬영된 각각의 영상에서 적어도 하나 이상의 특징점을 생성하여 대상물의 2차원 특징점 좌표를 획득하는 특징점생성부;
상기 각각의 영상촬영장치를 통해 생성된 2차원 특징점 좌표 정보를 전달받아 각각의 특징점의 교차점을 통해 3차원 특징점 좌표를 획득하는 부품추출부;
데이터베이스에 저장된 대상물의 3차원 특징점의 기준 좌표와 상기 부품추출부에서 획득한 3차원 특징점 좌표를 비교하여 일치여부를 판단하는 부품공급판단부;를 포함하며,
상기 특징점생성부는 상기 영상촬영부에서 촬영한 영상에서 다수의 2차원의 특징점을 추출하는 특징점추출부;
상기 영상에서 추출한 2차원 특징점에서 임의로 설정된 거리 내에 위치한 상기 2차원 특징점을 하나의 특징점 무리로 지정하는 무리식별부;를 더 포함하고,
상기 특징점생성부에서 획득한 특징점 좌표의 점군(Point cloud)을 분석하여 상기 데이터베이스에 저장된 대상물의 특징점 좌표와 유사도 비교 후 대상물을 부품별로 식별하는 부품식별부;가 더 구비되되,
상기 특징점 좌표의 점군(Point cloud)의 분석은 상기 무리식별부에서 지정한 다수의 특징점 무리를 그룹으로 지정하여 지정된 그룹의 모양과 상기 데이터베이스에 저장된 부품리스트의 모양의 일치여부를 비교하여 상기 대상물의 종류를 식별하는 것을 특징으로 하는 부품 검사 시스템.
An image capture unit including at least two image capture devices to acquire a plurality of images by photographing a moving object from different angles;
a feature point generator that generates at least one feature point from each image captured by the image capture device and obtains two-dimensional feature point coordinates of the object;
a part extraction unit that receives two-dimensional feature point coordinate information generated through each of the image capture devices and obtains three-dimensional feature point coordinates through the intersection of each feature point;
It includes a parts supply determination unit that compares the reference coordinates of the three-dimensional feature points of the object stored in the database and the three-dimensional feature point coordinates obtained from the parts extraction unit to determine whether they match,
The feature point generation unit includes a feature point extraction unit that extracts a plurality of two-dimensional feature points from the image captured by the image capture unit;
It further includes a group identification unit that designates the two-dimensional feature points located within an arbitrarily set distance from the two-dimensional feature points extracted from the image as one feature point group,
A part identification unit that analyzes the point cloud of the feature point coordinates obtained from the feature point generator, compares the similarity with the feature point coordinates of the object stored in the database, and then identifies the object for each part; is further provided,
Analysis of the point cloud of the feature point coordinates specifies a number of feature point groups designated by the group identification unit into groups and compares the shape of the designated group with the shape of the parts list stored in the database to determine the type of the object. A parts inspection system characterized in that it identifies.
삭제delete 제 1 항에 있어서,
상기 부품식별부는 식별된 대상물의 순서가 기 설정된 순서대로 식별되는지 여부를 판단하는 부품계수부;를 더 포함하는 것을 특징으로 하는 부품 검사 시스템.
According to claim 1,
The parts identification unit further includes a parts counting unit that determines whether the identified objects are identified in a preset order.
제 1 항에 있어서,
최초로 이동된 대상물의 2차원 특징점 좌표를 전달받아 기준이되는 대상물의 좌표를 설정하고, 이후 이동하는 대상물의 2차원 특징점 좌표와 비교하여 대상물의 위치 변동 여부를 식별하는 위치식별부;를 더 포함하는 것을 특징으로 하는 부품 검사 시스템.
According to claim 1,
A location identification unit that first receives the two-dimensional feature point coordinates of the moved object, sets the coordinates of the reference object, and then compares them with the two-dimensional feature point coordinates of the moving object to identify whether the object has changed in position; further comprising a. A parts inspection system characterized by:
KR1020210125958A 2021-09-23 2021-09-23 Part inspection system KR102646286B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210125958A KR102646286B1 (en) 2021-09-23 2021-09-23 Part inspection system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210125958A KR102646286B1 (en) 2021-09-23 2021-09-23 Part inspection system

Publications (2)

Publication Number Publication Date
KR20230042995A KR20230042995A (en) 2023-03-30
KR102646286B1 true KR102646286B1 (en) 2024-03-11

Family

ID=85985905

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210125958A KR102646286B1 (en) 2021-09-23 2021-09-23 Part inspection system

Country Status (1)

Country Link
KR (1) KR102646286B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008241629A (en) 2007-03-28 2008-10-09 Daio Paper Corp Order inspection method and device
JP2012149905A (en) * 2011-01-17 2012-08-09 Omron Corp Substrate inspection device, substrate inspection system, and screen display method for confirming substrate inspection results
JP2014081943A (en) * 2013-11-14 2014-05-08 Omron Corp Data structure, library preparation device, electronic equipment analyzer, library providing system
JP2019155625A (en) * 2018-03-08 2019-09-19 宇部興産機械株式会社 Imaging method of molded article and imaging apparatus of molded article

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100837776B1 (en) 2001-12-24 2008-06-13 주식회사 케이티 Apparatus and Method for Converting 2D Images to 3D Object
KR20190063967A (en) 2017-11-30 2019-06-10 주식회사 제타뱅크 Method and apparatus for measuring position using stereo camera and 3D barcode
KR102185322B1 (en) 2018-11-28 2020-12-01 알바이오텍 주식회사 System for detecting position using ir stereo camera

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008241629A (en) 2007-03-28 2008-10-09 Daio Paper Corp Order inspection method and device
JP2012149905A (en) * 2011-01-17 2012-08-09 Omron Corp Substrate inspection device, substrate inspection system, and screen display method for confirming substrate inspection results
JP2014081943A (en) * 2013-11-14 2014-05-08 Omron Corp Data structure, library preparation device, electronic equipment analyzer, library providing system
JP2019155625A (en) * 2018-03-08 2019-09-19 宇部興産機械株式会社 Imaging method of molded article and imaging apparatus of molded article

Also Published As

Publication number Publication date
KR20230042995A (en) 2023-03-30

Similar Documents

Publication Publication Date Title
US20180322623A1 (en) Systems and methods for inspection and defect detection using 3-d scanning
CN111325713B (en) Neural network-based wood defect detection method, system and storage medium
US11868863B2 (en) Systems and methods for joint learning of complex visual inspection tasks using computer vision
US6701005B1 (en) Method and apparatus for three-dimensional object segmentation
CN107077735A (en) Three dimensional object is recognized
JP2017032548A (en) Using 3d vision for automated industrial inspection
US9836673B2 (en) System, method and computer program product for training a three dimensional object indentification system and identifying three dimensional objects using semantic segments
CN114332622A (en) Label detection method based on machine vision
KR102646286B1 (en) Part inspection system
AU2008243688B2 (en) Method and apparatus for three dimensional image processing and analysis
CN110866917A (en) Tablet type and arrangement mode identification method based on machine vision
US20230206606A1 (en) Method and system for training a neural network-implemented sensor system to classify objects in a bulk flow
US11748838B2 (en) System and method for three-dimensional scan of moving objects longer than the field of view
WO2015136716A1 (en) Image processing device, image sensor, and image processing method
CN116883945B (en) Personnel identification positioning method integrating target edge detection and scale invariant feature transformation
KR20190065093A (en) Measuring system for atypical line using image
Joshi et al. A training free technique for 3D object recognition using the concept of vibration, energy and frequency
CN110856847A (en) Capacitance character detection method and device based on intelligent vision
CN115115631B (en) Hub defect detection method, device, equipment and computer readable medium
Chiryshev et al. Detection and dimension of moving objects using single camera applied to the round timber measurement
CN108458655A (en) Support the data configurableization monitoring system and method for vision measurement
Nguyen et al. A method for improving the constancy of cone shape and size perception using a single RGB-D image
CN115830026A (en) Workpiece surface quality detection method and device based on vision
CN116119275A (en) Production line control system based on multi-model cascading steel back surface detection
CN114596102A (en) Block chain-based anti-counterfeiting traceability federated learning training method and device

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant