KR102177726B1 - Method and apparatus for inspecting workpiece - Google Patents

Method and apparatus for inspecting workpiece Download PDF

Info

Publication number
KR102177726B1
KR102177726B1 KR1020190056965A KR20190056965A KR102177726B1 KR 102177726 B1 KR102177726 B1 KR 102177726B1 KR 1020190056965 A KR1020190056965 A KR 1020190056965A KR 20190056965 A KR20190056965 A KR 20190056965A KR 102177726 B1 KR102177726 B1 KR 102177726B1
Authority
KR
South Korea
Prior art keywords
processed product
laser
image
inspected
camera
Prior art date
Application number
KR1020190056965A
Other languages
Korean (ko)
Inventor
이근호
이민영
손종현
김수철
이한민
Original Assignee
한국기계연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국기계연구원 filed Critical 한국기계연구원
Priority to KR1020190056965A priority Critical patent/KR102177726B1/en
Application granted granted Critical
Publication of KR102177726B1 publication Critical patent/KR102177726B1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/001Industrial image inspection using an image reference approach
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • G01N2021/8887Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges based on image processing techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • G01N2021/8887Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges based on image processing techniques
    • G01N2021/8893Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges based on image processing techniques providing a video image and a processed signal for helping visual decision
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N2201/00Features of devices classified in G01N21/00
    • G01N2201/06Illumination; Optics
    • G01N2201/061Sources
    • G01N2201/06113Coherent sources; lasers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N2201/00Features of devices classified in G01N21/00
    • G01N2201/10Scanning
    • G01N2201/102Video camera

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Quality & Reliability (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • General Health & Medical Sciences (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

The present invention relates to a method and an apparatus for inspecting a workpiece, which are able to compare the workpiece to be inspected with a reference workpiece and to determine whether or not there is a defect in the workpiece to be inspected. According to one embodiment of the present invention, the method for inspecting the workpiece comprises: a step of generating a three-dimensional image of a virtual reference workpiece based on a basic specification parameter of the workpiece and a basic specification parameter of a processing tool which processes the workpiece; a step of generating a three-dimensional image of the workpiece to be inspected by using a camera or a line laser; and a first inspection step of comparing the three-dimensional image of the reference workpiece with the three-dimensional image of the workpiece to be inspected, and determining whether or not there is a defect in the workpiece to be inspected.

Description

가공품 검사 장치 및 검사 방법 {Method and apparatus for inspecting workpiece} Processed product inspection apparatus and inspection method {Method and apparatus for inspecting workpiece}

본 발명은 가공품 검사 장치 및 방법에 관한 것으로, 보다 상세하게는, 카메라나 레이저를 이용하여 기어 등의 가공품의 표면의 불량 여부를 판단하는 가공품 검사 장치 및 방법에 관한 것이다. The present invention relates to an apparatus and method for inspecting a processed article, and more particularly, to an apparatus and method for inspecting a processed article for determining whether a surface of a processed article such as a gear is defective using a camera or a laser.

기어 등 가공품을 생산한 후 제품의 불량을 판단하기 위해 비전 검사가 주로 이용되며 이러한 비전 검사는 검사대상 가공품을 카메라로 촬영하고 촬영된 이미지 정보와 표준 이미지 정보를 비교하여 제품의 불량을 판단한다. After producing processed products such as gears, vision inspection is mainly used to determine product defects. In this vision inspection, the processed product to be inspected is photographed with a camera and the product defect is determined by comparing the photographed image information with standard image information.

이 때 표준 이미지 정보는 생산된 가공품 중 불량이 없는 가공품을 선택하고 이를 촬영하여 3차원 영상을 얻거나 캐드(CAD) 설계 파일을 그대로 사용하여 3차원 표준 이미지로 사용한다. At this time, standard image information is used as a 3D standard image by selecting a processed product with no defects among the produced processed products and photographing it to obtain a 3D image or using a CAD design file as it is.

그러나 불량이 없는 실제 가공품이라 하더라도 각 가공품마다 미세한 차이나 불량 요소가 있고 CAD 설계 파일도 실제 가공품을 그대로 표현하지 못하는 단점이 있으므로 정밀한 가공품 검사를 수행할 수 없는 한계가 있다. However, even in the case of an actual processed product without defects, there is a limitation in that precise inspection of the processed product cannot be performed because there is a slight difference or defective element for each processed product, and the CAD design file cannot express the actual processed product as it is.

특허문헌1: 한국 공개특허공보 제2010-0082249호 (2010년 7월 16일 공개)Patent Document 1: Korean Patent Application Publication No. 2010-0082249 (published on July 16, 2010) 특허문헌2: 한국 공개특허공보 제2017-0080910호 (2017년 7월 11일 공개)Patent Document 2: Korean Patent Application Publication No. 2017-0080910 (published on July 11, 2017) 특허문헌3: 한국 등록특허 제10-1816150호 (2018년 1월 30일 공고)Patent Document 3: Korean Patent Registration No. 10-1816150 (announced on January 30, 2018)

본 발명은 상기 문제를 해결하기 위한 것으로, 가공품의 3차원 이미지 생성 알고리즘을 사용하여 기준(reference) 가공품의 3차원 기준 이미지를 생성하고, 검사대상 가공품을 카메라로 촬영하거나 또는 라인 레이저(line laser)로 조사하여 3차원 이미지를 획득하고, 이렇게 얻어진 기준 이미지와 검사대상 가공품의 이미지를 비교하여 가공품의 불량 여부를 판단할 수 있는 장치 및 방법을 제공하는 것을 목적으로 한다.The present invention is to solve the above problem, by using a 3D image generation algorithm of the processed product to generate a three-dimensional reference image of a reference processed product, photographing the processed product to be inspected with a camera or a line laser An object of the present invention is to provide an apparatus and method capable of determining whether or not a processed product is defective by obtaining a three-dimensional image by irradiating with and comparing the obtained reference image with the image of the processed product to be inspected.

본 발명의 일 실시예에 따르면, 검사대상 가공품을 기준 가공품과 비교하여 검사대상 가공품의 불량 여부를 판단하는 가공품 검사 방법으로서, 가공품의 기초제원 파라미터와 가공품을 가공하는 가공용 공구의 기초제원 파라미터에 기초하여 가상의 기준 가공품의 3차원 이미지를 생성하는 단계; 카메라 또는 라인 레이저를 이용하여 검사대상 가공품의 3차원 이미지를 생성하는 단계; 및 상기 기준 가공품의 3차원 이미지와 검사대상 가공품의 3차원 이미지를 비교하여 검사대상 가공품의 불량 여부를 판단하는 제1 검사 단계;를 포함하는 것을 특징으로 하는 가공품 검사 방법을 제공한다. According to an embodiment of the present invention, a processed product inspection method for determining whether or not the inspection target processed product is defective by comparing the inspection target processed product with a reference processed product, based on a basic specification parameter of the processed product and a basic specification parameter of a machining tool that processes the processed product. Generating a 3D image of the virtual reference processed product; Generating a three-dimensional image of the workpiece to be inspected using a camera or a line laser; And a first inspection step of comparing the 3D image of the reference processed product with the 3D image of the processed product to be inspected to determine whether the processed product to be inspected is defective.

본 발명의 일 실시예에 따르면, 검사대상 가공품을 기준 가공품과 비교하여 검사대상 가공품의 불량 여부를 판단하는 가공품 검사 장치로서, 검사대상 가공품을 지지하는 지지대; 상기 지지대를 회전시키는 구동모터; 상기 지지대에서 소정 거리 이격되어 검사대상 가공품을 촬영하는 제1 카메라; 상기 제1 카메라가 촬영한 검사대상 가공품의 3차원 이미지를 생성하는 검사대상 가공품 이미지 생성부; 및 상기 검사대상 가공품의 3차원 이미지를 가상의 기준 가공품의 3차원 이미지와 비교하여 불량 여부를 판단하는 제1 검사부;를 포함하고, 상기 기준 가공품의 3차원 이미지는 가공품의 기초제원 파라미터와 가공품을 가공하는 가공용 공구의 기초제원 파라미터에 기초하여 생성된 것을 특징으로 하는 가공품 검사 장치를 제공한다. According to an embodiment of the present invention, there is provided an apparatus for inspecting a processed product that compares a processed product to be inspected with a reference processed product to determine whether the processed product to be inspected is defective, comprising: a support for supporting the processed product to be inspected; A driving motor that rotates the support; A first camera spaced apart from the support by a predetermined distance to photograph a processed product to be inspected; An inspection target processed product image generation unit that generates a three-dimensional image of the inspection target processed product photographed by the first camera; And a first inspection unit that compares the 3D image of the processed product to be inspected with a 3D image of a virtual reference processed product to determine whether there is a defect or not, wherein the 3D image of the reference processed product includes a basic specification parameter of the processed product and the processed product. It provides a workpiece inspection apparatus, characterized in that generated based on the basic specification parameters of the machining tool to be processed.

본 발명의 일 실시예에 따르면, 기준 가공품의 3차원 이미지를 신규한 방식의 3차원 이미지 생성 알고리즘을 이용하여 생성하며 이 기준 이미지는 실제 가공품을 그대로 대표하기 때문에 가공품 검사시 기준 영상으로 활용할 수 있어 가공품의 정확한 양품 판정을 수행할 수 있는 이점이 있다.According to an embodiment of the present invention, a 3D image of a reference processed product is generated using a novel 3D image generation algorithm, and since this reference image represents the actual processed product, it can be used as a reference image when inspecting the processed product. There is an advantage of being able to perform accurate good product determination of processed products.

도1은 본 발명의 일 실시예에 따른 가공품 검사 장치 및 방법을 설명하는 도면,
도2는 일 실시예에 따른 가공품 검사 장치를 설명하는 도면,
도3은 대안적 실시예에 따른 가공품 검사 장치를 설명하는 도면,
도4 내지 도6은 레이저를 이용하여 검사대상 가공품의 3차원 이미지를 생성하는 예시적 방법을 설명하는 도면,
도7 및 도8은 기준 가공품의 3차원 이미지를 생성하는 예시적 방법을 설명하는 도면,
도9 및 도10은 기준 가공품의 3차원 이미지를 2차원 이미지로 변환하는 방법을 설명하는 도면,
도11 및 도12는 일 실시예에 따라 기준 가공품의 3차원 이미지에서 기준 레이저 이미지를 추출하는 방법을 설명하는 도면,
도13 및 도14는 대안적 실시예에 따라 기준 가공품의 3차원 이미지에서 기준 레이저 이미지를 추출하는 방법을 설명하는 도면,
도15는 일 실시예에 따른 가공품 검사 방법을 구현하는 예시적인 시스템 구성을 나타내는 블록도이다.
1 is a diagram illustrating an apparatus and method for inspecting a processed product according to an embodiment of the present invention;
2 is a diagram illustrating an apparatus for inspecting a processed product according to an embodiment;
3 is a view for explaining a workpiece inspection apparatus according to an alternative embodiment;
4 to 6 are diagrams for explaining an exemplary method of generating a three-dimensional image of a workpiece to be inspected using a laser;
7 and 8 are diagrams illustrating an exemplary method of generating a three-dimensional image of a reference workpiece,
9 and 10 are diagrams for explaining a method of converting a three-dimensional image of a reference processed product into a two-dimensional image;
11 and 12 are diagrams illustrating a method of extracting a reference laser image from a three-dimensional image of a reference processed product according to an embodiment;
13 and 14 are diagrams for explaining a method of extracting a reference laser image from a three-dimensional image of a reference processed product according to an alternative embodiment;
Fig. 15 is a block diagram showing an exemplary system configuration for implementing a method for inspecting a workpiece according to an embodiment.

이상의 본 발명의 목적들, 다른 목적들, 특징들 및 이점들은 첨부된 도면과 관련된 이하의 바람직한 실시예들을 통해서 쉽게 이해될 것이다. 그러나 본 발명은 여기서 설명되는 실시예들에 한정되지 않고 다른 형태로 구체화될 수도 있다. 오히려, 여기서 소개되는 실시예들은 개시된 내용이 철저하고 완전해질 수 있도록 그리고 당업자에게 본 발명의 사상이 충분히 전달될 수 있도록 하기 위해 제공되는 것이다.The above objects, other objects, features, and advantages of the present invention will be easily understood through the following preferred embodiments related to the accompanying drawings. However, the present invention is not limited to the embodiments described herein and may be embodied in other forms. Rather, the embodiments introduced herein are provided so that the disclosed content may be thorough and complete, and the spirit of the present invention may be sufficiently conveyed to those skilled in the art.

본 명세서에서 어떤 구성요소가 다른 구성요소 상에 있다고 언급되는 경우에 그것은 다른 구성요소 상에 직접 형성될 수 있거나 또는 그들 사이에 제 3의 구성요소가 개재될 수도 있다는 것을 의미한다.When a component is referred to as being on another component in the specification, it means that it may be formed directly on the other component or that a third component may be interposed therebetween.

본 명세서에서 제1, 제2 등의 용어가 구성요소들을 기술하기 위해서 사용된 경우, 이들 구성요소들이 이 같은 용어들에 의해서 한정되어서는 안 된다. 이들 용어들은 단지 어느 구성요소를 다른 구성요소와 구별시키기 위해서 사용되었을 뿐이다. 여기에 설명되고 예시되는 실시예들은 그것의 상보적인 실시예들도 포함한다.In the present specification, when terms such as first and second are used to describe components, these components should not be limited by these terms. These terms are only used to distinguish one component from another component. The embodiments described and illustrated herein also include complementary embodiments thereof.

본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 '포함한다(comprise)' 및/또는 '포함하는(comprising)'은 언급된 구성요소는 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다.In this specification, the singular form also includes the plural form unless specifically stated in the phrase. As used in the specification, "comprise" and/or "comprising" does not exclude the presence or addition of one or more other components.

이하에서 도면을 참조하여 본 발명을 상세히 설명하도록 한다. 아래의 특정 실시예들을 기술하는데 있어서 여러 가지의 특정적인 내용들은 발명을 더 구체적으로 설명하고 이해를 돕기 위해 작성되었다. 하지만 본 발명을 이해할 수 있을 정도로 이 분야의 지식을 갖고 있는 독자는 이러한 여러 가지의 특정적인 내용들이 없어도 사용될 수 있다는 것을 인지할 수 있다. 어떤 경우에는 발명을 기술하는 데 있어서 흔히 알려졌으면서 발명과 크게 관련 없는 부분들은 본 발명을 설명하는 데 있어 혼돈이 오는 것을 막기 위해 기술하지 않음을 미리 언급해 둔다. Hereinafter, the present invention will be described in detail with reference to the drawings. In describing the specific embodiments below, a number of specific contents have been prepared to explain the invention in more detail and to aid understanding. However, readers who have knowledge in this field to the extent that they can understand the present invention can recognize that it can be used without these various specific contents. In some cases, it is mentioned in advance that parts that are commonly known in describing the invention and are not largely related to the invention are not described in order to avoid confusion in describing the invention.

도1은 본 발명의 일 실시예에 따른 가공품 검사 장치 및 방법을 설명하는 도면이다.1 is a diagram illustrating an apparatus and method for inspecting a processed product according to an embodiment of the present invention.

도면을 참조하면, 일 실시예에 따른 가공품 검사 장치는 검사 대상인 가공품(이하 "검사대상 가공품"이라 함)의 3차원 이미지를 생성하는 검사대상 가공품 3차원 이미지 생성부(100)(이하 간단히 '제1 이미지 생성부'라고도 함), 검사대상 가공품과 비교할 표준 가공품인 기준 가공품의 3차원 이미지를 생성하는 기준 가공품 3차원 이미지 생성부(200)(이하 간단히 '제2 이미지 생성부'라고도 함), 기준 가공품의 3차원 이미지를 2차원 이미지로 변환하는 2차원 이미지 변환부(300), 및 기준 가공품에 라인 레이저가 조사될 때 가준 가공품 또는 그에 인접한 스크린에 맺히는 레이저 이미지를 추출하는 기준 레이저 이미지 추출부(400)를 포함한다. Referring to the drawings, the apparatus for inspecting a processed product according to an embodiment includes a 3D image generating unit 100 for a processed product to be inspected (hereinafter simply referred to as “processed product to be inspected”) generating a 3D image of the processed product to be inspected. 1), a reference processed product 3D image generation unit 200 that generates a 3D image of a reference processed product that is a standard processed product to be compared with the processed product to be inspected (hereinafter referred to simply as a “second image generation unit”), A two-dimensional image conversion unit 300 that converts a three-dimensional image of a reference processed product into a two-dimensional image, and a reference laser image extracting unit that extracts a laser image formed on the provisioned processed product or a screen adjacent thereto when the line laser is irradiated on the reference processed product Includes 400.

제1 이미지 생성부(100)는 검사대상 가공품의 3차원 이미지를 생성한다. 예를 들어 제1 이미지 생성부(100)를 카메라를 이용하는 3차원 이미지 생성부(110) 및/또는 레이저를 이용하는 3차원 이미지 생성부(120) 중 적어도 하나를 포함할 수 있다. The first image generating unit 100 generates a 3D image of a processed product to be inspected. For example, the first image generating unit 100 may include at least one of a 3D image generating unit 110 using a camera and/or a 3D image generating unit 120 using a laser.

카메라를 이용하는 3차원 이미지 생성부(110)는 이상의 카메라로 검사대상 가공품을 촬영하여 검사대상 가공품의 3차원 이미지를 생성한다. 레이저를 이용하는 3차원 이미지 생성부(120)는 레이저 조사장치에서 생성되는 라인(line) 레이저를 검사대상 가공품의 표면에 조사하고 검사대상 가공품을 촬영하여 검사대상 가공품의 3차원 이미지를 생성할 수 있다. 또 다른 실시예에서, 레이저를 이용하는 3차원 이미지 생성부(120)는 라인 레이저를 검사대상 가공품의 표면에 조사하였을 때 표면에서 반사되어 검사대상 가공품에 인접하게 배치된 스크린에 맺히는 레이저의 이미지를 카메라로 촬영하여 검사대상 가공품의 3차원 이미지를 생성할 수도 있다. 검사대상 가공품의 표면에서 반사되어 스크린에 맺히는 레이저 이미지로부터 검사대상 가공품의 3차원 이미지를 생성하는 방법에 대해서는 도4 내지 도6을 참조하여 후술하기로 한다. The 3D image generating unit 110 using a camera captures the processed product to be inspected with the above cameras and generates a 3D image of the processed product to be inspected. The 3D image generation unit 120 using a laser may generate a 3D image of the processed product to be inspected by irradiating a line laser generated by the laser irradiation device onto the surface of the processed product to be inspected and photographing the processed product to be inspected. . In another embodiment, when the line laser is irradiated onto the surface of the object to be inspected, the 3D image generation unit 120 using a laser reflects the image of the laser on the screen disposed adjacent to the object to be inspected by a camera. It is also possible to create a three-dimensional image of the workpiece to be inspected by photographing it. A method of generating a three-dimensional image of a processed product to be inspected from a laser image reflected from the surface of the processed product to be inspected will be described later with reference to FIGS. 4 to 6.

제2 이미지 생성부(200)는 검사대상 가공품과 비교할 기준 가공품의 3차원 이미지를 생성한다. 본 발명에서는 실제로 제작된 실물 가공품 중 가공 정밀도가 가장 높은 양품을 선정하고 이를 스캔하여 3차원 이미지를 생성하는 방식을 사용하지 않는다. 대신 본 발명의 바람직한 일 실시예에서 제2 이미지 생성부(200)는 가공품 설계를 위한 기초 제원의 파라미터 및 이를 제작하기 위한 가공용 공구의 기초 제원의 파라미터에 기초하여 가장 이상적인 가공품의 3차원 이미지 데이터를 생성한다. 즉 '기준 가공품'은 실재하는 가공품으로부터 획득한 3차원 데이터가 아니라 가공품과 가공용 공구의 제원으로부터 컴퓨터 계산에 의해 생성한 가상의 가공품이며, 예를 들어 가공품의 표면(예컨대 가공품이 기어인 경우 기어 치면(齒面))을 구성하는 좌표들의 집합으로 이루어진다. 제2 이미지 생성부(200)의 구체적 구성에 대해서는 도7 및 도8을 참조하여 후술하기로 한다. The second image generating unit 200 generates a 3D image of a reference processed product to be compared with an inspection target processed product. In the present invention, a method of generating a three-dimensional image by selecting a good product with the highest processing precision among actual processed products is not used. Instead, in a preferred embodiment of the present invention, the second image generating unit 200 generates 3D image data of the most ideal processed product based on parameters of basic specifications for designing a processed product and parameters of basic specifications of a machining tool for manufacturing the same. Generate. In other words, the'reference processed product' is not a 3D data acquired from an actual processed product, but a virtual processed product generated by computer calculation from the specifications of the processed product and the machining tool.For example, the surface of the processed product (e.g., if the processed product is a gear, the gear teeth It consists of a set of coordinates that make up (齒面)). A detailed configuration of the second image generating unit 200 will be described later with reference to FIGS. 7 and 8.

일 실시예에서 가공품 검사 장치는 기준 가공품과 검사대상 가공품을 비교하여 검사대상 가공품의 불량 여부를 판정하는 제1 검사부를 더 포함한다. 제1 검사부는 제1 이미지 생성부(100)에서 획득한 검사대상 가공품의 3차원 이미지와 제2 이미지 생성부(200)에서 생성한 기준 가공품의 3차원 이미지를 비교하여 검사대상 가공품의 불량 여부를 판단할 수 있다. In an embodiment, the apparatus for inspecting a processed product further includes a first inspection unit that compares the reference processed product and the processed product to be inspected to determine whether the processed product to be inspected is defective. The first inspection unit compares the three-dimensional image of the workpiece to be inspected obtained by the first image generating unit 100 and the three-dimensional image of the reference workpiece generated by the second image generating unit 200 to determine whether the workpiece to be inspected is defective. I can judge.

일 실시예에서 가공품 검사 장치는 기준 가공품과 검사대상 가공품 각각의 2차원 이미지를 획득하여 이를 비교할 수 있다. 이를 위해 예컨대 도1에 도시한 것처럼 2차원 이미지 변환부(300) 및 2차원 이미지를 비교하여 불량 여부를 판단하는 제2 검사부를 더 포함할 수 있다.In an embodiment, the apparatus for inspecting a processed product may acquire and compare two-dimensional images of each of the reference processed product and the processed product to be inspected. To this end, for example, as illustrated in FIG. 1, the 2D image conversion unit 300 may further include a second inspection unit that compares the 2D image and determines whether there is a defect.

2차원 이미지 변환부(300)는 기준 가공품의 3차원 이미지를 2차원 이미지로 변환한다. 도시한 실시예에서는 제1 이미지 생성부(200)에서 생성된 3차원 이미지로부터 2차원 이미지를 변환하는 것으로 도시하였지만, 대안적 실시예에서 임의의 다른 방식으로 얻어진 기준 가공품의 3차원 이미지로부터 2차원 이미지를 획득할 수도 있다. The 2D image conversion unit 300 converts a 3D image of a reference processed product into a 2D image. In the illustrated embodiment, a two-dimensional image is converted from a three-dimensional image generated by the first image generating unit 200, but in an alternative embodiment, a two-dimensional image is obtained from a three-dimensional image of a reference processed product obtained in any other way. You can also acquire an image.

한편 검사대상 가공품의 2차원 이미지는 검사대상 가공품을 카메라로 촬영하여 얻을 수 있으며, 제2 검사부는 이렇게 획득한 검사대상 가공품의 2차원 이미지와 2차원 이미지 변환부(300)에서 획득한 기준 가공품의 2차원 이미지를 비교하여 불량 여부를 판정할 수 있다. 3차원 이미지를 2차원 이미지로 변환하는 기술에 대해서는 도9 및 도10을 참조하여 후술하기로 한다. On the other hand, the two-dimensional image of the workpiece to be inspected can be obtained by photographing the workpiece to be inspected with a camera, and the second inspection unit includes the two-dimensional image of the workpiece to be inspected and the reference workpiece obtained by the two-dimensional image conversion unit 300. By comparing two-dimensional images, it is possible to determine whether there is a defect. A technology for converting a 3D image into a 2D image will be described later with reference to FIGS. 9 and 10.

일 실시예에서 가공품 검사 장치는 기준 가공품의 표면에 레이저가 조사될 때의 레이저 이미지와 검사대상 가공품의 표면에 레이저가 조사될 때의 레이저 이미지를 각각 획득하여 이를 비교할 수 있으며, 이를 위해 예컨대 도1에 도시한 것처럼 기준 레이지 이미지 추출부(400) 및 레이저 이미지를 비교하여 불량 여부를 판단하는 제3 검사부를 더 포함할 수 있다. In one embodiment, the apparatus for inspecting a processed product may obtain and compare a laser image when a laser is irradiated on the surface of a reference processed product and a laser image when a laser is irradiated on the surface of the processed product to be inspected. As shown in FIG. 1, a third inspection unit for determining whether there is a defect by comparing the reference laser image extraction unit 400 and the laser image may be further included.

기준 레이저 이미지 추출부(400)는 기준 가공품에 라인 레이저가 조사될 때 가준 가공품 또는 그에 인접한 스크린에 맺히는 레이저 이미지를 생성한다. 예를 들어 기준 레이저 이미지 추출부(400)는 제1 이미지 생성부(200)에서 생성된 기준 가공품의 3차원 이미지로부터 기준 레이저 이미지를 추출할 수 있다. The reference laser image extraction unit 400 generates a laser image formed on the Gajun processed product or a screen adjacent thereto when the line laser is irradiated on the reference processed product. For example, the reference laser image extraction unit 400 may extract a reference laser image from a 3D image of the reference processed product generated by the first image generation unit 200.

일 실시예에서, 기준 레이저 이미지 추출부(400)는 기준 가공품의 표면에 라인(line) 레이저를 조사하고 이 표면을 카메라로 촬영한 경우 기준 가공품 표면에 나타나는 레이저 이미지를 산출한다. 기준 가공품이 실재하지 않는 가상의 가공품이므로 기준 레이저 이미지도 가상의 레이저 이미지이다. 즉 기준 가공품, 레이저 조사장치, 및 카메라의 거리를 각각 소정 값으로 설정한 상태에서 레이저를 기준 가공품에 조사하였다고 가정했을 때 기준 가공품의 표면에 보여지는 레이저의 이미지를 수학적으로 계산하여 기준 레이저 이미지를 산출할 수 있다. 검사대상 가공품의 표면에 보여지는 기준 레이저 이미지를 산출하는 방법에 대해서는 도11 및 도12를 참조하여 후술하기로 한다. In one embodiment, the reference laser image extraction unit 400 irradiates a line laser on the surface of the reference processed product and calculates a laser image appearing on the surface of the reference processed product when the surface is photographed with a camera. Since the reference processed product is a virtual processed product that does not exist, the reference laser image is also a virtual laser image. That is, assuming that the laser is irradiated to the reference processed product while the distance of the reference processed product, the laser irradiation device, and the camera are set to predetermined values, the reference laser image is calculated by mathematically calculating the image of the laser shown on the surface of the reference processed product. Can be calculated. A method of calculating the reference laser image displayed on the surface of the workpiece to be inspected will be described later with reference to FIGS. 11 and 12.

검사대상 가공품의 레이저 이미지는 검사대상 가공품에 실제로 레이저를 조사하여 그 때 가공품 표면에 보여지는 레이저 라인을 카메라로 촬영하여 얻을 수 있다. 이 때 검사대상 가공품, 레이저 조사장치, 및 카메라의 각각의 거리 관계는 상기 기준 레이저 이미지 추출부(400)에서 기준 레이저 이미지를 산출하기 위해 가정했던 기준 가공품, 레이저 조사장치, 및 카메라의 거리의 각각의 수치와 동일하게 설정한다. 제3 검사부는 위와 같이 각각 획득한 기준 레이저 이미지와 검사대상 가공품의 표면에 보여지는 레이저 이미지를 비교하여 검사대상 가공품의 불량 여부를 판단할 수 있다. The laser image of the workpiece to be inspected can be obtained by actually irradiating the laser to the workpiece to be inspected and photographing the laser line shown on the surface of the workpiece with a camera. At this time, the distance relationship between the object to be inspected, the laser irradiation device, and the camera is determined by the reference laser image extraction unit 400, respectively, of the distances of the reference processed product, the laser irradiation device, and the camera assumed to calculate the reference laser image. Set the same as the value of. The third inspection unit may determine whether or not the inspection object is defective by comparing the reference laser image obtained as above with the laser image displayed on the surface of the object to be inspected.

대안적 실시예에서, 기준 레이저 이미지 추출부(400)는 기준 가공품의 표면에 라인 레이저를 조사하고 이 표면에서 반사되어 스크린에 투영되는 가상의 레이저 이미지를 기준 레이저 이미지로서 산출할 수 있다. 기준 가공품, 레이저 조사장치, 카메라, 및 스크린의 거리 관계를 각각 소정 값으로 설정한 상태에서 레이저를 기준 가공품에 조사하였다고 가정했을 때 기준 가공품의 표면에서 반사되어 스크린에 맺히는 레이저의 이미지를 수학적으로 계산하여 기준 레이저 이미지를 산출할 수 있다. In an alternative embodiment, the reference laser image extraction unit 400 may irradiate a line laser onto the surface of the reference processed product and calculate a virtual laser image reflected from the surface and projected onto the screen as the reference laser image. Assuming that the laser is irradiated to the reference processed product with the distance relationship between the reference processed product, laser irradiation device, camera, and screen set to predetermined values, the image of the laser reflected from the surface of the reference processed product and reflected on the screen is mathematically calculated. Thus, a reference laser image can be calculated.

이 때 검사대상 가공품에 대한 레이저 이미지는 검사대상 가공품에 실제로 레이저를 조사하여 그 때 가공품 표면에서 반사되어 스크린에 투영되는 레이저 라인을 카메라로 촬영하여 얻을 수 있다. 이 때 검사대상 가공품, 레이저 조사장치, 카메라, 및 스크린의 각각의 거리 관계는 상기 기준 레이저 이미지 추출부(400)에서 기준 레이저 이미지를 산출하기 위해 가정했던 기준 가공품, 레이저 조사장치, 카메라, 및 스크린의 각각의 거리 관계와 동일하게 설정한다. 제3 검사부는 위와 같이 각각 획득한 기준 레이저 이미지를 비교하여 검사대상 가공품의 불량 여부를 판단할 수 있다. At this time, the laser image of the workpiece to be inspected can be obtained by actually irradiating the laser to the workpiece to be inspected and photographing a laser line reflected from the surface of the workpiece and projected onto the screen with a camera. At this time, the distance relationship between the object to be inspected, the laser irradiation device, the camera, and the screen is the reference processed product, the laser irradiation device, the camera, and the screen assumed to calculate the reference laser image by the reference laser image extraction unit 400. It is set equal to each distance relationship. The third inspection unit may determine whether or not the object to be inspected is defective by comparing the reference laser images respectively acquired as above.

검사대상 가공품의 표면에서 반사되어 스크린에 보여지는 레이저 이미지를 이용하여 검사대상 가공품의 불량 여부를 판단하는 방법은 검사대상 가공품의 표면이 매우 매끄럽거나 검사 동작시의 조명 환경 등에 따라 특히 유용하게 이용될 수 있다. 예를 들어 표면 거칠기(roughness)가 극히 낮은 가공품이거나 가공품을 제작한 직후인 경우 가공품 표면에 레이저를 조사하여도 가공품 표면에 레이저 라인이 잘 나타나지 않으므로 기존의 레이저 조사에 의한 가공품 검사 방법을 이용하기 힘든 문제가 있다. 그러나 본 발명과 같이 가공품 표면에서 반사되어 스크린에 맺히는 레이저 이미지를 이용하면 가공품 표면이 매끄러운 경우에도 가공품의 표면을 정확히 측정할 수 있으므로 레이저 조사에 의한 가공품 검사를 수행할 수 있다. 검사대상 가공품의 표면에서 반사되어 스크린에 맺히는 기준 레이저 이미지를 산출하는 방법에 대해서는 도13 및 도14를 참조하여 후술하기로 한다. The method of determining whether the object to be inspected is defective by using the laser image reflected from the surface of the object to be inspected and displayed on the screen is particularly useful depending on the surface of the object to be inspected or the lighting environment during the operation of the inspection. Can be. For example, in the case of a processed product with extremely low surface roughness or immediately after manufacturing the processed product, it is difficult to use the existing method of inspecting processed products by laser irradiation because the laser line does not appear well on the surface of the processed product even if laser is irradiated on the surface of the processed product. there is a problem. However, if the laser image reflected from the surface of the processed product and formed on the screen as in the present invention is used, the surface of the processed product can be accurately measured even when the surface of the processed product is smooth, so that the inspection of the processed product by laser irradiation can be performed. A method of calculating a reference laser image reflected from the surface of the workpiece to be inspected and applied to the screen will be described later with reference to FIGS. 13 and 14.

한편 본 발명의 일 실시예에서 가공품 검사 장치는 3차원 이미지의 비교 검사, 2차원 이미지의 비교 검사, 및/또는 레이저 이미지의 비교 검사 중 적어도 둘 이상을 조합하여 동시에 또는 순차적으로 수행하여 검사할 수 있다. 예를 들어, 3차원 이미지 생성부(100,200)에서 각각 생성한 기준 가공품의 3차원 이미지와 검사대상 가공품의 3차원 이미지를 비교하는 동작을 수행하면서 이와 동시에 또는 순차적으로 기준 레이저 이미지 추출부(400)에서 추출된 기준 가공품의 레이저 이미지와 검사대상 가공품에 조사된 레이저의 레이저 이미지를 비교하는 동작을 수행할 수 있다. Meanwhile, in an embodiment of the present invention, the apparatus for inspecting a processed product may be performed simultaneously or sequentially by combining at least two or more of a three-dimensional image comparison, a two-dimensional image comparison, and/or a laser image comparison. have. For example, the reference laser image extraction unit 400 simultaneously or sequentially while performing an operation of comparing the 3D image of the reference processed product generated by the 3D image generation unit 100 and 200 with the 3D image of the processed product to be inspected. The operation of comparing the laser image of the reference processed product extracted from and the laser image of the laser irradiated on the processed product to be inspected may be performed.

또한 예컨대 기준 레이저 이미지 추출부(400)에서 기준 가공품에 라인 레이저를 조사했을 때 기준 가공품의 표면에 맺히게 될 가상의 제1 기준 레이저 이미지 및 기준 가공품에 인접한 스크린에 맺히게 될 가상의 제2 기준 레이저 이미지를 모두 추출하고 검사대상 가공품에 대해서도 검사대상 가공품의 표면과 그에 인접한 스크린에 맺히는 레이저 이미지를 각각 추출하여 가상의 제1 및 제2 기준 레이저 이미지를 그에 대응하는 각각의 레이저 이미지와 동시에 또는 순차적으로 비교하여 검사할 수도 있다. In addition, for example, when the reference laser image extraction unit 400 irradiates the reference processed product with a line laser, a virtual first reference laser image that will be formed on the surface of the reference processed product and a virtual second reference laser image that will be formed on a screen adjacent to the reference processed product After extracting all the laser images formed on the surface of the processed product to be inspected and the screen adjacent to the processed product to be inspected, the virtual first and second reference laser images are compared with each of the corresponding laser images simultaneously or sequentially. You can also check it.

도2는 일 실시예에 따른 가공품 검사 장치의 예시적인 장치 구성을 도시하였다. 도2의 가공품 검사 장치는 카메라를 이용하는 3차원 이미지 생성부(110)에서 검사대상 가공품의 3차원 이미지를 생성하고 제2 이미지 생성부(200)에서 기준 가공품의 이미지를 생성하여 서로 비교하고 검사대상 가공품의 불량 여부를 판단하는 검사 장치의 장치 구성일 수 있다. 2 is a diagram illustrating an exemplary configuration of an apparatus for inspecting a workpiece according to an embodiment. In the apparatus for inspecting the processed product of FIG. 2, a 3D image generating unit 110 using a camera generates a 3D image of the processed article to be inspected, and the second image generating unit 200 generates an image of the reference processed article and compares it with each other. It may be a device configuration of an inspection device that determines whether the processed product is defective.

도시한 실시예에서 가공품 검사 장치는 컴퓨팅 장치(10), 카메라(21), 카메라 지지대(25), 구동부(30), 가공품 지지대(35), 및 디스플레이(40)를 포함한다. 가공품 지지대(35)는 검사대상 가공품(G)을 지지하는 부재이다. 가공품 지지대(35)는 구동모터와 엔코더 등으로 구성된 구동부(30) 위에 설치될 수 있다. 구동부(30)의 구동모터는 지지대(35)를 회전시키며 엔코더는 지지대(35)의 회전량을 정밀하게 측정할 수 있다. In the illustrated embodiment, the workpiece inspection apparatus includes a computing device 10, a camera 21, a camera support 25, a driving unit 30, a workpiece support 35, and a display 40. The processed product support 35 is a member that supports the processed product G to be inspected. The processed product support 35 may be installed on a driving unit 30 composed of a driving motor and an encoder. The driving motor of the driving unit 30 rotates the support 35, and the encoder can accurately measure the amount of rotation of the support 35.

카메라(21)는 지지대(35) 위에 놓여지는 검사대상 가공품(G)을 촬영한다. 카메라(21)는 카메라 지지대(25) 위에 설치되어 상하 방향으로 이동할 수 있다. 카메라 지지대(25)와 가공품 지지대(35) 간의 거리는 소정 거리로 미리 설정되어 있다. 카메라(21)를 고정시킨 상태에서 검사대상 가공품(G)을 회전시키면서 가공품(G)을 촬영할 수 있고, 이 촬영된 이미지를 컴퓨팅 장치(10)로 전송한다. 컴퓨팅 장치(10)는 제1 이미지 생성부(100)를 포함하며, 제1 이미지 생성부(100)는 카메라(21)가 촬영한 검사대상 가공품(G)의 이미지에 기초하여 가공품의 3차원 이미지를 생성한다. The camera 21 photographs an inspection target processed product G placed on the support 35. The camera 21 is installed on the camera support 25 and can move in the vertical direction. The distance between the camera support 25 and the processed product support 35 is preset to a predetermined distance. While the camera 21 is fixed, the workpiece G can be photographed while rotating the workpiece G to be inspected, and the photographed image is transmitted to the computing device 10. The computing device 10 includes a first image generating unit 100, and the first image generating unit 100 is a three-dimensional image of the processed product based on the image of the processed product G photographed by the camera 21 Create

컴퓨팅 장치(10)는 이 장치에 기저장된 기준 가공품의 3차원 이미지와 검사대상 가공품의 3차원 이미지를 비교하고 검사대상 가공품의 불량 여부를 판단하는 제1 검사부를 포함할 수 있다. 또한 디스플레이(40)를 통해 두 이미지의 비교 영상을 작업자에게 디스플레이하고 작업자가 직접 두 이미지를 비교하여 검사대상 가공품의 불량 여부를 판단할 수도 있다. The computing device 10 may include a first inspection unit that compares a 3D image of a reference processed product previously stored in the device with a 3D image of the processed product to be inspected and determines whether the processed product to be inspected is defective. In addition, a comparison image of two images may be displayed to an operator through the display 40, and the operator may directly compare the two images to determine whether or not the object to be inspected is defective.

검사대상 가공품(G)을 회전시키면서 카메라(21)로 촬영하여 검사대상 가공품(G)의 3차원 이미지를 생성하는 방법은 당업계에 공지되어 있는 다양한 알고리즘 중 하나를 이용할 수 있다. 예를 들어 일 실시예에서 다각도에서 촬영한 이미지를 통합하여 3차원 구조를 추정하는 "움직임 기반 구조"(Structure From Motion: SFM) 방법을 이용할 수 있다. 다만 일반적인 SFM 방법과 달리 본 발명에서는 카메라(21)를 움직이지 않고 고정해둔 상태로 검사대상 가공품(G)을 회전시키면서 이미지를 다수 촬영하고 촬영한 이미지에서 특징이 있는 점(특징점)의 위치정보를 추출하여 가공품의 3차원 구조를 생성할 수 있다. A method of generating a three-dimensional image of the object to be inspected G by rotating the object to be inspected G while rotating the camera 21 may use one of various algorithms known in the art. For example, in an embodiment, a "Structure From Motion" (SFM) method of estimating a 3D structure by integrating images taken from multiple angles may be used. However, unlike the general SFM method, in the present invention, a plurality of images are photographed while rotating the workpiece G to be inspected while the camera 21 is fixed without moving, and the location information of the characteristic points (characteristic points) in the photographed image It can be extracted to create a three-dimensional structure of the processed product.

컴퓨팅 장치(10)는 2차원 이미지 변환부(300) 및 기준 가공품과 검사대상 가공품의 2차원 이미지를 비교하여 불량 여부를 판단하는 제2 검사부를 더 포함할 수 있다. 2차원 이미지 변환부(300)는 기준 가공품의 3차원 이미지를 2차원 이미지로 변환한다. 검사대상 가공품의 2차원 이미지는 예컨대 카메라(21)로 검사대상 가공품(G)을 촬영한 영상으로부터 직접 획득할 수 있다. The computing device 10 may further include a 2D image conversion unit 300 and a second inspection unit that compares a 2D image of the reference processed product and the processed product to be inspected to determine whether there is a defect. The 2D image conversion unit 300 converts a 3D image of a reference processed product into a 2D image. The two-dimensional image of the object to be inspected may be directly acquired from an image taken of the object to be inspected (G) with the camera 21, for example.

도3은 대안적 실시예에 따른 가공품 검사 장치의 예시적 장치 구성을 나타낸다. 도2의 가공품 검사 장치와 비교하여 도3의 가공품 검사 장치는 레이저를 이용하는 3차원 이미지 생성부(120)에서 검사대상 가공품의 3차원 이미지를 생성하는 기능 및/또는 레이저를 이용하여 검사대상 가공품(G)의 표면이나 스크린에 보여지는 레이저를 촬영하고 이 촬영된 레이저 이미지와 기준 레이저 이미지를 비교하여 가공품의 불량 여부를 판단하는 기능을 더 포함할 수 있다. 3 shows an exemplary arrangement of a workpiece inspection apparatus according to an alternative embodiment. Compared with the processed product inspection device of FIG. 2, the processed product inspection apparatus of FIG. 3 generates a three-dimensional image of the processed product to be inspected by the 3D image generating unit 120 using a laser and/or the processed product to be inspected ( It may further include a function of photographing a laser shown on the surface or screen of G) and determining whether the processed product is defective by comparing the photographed laser image and a reference laser image.

이를 위해 도3의 가공품 검사 장치는 도2의 가공품 검사 장치의 구성요소들에 더하여 제2 카메라(22), 레이저 조사장치(50), 및 스크린(60)을 더 포함한다. 도면에 도시하지 않았지만 도2와 마찬가지로 컴퓨팅 장치(10)와 디스플레이(40)를 구비하고 있다. To this end, the machined product inspection apparatus of FIG. 3 further includes a second camera 22, a laser irradiation apparatus 50, and a screen 60 in addition to the components of the machined product inspection apparatus of FIG. 2. Although not shown in the drawing, as in FIG. 2, a computing device 10 and a display 40 are provided.

제1 카메라(21)는 가공품 지지대(35) 위에 놓여지는 검사대상 가공품(G)을 촬영하도록 배치되고 제2 카메라(22)는 스크린(60)에 맺히는 레이저의 이미지를 촬영하도록 배치된다. 레이저 조사장치(50)는 검사대상 가공품(G)을 향해 라인 레이저를 조사할 수 있다. 스크린(60)은 가공품 지지대(35)에서 소정 거리 이격되어 배치된다. 도면에는 스크린(60)이 가공품 지지대(35)의 상부에 배치된 것으로 도시하였지만 이는 예시적인 것이며, 예컨대 가공품 지지대(35)의 하나 이상의 측면에 배치될 수 있다. 또한 스크린(60)이 두개 이상 구비될 수도 있고 예컨대 가공품 지지대(35)의 일 측면과 상부면에 배치되어 가공품(G)에서 다각도로 반사되는 레이저의 반사 이미지 중 일부 또는 전부가 스크린(60)에 투사될 수 있도록 배치할 수 있다. 레이저 조사장치(50)에서 가공품(G)의 표면에 레이저를 조사할 때 제1 카메라(21)가 가공품(G)의 표면을 촬영하여 레이저 이미지를 얻을 수 있다. 또한 대안적으로, 레이저 조사장치(50)에서 가공품(G)의 표면에 레이저를 조사하고 가공품(G)의 표면에서 반사되어 스크린(60)에 맺히는 레이저의 이미지를 제2 카메라(22)가 촬영하여 레이저 이미지를 얻을 수 있다. 이렇게 제1 카메라(21) 또는 제2 카메라(22)에 의해 얻어진 레이저 이미지는 컴퓨팅 장치(10)로 전송된다. The first camera 21 is arranged to photograph the workpiece G to be inspected placed on the workpiece support 35, and the second camera 22 is arranged to photograph the image of the laser applied to the screen 60. The laser irradiation device 50 may irradiate a line laser toward the workpiece G to be inspected. The screen 60 is disposed to be spaced apart from the workpiece support 35 by a predetermined distance. In the drawings, the screen 60 is shown to be disposed on the upper portion of the workpiece support 35, but this is exemplary, and may be disposed on one or more sides of the workpiece support 35, for example. In addition, two or more screens 60 may be provided. For example, some or all of the reflected images of the laser reflected from the processed product G at various angles by being disposed on one side and the upper surface of the processed product support 35 It can be arranged so that it can be projected. When the laser irradiation device 50 irradiates a laser onto the surface of the processed product G, the first camera 21 may photograph the surface of the processed product G to obtain a laser image. In addition, alternatively, the laser irradiation device 50 irradiates a laser on the surface of the processed product G, and the second camera 22 photographs an image of the laser reflected from the surface of the processed product G and reflected on the screen 60 To obtain a laser image. The laser image thus obtained by the first camera 21 or the second camera 22 is transmitted to the computing device 10.

컴퓨팅 장치(10)는 레이저를 이용하는 3차원 이미지 생성부(120)를 구비한다. 3차원 이미지 생성부(120)는 제1 카메라(21)에 의해 획득한 가공품(G) 표면의 레이저 이미지로부터 가공품(G)의 3차원 이미지를 생성할 수 있다. 레이저를 임의의 대상물에 조사하여 대상물의 3차언 형상 정보를 획득하는 방법은 예컨대 한국 공개공보 제2011-0010300호("패널의 3차원 형상 정보를 얻는 방법") 등에 개시되었으며 본 발명에서도 이러한 공지의 방법을 이용하여 검사대상 가공품(G)의 3차원 이미지를 생성할 수 있다. The computing device 10 includes a 3D image generating unit 120 using a laser. The 3D image generating unit 120 may generate a 3D image of the processed product G from the laser image of the surface of the processed product G acquired by the first camera 21. A method of obtaining three-dimensional shape information of an object by irradiating a laser onto an object is disclosed, for example, in Korean Laid-Open Publication No. 2011-0010300 ("Method of obtaining three-dimensional shape information of a panel"), and the present invention is also known as such. Using the method, it is possible to create a three-dimensional image of the workpiece G to be inspected.

본 발명에서 레이저를 이용하는 3차원 이미지 생성부(120)는 라인 레이저를 검사대상 가공품(G)의 표면에 조사하고 가공품의 표면에서 반사되어 스크린(60)에 맺히는 레이저의 이미지를 제2 카메라(22)로 촬영하여 검사대상 가공품의 3차원 이미지를 생성할 수도 있다. 도4 내지 도6은 이와 같이 스크린(60)에 나타나는 레이저 이미지를 촬영하여 검사대상 가공품의 3차원 이미지를 생성하는 예시적 방법을 나타낸다. In the present invention, the 3D image generating unit 120 using a laser irradiates a line laser onto the surface of the processed product G to be inspected, and displays the image of the laser reflected from the surface of the processed product and reflected on the screen 60 with the second camera 22 ) To create a 3D image of the workpiece to be inspected. 4 to 6 illustrate an exemplary method of generating a three-dimensional image of an object to be inspected by photographing a laser image appearing on the screen 60 as described above.

도4는 검사대상 가공품(G), 레이저 조사장치(50), 제2 카메라(22), 및 스크린(60)의 배치관계를 도식적으로 나타낸다. 레이저 조사장치(50)는 검사대상 가공품(G)의 표면으로 레이저를 비스듬히 조사할 수 있도록 배치되고, 가공품의 표면에서 반사된 레이저의 전부 또는 알부가 스크린(60)에 투사되도록 스크린(60)이 배치된다. 제2 카메라(22)는 스크린(60)에 투사되는 레이저의 이미지를 촬영할 수 있도록 배치된다. 이 때 검사대상 가공품(G), 레이저 조사장치(50), 제2 카메라(22), 및 스크린(60)의 서로간의 거리 관계는 미리 설정되어 있고 예컨대 컴퓨팅 장치(10)에 저장되어 있다. Fig. 4 schematically shows the arrangement relationship between the inspection target processed product G, the laser irradiation device 50, the second camera 22, and the screen 60. The laser irradiation device 50 is arranged to irradiate the laser at an angle to the surface of the processed product G to be inspected, and the screen 60 is installed so that all or an egg part of the laser reflected from the surface of the processed product is projected onto the screen 60. Is placed. The second camera 22 is arranged to capture an image of a laser projected on the screen 60. At this time, the distance relationship between the workpiece G to be inspected, the laser irradiation device 50, the second camera 22, and the screen 60 is set in advance and is stored in the computing device 10, for example.

도5는 레이저를 이용하여 검사대상 가공품(G)의 3차원 이미지를 생성하는 예시적 방법을 흐름도이다. 도면을 참조하면, 단계(S110)에서 카메라 좌표(OC), 레이저 좌표(OL), 및 스크린 좌표(OS)를 설정한다. 검사대상 가공품(G), 레이저 조사장치(50), 제2 카메라(22), 및 스크린(60)의 서로간의 거리 관계를 알고 있으므로 하나의 기준 좌표계를 설정하고 그 기준 좌표계를 기준으로 카메라 좌표(OC), 레이저 좌표(OL), 및 스크린 좌표(OS)의 각각을 원점 좌표를 설정할 수 있다. 5 is a flow chart illustrating an exemplary method of generating a three-dimensional image of a workpiece G to be inspected using a laser. Referring to the drawing, in step S110, camera coordinates (O C ), laser coordinates (O L ), and screen coordinates (O S ) are set. Since the distance relationship between the inspection object G, the laser irradiation device 50, the second camera 22, and the screen 60 is known, one reference coordinate system is set, and the camera coordinates ( O C ), laser coordinates (O L ), and screen coordinates (O S ) can each be set to the origin coordinates.

그 후 단계(S120)에서, 레이저 조사장치(50)에서 라인 레이저(L1)를 검사대상 가공품(G)에 조사한다. 도5에 도시한 것처럼 검사대상 가공품(G)이 예컨대 기어인 경우, 레이저(L1)를 검사대상 가공품인 기어의 표면(치면)에 비스듬하게 조사하면 레이저가 표면에서 반사되고 반사된 레이저(L3)가 스크린(60)에 투사된다. 스크린(60)에 투사된 이 레이저(L3)의 이미지를 제2 카메라(22)로 촬영하여 레이저(L3)의 라인을 측정하고(단계 S130), 측정된 레이저(L3) 이미지로부터 레이저(L1)를 반사시킨 기어 표면의 좌표를 산출한다(단계 S140). 이와 관련하여 도6은 기어 표면의 형상을 측정하여 좌표를 산출하는 예시적 방법을 나타낸다. Thereafter, in step S120, the laser irradiation device 50 irradiates the line laser L1 onto the workpiece G to be inspected. As shown in Fig. 5, when the workpiece G to be inspected is a gear, for example, when the laser L1 is irradiated on the surface (tooth surface) of the workpiece to be inspected at an angle, the laser is reflected from the surface and the reflected laser (L3) Is projected on the screen 60. The image of this laser L3 projected on the screen 60 is photographed with the second camera 22 to measure the line of the laser L3 (step S130), and the laser L1 from the measured laser L3 image The coordinates of the gear surface reflecting the are calculated (step S140). In this regard, Fig. 6 shows an exemplary method of calculating the coordinates by measuring the shape of the gear surface.

도6을 참조하면, 레이저 조사장치(50)가 라인 레이저(L1)를 가공품(G) 표면에 비스듬히 조사하면, 라인 레이저(L1)가 일정한 폭(두께)을 갖고 있으므로, 예컨대 도6에 예시한 것처럼 레이저의 한쪽 끝은 제1 입사각(α)을 가지며 기어의 제1 표면(P11)에 조사되고 다른쪽 끝은 제2 입사각(β)을 가지며 기어의 제2 표면(P21)에 조사되고, 이 두 지점(P11, P21) 사이의 영역에 레이저(L2)의 이미지가 나타난다. 기어 표면에서 반사된 레이저는 스크린(60)에 레이저(L3)의 라인으로 투사가 된다. 이 때 제1 표면(P11)의 레이저는 제1 입사각(α)과 동일한 반사각으로 반사되고 제2 표면(P21)의 레이저는 제2 입사각(β)과 동일한 반사각으로 반사되어 각각 스크린의 제1 표면(P12)과 제2 표면(P22)에 투사된다. Referring to Fig. 6, when the laser irradiation device 50 irradiates the line laser L1 on the surface of the processed product G at an angle, the line laser L1 has a certain width (thickness). As shown, one end of the laser has a first angle of incidence (α) and is irradiated to the first surface (P11) of the gear, and the other end has a second angle of incidence (β) and is irradiated to the second surface (P21) of the gear. An image of the laser L2 appears in the area between the two points P11 and P21. The laser reflected from the gear surface is projected onto the screen 60 as a line of the laser L3. At this time, the laser of the first surface P11 is reflected at the same reflection angle as the first incident angle α, and the laser at the second surface P21 is reflected at the same reflection angle as the second incident angle β. It is projected on (P12) and the second surface (P22).

제2 카메라(22)로 스크린(60)의 레이저(L3)를 촬영하면 스크린 좌표(OS)에서 레이저(L3)의 위치를 좌표로 산출할 수 있고, 레이저 조사장치(50)와 스크린(60)의 거리 및 좌표 정보를 이미 알고 있으므로, 기어 표면에 보여지는 라인 레이저(L2)의 3차원 좌표를 산출할 수 있고 이 3차원 좌표가 기어 표면의 좌표가 된다. 이와 같이 스크린(60)에 투사된 레이저(L3)의 이미지로부터 기어 표면의 좌표를 산출할 수 있고 라인 레이저(L1)를 기어 전체 표면에 걸쳐 스캔하면서 위의 단계를 반복하면 기어 전체 표면의 3차원 좌표군을 산출할 수 있다(단계 S150). When the laser (L3) of the screen (60) is photographed with the second camera (22), the position of the laser (L3) in the screen coordinate (O S ) can be calculated as a coordinate, and the laser irradiation device 50 and the screen 60 Since the distance and coordinate information of) are already known, the 3D coordinate of the line laser L2 shown on the gear surface can be calculated, and this 3D coordinate becomes the coordinate of the gear surface. In this way, the coordinates of the gear surface can be calculated from the image of the laser L3 projected on the screen 60, and if the above steps are repeated while scanning the line laser L1 over the entire surface of the gear, the three-dimensional surface of the entire gear The coordinate group can be calculated (step S150).

이제 도7 및 도8을 참조하여 제2 이미지 생성부(200)에 의한 기준 가공품의 3차원 이미지 생성 방법을 설명하기로 한다. 도시한 실시예에서는 기준 가공품이 기어인 것으로 전제하고 설명한다. Now, a method of generating a 3D image of the reference processed product by the second image generating unit 200 will be described with reference to FIGS. 7 and 8. In the illustrated embodiment, it is assumed that the reference processed product is a gear.

도7은 기준 가공품의 3차원 이미지를 생성하는 예시적 방법의 흐름도이고 도8은 가공용 공구의 고정 좌표계(Cc)와 기어 좌표계(Cg)에서 바라보는 가공용 공구 표면을 나타내었다. Fig. 7 is a flow chart of an exemplary method of generating a three-dimensional image of a reference workpiece, and Fig. 8 shows the machining tool surface viewed from the fixed coordinate system Cc and the gear coordinate system Cg of the machining tool.

도7을 참조하면, 단계(S210)에서 가공품의 기초 제원과 가공용 공구의 기초 제원을 입력한다. 예컨대 가공품이 기어인 경우 기어의 일반적인 기초 제원은 예를 들어 치형(profile) 종류, 압력각, 비틀림각, 잇수, 모듈, 어덴덤, 디덴덤, 전위계수, 치형수정 방식 및 치형수정량 등의 파라미터를 포함할 수 있다. 일반적으로 기어는 절삭공구를 이용해서 가공하며 이러한 기어 가공용 절삭 공구를 특정할 경우 공구의 기초 제원은 예컨대 치형 종류, 압력각, 비틀림각, 잇수, 모듈, 어덴덤, 디덴덤, 치두께, 이끝 필렛반경, 이뿌리 세미토핑 압력각 등의 파라미터를 포함할 수 있다. Referring to FIG. 7, in step S210, basic specifications of a processed product and basic specifications of a machining tool are input. For example, when the processed product is a gear, the general basic specifications of the gear are, for example, parameters such as profile type, pressure angle, twist angle, number of teeth, module, addendum, dedendum, dislocation coefficient, tooth correction method and tooth correction amount. It may include. In general, gears are machined using a cutting tool, and when specifying such a cutting tool for gear processing, the basic specifications of the tool are, for example, tooth type, pressure angle, twist angle, number of teeth, module, addendum, dedendum, tooth thickness, fillet at tooth tip. It may include parameters such as radius and tooth root semi-topping pressure angle.

또한 절삭 공구의 가공 방식이 특정되면 기어 가공시 공구와 기어간 운동관계를 정의한다. 예를 들어 이러한 운동관계는 예컨대 공구 회전축과 기어 회전축의 기하학적 위치관계(축간 거리, 축각) 및 기하학적 운동관계(회전축간 회전수 비, 급송(feed) 방향과 속도 등) 등의 파라미터를 포함할 수 있다. In addition, when the machining method of the cutting tool is specified, the motion relationship between the tool and the gear is defined during gear machining. For example, such a motion relationship may include parameters such as geometric positional relationship (distance between shafts, shaft angle) and geometrical motion relationship (rotation speed ratio between rotational shafts, feed direction and speed, etc.), for example, between the tool rotational axis and the gear rotational axis. have.

그 후 단계(S210)에서 입력된 정보를 바탕으로 가공용 공구의 고정 좌표계(Oc) 기준으로 가공용 공구의 표면(치면) 수식을 정의한다(단계 S220). 예를 들어 도8에 도시한 것처럼 절삭공구 치면 수식은 2개의 독립 매개변수(

Figure 112019049701375-pat00001
)로 이루어진 벡터(
Figure 112019049701375-pat00002
)로 표현될 수 있고 따라서 절삭공구 치면은 이 벡터가 가리키는 점(Q)의 집합(
Figure 112019049701375-pat00003
)으로 나타낼 수 있다. Thereafter, based on the information input in step S210, a surface (tooth surface) formula of the machining tool is defined based on the fixed coordinate system Oc of the machining tool (step S220). For example, as shown in Fig. 8, the cutting tool tooth surface formula has two independent parameters (
Figure 112019049701375-pat00001
) Of vectors (
Figure 112019049701375-pat00002
) And thus the cutting tool tooth surface is the set of points (Q) pointed to by this vector (
Figure 112019049701375-pat00003
) Can be represented.

다음으로, 단계(S230)와 단계(S240)에서, 절삭공구와 기어 간 운동관계 방정식을 정의하고(S230) 가공용 공구의 치면 수식을 기어 좌표계(Cg) 기준의 치면 수식으로 변환한다(S240). Next, in steps S230 and S240, a motion relationship equation between the cutting tool and the gear is defined (S230), and the tooth surface equation of the machining tool is converted into a tooth surface equation based on the gear coordinate system Cg (S240).

일 실시예에서 절삭공구와 기어의 상대위치 및 상대운동관계를 나타내는 변환행렬( M gc)을 생성하고, 아래 수학식1과 같이, 절삭공구 고정 좌표계 기준의 공구의 치면 수식(

Figure 112019049701375-pat00004
)에 변환행렬을 곱하여 기어 고정 좌표계 기준의 공구의 치면 수식(
Figure 112019049701375-pat00005
)으로 변환한다. In one embodiment, a conversion matrix ( M gc ) representing the relative position and relative motion relationship between the cutting tool and the gear is generated, and as shown in Equation 1 below, the tooth surface formula of the tool based on the cutting tool fixed coordinate system (
Figure 112019049701375-pat00004
) Multiplied by the transformation matrix and the tooth surface formula (
Figure 112019049701375-pat00005
).

Figure 112019049701375-pat00006
--- 수학식1
Figure 112019049701375-pat00006
--- Equation 1

수학식1에서 치면 수식(

Figure 112019049701375-pat00007
)은 절삭공구 치면을 나타내는 2개의 독립매개변수(
Figure 112019049701375-pat00008
)와 상대운동관계를 나타내는 1개의 독립매개변수(
Figure 112019049701375-pat00009
)가 합쳐져 총 3개의 독립매개변수(
Figure 112019049701375-pat00010
)로 표현된다. If you type in Equation 1, the formula (
Figure 112019049701375-pat00007
) Are two independent parameters representing the cutting tool tooth surface (
Figure 112019049701375-pat00008
) And 1 independent parameter (
Figure 112019049701375-pat00009
) Is added to the total of 3 independent parameters (
Figure 112019049701375-pat00010
).

다음으로, 단계(S250)에서 기어 치면의 경계조건으로서 물림 방정식을 정의하고 이를 만족하는 기어 표면의 3차원 치면 좌표군을 산출한다(S260). Next, in step S250, the meshing equation is defined as the boundary condition of the gear tooth surface, and a three-dimensional tooth surface coordinate group of the gear surface satisfying the same is calculated (S260).

단계(S250)에서 물림 방정식은 절삭공구와 기어가 서로 맞물릴 때 기어의 표면이 절삭공구 내측으로 들어가서는 안되는 것을 수식으로 정의한 것으로, 예를 들어 아래 수학식2와 같이, 기어 고정 좌표계 기준의 절삭공구 치면(

Figure 112019049701375-pat00011
)의 법선벡터와 상대속도 벡터를 각각 수식으로 표현하고 그 둘을 내적하여 물림방정식을 정의할 수 있다. In step (S250), the meshing equation is defined as an equation that the surface of the gear should not enter the cutting tool when the cutting tool and the gear mesh with each other.For example, as shown in Equation 2 below, cutting based on the fixed gear coordinate system Tool tooth surface (
Figure 112019049701375-pat00011
The normal vector and the relative velocity vector of) can be expressed as equations, and the interpolation equation can be defined by dot product of the two.

Figure 112019049701375-pat00012
--- 수학식2
Figure 112019049701375-pat00012
--- Equation 2

기어 고정 좌표계 기준의 절삭공구 치면(

Figure 112019049701375-pat00013
)은 3개의 독립매개변수(
Figure 112019049701375-pat00014
)로 표현되어 있으므로 표면(surface)이 아닌 부피(volume)를 나타낸다. 물림방정식은 3개의 독립매개변수(
Figure 112019049701375-pat00015
)로 표현되는 조건식이다. 따라서 아래 수학식3으로 나타낸 것처럼, 수학식1과 수학식2(물림방정식)에 의해 3개의 매개변수(
Figure 112019049701375-pat00016
) 중 1개는 종속매개변수로 바뀌게 되고 2개의 독립매개변수(
Figure 112019049701375-pat00017
)가 절삭공구 치면을 나타내는 수식이 되고, 이 수식이 결국 가공된 기어의 3차원 표면을 나타내는 기어 치면 좌표군(
Figure 112019049701375-pat00018
)이 된다. Cutting tool tooth surface based on the fixed gear coordinate system (
Figure 112019049701375-pat00013
) Is the three independent parameters (
Figure 112019049701375-pat00014
), so it represents the volume, not the surface. The bite equation consists of three independent parameters (
Figure 112019049701375-pat00015
It is a conditional expression expressed as ). Therefore, as shown in Equation 3 below, the three parameters (
Figure 112019049701375-pat00016
), one of the parameters is changed to the dependent parameter and two independent parameters (
Figure 112019049701375-pat00017
) Becomes the formula representing the cutting tool tooth surface, and this formula eventually represents the three-dimensional surface of the machined gear.
Figure 112019049701375-pat00018
).

Figure 112019049701375-pat00019
--- 수학식3
Figure 112019049701375-pat00019
--- Equation 3

이상과 같이 본 발명에서는 가공품 설계를 위한 기초 제원의 파라미터 및 이를 제작하기 위한 가공용 공구의 기초 제원의 파라미터에 기초하여 가공품의 3차원 이미지 데이터를 생성하므로 실제 가공품 중 양품을 선정하고 이를 스캔하여 기준 가공품의 데이터를 생성하는 종래 방식에 비해 훨씬 정밀하고 이상적인 기준 가공품 데이터를 얻을 수 있다. As described above, in the present invention, since the 3D image data of the processed product is generated based on the parameter of the basic specification for designing the processed product and the parameter of the basic specification of the machining tool for manufacturing the same, a good product is selected from the actual processed product, and the reference processed product is scanned. Compared to the conventional method of generating the data, it is possible to obtain more precise and ideal reference workpiece data.

이제 3차원 이미지를 2차원 이미지로 변환하는 기술에 대해 도9 및 도10을 참조하여 설명하기로 한다. 3차원 이미지를 2차원이미지로 변환하는 동작은 예컨대 도1의 2차원 이미지 변환부(300)에서 실행될 수 있다.Now, a technology for converting a 3D image to a 2D image will be described with reference to FIGS. 9 and 10. The operation of converting a 3D image to a 2D image may be performed, for example, by the 2D image conversion unit 300 of FIG. 1.

도9은 가상의 기준 가공품(VG)과 제1 카메라(21)의 관계를 도식적으로 나타내는 도면이고, 도10은 기준 가공품의 3차원 이미지를 2차원 이미지로 변환하는 예시적 방법의 흐름도이다. 9 is a diagram schematically showing the relationship between a virtual reference processed product (VG) and the first camera 21, and FIG. 10 is a flowchart of an exemplary method for converting a 3D image of a reference processed product into a 2D image.

도9에서 제1 카메라(21)는 소정의 이격된 거리에서 기준 가공품(VG)을 촬영한다고 가정한다. 이 때 기준 가공품(VG)은 실재하는 실물이 아니지만 가공품 지지대(35)에 올려져 있다고 가정하고 이 지지대(35)에서 소정 거리 이격되어 배치된 제1 카메라(21)에서 이 가공품(VG)을 촬영한다고 가정하는 것이다. 이 때 좌표계(OM)는 기준 좌표계로서 예컨대 월드 좌표계이거나 도6 내지 도8에서 설명한 기어 좌표계 등 임의의 좌표계일 수 있다. 좌표계(OC)는 카메라 좌표계이다. In FIG. 9, it is assumed that the first camera 21 photographs the reference processed product VG at a predetermined distance. At this time, the reference processed product (VG) is not a real object, but it is assumed that it is placed on the processed product support (35), and this processed product (VG) is photographed by the first camera (21) disposed at a predetermined distance from the support (35). Is assumed to be. In this case, the coordinate system OM is a reference coordinate system, and may be, for example, a world coordinate system or an arbitrary coordinate system such as a gear coordinate system described in FIGS. 6 to 8. The coordinate system O C is the camera coordinate system.

도10을 참조하면, 단계(S310)에서 기준 좌표계(OM)에서 기어의 3차원 치면을 정의한다. 즉 기준 좌표계(OM)에서 바라보는 기어의 3차원 좌표의 집합을 정의한다. 예컨대 기준 좌표계가 도6 내지 도8에서 설명한 기어 좌표계인 경우 기어의 3차원 좌표의 수학식3에 나타낸 기어 치면 좌표군(

Figure 112019049701375-pat00020
)일 수 있다. Referring to FIG. 10, in step S310, a three-dimensional tooth surface of a gear is defined in a reference coordinate system O M. That is, it defines a set of three-dimensional coordinates of the gear viewed from the reference coordinate system (O M ). For example, when the reference coordinate system is the gear coordinate system described in Figs. 6 to 8, the gear tooth surface coordinate group shown in Equation 3 of the three-dimensional coordinates of the gear (
Figure 112019049701375-pat00020
) Can be.

그 후 단계(S320)에서 카메라 좌표(Oc)를 설정하고 단계(S330)에서 카메라 파라미터(K, R, T)를 산출한다. 즉 카메라 좌표(OC)가 기준 좌표계(OM)로부터 얼마나 떨어져있고 회전되어 있는지에 따라 카메라 파라미터를 계산한다. After that, the camera coordinates Oc are set in step S320, and the camera parameters K, R, and T are calculated in step S330. That is, camera parameters are calculated according to how far the camera coordinate (OC) is from and rotated from the reference coordinate system (O M ).

이 때 K는 카메라 내부 변수로서 카메라 렌즈, 이미지 센서 어레이의 틀어짐 등 카메라마다 각기 다른 값을 가지고 있으며, 예를 들어 아래 수학식4와 같이 행렬로 표현될 수 있다. In this case, K is an internal variable of the camera, and has different values for each camera, such as a camera lens or an image sensor array, and may be expressed as a matrix as in Equation 4 below.

Figure 112019049701375-pat00021
--- 수학식4
Figure 112019049701375-pat00021
--- Equation 4

위 수학식4에서 각 변수는 아래 표1과 같다. In Equation 4 above, each variable is shown in Table 1 below.

성분 ingredient 명칭 designation 설명 Explanation u u 0 0 , v, v 00 Principal point Principal point 카메라 센터 Camera center α, β α, β Focal Length Focal Length 카메라 초첨거리(in pixel) Camera focal length (in pixel) γ γ Skew Parameter Skew Parameter 영상 센서의 틀어진 정도 (제조과정) Degree of distortion of the image sensor (manufacturing process)

카메라 파라미터 중 "R"과 "T"는 카메라 외부 변수로서, R은 기준 좌표계(OM)를 기준으로 카메라의 회전 정도를 나타내고 T는 기준 좌표계(OM)와 카메라 좌표의 평행 이동 거리를 나타내며 행렬로 표현된다. Among the camera parameters, "R" and "T" are external variables of the camera, where R represents the degree of rotation of the camera based on the reference coordinate system (O M ), and T represents the parallel movement distance between the reference coordinate system (O M ) and the camera coordinate. It is expressed as a matrix.

그 후 단계(S340)에서 카메라 파라미터를 이용하여 3차원 치면 좌표를 제1 카메라(21)에서 바라보는 2차원 이미지 좌표로 변환한다. 일 실시예에서 아래 수학식5와 같이 3차원 치면 좌표에 After that, in step S340, the three-dimensional tooth surface coordinates are converted into two-dimensional image coordinates viewed from the first camera 21 by using the camera parameters. In one embodiment, as shown in Equation 5 below,

2차원 이미지 좌표를 구한다. Find the coordinates of a two-dimensional image.

Figure 112019049701375-pat00022
--- 수학식5
Figure 112019049701375-pat00022
--- Equation 5

위 수학식5에서 "X"는 기준 좌표계(OM)에서 바라보는 기어 표면의 좌표, "x"는 제1 카메라(21)에서 바라보는 기어 표면의 좌표, 그리고 [R|T]는 카메라 외부 변수의 행렬식이다.In Equation 5 above, "X" is the coordinate of the gear surface viewed from the reference coordinate system (OM), "x" is the coordinate of the gear surface viewed from the first camera 21, and [R|T] is an external variable of the camera. Is the determinant of

위와 같이 기준 가공품(VG)의 3차원 이미지를 제1 카메라(21)에서 바라보는 2차원 이미지 좌표로 변환한 후, 필요에 따라 카메라 왜곡 파라미터를 적용하는 단계(S350)를 추가로 실행할 수 있다. 일반적으로 카메라는 렌즈 주변부로 갈수록 이미지의 왜곡 현상이 나타날 수 있으며 이러한 왜곡이 존재하는 경우 왜곡을 보정하는 작업을 단계(S350)에서 수행할 수 있다. After converting the 3D image of the reference processed product VG into the coordinates of the 2D image viewed from the first camera 21 as above, step S350 of applying a camera distortion parameter may be additionally performed as necessary. In general, the camera may distort the image as it moves toward the periphery of the lens, and if such distortion exists, the operation of correcting the distortion may be performed in step S350.

이제 검사대상 가공품의 표면에 보여지는 기준 레이저 이미지를 산출하는 방법에 대해 도11 및 도12를 참조하여 설명한다. 기준 레이저 이미지를 산출하는 동작은 예컨대 도1의 기준 레이저 이미지 추출부(400)에서 실행될 수 있다Now, a method of calculating the reference laser image displayed on the surface of the workpiece to be inspected will be described with reference to FIGS. 11 and 12. The operation of calculating the reference laser image may be performed, for example, in the reference laser image extraction unit 400 of FIG. 1.

도11은 가상의 기준 가공품(VG)과 제1 카메라(21) 및 레이저 조사장치(50)의 관계를 도식적으로 나타내는 도면이고, 도12는 일 실시예에 따라 기준 가공품의 3차원 이미지에서 기준 레이저 이미지를 추출하는 방법의 흐름도이다. 11 is a diagram schematically showing the relationship between the virtual reference processed product (VG), the first camera 21, and the laser irradiation device 50, and FIG. 12 is a reference laser in a three-dimensional image of a reference processed product according to an embodiment. It is a flow chart of how to extract an image.

도11에서 레이저 조사장치(50)가 가상의 기준 가공품(VG)의 표면에 라인 레이저를 조사하고 이 때 기준 가공품 표면에 나타내는 레이저 이미지를 제1 카메라(21)가 촬영한다고 가정한다. 기준 가공품(VG)은 실재하는 실물이 아니지만 가공품 지지대(35)에 올려져 있다고 가정하고 가공품 지지대(35), 제1 카메라(21), 및 레이저 조사장치(50) 서로의 거리 관계는 기설정된 값으로 알고 있으며, 레이저 조사장치(50)에서 기준 가공품(VG)의 표면을 향해 라인 레이저를 조사하고 가공품의 표면을 제1 카메라(21)가 촬영한다고 가정했을 때의 가공품 표면의 레이저 이미지를 산출하는 것이다. 이 때 좌표계(OM)는 기준 좌표계로서 예컨대 월드 좌표계이거나 도6 내지 도8에서 설명한 기어 좌표계 등 임의의 좌표계일 수 있고, 좌표계(OC)는 카메라 좌표계, 좌표계(OL)는 레이저 조사장치의 좌표계이다. In FIG. 11, it is assumed that the laser irradiation device 50 irradiates a line laser on the surface of the virtual reference processed product VG, and at this time, the first camera 21 photographs a laser image displayed on the surface of the reference processed product. The reference processed product (VG) is not a real object, but assuming that it is placed on the processed product support 35, the distance relationship between the processed product support 35, the first camera 21, and the laser irradiation device 50 is a preset value. It is known as, and calculates a laser image of the surface of the processed product assuming that the laser irradiation device 50 irradiates a line laser toward the surface of the reference processed product (VG) and the first camera 21 photographs the surface of the processed product. will be. At this time, the coordinate system (O M ) is a reference coordinate system, for example, a world coordinate system or an arbitrary coordinate system such as the gear coordinate system described in FIGS. 6 to 8, and the coordinate system (O C ) is a camera coordinate system, and the coordinate system (O L ) is a laser irradiation device. Is the coordinate system of

도12를 참조하면, 단계(S410)에서 기준 좌표계(OM)에서 기어의 3차원 치면을 정의한다. 즉 기준 좌표계(OM)에서 바라보는 기어의 3차원 좌표의 집합을 정의한다. 예컨대 기준 좌표계가 도6 내지 도8에서 설명한 기어 좌표계인 경우 기어의 3차원 좌표의 수학식3에 나타낸 기어 치면 좌표군(

Figure 112019049701375-pat00023
)일 수 있다. Referring to FIG. 12, in step S410, the three-dimensional tooth surface of the gear is defined in the reference coordinate system O M. That is, it defines a set of three-dimensional coordinates of the gear viewed from the reference coordinate system (O M ). For example, when the reference coordinate system is the gear coordinate system described in Figs. 6 to 8, the gear tooth surface coordinate group shown in Equation 3 of the three-dimensional coordinates of the gear (
Figure 112019049701375-pat00023
) Can be.

그 후 단계(S420)에서 카메라 좌표(Oc)와 레이저 좌표(OL)를 설정하고, 단계(S430)에서 레이저 조사장치(50)가 기준 가공품(VG)의 표면에 소정 각도로 레이저를 조사하고 가공품 표면에 맺히는 레이저 이미지를 제1 카메라(21)가 촬영했을 때의 레이저 이미지를 산출한다. 가공품 지지대(35)와 레이저 조사장치(50) 간의 거리 관계를 이미 알고 있으므로 레이저 조사장치(50)에서 소정 각도로 조사되는 레이저가 기준 가공품(VG)의 표면 어느 위치에 조사되는지 계산할 수 있다. Thereafter, the camera coordinate (Oc) and the laser coordinate (OL) are set in step S420, and in step S430, the laser irradiation device 50 irradiates the laser at a predetermined angle on the surface of the reference processed product VG, and When the first camera 21 captures a laser image formed on the surface, a laser image is calculated. Since the distance relationship between the workpiece support 35 and the laser irradiation device 50 is already known, the laser irradiated at a predetermined angle by the laser irradiation device 50 can be calculated at which position on the surface of the reference workpiece VG.

그 후 단계(S440)에서 카메라 파라미터(K, R, T)를 계산한다. 카메라 파라미터는 도10의 단계(S330)를 참조하여 설명한 카메라 파라미터와 동일한 의미를 가지며 도10을 참조하여 설명한 것과 동일 또는 유사한 방식으로 계산될 수 있으므로 설명을 생략한다. After that, the camera parameters (K, R, T) are calculated in step S440. The camera parameter has the same meaning as the camera parameter described with reference to step S330 of FIG. 10 and may be calculated in the same or similar manner as that described with reference to FIG. 10, so a description thereof will be omitted.

다음으로, 단계(S450)에서 카메라 파라미터를 이용하여 카메라 좌표계의 레이저 이미지를 계산한다. 즉 기준 가공품(VG)의 표면에 맺힌 레이저 이미지를 제1 카메라(21)의 관점에서 볼 때의 이미지로 변환한다. 이 단계는 도10의 단계(S340)를 참조하여 설명한 것과 유사하게 카메라 파라미터(R, T)에 기초한 좌표변환 행렬식을 사용하여 변환할 수 있다. 그 후, 도면에 도시하지 않았지만, 예컨대 도10의 단계(S350)와 유사하게 필요에 따라 카메라 왜곡 파라미터를 적용하는 단계를 더 추가할 수 있다. Next, in step S450, the laser image of the camera coordinate system is calculated using the camera parameters. That is, the laser image formed on the surface of the reference processed product VG is converted into an image viewed from the viewpoint of the first camera 21. This step may be transformed using a coordinate transformation matrix based on the camera parameters R and T similarly to that described with reference to step S340 of FIG. 10. Thereafter, although not shown in the drawing, a step of applying a camera distortion parameter may be further added, if necessary, similar to step S350 of FIG. 10, for example.

이제 검사대상 가공품의 표면에서 반사되어 스크린에 맺히는 기준 레이저 이미지를 산출하는 방법에 대해 도13 및 도14를 참조하여 후술하기로 한다. 이 방법은 예컨대 도1의 기준 레이저 이미지 추출부(400)에서 실행될 수 있다.Now, a method of calculating a reference laser image reflected from the surface of the workpiece to be inspected and formed on the screen will be described later with reference to FIGS. 13 and 14. This method may be executed, for example, in the reference laser image extraction unit 400 of FIG. 1.

도13은 가상의 기준 가공품(VG)과 제2 카메라(22), 레이저 조사장치(50), 및 스크린(60)의 관계를 도식적으로 나타내는 도면이고, 도14는 기준 가공품의 3차원 이미지에서 기준 레이저 이미지를 추출하는 예시적 방법을 설명하는 흐름도이다. 13 is a diagram schematically showing the relationship between the virtual reference processed product (VG) and the second camera 22, the laser irradiation device 50, and the screen 60, and FIG. 14 is a reference in the three-dimensional image of the reference processed product. It is a flow diagram describing an exemplary method for extracting a laser image.

도13에서 레이저 조사장치(50)가 가상의 기준 가공품(VG)의 표면에 라인 레이저를 조사하고 이 때 기준 가공품 표면에서 반사되어 스크린(60)에 투사되는 레이저 이미지를 제2 카메라(22)가 촬영한다고 가정한다. 기준 가공품(VG)은 실재하는 실물이 아니지만 가공품 지지대(35)에 올려져 있다고 가정하고 가공품 지지대(35), 제2 카메라(22), 레이저 조사장치(50), 및 스크린(60) 서로의 거리 관계는 기설정된 값으로 알고 있으며, 레이저 조사장치(50)에서 기준 가공품(VG)의 표면을 향해 라인 레이저(L1)를 조사하고 가공품의 표면에서 반사되어 스크린(60)에 맺히게 될 가상의 레이저 이미지(L3)를 제2 카메라(22)가 촬영한다고 가정했을 때의 레이저 이미지(L3)를 산출하는 것이다. 이 때 좌표계(OM)는 기준 좌표계로서 예컨대 월드 좌표계이거나 도6 내지 도8에서 설명한 기어 좌표계 등 임의의 좌표계일 수 있고, 좌표계(OC)는 카메라 좌표계, 좌표계(OL)는 레이저 조사장치의 좌표계, 좌표계(OS)는 스크린 좌표계이다. In FIG. 13, the laser irradiation device 50 irradiates a line laser on the surface of the virtual reference processed product VG, and at this time, the second camera 22 displays the laser image reflected from the reference processed product surface and projected onto the screen 60. Suppose you are shooting. The reference processed product (VG) is not a real object, but it is assumed that it is placed on the processed product support (35), and the distance between the processed product support (35), the second camera (22), the laser irradiation device (50), and the screen (60) The relationship is known as a preset value, and a virtual laser image to be formed on the screen 60 by irradiating a line laser (L1) from the laser irradiation device 50 toward the surface of the reference processed product (VG) and reflecting off the surface of the processed product. The laser image L3 is calculated assuming that the second camera 22 photographs (L3). At this time, the coordinate system (O M ) is a reference coordinate system, for example, a world coordinate system or an arbitrary coordinate system such as the gear coordinate system described in FIGS. 6 to 8, and the coordinate system (O C ) is a camera coordinate system, and the coordinate system (O L ) is a laser irradiation device. The coordinate system of, O S is the screen coordinate system.

도14를 참조하면, 단계(S510)에서 기준 좌표계(OM)에서 기어의 3차원 치면을 정의한다. 즉 기준 좌표계(OM)에서 바라보는 기어의 3차원 좌표의 집합을 정의한다. 예컨대 기준 좌표계가 도6 내지 도8에서 설명한 기어 좌표계인 경우 기어의 3차원 좌표의 수학식3에 나타낸 기어 치면 좌표군(

Figure 112019049701375-pat00024
)일 수 있다. Referring to FIG. 14, in step S510, a three-dimensional tooth surface of a gear is defined in a reference coordinate system O M. That is, it defines a set of three-dimensional coordinates of the gear viewed from the reference coordinate system (O M ). For example, when the reference coordinate system is the gear coordinate system described in Figs. 6 to 8, the gear tooth surface coordinate group shown in Equation 3 of the three-dimensional coordinates of the gear (
Figure 112019049701375-pat00024
) Can be.

그 후 단계(S520)에서 카메라 좌표(OC), 레이저 좌표(OL), 및 스크린 좌표(OS)를 설정하고, 단계(S530)에서 기준 가공품(VG)에 레이저(L1)를 조사할 때 기준 가공품 표면에서 반사되는 레이저의 입사각과 반사각을 계산하고, 단계(S540)에서, 기준 가공품 표면에서 반사되어 스크린 표면에 맺히는 가상의 레이저 이미지(L3)의 좌표를 계산한다. After that, in step (S520), camera coordinates (O C ), laser coordinates (O L ), and screen coordinates (O S ) are set, and in step (S530), the laser (L1) is irradiated to the reference workpiece (VG). At this time, the incident angle and the reflection angle of the laser reflected from the reference processed product surface are calculated, and in step S540, the coordinates of the virtual laser image L3 reflected from the reference processed product surface and formed on the screen surface are calculated.

가공품 지지대(35), 제2 카메라(22), 레이저 조사장치(50), 및 스크린(60) 서로의 거리 관계를 이미 알고 있으므로, 레이저 조사장치(50)가 기준 가공품(VG)의 표면에 소정 각도로 레이저를 조사하고 가공품 표면에서 반사되어 스크린(60)에 맺히는 레이저 이미지를 제2 카메라(22)가 촬영했을 때의 레이저 이미지를 산출할 수 있다. Since the distance relationship between the workpiece support 35, the second camera 22, the laser irradiation device 50, and the screen 60 is already known, the laser irradiation device 50 is placed on the surface of the reference processed product VG. The laser image when the second camera 22 captures a laser image reflected from the surface of the processed product and reflected on the screen 60 by irradiating the laser at an angle can be calculated.

그 후 단계(S540)에서 카메라 파라미터(K, R, T)를 계산하고 단계(S50)에서 카메라 파라미터를 이용하여 카메라 좌표계의 레이저 이미지를 계산한다. 이 단계(S540, S550)는 도12의 단계(S440, S450)와 각각 유사한 방식으로 수행할 수 있으므로 설명을 생략한다. 또한 도10의 단계(S350)와 유사하게 필요에 따라 카메라 왜곡 파라미터를 적용하는 단계를 더 추가할 수도 있다. After that, the camera parameters K, R, and T are calculated in step S540, and the laser image of the camera coordinate system is calculated using the camera parameters in step S50. This step (S540, S550) can be performed in a similar manner to the steps (S440, S450) of FIG. 12, respectively, so a description thereof will be omitted. Also, similar to step S350 of FIG. 10, a step of applying a camera distortion parameter may be further added as needed.

도15는 일 실시예에 따른 가공품 검사 방법을 구현하는 예시적인 시스템 구성을 나타내는 블록도이다. Fig. 15 is a block diagram showing an exemplary system configuration for implementing a method for inspecting a workpiece according to an embodiment.

도15를 참조하면, 일 실시예에 가공품 검사 방법을 수행하는 가공품 검사 장치(10)는 도5, 도7, 도10, 도12, 및/또는 도14에 도시한 흐름도의 단계들을 실행할 수 있는 임의의 컴퓨팅 장치일 수 있고, 도시한 것처럼 프로세서(11), 메모리(12), 및 저장장치(13)를 포함할 수 있다. Referring to FIG. 15, the apparatus 10 for inspecting a workpiece performing a method for inspecting a workpiece according to an embodiment is capable of executing the steps of the flowchart shown in FIGS. 5, 7, 10, 12, and/or 14. It may be any computing device and may include a processor 11, a memory 12, and a storage device 13 as shown.

저장장치(13)는 하드 디스크 드라이브 또는 플래시 메모리 등과 같이 데이터를 반영구적으로 저장할 수 있는 저장매체로서, 도5, 도7, 도10, 도12, 및/또는 도14의 흐름도를 수행하는 알고리즘을 포함할 수 있다. 예를 들어 저장장치(13)는 제1 이미지 생성부(100)에서 실행 가능하며 검사대상 가공품의 3차원 이미지를 생성하는 알고리즘(150), 제2 이미지 생성부(200)에서 실행 가능하며 기준 가공품의 3차원 이미지를 생성하는 알고리즘(250), 2차원 이미지 변환부(300)에서 실행 가능하며 기준 가공품의 3차원 이미지를 2차원 이미지로 변환하는 알고리즘(350), 기준 레이저 이미지 추출부(400)에서 실행 가능하며 가공품의 표면 또는 스크린에 맺히는 레이저 라인을 추출하고 2차원 이미지로 변환하는 알고리즘(450), 및 기준 가공품과 검사대상 가공품을 비교하고 불량 여부를 판단하는 비교 및 검사 알고리즘(500) 등의 소프트웨어 중 적어도 하나를 저장할 수 있다. The storage device 13 is a storage medium capable of semi-permanently storing data, such as a hard disk drive or a flash memory, and includes an algorithm for performing the flowcharts of Figs. 5, 7, 10, 12, and/or 14. can do. For example, the storage device 13 can be executed by the first image generating unit 100 and can be executed by the algorithm 150 for generating a three-dimensional image of the workpiece to be inspected, and the second image generating unit 200 Algorithm 250 for generating a three-dimensional image of, the two-dimensional image conversion unit 300, an algorithm for converting a three-dimensional image of a reference processed product into a two-dimensional image 350, a reference laser image extraction unit 400 Algorithm 450 for extracting and converting a laser line formed on the surface or screen of a processed product into a two-dimensional image, and a comparison and inspection algorithm 500 that compares a reference processed product with a processed product to be inspected and determines whether there is a defect, etc. At least one of the software can be stored.

이러한 각종 프로그램이나 알고리즘이 저장장치(13)에 저장되어 있다가 프로세서(110)의 제어 하에 메모리(12)에 로딩되어 실행될 수 있다. 대안적으로, 일부 프로그램이나 알고리즘이 시스템(10)과는 별도로 존재하는 외부 장치나 서버에 존재할 수 있고, 시스템(10)에서 데이터나 변수를 해당 외부 장치나 서버에 요청하면 이 외부 장치나 서버가 프로그램 또는 알고리즘을 실행한 뒤 그 결과 데이터를 시스템(10)에 전달할 수도 있다. These various programs or algorithms may be stored in the storage device 13 and then loaded into the memory 12 under the control of the processor 110 and executed. Alternatively, some programs or algorithms may exist in an external device or server that exists separately from the system 10, and when the system 10 requests data or variables from the corresponding external device or server, the external device or server After executing a program or algorithm, the resulting data may be transmitted to the system 10.

상기와 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시예에 한정되지 않는다. 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 상술한 기재로부터 다양한 수정 및 변형이 가능함을 이해할 것이다. 그러므로, 본 발명의 범위는 설명된 실시예에 국한되어 정해져서는 아니되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다. As described above, although the present invention has been described with reference to limited embodiments and drawings, the present invention is not limited to the above embodiments. Those of ordinary skill in the art to which the present invention pertains will understand that various modifications and variations are possible from the above description. Therefore, the scope of the present invention is limited to the described embodiments and should not be defined, but should be defined by the claims to be described later as well as equivalents to the claims.

10: 컴퓨팅 장치 21, 22: 카메라
25: 카메라 지지대 30: 구동부
35: 가공품 지지대 40: 디스플레이
50: 레이저 조사장치 60: 스크린
100: 검사대상 가공품 3차원 이미지 생성부
200: 기준 가공품 3차원 이미지 생성부
300: 2차원 이미지 변환부
400: 기준 레이저 이미지 추출부
10: computing device 21, 22: camera
25: camera support 30: driving unit
35: workpiece support 40: display
50: laser irradiation device 60: screen
100: 3D image generation unit of the processed product to be inspected
200: reference processed product 3D image generation unit
300: 2D image conversion unit
400: reference laser image extraction unit

Claims (15)

검사대상 가공품을 기준 가공품과 비교하여 검사대상 가공품의 불량 여부를 판단하는 가공품 검사 방법으로서,
가공품의 기초제원 파라미터, 가공품을 가공하는 가공용 공구의 기초제원 파라미터, 및 상기 가공용 공구와 가공품 간의 운동관계에 기초하여 가상의 기준 가공품의 3차원 이미지를 생성하는 단계;
카메라 또는 라인 레이저를 이용하여 검사대상 가공품의 3차원 이미지를 생성하는 단계; 및
상기 기준 가공품의 3차원 이미지와 검사대상 가공품의 3차원 이미지를 비교하여 검사대상 가공품의 불량 여부를 판단하는 제1 검사 단계;를 포함하는 것을 특징으로 하는 가공품 검사 방법.
As a processed product inspection method that compares the processed product to be inspected with the standard processed product to determine whether the processed product to be inspected is defective,
Generating a three-dimensional image of a virtual reference processed product based on a basic specification parameter of the processed product, a basic specification parameter of a machining tool for processing the processed product, and a motion relationship between the machining tool and the processed product;
Generating a three-dimensional image of the workpiece to be inspected using a camera or a line laser; And
And a first inspection step of comparing the 3D image of the reference processed product with the 3D image of the processed product to be inspected to determine whether the processed product to be inspected is defective.
제 1 항에 있어서, 상기 기준 가공품의 3차원 이미지를 생성하는 단계가,
상기 가공용 공구의 고정 좌표계 기준으로 가공용 공구의 표면 수식을 정의하는 단계;
가공품과 가공용 공구 간 운동관계 방정식을 정의하는 단계; 및
상기 가공용 공구의 표면 수식을 가공품 좌표계 기준의 표면 수식으로 변환하는 단계;를 포함하는 것을 특징으로 하는 가공품 검사 방법.
The method of claim 1, wherein generating a three-dimensional image of the reference processed product comprises:
Defining a surface formula of the machining tool based on a fixed coordinate system of the machining tool;
Defining a motion relationship equation between the workpiece and the machining tool; And
And converting the surface formula of the machining tool into a surface formula based on the work piece coordinate system.
제 2 항에 있어서, 상기 검사대상 가공품의 3차원 이미지를 생성하는 단계가,
라인 레이저를 검사대상 가공품에 조사하는 단계;
검사대상 가공품의 표면에서 반사되어 스크린에 맺힌 레이저 이미지를 측정하는 단계; 및
상기 측정된 레이저 이미지로부터 레이저를 반사시킨 가공품의 표면의 좌표를 산출하는 단계;를 포함하는 것을 특징으로 하는 가공품 검사 방법.
The method of claim 2, wherein generating a three-dimensional image of the processed product to be inspected comprises:
Irradiating the line laser to the workpiece to be inspected;
Measuring a laser image reflected from the surface of the workpiece to be inspected and formed on the screen; And
And calculating the coordinates of the surface of the processed article reflecting the laser from the measured laser image.
제 1 항에 있어서,
기준 가공품에 라인 레이저를 조사할 때의 기준 가공품 표면의 가상의 제1 레이저 이미지를 산출하는 단계;
검사대상 가공품에 라인 레이저를 조사하여 검사대상 가공품 표면의 제2 레이저 이미지를 촬영하는 단계; 및
상기 제1 레이저 이미지와 제2 레이저 이미지를 비교하여 검사대상 가공품의 불량 여부를 판단하는 제2 검사 단계;를 더 포함하는 것을 특징으로 하는 가공품 검사 방법.
The method of claim 1,
Calculating a first virtual laser image of the surface of the reference processed product when irradiating the line laser to the reference processed product;
Irradiating a line laser on the workpiece to be inspected to take a second laser image of the surface of the workpiece to be inspected; And
And a second inspection step of comparing the first laser image and the second laser image to determine whether or not the object to be inspected is defective.
제 4 항에 있어서, 상기 제1 레이저 이미지를 산출하는 단계가,
기준 가공품에 레이저를 조사할 때의 기준 가공품 표면의 제1 레이저 이미지의 좌표를 계산하는 단계;
검사대상 가공품을 촬영할 카메라의 카메라 파라미터를 계산하는 단계; 및
상기 카메라 파라미터에 기초하여 상기 제1 레이저 이미지의 좌표를 카메라 좌표계 기준의 좌표로 변환하는 단계;를 포함하는 것을 특징으로 하는 가공품 검사 방법.
The method of claim 4, wherein calculating the first laser image comprises:
Calculating coordinates of the first laser image on the surface of the reference processed product when the laser is irradiated on the reference processed product;
Calculating camera parameters of a camera for photographing a processed product to be inspected; And
And converting the coordinates of the first laser image into coordinates based on the camera coordinate system based on the camera parameter.
제 1 항에 있어서,
기준 가공품에 레이저를 조사할 때 기준 가공품의 표면에서 반사되어 스크린에 맺히는 가상의 제1 레이저 이미지를 산출하는 단계;
검사대상 가공품에 라인 레이저를 조사하여 검사대상 가공품 표면의 제2 레이저 이미지를 촬영하는 단계; 및
상기 제1 레이저 이미지와 제2 레이저 이미지를 비교하여 검사대상 가공품의 불량 여부를 판단하는 제2 검사 단계;를 더 포함하는 것을 특징으로 하는 가공품 검사 방법.
The method of claim 1,
Calculating a virtual first laser image reflected from the surface of the reference processed product and formed on the screen when the laser is irradiated on the reference processed product;
Irradiating a line laser on the workpiece to be inspected to take a second laser image of the surface of the workpiece to be inspected; And
And a second inspection step of comparing the first laser image and the second laser image to determine whether or not the object to be inspected is defective.
제 6 항에 있어서, 상기 제1 레이저 이미지를 산출하는 단계가,
기준 가공품에 레이저를 조사할 때 기준 가공품 표면에서 반사되는 레이저의 입사각과 반사각을 계산하는 단계;
기준 가공품 표면에서 반사되어 스크린 표면에 맺히는 상기 제1 레이저 이미지의 좌표를 계산하는 단계;
스크린의 제1 레이저 이미지를 촬영할 카메라의 카메라 파라미터를 계산하는 단계; 및
상기 카메라 파라미터에 기초하여 상기 제1 레이저 이미지의 좌표를 카메라 좌표계 기준의 좌표로 변환하는 단계;를 포함하는 것을 특징으로 하는 가공품 검사 방법.
The method of claim 6, wherein calculating the first laser image comprises:
Calculating an incident angle and a reflection angle of the laser reflected from the surface of the reference processed product when irradiating the laser to the reference processed product;
Calculating coordinates of the first laser image reflected from the surface of the reference processed product and formed on the screen surface;
Calculating camera parameters of a camera that will take a first laser image of the screen; And
And converting the coordinates of the first laser image into coordinates based on the camera coordinate system based on the camera parameter.
검사대상 가공품을 기준 가공품과 비교하여 검사대상 가공품의 불량 여부를 판단하는 가공품 검사 장치로서,
검사대상 가공품을 지지하는 지지대(35);
상기 지지대를 회전시키는 구동모터(30);
상기 지지대에서 소정 거리 이격되어 검사대상 가공품을 촬영하는 제1 카메라(21);
상기 제1 카메라가 촬영한 검사대상 가공품의 3차원 이미지를 생성하는 검사대상 가공품 이미지 생성부(100); 및
상기 검사대상 가공품의 3차원 이미지를 가상의 기준 가공품의 3차원 이미지와 비교하여 불량 여부를 판단하는 제1 검사부;를 포함하고,
상기 기준 가공품의 3차원 이미지는 가공품의 기초제원 파라미터, 가공품을 가공하는 가공용 공구의 기초제원 파라미터, 및 상기 가공용 공구와 가공품 간의 운동관계에 기초하여 생성된 것을 특징으로 하는 가공품 검사 장치.
As a processed product inspection device that compares the processed product to be inspected with the standard processed product to determine whether the processed product to be inspected is defective,
A support 35 for supporting the processed product to be inspected;
A drive motor 30 for rotating the support;
A first camera 21 spaced apart from the support for photographing a processed product to be inspected;
An inspection target processed product image generation unit 100 for generating a three-dimensional image of the inspection target processed product photographed by the first camera; And
Including; a first inspection unit for determining whether or not defective by comparing the three-dimensional image of the workpiece to be inspected with a three-dimensional image of a virtual reference workpiece; and
The 3D image of the reference processed product is generated based on a basic specification parameter of the processed product, a basic specification parameter of a machining tool for processing the processed product, and a motion relationship between the machining tool and the processed product.
제 8 항에 있어서,
상기 기준 가공품의 3차원 이미지를 생성하는 기준 가공품 이미지 생성부(200)를 더 포함하고, 상기 기준 가공품 이미지 생성부는,
가공품의 기초제원 파라미터와 가공용 공구의 기초제원 파라미터에 기초하여 가공용 공구의 고정 좌표계 기준으로 가공용 공구의 표면 수식을 정의하는 단계;
가공품과 가공용 공구 간 운동관계 방정식을 정의하는 단계; 및
상기 가공용 공구의 표면 수식을 가공품 좌표계 기준의 표면 수식으로 변환하는 단계;를 실행하여 기준 가공품의 3차원 이미지를 생성하는 것을 특징으로 하는 가공품 검사 장치.
The method of claim 8,
Further comprising a reference processed product image generation unit 200 for generating a three-dimensional image of the reference processed product, the reference processed product image generation unit,
Defining a surface equation of the machining tool based on a fixed coordinate system of the machining tool based on the basic specification parameter of the workpiece and the basic specification parameter of the machining tool;
Defining a motion relationship equation between the workpiece and the machining tool; And
Converting the surface formula of the machining tool into a surface formula based on the work piece coordinate system to generate a three-dimensional image of the reference work piece.
제 9 항에 있어서,
상기 지지대에 설치된 검사대상 가공품을 향해 라인 레이저를 조사하는 레이저 조사장치(50);
상기 지지대에서 소정 거리 이격되어 배치된 스크린(60); 및
상기 레이저 조사장치에서 조사되고 검사대상 가공품의 표면에 반사되어 상기 스크린에 맺힌 레이저의 레이저 이미지를 촬영하는 제2 카메라(22);를 더 포함하는 것을 특징으로 하는 가공품 검사 장치.
The method of claim 9,
A laser irradiation device 50 for irradiating a line laser toward the workpiece to be inspected installed on the support;
A screen 60 disposed to be spaced apart from the support by a predetermined distance; And
And a second camera (22) which is irradiated by the laser irradiation device and reflected on the surface of the workpiece to be inspected to photograph a laser image of the laser attached to the screen.
제 10 항에 있어서,
상기 검사대상 가공품 이미지 생성부(100)는 상기 제2 카메라가 촬영한 레이저 이미지에 기초하여 검사대상 가공품의 3차원 이미지를 생성하는 것을 특징으로 하는 가공품 검사 장치.
The method of claim 10,
The inspection target processed product image generation unit 100 generates a 3D image of the inspection target processed product based on the laser image photographed by the second camera.
제 10 항에 있어서,
상기 레이저 조사장치에서 조사된 레이저를 기준 가공품에 조사할 때의 기준 가공품 표면의 가상의 제1 레이저 이미지를 산출하는 레이저 이미지 추출부; 및
상기 레이저 조사장치가 검사대상 가공품에 레이저를 조사했을 때 상기 제1 카메라가 촬영한 검사대상 가공품 표면의 제2 레이저 이미지를 상기 레이저 이미지 추출부에서 산출된 제1 레이저 이미지와 비교하여 불량 여부를 판단하는 제2 검사부;를 더 포함하는 것을 특징으로 하는 가공품 검사 장치.
The method of claim 10,
A laser image extraction unit for calculating a first virtual laser image of the surface of the reference processed product when the laser irradiated by the laser irradiation device is irradiated onto the reference processed product; And
When the laser irradiation device irradiates a laser on the workpiece to be inspected, the second laser image on the surface of the workpiece to be inspected photographed by the first camera is compared with the first laser image calculated by the laser image extraction unit to determine whether there is a defect. Processed product inspection apparatus further comprising a; second inspection unit to.
제 12 항에 있어서, 상기 레이저 이미지 추출부가,
기준 가공품에 레이저를 조사할 때의 기준 가공품 표면의 상기 가상의 제1 레이저 이미지의 좌표를 계산하는 단계;
상기 제1 카메라의 카메라 파라미터를 계산하는 단계; 및
상기 카메라 파라미터에 기초하여 상기 제1 레이저 이미지의 좌표를 카메라 좌표계 기준의 좌표로 변환하는 단계;를 실행하여 상기 제1 레이저 이미지를 산출하는 것을 특징으로 하는 가공품 검사 장치.
The method of claim 12, wherein the laser image extraction unit,
Calculating coordinates of the virtual first laser image on the surface of the reference processed product when the laser is irradiated on the reference processed product;
Calculating a camera parameter of the first camera; And
Converting the coordinates of the first laser image into coordinates based on a camera coordinate system based on the camera parameter to calculate the first laser image.
제 10 항에 있어서,
상기 레이저 조사장치가 레이저를 기준 가공품에 레이저를 조사할 때 기준 가공품의 표면에서 반사되어 상기 스크린에 맺히는 가상의 제1 레이저 이미지를 산출하는 레이저 이미지 추출부; 및
상기 레이저 조사장치가 레이저를 검사대상 가공품에 조사했을 때 상기 제1 카메라가 촬영한 검사대상 가공품 표면의 제2 레이저 이미지를 상기 레이저 이미지 추출부에서 산출된 제1 레이저 이미지와 비교하여 불량 여부를 판단하는 제2 검사부;를 더 포함하는 것을 특징으로 하는 가공품 검사 장치.
The method of claim 10,
When the laser irradiation device irradiates a laser to a reference processed product, a laser image extracting unit for calculating a virtual first laser image reflected from the surface of the reference processed product and formed on the screen; And
When the laser irradiation device irradiates the laser to the object to be inspected, the second laser image on the surface of the object to be inspected, photographed by the first camera, is compared with the first laser image calculated by the laser image extraction unit to determine whether there is a defect. Processed product inspection apparatus further comprising a; second inspection unit to.
제 14 항에 있어서, 상기 레이저 이미지 추출부가,
상기 레이저 조사장치가 레이저를 기준 가공품에 조사할 때 기준 가공품 표면에 조사되고 반사되는 레이저의 입사각과 반사각을 계산하는 단계;
상기 제2 카메라의 카메라 파라미터를 계산하는 단계; 및
상기 카메라 파라미터에 기초하여 상기 제1 레이저 이미지의 좌표를 카메라 좌표계 기준의 좌표로 변환하는 단계;를 실행하여 상기 제1 레이저 이미지를 산출하는 것을 특징으로 하는 가공품 검사 장치.
The method of claim 14, wherein the laser image extraction unit,
Calculating the incident angle and reflection angle of the laser irradiated and reflected on the surface of the reference processed product when the laser irradiation device irradiates the laser onto the reference processed product;
Calculating camera parameters of the second camera; And
Converting the coordinates of the first laser image into coordinates based on a camera coordinate system based on the camera parameter to calculate the first laser image.
KR1020190056965A 2019-05-15 2019-05-15 Method and apparatus for inspecting workpiece KR102177726B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190056965A KR102177726B1 (en) 2019-05-15 2019-05-15 Method and apparatus for inspecting workpiece

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190056965A KR102177726B1 (en) 2019-05-15 2019-05-15 Method and apparatus for inspecting workpiece

Publications (1)

Publication Number Publication Date
KR102177726B1 true KR102177726B1 (en) 2020-11-12

Family

ID=73398684

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190056965A KR102177726B1 (en) 2019-05-15 2019-05-15 Method and apparatus for inspecting workpiece

Country Status (1)

Country Link
KR (1) KR102177726B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114324363A (en) * 2021-12-31 2022-04-12 苏州艾方芯动自动化设备有限公司 Product state detection method and system
CN114354631A (en) * 2022-01-12 2022-04-15 绍兴职业技术学院 Valve blank surface defect detection method based on vision

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100082249A (en) 2009-01-08 2010-07-16 주식회사 모코 Vision inspection apparatus of worm gear for vehicle
KR101631841B1 (en) * 2014-12-29 2016-06-21 (주)씨엠티 3d vision inspection system
US20170118457A1 (en) * 2011-05-17 2017-04-27 Gii Acquisition, Llc Dba General Inspection, Llc Non-contact method and system for inspecting a manufactured part at an inspection station having a measurement axis
KR20170080909A (en) * 2015-12-31 2017-07-11 (주)씨엠티 Method for inspecting of three-dimensional shape using intelligent software for high precision components
KR20170080910A (en) 2015-12-31 2017-07-11 (주)씨엠티 3d shape inspection system
KR20170138440A (en) * 2015-04-20 2017-12-15 발테르 마쉬넨바우 게엠베하 Method and device for machining a tool by removing material
KR101816150B1 (en) 2017-12-13 2018-01-30 주식회사 마이크로비전 Method to automatic inspect of the thread of screw

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100082249A (en) 2009-01-08 2010-07-16 주식회사 모코 Vision inspection apparatus of worm gear for vehicle
US20170118457A1 (en) * 2011-05-17 2017-04-27 Gii Acquisition, Llc Dba General Inspection, Llc Non-contact method and system for inspecting a manufactured part at an inspection station having a measurement axis
KR101631841B1 (en) * 2014-12-29 2016-06-21 (주)씨엠티 3d vision inspection system
KR20170138440A (en) * 2015-04-20 2017-12-15 발테르 마쉬넨바우 게엠베하 Method and device for machining a tool by removing material
KR20170080909A (en) * 2015-12-31 2017-07-11 (주)씨엠티 Method for inspecting of three-dimensional shape using intelligent software for high precision components
KR20170080910A (en) 2015-12-31 2017-07-11 (주)씨엠티 3d shape inspection system
KR101816150B1 (en) 2017-12-13 2018-01-30 주식회사 마이크로비전 Method to automatic inspect of the thread of screw

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114324363A (en) * 2021-12-31 2022-04-12 苏州艾方芯动自动化设备有限公司 Product state detection method and system
CN114324363B (en) * 2021-12-31 2024-04-26 无锡艾方芯动自动化设备有限公司 Product state detection method and system
CN114354631A (en) * 2022-01-12 2022-04-15 绍兴职业技术学院 Valve blank surface defect detection method based on vision

Similar Documents

Publication Publication Date Title
CN107578464B (en) Conveyor belt workpiece three-dimensional contour measuring method based on line laser scanning
JP5580164B2 (en) Optical information processing apparatus, optical information processing method, optical information processing system, and optical information processing program
JP5029618B2 (en) Three-dimensional shape measuring apparatus, method and program by pattern projection method
CN109377551B (en) Three-dimensional face reconstruction method and device and storage medium thereof
JP5230131B2 (en) Method and system for detecting the shape of the surface of a reflective object
CN110230998B (en) Rapid and precise three-dimensional measurement method and device based on line laser and binocular camera
JP4111166B2 (en) 3D shape input device
JP2018514237A (en) Texture mapping apparatus and method for dental 3D scanner
WO2016171263A1 (en) Shape measuring apparatus and shape measuring method
JP2022509137A (en) Detection of machining errors in laser machining systems using deep convolutional neural networks
KR102177726B1 (en) Method and apparatus for inspecting workpiece
TWI493153B (en) Non-contact measurement device and method for object space information and the method thereof for computing the path from capturing the image
WO2020075252A1 (en) Information processing device, program, and information processing method
KR101715325B1 (en) Method and system for providing Picture lay out drawings by using three dimensional scan technologies
JP5049246B2 (en) Object shape evaluation device
TWI388797B (en) Three - dimensional model reconstruction method and its system
JP2012050013A (en) Imaging apparatus, image processing device, image processing method, and image processing program
Cajal et al. Simulation of laser triangulation sensors scanning for design and evaluation purposes
KR20220164771A (en) Scanning system and its calibration
KR102222898B1 (en) Method and apparatus for inspecting workpiece using laser
JP2018522240A (en) Method for measuring artifacts
JP6573196B2 (en) Distance information correction apparatus, distance information correction method, and distance information correction program
Ali et al. Camera based precision measurement in improving measurement accuracy
JP2020512536A (en) System and method for 3D profile determination using model-based peak selection
CN111583388A (en) Scanning method and device of three-dimensional scanning system

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant