KR20230064511A - Apparatus and method for measuring dip coating shape using image analysis - Google Patents

Apparatus and method for measuring dip coating shape using image analysis Download PDF

Info

Publication number
KR20230064511A
KR20230064511A KR1020220009361A KR20220009361A KR20230064511A KR 20230064511 A KR20230064511 A KR 20230064511A KR 1020220009361 A KR1020220009361 A KR 1020220009361A KR 20220009361 A KR20220009361 A KR 20220009361A KR 20230064511 A KR20230064511 A KR 20230064511A
Authority
KR
South Korea
Prior art keywords
image
coating
substrate
coating layer
shape
Prior art date
Application number
KR1020220009361A
Other languages
Korean (ko)
Inventor
조의현
이종호
박명준
성우경
구현희
유진엽
김준형
박진수
김하정
남재욱
송지수
유동근
임민혁
장준형
안광국
박정원
이명재
이준모
Original Assignee
삼성전기주식회사
서울대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전기주식회사, 서울대학교산학협력단 filed Critical 삼성전기주식회사
Priority to JP2022161209A priority Critical patent/JP2023068623A/en
Publication of KR20230064511A publication Critical patent/KR20230064511A/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/06Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness for measuring thickness ; e.g. of sheet material
    • G01B11/0616Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness for measuring thickness ; e.g. of sheet material of coating
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/022Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by means of tv-camera scanning
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/28Measuring arrangements characterised by the use of optical techniques for measuring areas
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/30Measuring arrangements characterised by the use of optical techniques for measuring roughness or irregularity of surfaces
    • G01B11/306Measuring arrangements characterised by the use of optical techniques for measuring roughness or irregularity of surfaces for measuring evenness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/8422Investigating thin films, e.g. matrix isolation method
    • G01N2021/8427Coatings

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Quality & Reliability (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

According to an embodiment of the present invention, a dip coating applied shape measurement device includes: a base member image acquisition unit which acquires a non-coated base material image, and generates a template having an area which is set from the base material image; a coating image acquisition unit which acquires a coating image with respect to the coated base material after the base material is coated; a base material position acquisition unit which acquires position information of the base material from the coating image via template matching between the base material image and the coating image; an image pre-processing unit which performs image preprocessing for removing components not coupled to the base material from the coating image; a coating layer image acquisition unit which removes the base material image from the coating image through the image preprocessing, using the position information of the base material, and acquiring a coating layer image; and a coating layer analysis unit which analyzes a coating layer shape from the coating layer image to acquire a shape indicator of the coating layer. The present invention can efficiently grasp the influence of a processing condition on the quality of a product.

Description

영상 분석을 이용한 딥 코팅 도포형상 측정 장치 및 방법{APPARATUS AND METHOD FOR MEASURING DIP COATING SHAPE USING IMAGE ANALYSIS}Dip coating application shape measuring device and method using image analysis {APPARATUS AND METHOD FOR MEASURING DIP COATING SHAPE USING IMAGE ANALYSIS}

본 발명은 영상 분석을 이용한 딥 코팅 도포형상 측정 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and method for measuring a dip coating coating shape using image analysis.

일반적으로, 딥 코팅은 초콜릿 과자에서부터 자동차 부품에 이르기까지 매우 다양한 형태의 기재에 용액을 도포하기 위해 사용된다. 최근에는 미세한 기재에 복잡한 유변 물성을 갖는 용액을 얇고 균일하게 도포할 필요성이 대두되고 있는데, 이 경우 다양한 공정 조건에 따른 코팅층의 형성 과정을 정량적으로 파악해야 한다.In general, dip coating is used to apply a solution to a wide variety of substrates, from chocolate confectionery to automobile parts. Recently, the need to thinly and uniformly apply a solution having complex rheological properties to a fine substrate has emerged. In this case, it is necessary to quantitatively grasp the formation process of the coating layer according to various process conditions.

종래에는 해당 상황에서 도포 두께 파악은 코팅이 완료된 시료를 검사함으로써 이루어졌다. 즉, 종래에는 유한 깊이 딥 코팅에서 코팅층 두께를 평가하기 위해 도포가 완료된 기재를 현미경으로 관찰하는 방법이 사용되었다.Conventionally, the coating thickness was determined by inspecting the coated sample in that situation. That is, conventionally, a method of observing a coated substrate under a microscope has been used to evaluate the coating layer thickness in finite depth dip coating.

그러나, 종래의 방법은 공정 후 별도의 검사 과정이 필요하며 공정 과정에서 일어나는 현상을 파악할 수 없다는 단점이 있다. However, the conventional method has a disadvantage in that a separate inspection process is required after the process and phenomena occurring during the process cannot be grasped.

또한, 종래의 방법은 유한 깊이 딥 코팅에서 코팅층의 변형을 관찰하는 접근이 이루어지지 않았다는 단점이 있다. 이에 따라, 종래의 방식으로는 시간에 따른 코팅층의 변형을 확인할 수 없기 때문에 따른 품질 변화를 즉각적으로 파악할 수 없다는 단점이 존재한다. In addition, the conventional method has a disadvantage in that an approach to observe the deformation of the coating layer in finite depth dip coating has not been made. Accordingly, in the conventional method, since the deformation of the coating layer over time cannot be confirmed, there is a disadvantage in that the resulting change in quality cannot be immediately grasped.

(선행기술문헌)(Prior art literature)

(특허문헌 1) KR 공개특허 공보 제 10-2013-0060508호 (공개일: 2013.06.10)(Patent Document 1) KR Patent Publication No. 10-2013-0060508 (published date: 2013.06.10)

(특허문헌 2) JP 공개특허 공보 제2002-086572호 (공개일: 2002.03.26)(Patent Document 2) JP Unexamined Patent Publication No. 2002-086572 (published date: 2002.03.26)

(특허문헌 3) JP 공개특허 공보 제2019-071356호 (공개일: 2019.05.09)(Patent Document 3) JP Patent Publication No. 2019-071356 (published date: 2019.05.09)

본 발명의 일 실시 예는, 컴퓨터 비전을 사용해 코팅 공정 영상을 분석하여 코팅층 두께 등의 형상 지표를 획득할 수 있는 영상 분석을 이용한 딥 코팅 도포형상 측정 장치 및 방법을 제공한다.An embodiment of the present invention provides a dip coating application shape measuring device and method using image analysis capable of obtaining shape indicators such as coating layer thickness by analyzing a coating process image using computer vision.

본 발명의 일 실시 예에 의해, 코팅되지 않은 기재에 대한 기재 이미지를 획득하고, 상기 기재 이미지에서 설정된 영역을 갖는 템플릿을 생성하는 기재 이미지 획득부: 상기 기재가 코팅된 후, 코팅된 기재에 대한 코팅 이미지를 획득하는 코팅 이미지 획득부; 상기 기재 이미지와 상기 코팅 이미지간의 템플릿 매칭을 통해, 상기 코팅 이미지에서 상기 기재의 위치정보를 획득하는 기재위치 획득부;According to an embodiment of the present invention, a substrate image acquisition unit that acquires a substrate image for an uncoated substrate and creates a template having a set area in the substrate image: After the substrate is coated, a substrate image for the coated substrate Coating image acquisition unit for obtaining a coating image; a substrate position acquisition unit acquiring location information of the substrate in the coating image through template matching between the substrate image and the coating image;

상기 코팅 이미지에서 상기 기재에 연결되지 않은 성분을 제거하는 이미지 전처리를 수행하는 이미지 전처리부; 상기 기재의 위치정보를 이용해, 상기 이미지 전처리를 통한 코팅 이미지에서 상기 기재 이미지를 제거하여, 코팅층 이미지를 획득하는 코팅층 이미지 획득부; 및 상기 코팅층 이미지에서 코팅층 형상을 분석하여 코팅층 형상 지표를 획득하는 코팅층 분석부; 을 포함하는 딥 코팅 도포형상 측정 장치가 제안된다.an image pre-processing unit that performs image pre-processing to remove components not connected to the substrate from the coated image; a coating layer image obtaining unit that obtains a coating layer image by removing the substrate image from the coating image through the image preprocessing using location information of the substrate; and a coating layer analyzer configured to analyze a shape of the coating layer in the coating layer image to obtain a shape index of the coating layer. A dip coating coating shape measuring device including a is proposed.

또한, 본 발명의 다른 일 실시 예에 의해, 코팅되지 않은 기재에 대한 기재 이미지를 획득하고, 상기 기재 이미지에서 설정된 영역을 갖는 템플릿을 생성하는 제1 단계: 상기 기재가 코팅된 후, 코팅된 기재에 대한 코팅 이미지를 획득하는 제2 단계; 상기 기재 이미지와 상기 코팅 이미지간의 템플릿 매칭을 통해, 상기 코팅 이미지에서 상기 기재의 위치정보를 획득하는 제3 단계; 상기 코팅 이미지에서 상기 기재(11)에 연결되지 않은 성분을 제거하는 이미지 전처리를 수행하는 제4 단계; 상기 기재의 위치정보를 이용해, 상기 이미지 전처리를 통한 코팅 이미지에서 상기 기재 이미지를 제거하여, 코팅층 이미지를 획득하는 제5 단계; 및 상기 코팅층 이미지에서 코팅층 형상을 분석하여 코팅층 형상 지표를 획득하는 제6 단계; 을 포함하는 딥 코팅 도포형상 측정 방법이 제안된다.In addition, according to another embodiment of the present invention, a first step of obtaining a substrate image for an uncoated substrate and generating a template having a set area in the substrate image: After the substrate is coated, the coated substrate A second step of obtaining a coating image for; A third step of acquiring location information of the substrate in the coating image through template matching between the substrate image and the coating image; A fourth step of performing image pre-processing to remove components not connected to the substrate 11 from the coated image; A fifth step of obtaining a coating layer image by removing the substrate image from the coating image through the image preprocessing using location information of the substrate; and a sixth step of obtaining a coating layer shape index by analyzing the coating layer shape in the coating layer image. A dip coating application shape measurement method including a is proposed.

본 발명의 일 실시 예에 의하면, 컴퓨터 비전을 사용해 코팅 공정 영상을 분석하여 코팅층 두께 등의 형상 지표를 획득할 수 있는 등, 도포 후 코팅층이 시간에 따라 평탄화되는 현상을 정량화할 수 있으며, 공정 조건에 따른 도포 두께를 별도의 검사 과정 없이 즉각적으로 파악할 수 있어서, 공정 조건이 제품의 품질에 미치는 영향을 효율적으로 파악할 수 있다.According to an embodiment of the present invention, it is possible to quantify a phenomenon in which the coating layer is flattened over time after application, such as acquiring shape indicators such as coating layer thickness by analyzing a coating process image using computer vision, and process conditions Since the coating thickness according to can be grasped immediately without a separate inspection process, the effect of process conditions on the quality of the product can be grasped efficiently.

본 발명에 의하면, 다양한 형상의 기재 및 다양한 코팅 용액에 대해 적용 가능하고, 3차원적 기재에 딥 코팅을 사용하는 전지 소재 등의 정밀 부품 생산 공정 등의 기술 분야에 적용할 수 있으며, 간단한 설비를 이용하여 3차원의 기재에 도포된 코팅층의 시간에 따른 형상 변화를 측정할 수 있다.According to the present invention, it can be applied to substrates of various shapes and various coating solutions, and can be applied to technical fields such as precision parts production processes such as battery materials using dip coating on three-dimensional substrates, and simple facilities It is possible to measure the change in shape over time of the coating layer applied to the three-dimensional substrate.

게다가, 본 발명에 의하면, 코팅 공정을 촬영한 영상으로부터 코팅층의 형상을 직접 정량화할 수 있으므로 다양한 조건에 따른 코팅층 형상을 빠르게 측정할 수 있고, 공정 과정에서 시간에 따른 코팅층의 변화를 측정할 수 있으므로 최적의 공정 시간을 도출하는 데 사용할 수 있다. In addition, according to the present invention, since the shape of the coating layer can be directly quantified from images taken during the coating process, the shape of the coating layer can be quickly measured under various conditions, and the change in the coating layer over time can be measured during the process. It can be used to derive the optimal process time.

또한, 기재에 딸려 올라온 유체는 시간이 흐르며 평평하게 재분배되므로 코팅층의 평탄도와 공정의 소요 시간은 트레이드-오프(trade-off) 관계를 가지므로, 본 발명을 적용하면 시간에 따른 코팅층의 평탄도를 정량화하여 최적의 공정 시간을 도출할 수 있다. In addition, since the fluid that comes along with the substrate is redistributed flatly over time, the flatness of the coating layer and the time required for the process have a trade-off relationship. By quantifying, the optimal process time can be derived.

도 1은 본 발명의 일 실시 예에 따른 딥 코팅 도포형상 측정 장치의 일 예시도이다.
도 2는 본 발명의 일 실시 예에 따른 코팅 분석기의 일 예시도이다.
도 3은 본 발명의 일 실시 예에 따른 딥 코팅 도포형상 측정 방법의 일 예시도이다.
도 4는 도 3의 상세도이다.
도 5는 기재 이미지 및 코팅 이미지의 예시도이다.
도 6은 기재 이미지 및 템플릿 영역 예시도이다.
도 7은 기재의 꼭지점 검출 과정에 대한 예시도이다.
도 8은 모세관 브리지의 끊어짐 판단 과정에 대한 예시도이다.
도 9는 모세관 브리지 존재 및 부존재 예시도이다.
도 10은 코팅층 단면적 계산 예시도이다.
도 11은 코팅층 부피 계산 예시도이다.
도 12는 동영상의 프레임 전체에 적용한 동영상 분석 순서도이다.
도 13은 동영상의 모든 프레임에 대한 분석결과에 따른 코팅층 단면적 변화 그래프이다.
도 14는 동영상의 모든 프레임에 대한 분석결과에 따른 코팅층 부피 변화 그래프이다.
1 is an exemplary view of a dip coating application shape measuring device according to an embodiment of the present invention.
2 is an exemplary diagram of a coating analyzer according to an embodiment of the present invention.
3 is an exemplary view of a method for measuring a dip coating coating shape according to an embodiment of the present invention.
Figure 4 is a detailed view of Figure 3;
5 is an exemplary diagram of a substrate image and a coating image.
6 is an exemplary view of a substrate image and a template region.
7 is an exemplary view of a vertex detection process of a substrate.
8 is an exemplary view of a process of determining the breakage of a capillary bridge.
9 is a diagram illustrating the presence and absence of a capillary bridge.
10 is an exemplary view of calculating a cross-sectional area of a coating layer.
11 is an exemplary view of calculating the volume of a coating layer.
12 is a video analysis flow chart applied to all frames of a video.
13 is a graph of a change in cross-sectional area of a coating layer according to analysis results for all frames of a video.
14 is a graph of the change in volume of the coating layer according to the analysis results for all frames of the video.

이하에서는, 본 발명은 설명되는 실시 예에 한정되지 않으며, 본 발명의 정신 및 범위를 벗어나지 않으면서 다양하게 변경될 수 있음이 이해되어야 한다.Hereinafter, it should be understood that the present invention is not limited to the described embodiments, and various changes can be made without departing from the spirit and scope of the present invention.

또한, 본 발명의 각 실시 예에 있어서, 하나의 예로써 설명되는 구조, 형상 및 수치는 본 발명의 기술적 사항의 이해를 돕기 위한 예에 불과하므로, 이에 한정되는 것이 아니라 본 발명의 정신 및 범위를 벗어나지 않으면서 다양하게 변경될 수 있음이 이해되어야 한다. 본 발명의 실시 예들은 서로 조합되어 여러 가지 새로운 실시 예가 이루어질 수 있다.In addition, in each embodiment of the present invention, the structure, shape, and numerical value described as an example are only examples to help the understanding of the technical details of the present invention, so they are not limited thereto, but the spirit and scope of the present invention It should be understood that various changes can be made without departing from it. Embodiments of the present invention can be combined with each other to make various new embodiments.

그리고, 본 발명에 참조된 도면에서 본 발명의 전반적인 내용에 비추어 실질적으로 동일한 구성과 기능을 가진 구성요소들은 동일한 부호를 사용할 것이다.In addition, in the drawings referred to in the present invention, elements having substantially the same configuration and function in light of the overall content of the present invention will use the same reference numerals.

이하에서는, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있도록 하기 위해서, 본 발명의 실시 예를 첨부한 도면을 참조하여 상세히 설명한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art can easily practice the present invention.

도 1은 본 발명의 일 실시 예에 따른 딥 코팅 도포형상 측정 장치의 일 예시도이다.1 is an exemplary view of a dip coating application shape measuring device according to an embodiment of the present invention.

도 1을 참조하면, 딥 코팅 도포형상 측정 장치(10)는, 기재(11)의 코팅층에 대한 분석을 위해서, 광원(14), 카메라(15) 및 코팅 형상 측정기(20)를 포함할 수 있다.Referring to FIG. 1 , the dip coating coating shape measuring device 10 may include a light source 14, a camera 15, and a coating shape measuring device 20 to analyze the coating layer of the substrate 11. .

광원(14)은 상기 코팅 형상 측정기(20)의 제어에 따라 동작하여, 기재(11)에 광을 조사할 수 있다.The light source 14 may operate under the control of the coating shape measuring instrument 20 to irradiate the substrate 11 with light.

카메라(15)는, 상기 코팅 형상 측정기(20)의 제어에 따라 동작하여, 광원(14)의 동작과 동기될 수 있으며, 코팅되지 않은 기재(11) 또는 코팅된 기재(11)를 촬영하여 기재 이미지 또는 코팅 이미지를 상기 코팅 형상 측정기(20)에 제공할 수 있다.The camera 15 operates under the control of the coating shape measuring instrument 20, can be synchronized with the operation of the light source 14, and captures the uncoated substrate 11 or the coated substrate 11 to describe the substrate. An image or coating image may be provided to the coating shape measuring device 20 .

일 예로, 코팅 형상 측정기(20)는 제어기(21) 및 코팅 분석기(22)를 포함할 수 있다. 상기 제어기(21)는, 광원(14) 및 카메라(15)의 동작을 제어할 수 있다. 상기 코팅 분석기(22)는, 상기 카메라(15)부터 입력받은 기재 이미지 또는 코팅 이미지를 이용하여 코팅층을 분석할 수 있다.For example, the coating shape measuring device 20 may include a controller 21 and a coating analyzer 22 . The controller 21 may control the operation of the light source 14 and the camera 15 . The coating analyzer 22 may analyze the coating layer using a substrate image or a coating image input from the camera 15 .

또한, 도 1에서, 11a은 기재(11)의 코팅층이고, 16은 코팅 풀(coating pool)이고, 16a는 코팅 용액이다.Also, in FIG. 1, 11a is a coating layer of the substrate 11, 16 is a coating pool, and 16a is a coating solution.

예를 들어, 본 발명에 적용된 기재(11)는 원통형의 SiO2 기재가 될 수 있으며, 일 예로, 기재의 지름은 약 3mm일 수 있다. 코팅 용액(16a)은 실리콘 오일이 될 수 있으며, 코팅 용액의 점도는 10,000 cSt일 수 있고 비중은 0.975일 수 있다.For example, the substrate 11 applied to the present invention may be a cylindrical SiO2 substrate, and for example, the diameter of the substrate may be about 3 mm. The coating solution 16a may be silicone oil, the viscosity of the coating solution may be 10,000 cSt, and the specific gravity may be 0.975.

한편, 카메라(15)를 이용한 기재(11)에 대한 촬영에 대해 예를 들어 설명하면, 기재(11)의 이미지를 촬영한 후 기재(11)를 깊이 1mm의 코팅 풀(16)에 1mm/s의 속도로 담갔으며, 기재(11)가 코팅 풀(16)의 바닥에 닿고 2초 후 1mm/s의 속도로 기재(11)를 빼냈다. 동시에 약 5분 간 코팅층(11a)의 변화를 동영상으로 촬영한 후, 기재(11)의 코팅층(11a)의 픽셀 단위 단면적과 픽셀 단위 부피를 계산하였으며, 이후 픽셀 단위 부피를 실측 단위 부피로 변환한 후, 실제 도포된 코팅층의 부피와 비교해 길이 단위오차율을 계산했다. 이에 대한 자세한 설명이 후술된다.On the other hand, if the photographing of the substrate 11 using the camera 15 is described as an example, after taking an image of the substrate 11, the substrate 11 is placed in the coating pool 16 having a depth of 1 mm at 1 mm/s It was immersed at a speed of , and the substrate 11 was pulled out at a speed of 1 mm/s 2 seconds after the substrate 11 touched the bottom of the coating pool 16. At the same time, after filming the change of the coating layer (11a) for about 5 minutes as a video, the cross-sectional area and volume in pixel units of the coating layer (11a) of the base material (11) were calculated, and then the pixel unit volume was converted into an actual unit volume. After that, the length unit error rate was calculated by comparing the volume of the actually applied coating layer. A detailed description of this will be given later.

도 2는 본 발명의 일 실시 예에 따른 코팅 분석기의 일 예시도이다.2 is an exemplary diagram of a coating analyzer according to an embodiment of the present invention.

도 2를 참조하면, 코팅 분석기(22)는, 기재 이미지 획득부(100), 코팅 이미지 획득부(200), 기재위치 획득부(300), 이미지 전처리부(400), 코팅층 이미지 획득부(500), 및 코팅층 분석부(600)를 포함할 수 있다.Referring to FIG. 2 , the coating analyzer 22 includes a substrate image acquisition unit 100, a coating image acquisition unit 200, a substrate location acquisition unit 300, an image preprocessing unit 400, and a coating layer image acquisition unit 500. ), and a coating layer analysis unit 600.

기재 이미지 획득부(100)는, 코팅되지 않은 기재(11)에 대한 기재 이미지(M1)를 획득하고, 상기 기재 이미지에서 설정된 영역을 갖는 템플릿(TP)을 생성하여 상기 기재위치 획득부(300)에 출력할 수 있다.The substrate image acquisition unit 100 obtains a substrate image M1 for the uncoated substrate 11, and generates a template TP having a set area in the substrate image to obtain the substrate position acquisition unit 300. can be output to

코팅 이미지 획득부(200)는, 상기 기재(11)가 코팅된 후, 코팅된 기재에 대한 코팅 이미지(M2)를 획득하여 상기 기재위치 획득부(300)에 출력할 수 있다.After the substrate 11 is coated, the coating image acquisition unit 200 may obtain a coating image M2 of the coated substrate and output the obtained coating image M2 to the substrate location acquisition unit 300 .

기재위치 획득부(300)는, 상기 기재 이미지(M1)와 상기 코팅 이미지(M2)간의 템플릿(TP) 매칭을 통해, 상기 코팅 이미지(M2)에서 상기 기재(11)의 위치정보를 획득할 수 있다.The substrate position acquisition unit 300 may obtain location information of the substrate 11 in the coating image M2 through template TP matching between the substrate image M1 and the coating image M2. there is.

이미지 전처리부(400)는, 상기 코팅 이미지(M2)에서 상기 기재(11)에 연결되지 않은 성분을 제거하는 이미지 전처리를 수행할 수 있다.The image pre-processing unit 400 may perform image pre-processing to remove components not connected to the substrate 11 from the coating image M2 .

코팅층 이미지 획득부(500)는, 상기 기재의 위치정보를 이용해, 상기 이미지 전처리를 통한 코팅 이미지(M2)에서 상기 기재 이미지(M1)를 제거하여, 코팅층 이미지(M6)를 획득할 수 있다.The coating layer image acquisition unit 500 may obtain a coating layer image M6 by removing the substrate image M1 from the coating image M2 through the image preprocessing using the location information of the substrate.

코팅층 분석부(600)는, 상기 코팅층 이미지(M6)에서 코팅층 형상을 분석하여 코팅층 형상 지표(예, 단면적, 부피)를 획득할 수 있다.The coating layer analyzer 600 may obtain coating layer shape indicators (eg, cross-sectional area, volume) by analyzing the coating layer shape in the coating layer image M6 .

예를 들어, 상기 기재 이미지 획득부(100)는, 상기 템플릿(TP)은 상기 기재(11)가 기기(1)에 결합되는 결합부(CP)를 포함할 수 있다.For example, in the substrate image acquisition unit 100 , the template TP may include a coupling unit CP coupling the substrate 11 to the device 1 .

상기 기재위치 획득부(300)는, 상기 템플릿(TP) 매칭 이전에, 상기 기재 이미지(M1)와 상기 코팅 이미지(M2)를 2진화하여 흑백 이미지로 변환하고, 상기 기재 이미지(M1)와 상기 코팅 이미지(M2) 각각의 흑백 이미지에 기초해 상기 템플릿(TP) 매칭을 수행할 수 있다.The substrate position acquisition unit 300 converts the substrate image M1 and the coating image M2 into black and white images by binarizing the substrate image M1 and the coating image M2 before matching the template TP, and The template TP matching may be performed based on each black and white image of the coating image M2.

상기 기재위치 획득부(300)는, 상기 흑백의 기재 이미지(M1)에서 기재에 해당되는 네 꼭지점을 검출하고, 상기 기재의 네 꼭지점을 이용하여 상기 기재의 위치정보를 획득할 수 있다.The substrate position acquisition unit 300 may detect four vertexes corresponding to the substrate in the black and white substrate image M1 and obtain location information of the substrate using the four vertexes of the substrate.

상기 이미지 전처리부(400)는, 상기 코팅 이미지(M2)와 코팅 풀(coating pool)(16) 사이에 유체가 연결된 모세관 브리지(Capillary Bridge:CB)의 존재 여부를 판단하고, 상기 모세관 브리지(CB)가 끊어진 경우에 상기 이미지 전처리를 진행할 수 있다.The image pre-processing unit 400 determines whether there is a capillary bridge (CB) connected to a fluid between the coating image M2 and the coating pool 16, and the capillary bridge (CB) ) is disconnected, the image pre-processing may be performed.

상기 이미지 전처리부(400)는, 상기 기재(11)에 연결되지 않은 성분은 상기 코팅 풀(coating pool)을 포함할 수 잇다.In the image preprocessing unit 400, components not connected to the substrate 11 may include the coating pool.

상기 코팅층 분석부(600)는, 상기 코팅층 형상 지표는 코팅층의 단면적 및 코팅층의 부피를 포함할 수 있다. 일 예로, 상기 코팅층 분석부(600)는, 상기 코팅층의 단면적 및 부피는 상기 코팅층을 구성하는 모든 점이 개수를 구하여, 이에 기초해서 픽셀 단위 단면적 및 픽셀 단위 부피를 구할 수 있다.In the coating layer analyzer 600, the coating layer shape index may include a cross-sectional area of the coating layer and a volume of the coating layer. For example, the coating layer analyzer 600 may calculate the cross-sectional area and volume of the coating layer by counting the number of points constituting the coating layer, and based on this, the cross-sectional area in units of pixels and the volume in units of pixels may be obtained.

일 예로, 상기 기재 이미지 획득부(100), 코팅 이미지 획득부(200), 기재위치 획득부(300), 이미지 전처리부(400), 코팅층 이미지 획득부(500), 및 코팅층 분석부(600) 모두는 하나의 프로세서로 구현될 수 있거나, 별도의 개별적인 프로세서로 구현될 수 있다.For example, the substrate image acquisition unit 100, the coating image acquisition unit 200, the substrate location acquisition unit 300, the image pre-processing unit 400, the coating layer image acquisition unit 500, and the coating layer analysis unit 600 All may be implemented on a single processor, or may be implemented on separate individual processors.

상기 기재 이미지 획득부(100), 코팅 이미지 획득부(200), 기재위치 획득부(300), 이미지 전처리부(400), 코팅층 이미지 획득부(500), 및 코팅층 분석부(600) 각각에서의 동작에 대해서는 하기의 설명을 참조할 수 있다.In each of the substrate image acquisition unit 100, the coating image acquisition unit 200, the substrate location acquisition unit 300, the image preprocessing unit 400, the coating layer image acquisition unit 500, and the coating layer analysis unit 600 For operation, reference may be made to the following description.

본 발명의 각 도면에 대해, 동일한 부호 및 동일한 기능의 구성요소에 대해서는 가능한 불필요한 중복 설명은 생략될 수 있고, 각 도면에 대해 가능한 차이점에 대한 사항이 설명될 수 있다.For each drawing of the present invention, unnecessary redundant descriptions of the components having the same reference numerals and the same functions can be omitted, and possible differences can be described for each drawing.

전술한 본 발명의 실시 예에 따른 딥 코팅 도포형상 측정 장치에 대한 설명과, 후술되는 딥 코팅 도포형상 측정 방법에 대한 설명은 서로 보완적으로 상호 적용될 수 있있으며, 이에 따라 가능한 중복 설명은 생략될 수 있다.The description of the dip coating coating shape measuring device according to the embodiment of the present invention described above and the description of the dip coating coating shape measuring method described below may be mutually applied to each other complementaryly, and thus possible overlapping descriptions will be omitted. can

도 3은 본 발명의 일 실시 예에 따른 딥 코팅 도포형상 측정 방법의 일 예시도이고, 도 4는 도 3의 상세도이다. 그리고, 도 5는 기재 이미지 및 코팅 이미지의 예시도이다.3 is an exemplary view of a method for measuring a dip coating coating shape according to an embodiment of the present invention, and FIG. 4 is a detailed view of FIG. 3 . And, Figure 5 is an exemplary diagram of a substrate image and a coating image.

도 3 및 도 4를 참조하면, 본 발명의 일 실시 예에 따른 딥 코팅 도포형상 측정 방법은, 기재 이미지(M1)를 획득하고, 템플릿(TP)을 생성하는 제1 단계(S100), 코팅 이미지(M2)를 획득하는 제2 단계(S200), 기재(11)의 위치정보를 획득하는 제3 단계(S300), 이미지 전처리를 수행하는 제4 단계(S400), 코팅층 이미지(M6)를 획득하는 제5 단계(S500), 및 코팅층 형상 지표를 획득하는 제6 단계(S600)를 포함할 수 있다.Referring to FIGS. 3 and 4 , the dip coating application shape measurement method according to an embodiment of the present invention includes a first step (S100) of obtaining a substrate image M1 and generating a template TP, and a coating image A second step (S200) of acquiring (M2), a third step (S300) of acquiring location information of the substrate 11, a fourth step (S400) of performing image preprocessing, and obtaining a coating layer image (M6) A fifth step ( S500 ) and a sixth step ( S600 ) of obtaining a coating layer shape index may be included.

도 3을 참조하면, 제1 단계(S100)에서는, 코팅되지 않은 기재(11)에 대한 기재 이미지(M1)를 획득하고, 상기 기재 이미지에서 설정된 영역을 갖는 템플릿(TP)을 생성할 수 있다. 일 예로, 제1 단계(S100)는 도 2의 기재 이미지 획득부(100)에 의해 수행될 수 있다. 예를 들어, 코팅 공정을 시작하기 전에 기재(11)의 실루엣 이미지를 촬영하여 실루엣 이미지에서 템플릿(TP)을 생성할 수 있다. Referring to FIG. 3 , in a first step ( S100 ), a substrate image M1 of an uncoated substrate 11 may be obtained, and a template TP having a set area may be generated in the substrate image. For example, the first step ( S100 ) may be performed by the substrate image obtaining unit 100 of FIG. 2 . For example, by taking a silhouette image of the substrate 11 before starting the coating process, the template TP may be created from the silhouette image.

제2 단계(S200)에서는, 상기 기재(11)가 코팅된 후, 코팅된 기재에 대한 코팅 이미지(M2)를 획득할 수 있다. 일 예로, 제2 단계(S200)는 도 2의 코팅 이미지 획득부(200)에 의해 수행될 수 있다. 예를 들어, 코팅 이미지(M2)인 실험 이미지는 기재가 코팅 풀의 코팅 용액으로 코팅된 이후에, 코팅된 기재에 대한 실루엣 이미지를 카메라(15)가 촬영하여 획득될 수 있다.In the second step (S200), after the substrate 11 is coated, a coating image M2 of the coated substrate may be acquired. For example, the second step (S200) may be performed by the coating image acquisition unit 200 of FIG. For example, the experimental image, which is the coating image M2 , may be obtained by taking a silhouette image of the coated substrate by the camera 15 after the substrate is coated with the coating solution of the coating pool.

제3 단계(S300)에서는, 상기 기재 이미지(M1)와 상기 코팅 이미지(M2)간의 템플릿(TP) 매칭을 통해, 상기 코팅 이미지(M2)에서 상기 기재(11)의 위치정보를 획득할 수 있다. 일 예로, 제3 단계(S300)는 도 2의 기재위치 획득부(300)에 의해 수행될 수 있다. In the third step (S300), through the template (TP) matching between the substrate image (M1) and the coating image (M2), it is possible to obtain the location information of the substrate 11 in the coating image (M2). . For example, the third step (S300) may be performed by the description position obtaining unit 300 of FIG. 2 .

예를 들어, 상기 템플릿 매칭을 통해 실험 이미지(M2)에서 기재(11)의 위치를 파악하기 이전에, 템플릿 이미지와 코팅 이미지를 흑백으로 이진화한 후, 두 테플릿 이미지와 코팅 이미지 사이에서 템플릿 매칭을 사용해 기재의 위치를 찾을 수 있다. 여기서, 템플릿 매칭은 코팅 이미지 안에서 템플릿 이미지와 가장 높은 유사도를 갖는 영역을 탐색하는 기법이다. 그리고 유사도를 계산하는 방법에는 상관 계수 매칭(Correlation coefficient; CCOEFF), 상관 관계 매칭(Cross correlation; CCORR), 제곱차 매칭(Square difference; SQDIFF) 등의 방법중에 하나가 적용될 수 있다. 본 예시에서는 CCOEFF 방법이 사용되었지만, 이에 한정되지 않으며, 템플릿의 위치를 잘 계산할 수 있다면 어떤 방법을 사용해도 무방하다. For example, before determining the position of the substrate 11 in the experimental image M2 through the template matching, after the template image and the coating image are binarized in black and white, template matching is performed between the two template images and the coating image. can be used to find the position of the object. Here, the template matching is a technique of searching for a region having the highest similarity with the template image in the coating image. In addition, one of methods such as correlation coefficient matching (CCOEFF), cross correlation matching (CCORR), and square difference matching (SQDIFF) may be applied as a method of calculating similarity. Although the CCOEFF method is used in this example, it is not limited thereto, and any method may be used as long as the location of the template can be well calculated.

한편, 도 5를 참조하면, M1은 기재 이미지이고, M2는 코팅 이미지이고, M3은 매칭 영역(TMA)이 표시된 코팅 이미지이고, M4는 전처리된 코팅 이미지이고, M5는 전처리된 코팅 이미지에서 매칭 영역이 제거된 초기 코팅층 이미지이다. 그리고, M6은 초기 코팅층 이미지에서 후처리된 최종 코팅층 이미지이다.Meanwhile, referring to FIG. 5 , M1 is a substrate image, M2 is a coating image, M3 is a coating image in which a matching area (TMA) is displayed, M4 is a pre-processed coating image, and M5 is a matching area in a pre-processed coating image. This is an image of the removed initial coating layer. And, M6 is the final coating layer image post-processed from the initial coating layer image.

제4 단계(S400)에서는, 상기 코팅 이미지(M2)에서 상기 기재(11)에 연결되지 않은 성분(예, 코팅 풀)을 제거하는 이미지 전처리를 수행할 수 있다. 일 예로, 제4 단계(S400)는 도 2의 이미지 전처리부(400)에 의해 수행될 수 있다.In the fourth step ( S400 ), image preprocessing may be performed to remove components (eg, coating paste) not connected to the substrate 11 from the coating image M2 . For example, the fourth step ( S400 ) may be performed by the image pre-processing unit 400 of FIG. 2 .

예를 들어, 상기 이미지 전처리 에서는, 코팅층이 도포된 기재이미지 (M3) 외 코팅 풀(16) 등의 모든 영역을 제거할 수 있다. 도 5에서 M4는 이미지 전처리된 코팅 이미지를 보이고 있다. For example, in the image preprocessing, all regions such as the coating pool 16 other than the substrate image M3 to which the coating layer is applied may be removed. In FIG. 5, M4 shows a pre-processed coating image.

제5 단계(S500)에서는, 상기 기재의 위치정보를 이용해, 상기 이미지 전처리를 통한 코팅 이미지(M2)에서 상기 기재 이미지(M1)를 제거하여, 코팅층 이미지(M5,M6)를 획득할 수 있다. 일 예로, 제5 단계(S500)는 도 2의 코팅층 이미지 획득부(500)에 의해 수행될 수 있다. 초기 코팅층 이미지 M5는 후처리되면 최종 코팅층 이미지 M6가 획득될 수 있다.In the fifth step (S500), the substrate image M1 may be removed from the coating image M2 through the image preprocessing using the location information of the substrate, thereby obtaining the coating layer images M5 and M6. For example, the fifth step ( S500 ) may be performed by the coating layer image acquisition unit 500 of FIG. 2 . When the initial coating layer image M5 is post-processed, a final coating layer image M6 may be obtained.

예를 들어, 코팅층 이미지(M6)는, 테플릿 매칭 영역(TMA)에 해당되는 기재의 위치정보를 이용해, 코팅층이 도포된 코팅 이미지(M4)에서 테플릿 매칭 영역(TMA)을 제거하여 획득될 수 있다. 도 5에서, M3와 M5를 비교하면, M3의 테플릿 매칭 영역(MA)이 제거되었음을 확인할 수 있다.For example, the coating layer image M6 may be obtained by removing the tablet matching area TMA from the coating image M4 to which the coating layer is applied using positional information of the substrate corresponding to the tablet matching area TMA. can In FIG. 5 , when M3 and M5 are compared, it can be confirmed that the template matching area MA of M3 has been removed.

제6 단계(S600)에서는, 상기 코팅층 이미지(M6)에서 코팅층 형상을 분석하여 코팅층 형상 지표(예, 단면적, 부피)를 획득할 수 있다. 일 예로, 제6 단계(S600)는 도 2의 코팅층 분석부(600)에 의해 수행될 수 있다.In the sixth step (S600), the coating layer shape index (eg, cross-sectional area, volume) may be obtained by analyzing the coating layer shape in the coating layer image M6. For example, the sixth step ( S600 ) may be performed by the coating layer analyzer 600 of FIG. 2 .

예를 들어, 초기 코팅층 이미지(M5)가 이미지 후처리된 후 생성된 최종 코팅층 이미지(M6)를 분석할 수 있다. 여기서, 이미지 후처리는, 초기 코팅층 이미지(M5)에서, 아직 제거되지 않은 불필요한 영역 및 노이즈를 제거해 최종 코팅층 이미지(M6)를 확보할 수 있다. 이러한 이미지 후처리는 제5 단계에서 이루어질 수도 있고, 제6 단계에서 이루어질 수도 있다.For example, the final coating layer image M6 generated after the initial coating layer image M5 is post-processed may be analyzed. Here, in the image post-processing, the final coating layer image M6 may be obtained by removing unnecessary areas and noise that have not yet been removed from the initial coating layer image M5. Such image post-processing may be performed in a fifth step or a sixth step.

이후. 상기 최종 코팅층 이미지(M6)를 이용해 코팅층 두께 등의 코팅층 형상 지표를 정량화 할 수 있다.after. The coating layer shape index such as the coating layer thickness may be quantified using the final coating layer image M6.

도 4를 참조하면, 제1 단계(S100)에서는, 카메라(15)를 통해 촬영한 기재 이미지(M1)를 로딩하고, 제2 단계(S200)에서는, 카메라를 통해 촬영된 코팅 이미지(M3)를 로딩할 수 있다. 상기 기재 이미지(M1) 및 코팅 이미지(M3)는 하전에 카메라(15)에 의해 촬영되어 코팅 분석기(도 1, 22)의 내부 메모리에 저장될 수 있다.Referring to FIG. 4, in the first step (S100), the substrate image (M1) photographed through the camera 15 is loaded, and in the second step (S200), the coating image (M3) photographed through the camera is loaded. can be loaded. The substrate image M1 and the coating image M3 may be previously captured by the camera 15 and stored in the internal memory of the coating analyzer (FIGS. 1 and 22).

이후, 제3 단계(S300)에서는, 도 5에 도시된 바와 같이, 기재 이미지(M1)에서 실제 기재가 위치하는 범위와 템플릿으로 사용할 영역(TMA)을 설정할 수 있다. 이때 기재 이미지(M1)의 범위는, 이는 코팅층 이미지 확보를 위해, 가로로 넓게 설정되어 예상되는 코팅층의 좌우 말단을 모두 포함할 수 있다. 다음, 기재 이미지(M1)와 코팅 이미지(M2)를 모두 흑백으로 이진화 할 수 있다(S310,S320). 일 예로, 이미지의 이진화는 전체 이미지의 명암차를 자동으로 인식하는 어댑티브 쓰레시홀딩(adaptive thresholding) 기법을 사용할 수 있다. 그 다음, 이와 같은 기재의 흑백 이미지로부터 기재의 네 꼭지점을 검출해 그 꼭지점 좌표를 내부 메모리에 저장할 수 있다(S330). 이에 대해서는 도 7을 참조할 수 있다. 그 다음, 테플릿 매칭 영역(TMA)과 코팅 이미지(M2) 사이의 템플릿 매칭을 통해 기재의 위치를 파악할 수 있다. Thereafter, in the third step (S300), as shown in FIG. 5 , the range where the substrate is actually located in the substrate image M1 and the area TMA to be used as a template may be set. In this case, the range of the substrate image M1 may be set wide horizontally to include both left and right ends of the expected coating layer in order to secure the coating layer image. Next, both the substrate image M1 and the coating image M2 may be binarized into black and white (S310 and S320). For example, the binarization of an image may use an adaptive thresholding technique that automatically recognizes a contrast difference of the entire image. Then, the four vertices of the substrate may be detected from the black and white image of the substrate, and the coordinates of the vertices may be stored in the internal memory (S330). For this, reference may be made to FIG. 7 . Then, the location of the substrate may be determined through template matching between the template matching area TMA and the coating image M2.

그 다음, 제4 단계(S400)에서는, 카메라(도 1, 15)를 통해 촬영된 동영상(도 9, V1,V2)은 기재가 코팅 풀(도 1, 16)에서 빠져나오기 시작한 시점에서 촬영되기 시작되고, 도 9의 V1과 같이 초반부에는 기재(11) 하단부와 코팅 풀 사이에 코팅 용액(16a)이 연결되어 있는 모세관 브리지(capillary bridge)(CB)가 존재할 수 있다. 이러한 모세관 브리지(CB)는 시간에 따라 얇아지다가 끊어지게 되며, 해당 시점 이후부터 기재의 코팅층(11a)이 코팅 풀(16)에서 완전히 분리되고, 이후 코팅층 분석이 수행될 수 있게 된다. 이에 따라 코팅층 분석을 수행하기 위해서는 모세관 브리지(capillary bridge)가 끊어졌는지 확인하는 단계가 필요하다(S410). 이에 대해서는 도 8을 참조할 수 있다.Then, in the fourth step (S400), the video (FIG. 9, V1, V2) taken through the camera (FIG. 1, 15) is taken at the time when the substrate starts to come out of the coating pool (FIG. 1, 16) As shown in V1 of FIG. 9, a capillary bridge (CB) to which the coating solution 16a is connected may exist between the lower end of the substrate 11 and the coating pool at the beginning. This capillary bridge CB becomes thinner and then breaks over time, and from that point on, the coating layer 11a of the substrate is completely separated from the coating pool 16, and then the coating layer analysis can be performed. Accordingly, in order to perform the coating layer analysis, it is necessary to check whether the capillary bridge is broken (S410). For this, reference may be made to FIG. 8 .

예를 들어, 모세관 브리지(capillary bridge)가 끊어지지 않았다면 코팅층 분석으로 진행되지 않고 종료될 수 있다. 모세관 브리지(capillary bridge)가 끊어졌다면 이미지 전처리 과정이 수행될 수 있다. 일 예로, 코팅 이미지의 하단에 연결된 코팅 유체를 제거하는 과정은 커덱티드 컴포넌트 라벨링(connected component labeling) 기법을 통해 이루어질 수 있다. 커덱티드 컴포넌트 라벨링(connected component labeling) 기법은, 이미지에서 한 “덩어리”로 연결되어 있는 물체들과 분리되어 있는 물체들을 나누어 인식하는 영상 분석 기법이다. For example, if a capillary bridge is not broken, it may end without proceeding to the coating layer analysis. If the capillary bridge is broken, image pre-processing may be performed. For example, the process of removing the coating fluid connected to the bottom of the coating image may be performed through a connected component labeling technique. A connected component labeling technique is an image analysis technique that divides and recognizes connected objects and separated objects as a “chunk” in an image.

이후, 코팅된 기재의 영역과 코팅 용액의 영역이 완전히 분리된 이후에는 이미지 전처리 과정이 수행될 수 있는데, 이전 단계에서 검출한 기재의 네 꼭지점을 기초해 기재의 중점을 선정하며(S420), 기재의 중점은 반드시 기재 내부에 위치하므로, 해당 꼭지점과 연결되지 않은 성분을 커덱티드 컴포넌트 라벨링(connected component labeling) 기법을 통해 제거하여 이미지 전처리를 수행할 수 있다(S430). Thereafter, after the area of the coated substrate and the area of the coating solution are completely separated, an image preprocessing process may be performed. The midpoint of the substrate is selected based on the four vertices of the substrate detected in the previous step (S420), Since the midpoint of is always located inside the substrate, image preprocessing may be performed by removing components not connected to the corresponding vertex through a connected component labeling technique (S430).

그 다음, 제5 단계(S500)에서는, 전처리된 이미지에서 기재의 이미지를 제거하며, 도 5의 이미지 M5에 도시된 바와 같이, 기재의 이미지가 제거된 코팅층 이미지(M5)를 획득할 수 있고(S510), 또한 코팅층 이미지(M5)에서 기재 범위의 상단, 좌측, 우측 바깥의 픽셀을 제거하여 불필요한 영역을 제거할 수 있다 (S520). 여기서, 기재 이미지 하단 바깥의 픽셀은 제거하지 않는데, 이는 해당 이미지 영역에 코팅층이 포함되기 때문이다.Then, in the fifth step (S500), the image of the substrate is removed from the preprocessed image, and as shown in image M5 of FIG. 5, a coating layer image M5 from which the image of the substrate is removed can be obtained ( S510), and also, unnecessary areas may be removed by removing pixels outside the top, left, and right sides of the substrate range in the coating layer image M5 (S520). Here, pixels outside the bottom of the substrate image are not removed because the coating layer is included in the corresponding image area.

그 다음, 제6 단계(S600)에서는, 코팅층 분석 이전에 코팅층 이미지에 대한 후처리 과정을 수행할 수 있다 (S601, S602, S603). 코팅층 이미지(M6)에서 예상되는 코팅 깊이 상단의 픽셀을 제거해 노이즈를 제거할 수 있다. 또한 예상되는 코팅 깊이는 동영상 마지막 프레임의 코팅층 깊이로부터 구해지며, 동영상의 모든 프레임에 대해 같은 값이 적용된다. Then, in a sixth step (S600), a post-processing process may be performed on the coating layer image before analyzing the coating layer (S601, S602, and S603). Noise can be removed by removing pixels above the expected coating depth in the coating layer image M6. In addition, the expected coating depth is obtained from the coating layer depth of the last frame of the video, and the same value is applied to all frames of the video.

전술한 과정을 통해 획득된 코팅층 이미지로부터 코팅층의 단면적과 코팅층의 부피를 계산할 수 있다. 이에 대해서는 도 11을 참조할 수 있다,A cross-sectional area of the coating layer and a volume of the coating layer may be calculated from the coating layer image obtained through the above process. In this regard, reference may be made to FIG. 11,

도 6은 기재 이미지 및 템플릿 영역 예시도이다.6 is an exemplary view of a substrate image and a template region.

도 6을 참조하면, 상기 제1 단계(S100)에서는, 기재 이미지(M1)에 기초한 상기 템플릿(TP)(또는 템플릿 이미지)은 상기 기재(11)가 기기(1)에 결합되는 결합부(CP)를 포함한다.Referring to FIG. 6 , in the first step S100, the template TP based on the substrate image M1 (or the template image) is a coupling portion CP where the substrate 11 is coupled to the device 1. ).

예를 들어, 템플릿(TP)은 기재(11)가 기기에 결합된 결합부(CP)를 포함할 수 있고, 이러한 템플릿(TP)은 템플릿 매칭을 통해서 코팅 이미지(또는 실험 이미지)에서 기재의 위치를 파악하는 데 사용될 수 있다. 또한, 템플릿(TP)에는 기재가 기기에 결합된 결합부(CP)가 포함되어야 하는데, 이는 해당 정보를 바탕으로 기재의 높이 방향 위치를 계산하기 위함이다. For example, the template TP may include a coupling portion CP in which the substrate 11 is coupled to the device, and this template TP determines the location of the substrate in the coating image (or experimental image) through template matching. can be used to figure out In addition, the template TP should include a coupling part CP where the substrate is coupled to the device, which is to calculate the position of the substrate in the height direction based on the corresponding information.

도 6에서, 하부 사각형 형태가 기재(11)에 해당하고, 상부 평평한 부분은 기재(11)가 결합된 기기(1)의 일부분에 해당한다.In FIG. 6 , the lower rectangular shape corresponds to the substrate 11 and the upper flat part corresponds to a part of the device 1 to which the substrate 11 is coupled.

도 4, 도 5 및 도 6을 참조하면, 상기 제3 단계(S300)에서는, 상기 템플릿(TP) 매칭 이전에, 상기 기재 이미지(M1)와 상기 코팅 이미지(M2)를 2진화하여 흑백 이미지로 변환하고, 상기 기재 이미지(M1)와 상기 코팅 이미지(M2) 각각의 흑백 이미지에 기초해 상기 템플릿(TP) 매칭을 수행할 수 있다.4, 5 and 6, in the third step (S300), before matching the template (TP), the substrate image (M1) and the coating image (M2) are binarized to obtain a black and white image. conversion, and the template TP matching may be performed based on each of the black and white images of the substrate image M1 and the coating image M2.

도 7은 기재의 꼭지점 검출 과정에 대한 예시도이다.7 is an exemplary view of a vertex detection process of a substrate.

도 4 및 도 7을 참조하면, 상기 제3 단계(S300)에서는, 상기 흑백의 기재 이미지(M1)에서 기재에 해당되는 네 꼭지점을 검출하고, 상기 기재의 네 꼭지점을 이용하여 상기 기재의 위치정보를 획득할 수 있다,4 and 7, in the third step (S300), four vertices corresponding to the substrate are detected in the black-and-white substrate image M1, and location information of the substrate is used using the four vertices of the substrate. can be obtained,

예를 들어, 상기 제3 단계(S300)에서는, 먼저 기재의 이미지(M1)에서 외곽 경계선을 추출할 수 있다(S331). 이는 일 예로, 'Cannyedge detection' 기법을 이용해 진행될 수 있으며, 이에 필요한 변수는 사전에 설정되어 동영상의 모든 프레임에 대해 일괄적으로 적용될 수 있다.For example, in the third step (S300), an outer boundary may be first extracted from the image M1 of the substrate (S331). As an example, this can be performed using the 'Cannyedge detection' technique, and variables required for this can be set in advance and applied to all frames of the video at once.

이후, 상기 외곽 경계선으로부터 직선들을 검출할 수 있다(S333). 이는 일 예로, 'Hough line transformation' 기법을 이용해 진행될 있으며, 이에 필요한 변수는 사전에 설정되어 동영상의 모든 프레임에 대해 일괄적으로 적용될 수 있다.Thereafter, straight lines may be detected from the outer boundary line (S333). For example, this may be performed using a 'Hough line transformation' technique, and variables necessary for this may be set in advance and applied collectively to all frames of the video.

그 다음, 상기 검출된 직선들에서 수직, 수평을 이루는 직선들을 모은 다음, 기재 이미지 영역의 상단, 좌측, 하단, 우측으로 분류하고, 각 영역에서 외곽 경계선과 가장 잘 일치하는 직선이 기재의 네 변이 될 수 있다 (S335). Then, vertical and horizontal straight lines are collected from the detected straight lines, and then classified into upper, left, lower, and right areas of the substrate image area, and the straight line that best matches the outer boundary line in each area is the four sides of the substrate. It can be (S335).

그리고, 네 변들의 교점으로부터 꼭지점의 좌표를 계산해 기재 이미지에 꼭지점의 좌표를 구할 수 있다(S337). Then, the coordinates of the vertex of the substrate image may be obtained by calculating the coordinates of the vertex from the intersection of the four sides (S337).

일 예로, 코팅층 이미지에서 꼭지점의 좌표는, 기재 이미지의 꼭지점 좌표에 코팅층 이미지에서 기재의 위치를 더해 계산할 수 있다.For example, the coordinates of the vertex in the coating layer image may be calculated by adding the position of the substrate in the coating layer image to the coordinates of the vertex in the substrate image.

도 8은 모세관 브리지의 끊어짐 판단 과정에 대한 예시도이고, 도 9는 모세관 브리지 존재 및 부존재 예시도이다.8 is an exemplary view of a process for determining that a capillary bridge is disconnected, and FIG. 9 is an example view of the existence and non-existence of a capillary bridge.

도 4, 도 8 및 도 9를 참조하면, 상기 제4 단계(S400)에서는, 상기 코팅 이미지(M2)와 코팅 풀(coating pool)(16) 사이에 유체가 연결된 모세관 브리지(Capillary Bridge:CB)의 존재 여부를 판단하고, 상기 모세관 브리지(CB)가 끊어진 경우에 상기 이미지 전처리를 진행할 수 있다. 일 예로, 상기 기재(11)에 연결되지 않은 성분은 상기 코팅 풀(coating pool)을 포함할 수 있다.4, 8 and 9, in the fourth step (S400), a capillary bridge (CB) in which fluid is connected between the coating image M2 and the coating pool 16 It is determined whether there exists, and when the capillary bridge CB is broken, the image pre-processing may be performed. For example, components not connected to the substrate 11 may include the coating pool.

예를 들어, 도 8 및 도 9를 참조하면, 먼저 제4 단계(S400)에서는, 기재 위치에서의 아래쪽 두 꼭지점 좌표를 구한다(S411). 그리고 두 점으로부터 코팅 이미지의 아래쪽 끝까지를 검출 영역으로 설정한 다음(S412), 해당 영역 안에서 검은색만으로 이루어진 열이 있는지를 계산하여, 만일 검은색만으로 이루어진 열이 있다면 모세관 브리지(CB)가 끊어지지 않았다고 판단하고(S413), 그렇지 않으면 모세관 브리지(capillary bridge)가 끊어졌다고 판단할 수 있다.For example, referring to FIGS. 8 and 9, in the fourth step (S400), the coordinates of the lower two vertices at the base position are obtained (S411). Then, after setting the lower end of the coating image from the two points to the detection area (S412), it is calculated whether there is a column consisting of only black in the area, and if there is a column consisting only of black, the capillary bridge (CB) is not broken. It is determined that it is not (S413), otherwise it can be determined that the capillary bridge is broken.

도 10은 코팅층 단면적 계산 예시도이고, 도 11은 코팅층 부피 계산 예시도이다.10 is an exemplary view of calculating the cross-sectional area of the coating layer, and FIG. 11 is an exemplary view of calculating the volume of the coating layer.

예를 들어, 도 10을 참조하면, 제6 단계(S600)에서는, 코팅층만을 추출해 낸 이미지에서, 코팅층에 해당하는 이미지의 픽셀의 총 개수를 계수하여 단면적으로 결정할 수 있다(S610).For example, referring to FIG. 10 , in the sixth step (S600), the cross-sectional area may be determined by counting the total number of pixels of the image corresponding to the coating layer in the image from which only the coating layer is extracted (S610).

도 11을 참조하면, 제6 단계(S600)에서는, 상기 기재의 네 꼭지점으로부터 기재의 중앙선을 구한다(S621). 기재는 원통 형태로 축 대칭성을 만족하므로, 코팅층 이미지의 각 픽셀에서 기재의 중앙선까지의 거리를 구한다(S622). 이 거리를 반지름으로 설정하고 원의 둘레를 계산한 후 이를 모든 픽셀에 대해 더하고, 이때 중앙선 기점으로 왼쪽의 점과 오른쪽의 점이 중복되어 계산되었으므로 합계를 2로 나누어 주면, 구분구적법의 원리에 따라 코팅층의 픽셀 단위 부피가 계산된다(S623). 이후 기재의 아래쪽 두 꼭지점 사이의 픽셀 거리와 기재의 너비로부터 픽셀당 실측 거리를 계산하고(S624), 이를 바탕으로 코팅층의 픽셀 단위 부피를 코팅층의 실측 단위 부피로 환산할 수 있다(S625).Referring to FIG. 11 , in the sixth step (S600), the center line of the substrate is obtained from the four vertexes of the substrate (S621). Since the substrate has a cylindrical shape and satisfies axial symmetry, a distance from each pixel of the coating layer image to the center line of the substrate is obtained (S622). Set this distance as a radius, calculate the circumference of the circle, and add it for all pixels. At this time, since the point on the left and the point on the right were calculated overlapping from the center line, if the sum is divided by 2, the coating layer according to the principle of quadrature The pixel unit volume of is calculated (S623). Afterwards, the actual distance per pixel is calculated from the pixel distance between the bottom two vertices of the substrate and the width of the substrate (S624), and based on this, the pixel unit volume of the coating layer can be converted into the actual unit volume of the coating layer (S625).

도 12는 동영상의 프레임 전체에 적용한 동영상 분석 순서도이다.12 is a video analysis flow chart applied to all frames of a video.

도 12를 참조하면, 제6 단계(S600)에서의 동영상 분석에서, 동영상의 프레임에 대해 본 발명의 분석을 적용하여 분석하면, 먼저 모든 프레임이 분석되었는가를 판단하고(S631), 모든 프레임이 분석되었으면 본 분석과정을 종료하고, 그렇지 않으면 이전 프레임에서 기재위치가 전달되었는가 여부를 판단할 수 있다 (S632). 이전 프레임에서 기재 위치가 전달되지 않은 경우에는 테플릿 매칭 범위를 프레임 전체로 설정한다(S633). 이전 프레임에서 기재 위치가 전달된 경우에는 템플릿 매칭 범위를 이전 기재 위치에서 ±10 픽셀로 설정한다(S634). 이후 다음 프레임 분석을 수행하고(S635), 그 분석 결과를 기록한다(S636).Referring to FIG. 12, in the video analysis in step 6 (S600), if the video frame is analyzed by applying the analysis of the present invention, it is first determined whether all frames have been analyzed (S631), and all frames are analyzed. If so, this analysis process ends, and if not, it can be determined whether or not the description position has been transmitted in the previous frame (S632). If the substrate position is not transmitted in the previous frame, the template matching range is set to the entire frame (S633). If the description position is transmitted in the previous frame, the template matching range is set to ±10 pixels from the previous description position (S634). Thereafter, the next frame analysis is performed (S635), and the analysis result is recorded (S636).

여기서, 첫 프레임을 분석할 때는 모든 영역을 템플릿 매칭의 범위로 설정하였다. 이전 프레임에서의 기재의 위치로부터 ±10픽셀의 여백을 가한 범위를 템플릿 매칭의 범위로 한정하였는데, 이는 템플릿 매칭 시 탐색할 픽셀의 개수를 줄여 분석 속도를 향상하기 위함이다. Here, when analyzing the first frame, all areas were set as template matching ranges. The range obtained by adding a margin of ±10 pixels from the position of the substrate in the previous frame was limited to the range of template matching, which is to improve the analysis speed by reducing the number of pixels to be searched for during template matching.

도 13은 동영상의 모든 프레임에 대한 분석결과에 따른 코팅층 단면적 변화 그래프이고, 도 14는 동영상의 모든 프레임에 대한 분석결과에 따른 코팅층 부피 변화 그래프이다.13 is a graph of the change in cross-sectional area of the coating layer according to the analysis result for all frames of the video, and FIG. 14 is a graph of the change in volume of the coating layer according to the analysis result for all the frames of the video.

도 13 및 도 14를 참조하면, 모세관 브리지(Capillary bridge)가 끊어진 직후에는 단면적과 부피가 큰 값에서 빠르게 감소하는 오차를 보이고 있지만, 이후 두 데이터 모두 안정적인 값을 보이고 있다.Referring to FIGS. 13 and 14 , right after the capillary bridge is broken, errors rapidly decrease in cross-sectional area and volume values, but both data show stable values thereafter.

도 13의 픽셀 단위 단면적은 실측 값을 계산하기 어려우므로 데이터의 정성적인 경향만을 확인하는 목적으로 사용하고, 도 14의 픽셀 단위 부피는 실제 도포된 유체의 부피와 비교해 오차를 검증했다. 실제 부피는 코팅 전후 기재의 무게 변화와 유체의 비중을 사용해 계산했다. 계산 결과의 부피 단위 오차를 길이 단위 오차로 환산한 결과, 본 실시예는 코팅층의 두께를 10 % ~ 20 %의 정밀도로 관측하였음을 확인했다.Since it is difficult to calculate actual measured values, the cross-sectional area in units of pixels in FIG. 13 is used for the purpose of confirming only the qualitative trend of the data, and the volume in units of pixels in FIG. 14 is compared with the volume of the actually applied fluid to verify the error. The actual volume was calculated using the weight change of the substrate before and after coating and the specific gravity of the fluid. As a result of converting the volume unit error of the calculation result into the length unit error, it was confirmed that the thickness of the coating layer was observed with an accuracy of 10% to 20% in this embodiment.

전술한 바와 같은 본 발명은, 딥 코팅 과정의 이론적인 해석을 위한 제반 지식으로 활용되어 효과적인 공정 설계를 가능하고, 정밀화·소형화되고 있는 제조업 시장에서 코팅층 제어에 대한 관심은 지속적으로 증가하고 추세이므로, 본 발명이 적용될 시장도 확대될 것으로 전망된다.As described above, the present invention is utilized as a general knowledge for theoretical analysis of the dip coating process to enable effective process design, and interest in coating layer control is continuously increasing and trending in the manufacturing market, which is being refined and miniaturized. The market to which the present invention is applied is also expected to expand.

한편, 본 발명의 일 실시 예에 따른 딥 코팅 도포형상 측정 장치의 코팅 분석기(22)는, 프로세서(예: 중앙처리장치(CPU), 그래픽처리장치(GPU), 마이크로프로세서, 주문형 반도체(Application Specific Integrated Circuit, ASIC), Field Programmable Gate Arrays(FPGA) 등), 메모리(예: 휘발성 메모리(예를 들어, RAM 등), 비휘발성 메모리(예를 들어, ROM, 플래시 메모리 등), 입력 디바이스(예: 키보드, 마우스, 펜, 음성 입력 디바이스, 터치 입력 디바이스, 적외선 카메라, 비디오 입력 디바이스 등), 출력 디바이스(예: 디스플레이, 스피커, 프린터 등) 및 통신접속장치(예: 모뎀, 네트워크 인터페이스 카드(NIC), 통합 네트워크 인터페이스, 무선 주파수 송신기/수신기, 적외선 포트, USB 접속장치 등)이 서로 상호접속(예: 주변 구성요소 상호접속(PCI), USB, 펌웨어(IEEE 1394), 광학적 버스 구조, 네트워크 등)된 컴퓨팅 환경으로 구현될 수 있다.On the other hand, the coating analyzer 22 of the dip coating coating shape measuring device according to an embodiment of the present invention is a processor (eg, a central processing unit (CPU), a graphic processing unit (GPU), a microprocessor, an application specific semiconductor (Application Specific Integrated Circuit (ASIC), Field Programmable Gate Arrays (FPGA), etc.), memory (e.g., volatile memory (e.g., RAM, etc.), non-volatile memory (e.g., ROM, flash memory, etc.), input device (e.g., : Keyboard, mouse, pen, voice input device, touch input device, infrared camera, video input device, etc.), output device (eg display, speaker, printer, etc.) and communication access device (eg modem, network interface card (NIC) ), integrated network interfaces, radio frequency transmitters/receivers, infrared ports, USB interfaces, etc.) interconnect each other (e.g. Peripheral Component Interconnect (PCI), USB, firmware (IEEE 1394), optical bus structures, networks, etc.) ) can be implemented as a computing environment.

상기 컴퓨팅 환경은 개인 컴퓨터, 서버 컴퓨터, 핸드헬드 또는 랩탑 디바이스, 모바일 디바이스(모바일폰, PDA, 미디어 플레이어 등), 멀티프로세서 시스템, 소비자 전자기기, 미니 컴퓨터, 메인프레임 컴퓨터, 임의의 전술된 시스템 또는 디바이스를 포함하는 분산 컴퓨팅 환경 등으로 구현될 수 있으나, 이에 한정되지 않는다.The computing environment may be a personal computer, server computer, handheld or laptop device, mobile device (mobile phone, PDA, media player, etc.), multiprocessor system, consumer electronic device, mini computer, mainframe computer, any of the foregoing systems or It may be implemented in a distributed computing environment including devices, but is not limited thereto.

이상에서는 본 발명을 실시 예로써 설명하였으나, 본 발명은 상기한 실시 예에 한정되지 아니하며, 특허청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 분야에서 통상의 지식을 가진 자라면 누구든지 다양한 변형이 가능할 것이다.In the above, the present invention has been described as an embodiment, but the present invention is not limited to the above-described embodiments, and those skilled in the art in the field to which the invention pertains without departing from the gist of the present invention claimed in the claims Anyone can make various variations.

11: 기재
100: 기재 이미지 획득부
200: 코팅 이미지 획득부
300: 기재위치 획득부
400: 이미지 전처리부
500: 코팅층 이미지 획득부
600: 코팅층 분석부
11: registration
100: substrate image acquisition unit
200: coating image acquisition unit
300: description location acquisition unit
400: image pre-processing unit
500: coating layer image acquisition unit
600: coating layer analysis unit

Claims (16)

코팅되지 않은 기재에 대한 기재 이미지를 획득하고, 상기 기재 이미지에서 설정된 영역을 갖는 템플릿을 생성하는 기재 이미지 획득부:
상기 기재가 코팅된 후, 코팅된 기재에 대한 코팅 이미지를 획득하는 코팅 이미지 획득부;
상기 기재 이미지와 상기 코팅 이미지간의 템플릿 매칭을 통해, 상기 코팅 이미지에서 상기 기재의 위치정보를 획득하는 기재위치 획득부;
상기 코팅 이미지에서 상기 기재에 연결되지 않은 성분을 제거하는 이미지 전처리를 수행하는 이미지 전처리부;
상기 기재의 위치정보를 이용해, 상기 이미지 전처리를 통한 코팅 이미지에서 상기 기재 이미지를 제거하여, 코팅층 이미지를 획득하는 코팅층 이미지 획득부; 및
상기 코팅층 이미지에서 코팅층 형상을 분석하여 코팅층 형상 지표를 획득하는 코팅층 분석부;
을 포함하는 딥 코팅 도포형상 측정 장치.
A substrate image acquisition unit for obtaining a substrate image for an uncoated substrate and generating a template having a set area in the substrate image:
a coating image acquisition unit acquiring a coating image of the coated substrate after the substrate is coated;
a substrate position acquisition unit acquiring location information of the substrate in the coating image through template matching between the substrate image and the coating image;
an image pre-processing unit that performs image pre-processing to remove components not connected to the substrate from the coated image;
a coating layer image obtaining unit that obtains a coating layer image by removing the substrate image from the coating image through the image preprocessing using location information of the substrate; and
a coating layer analyzer for obtaining a coating layer shape index by analyzing the coating layer shape in the coating layer image;
Dip coating coating shape measuring device comprising a.
제1항에 있어서, 상기 기재 이미지 획득부는,
상기 템플릿은 상기 기재가 기기에 결합되는 결합부를 포함하는
딥 코팅 도포형상 측정 장치.
The method of claim 1, wherein the substrate image acquisition unit,
The template includes a coupling portion in which the substrate is coupled to the device
Dip coating coating shape measuring device.
제1항에 있어서, 상기 기재위치 획득부는,
상기 템플릿 매칭 이전에, 상기 기재 이미지와 상기 코팅 이미지를 2진화하여 흑백 이미지로 변환하고, 상기 기재 이미지와 상기 코팅 이미지 각각의 흑백 이미지에 기초해 상기 템플릿 매칭을 수행하는
딥 코팅 도포형상 측정 장치.
The method of claim 1, wherein the description location acquisition unit,
Prior to the template matching, the base image and the coating image are binarized and converted into black and white images, and the template matching is performed based on the black and white images of each of the base image and the coating image
Dip coating coating shape measuring device.
제3항에 있어서, 상기 기재위치 획득부는,
상기 흑백의 기재 이미지에서 기재에 해당되는 네 꼭지점을 검출하고, 상기 기재의 네 꼭지점을 이용하여 상기 기재의 위치정보를 획득하는
딥 코팅 도포형상 측정 장치.
The method of claim 3, wherein the description location acquisition unit,
Detecting four vertices corresponding to the substrate in the black and white substrate image, and obtaining location information of the substrate using the four vertices of the substrate
Dip coating coating shape measuring device.
제1항에 있어서, 상기 이미지 전처리부는,
상기 코팅 이미지와 코팅 풀 사이에 유체가 연결된 모세관 브리지(Capillary Bridge)의 존재 여부를 판단하고, 상기 모세관 브리지가 끊어진 경우에 상기 이미지 전처리를 진행하는
딥 코팅 도포형상 측정 장치.
The method of claim 1, wherein the image pre-processing unit,
Determining whether there is a capillary bridge connected to the fluid between the coating image and the coating pool, and proceeding with the image preprocessing when the capillary bridge is broken
Dip coating coating shape measuring device.
제5항에 있어서, 상기 이미지 전처리부는,
상기 기재에 연결되지 않은 성분은 상기 코팅 풀을 포함하는
딥 코팅 도포형상 측정 장치.
The method of claim 5, wherein the image pre-processing unit,
Components not connected to the substrate include the coating pool.
Dip coating coating shape measuring device.
제1항에 있어서, 상기 코팅층 분석부는,
상기 코팅층 형상 지표는 코팅층의 단면적 및 코팅층의 부피를 포함하는
딥 코팅 도포형상 측정 장치.
The method of claim 1, wherein the coating layer analysis unit,
The coating layer shape index includes the cross-sectional area of the coating layer and the volume of the coating layer.
Dip coating coating shape measuring device.
제7항에 있어서, 상기 코팅층 분석부는,
상기 코팅층의 단면적 및 부피는 상기 코팅층을 구성하는 모든 점이 개수를 구하여, 이에 기초해서 픽셀 단위 단면적 및 픽셀 단위 부피를 구하는
딥 코팅 도포형상 측정 장치.
The method of claim 7, wherein the coating layer analysis unit,
The cross-sectional area and volume of the coating layer are obtained by counting all the points constituting the coating layer, and obtaining the cross-sectional area and volume in pixel units based on this.
Dip coating coating shape measuring device.
코팅되지 않은 기재에 대한 기재 이미지를 획득하고, 상기 기재 이미지에서 설정된 영역을 갖는 템플릿을 생성하는 제1 단계:
상기 기재가 코팅된 후, 코팅된 기재에 대한 코팅 이미지를 획득하는 제2 단계;
상기 기재 이미지와 상기 코팅 이미지간의 템플릿 매칭을 통해, 상기 코팅 이미지에서 상기 기재의 위치정보를 획득하는 제3 단계;
상기 코팅 이미지에서 상기 기재에 연결되지 않은 성분을 제거하는 이미지 전처리를 수행하는 제4 단계;
상기 기재의 위치정보를 이용해, 상기 이미지 전처리를 통한 코팅 이미지에서 상기 기재 이미지를 제거하여, 코팅층 이미지를 획득하는 제5 단계; 및
상기 코팅층 이미지에서 코팅층 형상을 분석하여 코팅층 형상 지표를 획득하는 제6 단계;
을 포함하는 딥 코팅 도포형상 측정 방법.
A first step of acquiring a substrate image for an uncoated substrate and generating a template having a set area in the substrate image:
a second step of acquiring a coating image of the coated substrate after the substrate is coated;
A third step of acquiring location information of the substrate in the coating image through template matching between the substrate image and the coating image;
a fourth step of performing image preprocessing to remove components not connected to the substrate from the coated image;
A fifth step of obtaining a coating layer image by removing the substrate image from the coating image through the image preprocessing using location information of the substrate; and
A sixth step of obtaining a coating layer shape index by analyzing the coating layer shape in the coating layer image;
Dip coating coating shape measurement method comprising a.
제9항에 있어서, 상기 제1 단계에서는,
상기 템플릿은 상기 기재가 기기에 결합되는 결합부를 포함하는
딥 코팅 도포형상 측정 방법.
The method of claim 9, wherein in the first step,
The template includes a coupling portion in which the substrate is coupled to the device
Dip coating coating shape measurement method.
제9항에 있어서, 상기 제3 단계에서는,
상기 템플릿 매칭 이전에, 상기 기재 이미지와 상기 코팅 이미지를 2진화하여 흑백 이미지로 변환하고, 상기 기재 이미지와 상기 코팅 이미지 각각의 흑백 이미지에 기초해 상기 템플릿 매칭을 수행하는
딥 코팅 도포형상 측정 방법.
The method of claim 9, wherein in the third step,
Prior to the template matching, the base image and the coating image are binarized and converted into black and white images, and the template matching is performed based on the black and white images of each of the base image and the coating image
Dip coating coating shape measurement method.
제11항에 있어서, 상기 제3 단계에서는,
상기 흑백의 기재 이미지에서 기재에 해당되는 네 꼭지점을 검출하고, 상기 기재의 네 꼭지점을 이용하여 상기 기재의 위치정보를 획득하는
딥 코팅 도포형상 측정 방법.
The method of claim 11, wherein in the third step,
Detecting four vertices corresponding to the substrate in the black and white substrate image, and obtaining location information of the substrate using the four vertices of the substrate
Dip coating coating shape measurement method.
제9항에 있어서, 상기 제4 단계에서는,
상기 코팅 이미지와 코팅 풀 사이에 유체가 연결된 모세관 브리지(Capillary Bridge)의 존재 여부를 판단하고, 상기 모세관 브리지가 끊어진 경우에 상기 이미지 전처리를 진행하는
딥 코팅 도포형상 측정 방법.
The method of claim 9, wherein in the fourth step,
Determining whether there is a capillary bridge connected to the fluid between the coating image and the coating pool, and proceeding with the image preprocessing when the capillary bridge is broken
Dip coating coating shape measurement method.
제13항에 있어서, 상기 제4 단계에서는,
상기 기재에 연결되지 않은 성분은 상기 코팅 풀을 포함하는
딥 코팅 도포형상 측정 방법.
The method of claim 13, wherein in the fourth step,
Components not connected to the substrate include the coating pool.
Dip coating coating shape measurement method.
제9항에 있어서, 상기 제6 단계에서는,
상기 코팅층 형상 지표는 코팅층의 단면적 및 코팅층의 부피를 포함하는
딥 코팅 도포형상 측정 방법.
The method of claim 9, wherein in the sixth step,
The coating layer shape index includes the cross-sectional area of the coating layer and the volume of the coating layer.
Dip coating coating shape measurement method.
제15항에 있어서, 상기 제6 단계에서는,
상기 코팅층의 단면적 및 부피는 상기 코팅층을 구성하는 모든 점이 개수를 구하여, 이에 기초해서 픽셀 단위 단면적 및 픽셀 단위 부피를 구하는
딥 코팅 도포형상 측정 방법.
The method of claim 15, wherein in the sixth step,
The cross-sectional area and volume of the coating layer are obtained by counting all the points constituting the coating layer, and obtaining the cross-sectional area and volume in pixel units based on this.
Dip coating coating shape measurement method.
KR1020220009361A 2021-11-02 2022-01-21 Apparatus and method for measuring dip coating shape using image analysis KR20230064511A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022161209A JP2023068623A (en) 2021-11-02 2022-10-05 Dip coating applied shape measurement device and method using video analysis

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20210148891 2021-11-02
KR1020210148891 2021-11-02

Publications (1)

Publication Number Publication Date
KR20230064511A true KR20230064511A (en) 2023-05-10

Family

ID=86386387

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220009361A KR20230064511A (en) 2021-11-02 2022-01-21 Apparatus and method for measuring dip coating shape using image analysis

Country Status (1)

Country Link
KR (1) KR20230064511A (en)

Similar Documents

Publication Publication Date Title
CN107798672B (en) Method and system for measuring width of cut tobacco or cut stem and server with system
Kabir et al. Machine learning enabled orthogonal camera goniometry for accurate and robust contact angle measurements
Belan et al. Segmentation-free approaches of computer vision for automatic calibration of digital and analog instruments
Abouelatta 3D surface roughness measurement using a light sectioning vision system
JP4611873B2 (en) Method for detecting three-dimensional measurement data using tolerance region
KR20150128300A (en) method of making three dimension model and defect analysis using camera and laser scanning
CN114894642B (en) Fatigue crack propagation rate testing method and device based on deep learning
Zhang et al. Accuracy improvement in laser stripe extraction for large-scale triangulation scanning measurement system
Pineda et al. Robust automated reading of the skin prick test via 3D imaging and parametric surface fitting
CN114494274A (en) Building construction evaluation method, building construction evaluation device, electronic equipment and storage medium
JP4898828B2 (en) Aggregation judgment method
CN111402220A (en) Method and device for acquiring information
CN108876842A (en) A kind of measurement method, system, equipment and the storage medium of sub-pixel edge angle
CN114383528A (en) Counting pool depth calibration method and system, intelligent terminal and storage medium
Lin et al. Real-time image-based defect inspection system of internal thread for nut
US20220076021A1 (en) System and method for automatic visual inspection with deep learning
KR20230064511A (en) Apparatus and method for measuring dip coating shape using image analysis
CN116124081B (en) Non-contact workpiece detection method and device, electronic equipment and medium
CN110501063B (en) High-precision measurement method for high-frequency standing wave amplitude distribution
KR20210102458A (en) Methods and devices for obtaining information
Jafari et al. Long-term monitoring of structures through point cloud analysis
TW201317587A (en) Dimension measuring device and method thereof
JP2023068623A (en) Dip coating applied shape measurement device and method using video analysis
CN109781153B (en) Physical parameter estimation method and device and electronic equipment
CN112529952B (en) Object volume measurement method and device and electronic equipment