WO2022065621A1 - 제품 결함 이미지 원격 학습을 통한 비전 검사 시스템 - Google Patents
제품 결함 이미지 원격 학습을 통한 비전 검사 시스템 Download PDFInfo
- Publication number
- WO2022065621A1 WO2022065621A1 PCT/KR2021/005587 KR2021005587W WO2022065621A1 WO 2022065621 A1 WO2022065621 A1 WO 2022065621A1 KR 2021005587 W KR2021005587 W KR 2021005587W WO 2022065621 A1 WO2022065621 A1 WO 2022065621A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- inspection
- product
- image
- learning
- defect
- Prior art date
Links
- 238000007689 inspection Methods 0.000 title claims abstract description 283
- 230000007547 defect Effects 0.000 title claims abstract description 196
- 238000004519 manufacturing process Methods 0.000 claims abstract description 101
- 238000013135 deep learning Methods 0.000 claims abstract description 92
- 238000000034 method Methods 0.000 claims abstract description 70
- 230000002950 deficient Effects 0.000 claims abstract description 57
- 239000000126 substance Substances 0.000 claims abstract description 32
- 238000010191 image analysis Methods 0.000 claims abstract description 18
- 238000012549 training Methods 0.000 claims abstract description 17
- 238000012546 transfer Methods 0.000 claims abstract description 12
- 238000013527 convolutional neural network Methods 0.000 claims description 46
- 238000012545 processing Methods 0.000 claims description 32
- 230000005540 biological transmission Effects 0.000 claims description 25
- 238000004458 analytical method Methods 0.000 claims description 14
- 230000006870 function Effects 0.000 claims description 13
- 238000007747 plating Methods 0.000 claims description 13
- 239000000463 material Substances 0.000 claims description 11
- 238000013136 deep learning model Methods 0.000 claims description 9
- 239000000284 extract Substances 0.000 claims description 8
- 238000003860 storage Methods 0.000 claims description 7
- 238000002372 labelling Methods 0.000 claims description 5
- 238000007781 pre-processing Methods 0.000 claims description 5
- 238000013500 data storage Methods 0.000 claims description 4
- 230000000306 recurrent effect Effects 0.000 claims description 4
- 239000000872 buffer Substances 0.000 claims description 2
- 238000004891 communication Methods 0.000 claims description 2
- 238000005520 cutting process Methods 0.000 claims description 2
- 238000011161 development Methods 0.000 claims description 2
- 230000004069 differentiation Effects 0.000 claims description 2
- 238000002474 experimental method Methods 0.000 claims 1
- 238000011176 pooling Methods 0.000 description 18
- 230000008569 process Effects 0.000 description 16
- 238000001514 detection method Methods 0.000 description 13
- 238000010586 diagram Methods 0.000 description 13
- 238000007726 management method Methods 0.000 description 13
- 230000003287 optical effect Effects 0.000 description 12
- 239000013598 vector Substances 0.000 description 11
- 238000005259 measurement Methods 0.000 description 9
- 238000013473 artificial intelligence Methods 0.000 description 8
- 238000013528 artificial neural network Methods 0.000 description 8
- 238000000605 extraction Methods 0.000 description 8
- 239000000243 solution Substances 0.000 description 8
- 230000033001 locomotion Effects 0.000 description 7
- 238000012360 testing method Methods 0.000 description 5
- 238000003326 Quality management system Methods 0.000 description 4
- 230000009977 dual effect Effects 0.000 description 4
- 229910052736 halogen Inorganic materials 0.000 description 4
- 150000002367 halogens Chemical class 0.000 description 4
- 230000007246 mechanism Effects 0.000 description 4
- 239000004065 semiconductor Substances 0.000 description 4
- 239000003990 capacitor Substances 0.000 description 3
- 239000000470 constituent Substances 0.000 description 3
- 238000005286 illumination Methods 0.000 description 3
- 238000010276 construction Methods 0.000 description 2
- 238000013480 data collection Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 239000004575 stone Substances 0.000 description 2
- 238000009825 accumulation Methods 0.000 description 1
- 230000004931 aggregating effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 239000012634 fragment Substances 0.000 description 1
- 238000001746 injection moulding Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011017 operating method Methods 0.000 description 1
- 238000004886 process control Methods 0.000 description 1
- 238000003908 quality control method Methods 0.000 description 1
- 239000002994 raw material Substances 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N21/00—Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
- G01N21/84—Systems specially adapted for particular applications
- G01N21/88—Investigating the presence of flaws or contamination
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N21/00—Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
- G01N21/84—Systems specially adapted for particular applications
- G01N21/88—Investigating the presence of flaws or contamination
- G01N21/8851—Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06K—GRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
- G06K19/00—Record carriers for use with machines and with at least a part designed to carry digital markings
- G06K19/06—Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06K—GRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
- G06K19/00—Record carriers for use with machines and with at least a part designed to carry digital markings
- G06K19/06—Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code
- G06K19/06009—Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06K—GRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
- G06K19/00—Record carriers for use with machines and with at least a part designed to carry digital markings
- G06K19/06—Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code
- G06K19/067—Record carriers with conductive marks, printed circuits or semiconductor circuit elements, e.g. credit or identity cards also with resonating or responding marks without active components
- G06K19/07—Record carriers with conductive marks, printed circuits or semiconductor circuit elements, e.g. credit or identity cards also with resonating or responding marks without active components with integrated circuit chips
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06K—GRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
- G06K19/00—Record carriers for use with machines and with at least a part designed to carry digital markings
- G06K19/06—Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code
- G06K19/067—Record carriers with conductive marks, printed circuits or semiconductor circuit elements, e.g. credit or identity cards also with resonating or responding marks without active components
- G06K19/07—Record carriers with conductive marks, printed circuits or semiconductor circuit elements, e.g. credit or identity cards also with resonating or responding marks without active components with integrated circuit chips
- G06K19/0723—Record carriers with conductive marks, printed circuits or semiconductor circuit elements, e.g. credit or identity cards also with resonating or responding marks without active components with integrated circuit chips the record carrier comprising an arrangement for non-contact communication, e.g. wireless communication circuits on transponder cards, non-contact smart cards or RFIDs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/40—Image enhancement or restoration using histogram techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/136—Segmentation; Edge detection involving thresholding
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N21/00—Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
- G01N21/84—Systems specially adapted for particular applications
- G01N21/88—Investigating the presence of flaws or contamination
- G01N21/8851—Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
- G01N2021/8887—Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges based on image processing techniques
Definitions
- the present invention relates to a deep learning-based machine vision inspection system, and more particularly, comprising a defect inspection module providing shape determination inspection/foreign substance inspection/scratch inspection of camera image data, a defect determination module, and a data transmission module for learning It has a service platform that is linked through an edge platform and middleware, and the service platform provides manufacturing intelligence for defect determination and defect prediction, and a vision inspection system through remote learning of product defect images using a deep learning algorithm based on the learning data. is about
- Machine vision is a technology that converges software technologies of robots, machines, and vision systems.
- Machine vision inspection systems are used in the field of product surface defect inspection, PCB defect inspection, LED chip package, and other product defects.
- Machine vision inspection systems are used to detect defects in products by inspecting defects on the surface of mass-produced products.
- the machine vision inspection system consists of optical lighting (LED or halogen lighting), high-resolution cameras, camera interface equipment [Frame Grabber, Gigabit Ethernet (GigE), IEEE 1394, camera link, USB 3.0], I/O and motion control ( It is equipped with a vision image processing board in charge of motion control) and vision image processing software.
- a PC-based machine vision inspection system consists of an optical light (LED or halogen light), a camera, a camera interface [Frame Grabber, Gigabit Ethernet (GigE), IEEE 1394, Camera Link, USB 3.0], and a vision image processing board mounted on the computer. Foreign substances, scratches, and pattern errors on the product surface are detected through image processing by the provided vision inspection system and vision inspection image processing SW for inspection of the product surface image.
- LED optical light
- GigE Gigabit Ethernet
- IEEE 1394 Gigabit Ethernet
- Camera Link USB 3.0
- Foreign substances, scratches, and pattern errors on the product surface are detected through image processing by the provided vision inspection system and vision inspection image processing SW for inspection of the product surface image.
- Vision inspection image processing SW provides image acquisition (frame grabbing)/image processing/feature extraction/defect detection and control functions. Defects are inspected, and product defects are detected by comparing the feature values of normal images and inspection images by software with image processing and defect detection algorithms to measure foreign substances, scratches, pattern errors, engraving defects, and defect locations. do.
- the camera interface that connects the camera and PC uses Frame Grabber, Gigabit Ethernet (GigE), IEEE 1394a, IEEE 1394b, camera link, and USB 3.0.
- Table 1 shows the machine vision camera interface.
- the vision inspection system performs image processing by using the existing frame grabber or by using a camera interface such as Gigabit Ethernet (GigE) or CoaXpres to process high-speed, high-resolution, micrometer-level high-resolution measurement and large-capacity data.
- GigE Gigabit Ethernet
- CoaXpres to process high-speed, high-resolution, micrometer-level high-resolution measurement and large-capacity data.
- FIG. 1 is a configuration diagram of a vision inspection system having a sensor, an ID reader, a camera, and optical lighting in a conveyor belt production line having an encoder.
- Multi-optical module vision inspection system having a sensor, an ID reader, a camera, and optical lighting in a conveyor belt production line having an encoder.
- a mechanism part housing an outer case, a computer and a monitor having a keyboard and mouse on the front of the mechanism part, a camera part equipped with a high-resolution multi-camera constituting a line scan camera or an area scan camera on a fixed support, and a camera part
- An optical lighting unit installed at the bottom, an inspection stage located at the bottom of the camera unit and the optical illumination unit and placing an object to be inspected on the XY-stage, a base on which the inspection stage is placed, a vibration-reducing air cylinder structure under the base, anti-vibration equipment, vision inspection equipment It includes a frame that supports the left and right, and a stage unit transfer module that controls the XYZ position movement,
- the camera unit has a multi-camera constituting a line scan camera or an area scan camera on a fixed support.
- One camera is connected to one PC through a camera interface, and each PC is connected to LAN and TCP/IP through a network hub. is connected to the main server computer through the connected,
- the camera unit includes multi-cameras constituting a line scan camera or an area scan camera, and each camera has a high-resolution 10-100 ⁇ m (pixel size) precision 100 times higher than that of a general CCD camera for precise measurement of product surface defects. It uses a TDI camera that can measure,
- the anti-vibration facility uses a vibration-proof system using an air cylinder structure under the lattice beam under the base to reduce vibration during precise measurement of a vision inspection system using a line scan or area camera for precise measurement of 10-100 ⁇ m pixel size.
- a vibration-proof system using an air cylinder structure under the lattice beam under the base to reduce vibration during precise measurement of a vision inspection system using a line scan or area camera for precise measurement of 10-100 ⁇ m pixel size.
- ID reader reading the DPM code or 1D or 2D code attached to the product: the inspection object transferred to the conveyor belt of the production line in the factory automation process, or the inspection stage (by the loader of the inspection object transfer robot) XY stage) reads the ID of the placed product and transmits the detected product ID to the computer.
- Optical illumination In the vision inspection system, white or red LED light or halogen light having an optical fiber guide is used for optical illumination, and the LED is used in the embodiment of the present invention.
- LED lighting When using LED lighting, use a white LED and light controller arranged in a row, or a ring LED and light controller consisting of many LEDs surrounding the camera lens.
- a line scan camera or an area scan camera has multiple cameras, and each camera uses a TDI camera capable of precision measurement down to 10-20 ⁇ m units with a high resolution that is 100 times higher than that of a general CCD camera for precise measurement of product surface defects. .
- a CCD camera or CMOS image sensor (CIS) with a lower resolution than a TDI camera is used.
- optical lighting and high-resolution multi-camera are installed on a conveyor belt system operated by the drive of a step motor driver and a step motor (servo motor) connected to a computer while fixed to the support.
- a step motor driver operated by the drive of a step motor driver and a step motor (servo motor) connected to a computer while fixed to the support.
- a line scan camera or an area scan camera is installed,
- An encoder measures the exact amount of feed of a servo motor when a conveyor belt is operated in a production line in a factory.
- the mechanism unit further includes a robot to transfer the object to be placed on the test stage (XY stage) by a loader (loader).
- the mechanism unit records the ID of the product placed on the inspection stage (XY stage) by the inspected object transferred to the conveyor belt of the production line in the factory automation process, or the loader of the inspected object transfer robot, the DPM code attached to the product, or It may further include an ID reader that reads the barcode or QR code and transmits the detected product ID to the computer.
- the line scan camera is moved in the X-axis direction by the linear motor, the position of the inspection stage is moved in the Y-axis direction by the linear motor, and the camera unit is moved in the vertical direction along the Z1, Z2, and Z3 axes.
- the linear motor is operated by a motor driving unit linked to a control computer, and uses PID control to control the speed and movement position of the motor.
- the anti-vibration facility is a vibration-proof system using an air cylinder structure under the grid beam under the base to reduce vibration during precise measurement of a vision inspection system using a line scan or area scan camera for precise measurement of 10-100 ⁇ m pixel size.
- it is characterized in that it blocks external vibration and prevents internal vibration by installing a stone plate and an isolator.
- Machine vision is an image processing algorithm for vision inspection of a computer connected through a camera interface (Frame Grabber, Gigabit Ethernet (GigE), IEEE 1394a, IEEE 1394b, Camera Link, USB 3.0) interlocked with a manipulator and a line scan camera or an area scan camera.
- a camera interface Full Grabber, Gigabit Ethernet (GigE), IEEE 1394a, IEEE 1394b, Camera Link, USB 3.0
- image processing [(1) image acquisition, (2) image binarization, (3) image processing, (4) image analysis, (5) image analysis], foreign objects, scratches, and patterns on the display of the product surface Analyze defects such as errors and the location of defects to filter out product defects
- the image acquired using the Line Scan camera is fast for application in the production process because the image of the TFT-LCD acquired from the industrial PC through the camera interface is large. Image processing time is required. Since TFT-LCD images have a repeating pattern, LCD defective areas are easily detected using the image difference with adjacent patterns.
- Patent Publication No. 10-2019-0063839 provides "a machine vision-based quality inspection method and system utilizing deep learning in a manufacturing process”.
- FIG. 2 is an operation flowchart of a conventional deep learning-based classifier generation process.
- a machine vision-based quality inspection method using deep learning in a manufacturing process comprising: generating a product image for learning; training a classifier for classifying good and defective products with the generated learning product image; and using the learned classifier. and determining the product as a good product or a defective product. Accordingly, it is possible to find the characteristic values of the data to be determined by learning, and machine vision-based inspection becomes possible even for inspection areas that rely on manual inspection because it is difficult to formulate defects.
- the position of the inspection camera is aligned, the product to be inspected is photographed with the camera, and the region of interest is extracted and stored from the image generated through the camera photographing.
- the target image of the region of interest is cropped so as to be overlapped with a small image of a predetermined size as in the image preprocessing process of generating a learning model.
- the quality inspection apparatus performs an inspection using a classifier on each of each fragment image.
- the deep neural network algorithm outputs the classification number and probability value of the closest image among the training data used when generating a classifier through learning as a classification result. Accordingly, each sculpted image is checked whether the classification table is good or defective with the highest probability in the corresponding index through a deep learning-based classifier, and the determination result is displayed. At this time, in the case of a defective product, it is determined to be defective and the defective area is marked.
- An inspection apparatus for a machine vision system includes: a cradle having one or more lights to illuminate the interior and having a predetermined shape; a portable terminal having a camera function and capable of photographing an inspection object located inside the cradle while being fixed to the cradle; and a controller configured to set a shooting condition of the portable terminal according to an instruction of the portable terminal, and to control the lights according to the set shooting condition.
- a position moving device installed to be possible, a camera device installed in the position moving device to photograph the electronic components randomly arranged on the selection plate, and the electronic device installed in the housing based on image information photographed from the camera device
- An analysis device for calculating the position and angle of each part, the electronic component installed in the position moving device and randomly arranged on the sorting plate based on the calculated values such as the position and angle of the electronic component determined from the analysis device
- Patent Registration No. 10-21089560000 registers "a machine vision inspection apparatus having a machine vision modular software utilizing artificial intelligence, a driving method of the apparatus, and a computer-readable recording medium".
- a machine vision inspection apparatus having machine vision modular software using artificial intelligence, a method of driving the apparatus, and a computer-readable recording medium, comprising: machine vision modular software using artificial intelligence according to an embodiment of the invention;
- a machine vision inspection apparatus having a storage unit that differently stores learning sample data of a first volume for a plurality of inspection items related to a specified product for each user for an AI-based vision inspection, and a learning of the first volume stored differently Based on the sample data and the captured images provided by the photographing device of the production line, AI-based deep learning is performed for each inspection item to perform vision inspection of the specified product, and based on the results of the vision inspection, the first volume to the second It may include a control unit that expands the training sample data to the volume.
- Patent Publication No. 10-2019-0063839 discloses "a machine vision-based quality inspection method and system utilizing deep learning in the manufacturing process".
- a machine vision-based quality inspection method and system using deep learning in the manufacturing process are provided.
- a quality inspection method generates an image of a product for learning, trains a classifier for classifying good and bad products with the generated image of a product for learning, and uses the learned classifier to determine a product as good or bad do. Thereby, it is possible to find the characteristic value of the data to be discriminated against by itself by learning, and machine vision-based inspection becomes possible even for inspection areas that are difficult to formulate defects and rely on manual inspection.
- Patent Publication No. 10-2019-0067439 discloses "an apparatus and method for setting control variables in a deep learning-based semiconductor vision inspection system".
- a method of operating a control variable setting apparatus in a deep learning-based semiconductor vision inspection system comprising: receiving information on a plurality of control variables for controlling an operation of an image acquisition apparatus; constructing a control variable set using the number of the plurality of control variables included in the information and the number of variable values of each of the plurality of control variables, each of the constituent elements of the configured control variable set for at least one vision examination sample
- Disclosed is an operating method of a control variable setting device, characterized in that two constituent elements of at least one or more identical control variables are matched to have different variable values.
- a smart factory is built by combining a manufacturing execution system (MES), a vision inspection system, and a quality management system (QMS), and there is a barcode marking process on the product, and the vision inspection system is installed in the manufacturing process.
- MES manufacturing execution system
- QMS quality management system
- the production line filters out defects by detecting defects in the product generated by the machine vision system as unstructured data.
- a vision recognition error occurs due to defects in atypical patterns and diffuse reflection and vibration of the metal surface through the camera image in real time.
- MES Manufacturing Execution System
- the existing machine vision defect detection system requires expensive installation costs to install conveyor belts, encoders, cameras and vision systems in the manufacturing process and product production line. It can be a redundant investment when installing a deep learning vision system.
- small and medium-sized enterprises SMEs are realistically difficult to build more than 100 million conveyor belts and deep learning vision systems on their production lines, and require expensive artificial intelligence programming. The reality is that it is difficult to introduce the used deep learning vision inspection system.
- Patent Document 1 Patent Registration No. 10-1772673 (Registration Date August 23, 2017), "Multi-optical Module Vision Inspection System", APPS Co., Ltd.
- Patent Document 2 Patent Publication No. 10-2019-0063839 (published on June 10, 2019), “Machine vision-based quality inspection method and system using deep learning in the manufacturing process", Electronic Components Research Institute
- Patent Document 3 Patent Registration No. 10-11827680000 (Registration Date September 07, 2012), "Inspection Apparatus and Method for Machine Vision System", Mvision Co., Ltd.
- Patent Document 4 Patent Registration No. 10-1688641 (Registration Date December 15, 2016), "Machine Vision-based Electronic Component Inspection System", Dongseo University Industry-Academic Cooperation Foundation, KMsys
- Patent Document 5 Patent Registration No. 10-21089560000 (Registration Date: May 04, 2020), "Machine vision inspection apparatus having machine vision modular software using artificial intelligence, driving method of the apparatus, and computer readable Recording Media", Mann Company
- Patent Document 6 Patent Publication No. 10-2019-0063839 (published on June 10, 2019), "Machine vision-based quality inspection method and system using deep learning in the manufacturing process", Korea Electronics Technology Institute
- Patent Document 7 Patent Publication No. 10-2019-0067439 (published on June 17, 2019), "Device and method for setting control variables in a deep learning-based semiconductor vision inspection system", Korea Electronics and Telecommunications Research Institute
- An object of the present invention to solve the above problems is an edge platform having a defect inspection module that provides shape determination inspection/foreign substance inspection/scratch inspection of camera image data, a defect determination module, and a data transmission module for learning, and interworking through middleware It has a service platform that can be used, and the service platform provides defect determination manufacturing intelligence and defect prediction manufacturing intelligence, and provides a vision inspection system through remote learning of product defect images using a deep learning algorithm based on the learning data.
- the vision inspection system through product defect image remote learning is connected with a camera, sensor, LED light and controller, and includes a machine vision inspection system equipped with machine vision image analysis SW, and product ID an edge platform having a defect inspection module, a defect determination module, and a data transmission module for learning for reading and providing shape determination inspection/foreign substance inspection/scratch inspection of camera image data of the product; middleware connected to the edge platform and interworking with the service platform; and the edge platform and the middleware, providing defect determination manufacturing intelligence and defect prediction manufacturing intelligence, comparing the accumulated and stored defective image learning data to detect atypical defective images, and whether there is a foreign substance in the product's camera image data It includes a service platform that provides vision inspection through remote learning of product defect images using deep learning algorithms that provide inspection, shape inspection, and normal/failure determination result data.
- the vision inspection system through product defect image remote learning of the present invention is an edge platform and middleware having a defect inspection module providing shape determination inspection/foreign substance inspection/scratch inspection of camera image data, a defect determination module, and a manufacturing data transmission module for learning It has a service platform that is linked through
- the vision inspection system through remote learning of product defect images allows small and medium-sized enterprises (SMEs) that are difficult to build a smart factory equipped with a conveyor belt and machine vision system to build a deep learning vision inspection system using artificial intelligence programming at a relatively low cost to detect product defects. Based on the included learning data, defects (foreign substances, scratches, etc.) of the product were judged by the deep learning vision system and whether the product was defective.
- SMEs small and medium-sized enterprises
- the vision inspection method using product defect image remote learning includes machine vision-based PCB manufacturing intelligence that supports machine vision-based PCB defect determination and defect prediction, and valve manufacturing intelligence (machine vision) that can determine defects of pan valves and dual check valves. based PCB manufacturing intelligence, and machine vision-based valve manufacturing intelligence).
- Machine vision-based PCB manufacturing intelligence provides intelligent machine vision so that when it detects defects such as misplaced or misplaced, it can be found properly by using deep learning when it is found incorrectly in machine vision because it is hidden by the capacitor below.
- Machine vision-based valve manufacturing intelligence requires additionally installing a camera and taking multiple shots in order to detect scratch defects in machine vision. cost has been reduced.
- FIG. 1 is a configuration diagram of a vision inspection system having a sensor, an ID reader, a camera, and optical lighting in a conveyor belt production line having an encoder.
- FIG. 2 is an operation flowchart of a conventional deep learning-based classifier generation process.
- 3A and 3B are diagrams showing the main functions of a manual vision inspection machine having a camera connected to a PC, lighting, and a controller, and detecting defects (foreign substances, scratches, etc.) of the product to determine the defect of the product.
- FIG. 4 is a diagram showing a machine vision manufacturing intelligence platform using product defect image remote learning using a deep learning algorithm according to the present invention.
- FIG. 5 is a diagram illustrating a business model of a vision inspection method using product defect image distance learning.
- FIG. 6 is a wiring diagram of a vision system of a camera, a sensor, a lighting and a control box, a PC, and a PLC.
- FIG. 7 is an AI view of PC vision inspection (stains, dents, scratches), product shape inspection (untapped, defective deformation), and blob inspection (plating presence or absence) using a sensor and a camera on a deep learning-based machine vision platform. is the picture shown.
- FIG. 8 is a block diagram of a machine vision AI solution of a vision inspection method using product defect image remote learning.
- 9 is a machine vision AI solution architecture of a vision inspection method using product defect image remote learning.
- 10 is a machine vision AI modeling architecture of a vision inspection method using product defect image distance learning.
- 11 is a machine vision AI middleware architecture of a vision inspection method using product defect image remote learning.
- 12 is a machine vision AI platform process of a vision inspection method using product defect image remote learning.
- 13 is a machine vision AI platform integrated architecture of a vision inspection method using product defect image distance learning.
- machine vision-based PCB manufacturing intelligence that supports machine vision-based PCB defect determination and defect prediction according to a vision inspection method using product defect image remote learning, and Value manufacturing that can determine defects of Pan Valve and Dual Check Valve This is an example of developing intelligence (machine vision-based PCB manufacturing intelligence, machine vision-based valve manufacturing intelligence).
- the vision inspection system and method through product defect image remote learning of the present invention is a defect inspection module and defect determination module that reads a product ID and provides shape determination inspection/foreign substance inspection/scratch inspection of camera image data, and a manufacturing data transmission module for learning It has an edge platform and a service platform that is linked through middleware, and the service platform provides defect determination manufacturing intelligence and defect prediction manufacturing intelligence, and uses a deep learning algorithm based on the learning data.
- 3A and 3B are diagrams showing the main functions of a manual vision inspection machine having a camera connected to a PC, lighting, and a controller, and detecting defects (foreign substances, scratches, etc.) of the product to determine the defect of the product.
- Machine vision defect detection system If you have existing machine vision equipment, only the deep learning vision defect detection module can be introduced.
- Machine vision interface Receives the test sample image and the judgment result for reference from the existing machine vision.
- Deep learning learning proceeds with the received image and reference judgment result
- Deep learning re-learning The field worker sees the judgment result of 3 and makes a final judgment, and this result is reused as a deep learning learning material.
- steps 2 to 6 are sufficiently performed, the judgment accuracy of the deep learning vision test is high, and a separate judgment by the user is not required.
- FIG. 4 is a diagram illustrating a machine vision manufacturing intelligence platform using product defect image remote learning using a deep learning algorithm according to the present invention.
- Continuous customer management service is provided to improve the intelligence of the existing edge platform by advancing the machine vision manufacturing intelligence through joint manufacturing data learning for each similar industry in the service platform.
- the vision inspection system through remote learning of product defect images of the present invention includes a defect inspection module that reads a product ID and provides shape determination inspection/foreign substance inspection/scratch inspection of camera image data, a defect determination module, and a data transmission module for learning It has an edge platform and a service platform that interworks through middleware, and the service platform provides defect determination manufacturing intelligence and defect prediction manufacturing intelligence, and uses a deep learning algorithm based on the learning data.
- the product is attached with any one of a barcode, a QR code, or a 13.56MHz RFID tag.
- the PC when a barcode is attached to the product, the PC further includes a barcode reader and a recognition module for recognizing the barcode attached to the product.
- the PC when the QR code is attached to the product, the PC further includes a QR code recognition module for recognizing the QR code attached to the product.
- a 13.56 MHz RFID tag when attached to the product, it further includes a PC SW module connected to the 13.56 MHz RFID reader through "product code transmission middleware".
- the vision inspection system through product defect image remote learning is connected to the camera, sensor, LED light, and controller, has a machine vision inspection system equipped with machine vision image analysis SW, and is connected to the computer (PC) of the machine vision inspection system.
- a reader bar code reader, QR code reader, or 13.56 MHz RFID reader
- reads product ID bar code, QR code, 13.56 MHz RFID tag
- middleware connected to the edge platform and interworking with the service platform; and the edge platform and the middleware, providing defect determination manufacturing intelligence and defect prediction manufacturing intelligence, and comparing with accumulated and stored defective image learning data (training data set of defective images containing foreign substances or scratches)
- a service platform that provides vision inspection through remote learning of product defect images using AI deep learning algorithm that detects atypical defective images, inspects the presence of foreign substances in product camera image data, provides shape inspection, and normal/defective judgment result data.
- the edge platform has a defect inspection module (shape judgment inspection, foreign material inspection, scratch inspection, inspection data standard specification information collection, inspection prediction analysis screen, inspection result screen, good/defective inspection result judgment labeling storage and transmission), bad judgment module (judgment) Labeling, threshold analysis), defect prediction module (shape prediction analysis, foreign material prediction analysis, scratch prediction analysis, prediction rule correlation coefficient module), and manufacturing data transmission module for learning (manufacturing data storage and transmission module).
- the service platform shares defect determination manufacturing intelligence, defect prediction manufacturing intelligence, and manufacturing data for learning with the edge platform,
- the service platform has a manufacturing intelligence service module that provides development intelligence after deep learning, and includes Scikit-learn Engine, CNN, RNN, audio encoder, DB module to store manufacturing data for learning, and communication module on the Python framework. .
- the middleware is
- Product defect image According to the vision inspection method through remote learning, receive atypical defective processing data transmitted from the machine vision system and compare it with the accumulated and stored defective image training data (foreign substances, scratches) by the deep learning model training system to obtain atypical defective images Equipped with an atypical defect determination learning model to detect, and by AI deep learning module by a deep learning shape determination system It includes deep learning middleware that transmits to
- any one of Tensorflow, Keras, Caffe, and PyTorch can be used.
- the optical lighting unit It is located at the bottom of the camera unit and the optical lighting unit and further includes an inspection stage on which the object to be inspected is placed on the XY-stage, a base on which the inspection stage is placed, a frame supporting the vision inspection equipment, and a stage unit transfer module for controlling the XYZ position movement and
- the camera is connected to the PC via the camera interface, and the PC is connected to the main server computer via LAN and TCP/IP via a network hub.
- the image analysis SW of the camera image data may use i) grayscale image processing, or ii) a deep learning algorithm.
- grayscale image RGB image, HSI image, YCbCr, JPEG image, TIFF image, GIF image, etc. are applicable.
- a grayscale image was used.
- the image analysis SW converts camera image data (RGB image) into gray scale image data, buffers and stores using gray scale image, provides image processing and image analysis functions, and provides a region of interest (ROI, ROI, Region of Interest) is converted to grayscale, and a histogram [x The pixel value of each pixel in the axial image, the number of corresponding pixel values on the y-axis] is obtained, the ROI image is binarized to 0, 1 based on the threshold value using the Ostu algorithm, and then the histogram Preprocessing of the image of the region of interest (ROI) is performed through histogram equalization, and differentiation in the x-direction and the y-direction are performed using the sobel edge operator (sobel mask) or canny edge operator (canny edge operator).
- sobel edge operator sobel mask
- canny edge operator canny edge operator
- pixel values f(x,y) separate the input image into an object region and a background region based on a specific threshold value, and the pixel value f(x,y) sets a specific threshold value. If the value is greater than the value, it is determined as a pixel belonging to the object area. On the contrary, if the pixel value f(x,y) is smaller than a specific threshold value, it is determined as a pixel belonging to the background area.
- the deep learning algorithms of machine vision image analysis SW are Convolutional Neural Network (CNN), Recurrent Convolutional Neural Network (R-CNN), Fast RCNN, and Faster Region based Convolutional Neural Network (RCNN) algorithms, You Only Look Once (YOLO), Object detection is performed using any one of the Single Shot Detector (SSD) algorithms.
- CNN Convolutional Neural Network
- R-CNN Recurrent Convolutional Neural Network
- RCNN Faster Region based Convolutional Neural Network
- YOLO You Only Look Once
- Object detection is performed using any one of the Single Shot Detector (SSD) algorithms.
- the deep learning algorithm of the machine vision image analysis SW uses a CNN algorithm, and uses any one of AlexNet, ZFNet, VGGNet, GoogLeNet, and ResNet.
- Feature extraction and classification of images are performed using the CNN algorithm, and defective objects (foreign substances, scratches) are detected by comparing them with the learning data of the defect images accumulated and stored in the learning data DB according to the learning model. extract
- the CNN Conventional Neural Network
- the CNN consists of an input layer / n hidden layers (Layer 1, Layer 2, Layer 3...) / output layer from the camera input image. It detects defective objects (foreign substances, scratches, etc.) by performing feature extraction and classification of images through multilayer perceptron using a multilayer convolutional neural network (CNN).
- CNN convolutional neural network
- a convolutional neural network uses three layers including a convolutional layer, a pooling layer, and a fully connected layer (FC layer).
- the CNN algorithm moves a mask (eg, a 3x3 window) with a weight and repeats convolution and subsampling by a convolutional layer and a pooling layer, respectively, to obtain image data.
- a mask eg, a 3x3 window
- Defective objects foreign substances
- detected according to the learning model by a neural network extracting features robust to image distortion by reducing the amount, extracting feature maps by convolution , scratches, etc.
- convolution is image processing using a weighted mask (eg, 3x3 window), moving a mask (eg, 3x3 window) with a weight to the input image, After a mask having a weight is put on the current input image, the pixel value of the input image is multiplied by the weight of the mask, and the sum is determined as the pixel value of the output image.
- a weighted mask eg, 3x3 window
- moving a mask eg, 3x3 window
- Subsampling is the process of reducing the screen size, and max pooling is used to select the maximum value of the corresponding area.
- the FC layer (Fully Connected Layer) classifies objects by learning by connecting them to the input terminals of the neural network.
- the output of the convolutional layer undergoes subsampling by the Max-Pooling Layer to reduce the size of the image, and the output of the Max-Pooling classifies the object class in the FC layer (Fully Connected Layer).
- a feature map including object location area and type information is extracted from several convolutional layers in the middle of the CNN structure, and a pooling layer (The size of the feature map decreases as it passes through the pooling layer, and the object location area information is extracted from the feature maps of different sizes to detect objects, and the FC layer (Fully Connected Layer) It classifies defective objects (foreign substances, scratches) by comparing it with the pre-training data of the learning model.
- CNN convolutional neural network
- hi is the i-th hidden feature vector
- hi-1 is the i-1th hidden feature vector
- Wi is a weight parameter (a constant value) of the neural network circuit
- bi is a bias value of the neural network circuit.
- the input feature vector is , and if there are a total of L hidden layers, h 1 , h 2 , ... h L are calculated sequentially and the final output vector is is determined by Also, h 1 ,h 2 ,...h L-1 are quantities that are not revealed as outputs of the system and are called hidden feature vectors. h L-1 is the L-1 th hidden feature vector.
- R-CNN The basic structure of R-CNN is to extract Region Proposals where objects are estimated to exist by using a Region Proposal generation algorithm called Selective Search from the input image.
- Each Region Proposal is in the form of an image in a rectangular Bounding Box. After making all Region Proposals the same size, classification is performed through CNN.
- R-CNN is slow because it has to run one convolutional neural network (CNN) for every region proposal, and machine learning because it has to learn a model for image feature extraction, a model for classification, and a model to hold the bounding box at the same time It took a lot of time to
- the Fast R-CNN model does not extract features from the input image, but extracts features using RoI Pooling on the feature map that has been passed through CNN.
- RPN Region Proposal Network
- a layer that performs RoI Pooling and a layer that extracts a Bounding Box through RPN can share the same feature map.
- the Fast RCNN receives the entire image and objects, and acquires a feature map of the CNN for the entire image.
- the ROI (Region of Interest) pooling layer extracts a feature vector of a fixed length from a feature map for each entity. Each feature vector becomes one sequence through the FC layer (Fully Connected layer), and the probability estimation through Softmax and the position of the bounding box are output.
- Pooling is a sub-sampling process that can reduce the resolution of an image by aggregating the statistics of features from various locations. Pooling improves robustness to image deformations such as rotation, noise, and distortion. Two methods of pooling are used.
- the convolution layer and the pooling layer are repeated, and layers of various functions can be added according to the structure.
- the features extracted through the convolution and pooling process on the input image can be classified by applying various classifiers (e.g., SVM classifier) according to the learning data of the learning model.
- SVM classifier e.g., SVM classifier
- Faster R-CNN extracts features through the whole convolution layer on the input image several times, and the RPN and RoI Pooling Layer share the extracted output feature map.
- the RPN extracts Region Proposals from a feature map, and the RoI Pooling Layer performs RoI pooling on the Region Proposals extracted from the RPN.
- YOLO You Only Look Once
- YOLO divides each image into SxS grids (grid, bounding box), calculates the reliability of each grid, reflects the accuracy when recognizing objects in the grid, and classifies the class by viewing the entire image at once. It has twice the performance compared to other models. To calculate whether an object is included in the grid, the object class score is calculated. As a result, a total of S x S x N objects are predicted.
- the SSD (Single Shot Detector) model which is similar to YOLO and shows better performance, has a unique advantage in the balance between the speed and accuracy of object detection in the image. ) can be calculated, so it is possible to detect objects of various scales.
- SSD is an AI-based object detection algorithm that balances object detection speed and accuracy in which a grid for object detection in a camera image is displayed.
- the SSD executes a Convolutional Neural Network (CNN) on the input image only once and calculates a feature map.
- CNN Convolutional Neural Network
- FIG. 5 is a diagram illustrating a business model of a vision inspection method using product defect image distance learning.
- FIG. 6 is a connection diagram of a vision system connected to a camera, lighting, control box, PC or PLC.
- the AI machine vision inspection system through product defect image remote learning includes a PC 100 , a PLC 110 , a camera 120 , a sensor 130 , a light 140 , and a controller 170 .
- the controller 170 is connected to the camera 120 , the sensor 130 , and the lighting 140 ,
- the PC 100 connected to the camera 120 may be connected to the PLC 110 .
- the vision inspector has a camera 120 connected to the PC 100, a light 140, and a controller 170, and detects defects (foreign substances, scratches, etc.)
- the vision inspector further includes a sensor 130 that additionally provides a trigger input to the camera 120 .
- the light 140 is a white or red LED light, or a halogen light having an optical fiber guide, and in the embodiment, an LED light and a light controller are used.
- LED lighting When using LED lighting, use a white LED and lighting controller arranged in a row, or a ring LED and lighting controller consisting of multiple LEDs surrounding the camera lens. As the lighting, ring LED lighting, top/top/top/top/right inclined angle lighting, backlight lighting, etc. may be used.
- the PC 100 having the deep learning-based vision image processing SW further includes a PLC 110 connected through an Ethernet cable.
- the machine vision image analysis SW of the camera image data of the product uses i) gray scale image processing, or ii) a deep learning algorithm,
- Grayscale images RGB images, HSI images, YCbCr, JPEG images, TIFF images, and GIF images are applied to the camera video image.
- the deep learning algorithm is CNN (Convolutional Neural Network), R-CNN (Recurrent Convolutional Neural Network), Fast RCNN, and Faster RCNN (Region based Convolutional Neural Network) algorithm, YOLO (You Only Look Once), SSD (Single Shot Detector) ) algorithm is used to detect foreign objects in the camera image data and objects with defects in scratches to determine whether the product is defective.
- the deep learning algorithms of machine vision image analysis SW are Convolutional Neural Network (CNN), Recurrent Convolutional Neural Network (R-CNN), Fast RCNN, and Faster Region based Convolutional Neural Network (RCNN) algorithms, You Only Look Once (YOLO), By using any one of the SSD (Single Shot Detector) algorithms to detect the objects in the image (object detection), it is determined whether the product is defective.
- CNN Convolutional Neural Network
- R-CNN Recurrent Convolutional Neural Network
- RCNN Faster Region based Convolutional Neural Network
- the deep learning algorithm of the machine vision image analysis SW of the edge platform uses a CNN algorithm, and any one of AlexNet, ZFNet, VGGNet, GoogLeNet, and ResNet is used.
- the CNN algorithm uses the CNN algorithm to feature extraction and classification of the image, and comparing the learning data of the accumulated defect image of the learning model to extract a defective object (foreign matter, scratch), and service the image including the defective object transmitted to the platform, and the service platform determines whether the product is defective.
- Products can be tagged with barcodes, QR codes, or 13.56 MHz RFID tags.
- the PC may further include a barcode reader and a recognition module for recognizing the barcode attached to the product.
- the PC may further include a QR code recognition module for recognizing the QR code attached to the product.
- the PC may further include a software module connected to the 13.56 MHz RFID reader and the "product code transmission middleware".
- the middleware is
- Product defect image According to the vision inspection method through remote learning, receive atypical defective processing data transmitted from the machine vision system and compare it with the accumulated and stored defective image training data (foreign substances, scratches) by the deep learning model training system to obtain atypical defective images Equipped with an atypical defect determination learning model to detect, and by AI deep learning module by a deep learning shape determination system It includes deep learning middleware that transmits to
- the PC can be linked with the control robot through a robot interface to control product movement after deep learning-based 2D vision inspection.
- FIG. 7 is an AI view of PC vision inspection (stains, dents, scratches), product shape inspection (untapped, defective deformation), and blob inspection (plating presence or absence) using a sensor and a camera on a deep learning-based machine vision platform. is the picture shown.
- the sensor generates a trigger input and transmits it to the camera, and the camera generates a digital output to control the lighting strobe, generates image data from the image sensor and transmits it to the PC.
- the PC inspects image data inspection (stains, dents, scratches), product shape inspection (unmarked, defective deformation), and blob inspection (plating presence or absence) as needed.
- Product shape inspection judges whether or not the shape of the product is deformed based on the shape and size of the product image based on the image of a good product.
- Blob inspection judges the presence or absence of plating based on a standard prepared by comparing the brightness of the normal plating area with the brightness of the defective plating area.
- FIG. 8 is a block diagram of a machine vision AI solution of a vision inspection method using product defect image remote learning.
- the learned intelligence is executed on a machine vision platform based on deep learning to increase the process defect detection rate.
- 9 is a machine vision AI solution architecture of a vision inspection method using product defect image remote learning.
- the machine vision AI solution architecture of the vision inspection method through remote learning of product defect images identifies product models (image taking, QR code recognition, model information extraction), and performs model-specific inspection (select inspection algorithm for each model-> foreign material inspection-> Inspection for shape determination -> Inspection for scratches -> Inspection for shape dimensions), and product classification (control robot interface -> Defect determination data storage -> Middleware data transmission) are executed.
- 10 is a machine vision AI modeling architecture of a vision inspection method using product defect image distance learning.
- Machine vision AI modeling architecture is based on MS SQL express, Image Storage, Python (using Scikit-learn, Keras, Tensorflow deep learning tools), Python Flask 1.1.1, 2D vision inspection and MES (Manufacturing Execution System) on a PC with MS Windows 10 operating system installed. , Manufacturing Execution System) interface, AI learning module, product inspection management module, and product real-time inspection module.
- MES/QMS manufacturing execution system/quality management system
- MES Manufacturing Execution System
- MES Manufacturing Execution System
- 11 is a machine vision AI middleware architecture of a vision inspection method using product defect image remote learning.
- the established machine vision (MV) system of the manufacturing company and the newly introduced deep learning vision inspection system communicate with the PC through middleware,
- the PC is equipped with an integrated operation management software for integrated management of product inspection information according to product inspection standards, and a database for storing data transmission/reception, shape numerical information transfer, acquisition data processing, DB operation management, and product inspection reference information.
- the machine vision (MV) system transmits the image shape information of the inspection result of the camera image through middleware to the PC and the deep learning vision inspection system through the middleware, and stores the product defect and defect learning data accumulated in advance from the deep learning vision inspection system. Based on the product inspection standards (foreign substances, scratches, etc.), the result of the judgment data is transmitted to the machine vision (MV) system through the PC and middleware.
- 12 is a machine vision AI platform process of a vision inspection method using product defect image remote learning.
- the vision inspection method using product defect image distance learning is
- the training step may include: providing atypical defect and defect data based on the collected defect determination data required by the manufacturing enterprise (demand enterprise);
- the machine vision system includes the steps of performing a foreign material inspection, shape inspection, and scratch inspection according to product inspection standards based on the defect and defect data, and providing machine vision inspection result data of a camera image;
- Middleware includes data transmission/reception (TCP/IP), machine vision inspection result data collection, processing product defect and defect data, and providing learning data to a PC; and
- the deep learning system includes the steps of data preprocessing of the image of the camera image, training the deep learning model, and verifying the deep learning model.
- the execution step may include: providing atypical defect and defect data based on the collected defect determination data required by the manufacturing enterprise (demand enterprise);
- the deep learning system includes the steps of performing a foreign material inspection, shape presence inspection, and scratch presence inspection according to product inspection standards based on the defect and defect data, and providing deep learning inspection result data of a camera image;
- Middleware includes data transmission/reception (TCP/IP), deep learning inspection result data collection, processing of product defect and defect data, integrated management and storage of DB of PC, and providing inspection data to PC; and
- the deep learning system includes the steps of providing inspection result data including atypical image reading of camera images, atypical shape inspection, atypical normal/defective judgment, and atypical defects and defects to a PC through middleware.
- 13 is a machine vision AI platform integrated architecture of a vision inspection method using product defect image distance learning.
- Machine vision AI solution architecture of the vision inspection method through remote learning of product defect images identifies the product model (image shooting, QR code recognition, model information extraction), and performs inspection by model (select inspection algorithm for each model -> inspection for foreign substances) -> Inspection for shape determination -> Inspection for scratches -> Inspection for shape dimensions) and product classification (control robot interface -> Defect determination data storage -> Middleware data transmission) are executed.
- Deep learning model training system training dataset -> data labeling, data preprocessing -> deep artificial neural network training -> deep learning model creation, deep learning model validation on test dataset
- Deep learning shape judgment system deep learning deep learning model, image reading, shape inspection, normal/failure determination, result data transmission
- Machine vision-based PCB manufacturing intelligence that supports machine vision-based PCB defect determination and defect prediction according to a vision inspection method using product defect image remote learning, and Valve manufacturing capable of determining defects of Pan Valve and Dual Check Valve This is an example of developing intelligence (machine vision-based PCB manufacturing intelligence, machine vision-based valve manufacturing intelligence).
- Machine vision-based PCB manufacturing intelligence is an example of making intelligent machine vision so that when a defect such as misapplication or misapplication is detected, it can be found properly by using deep learning when it is found incorrectly in machine vision because it is hidden by the capacitor below.
- Machine vision-based valve manufacturing intelligence requires an additional camera to be installed and taken several times to detect foreign substances and scratch defects in machine vision. This saves inspection time and cost.
- the vision inspection method through remote learning of product defect images of the present invention allows small and medium-sized enterprises (SMEs) that are difficult to build a smart factory equipped with a conveyor belt and machine vision system to build a deep learning vision inspection system using artificial intelligence programming at a relatively low cost. Based on the learning data including product defects, defects (foreign substances, scratches, etc.) of the product are judged by the deep learning vision system and whether the product is defective.
- SMEs small and medium-sized enterprises
- Embodiments according to the present invention may be implemented in the form of program instructions that can be executed by various computer means and recorded in a computer-readable recording medium.
- the computer-readable recording medium may include program instructions, data files, and data structures alone or in combination.
- Computer-readable recording media include storage, hard disks, magnetic media such as floppy disks and magnetic tapes, optical recording media such as CD-ROMs and DVDs, and magnetic media such as floppy disks.
- a hardware device configured to store and execute program instructions in a magneto-optical media, and a storage medium such as ROM, RAM, flash memory, and the like may be included. Examples of program instructions may include those generated by a compiler and not only machine language code but also high-level language code that can be executed by a computer using an interpreter.
- the hardware device may be configured to operate as one or more software modules to perform the operations of the present invention.
- the method of the present invention is implemented as a program and can be read using computer software in a form that can be read on a recording medium (CD-ROM, RAM, ROM, memory card, hard disk, magneto-optical disk, storage device, etc.). ) can be stored in a recording medium (CD-ROM, RAM, ROM, memory card, hard disk, magneto-optical disk, storage device, etc.). ) can be stored in a recording medium (CD-ROM, RAM, ROM, memory card, hard disk, magneto-optical disk, storage device, etc.). ) can be stored in a recording medium (CD-ROM, RAM, ROM, memory card, hard disk, magneto-optical disk, storage device, etc.). ) can be stored in a recording medium (CD-ROM, RAM, ROM, memory card, hard disk, magneto-optical disk, storage device, etc.). ) can be stored in a recording medium (CD-ROM, RAM, ROM, memory card, hard disk, magneto-optical disk, storage device, etc
- the vision inspection system through product defect image remote learning of the present invention is an edge platform and middleware having a defect inspection module providing shape determination inspection/foreign substance inspection/scratch inspection of camera image data, a defect determination module, and a manufacturing data transmission module for learning It has a service platform that is linked through
- the vision inspection system through remote learning of product defect images allows small and medium-sized enterprises (SMEs) that are difficult to build a smart factory equipped with a conveyor belt and machine vision system to build a deep learning vision inspection system using artificial intelligence programming at a relatively low cost to detect product defects. Based on the included learning data, defects (foreign substances, scratches, etc.) of the product were judged by the deep learning vision system and whether the product was defective.
- SMEs small and medium-sized enterprises
- the vision inspection method using product defect image remote learning includes machine vision-based PCB manufacturing intelligence that supports machine vision-based PCB defect determination and defect prediction, and valve manufacturing intelligence (machine vision) that can determine defects of pan valves and dual check valves. based PCB manufacturing intelligence, and machine vision-based valve manufacturing intelligence).
- Machine vision-based PCB manufacturing intelligence provides intelligent machine vision so that it can be properly found using deep learning when it is detected incorrectly by machine vision because it is hidden by the capacitor below when detecting defects such as misplaced or misplaced.
- Machine vision-based valve manufacturing intelligence requires additionally installing a camera and taking multiple shots in order to detect scratch defects in machine vision. cost has been reduced.
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Computer Hardware Design (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Pathology (AREA)
- Microelectronics & Electronic Packaging (AREA)
- Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Chemical & Material Sciences (AREA)
- Analytical Chemistry (AREA)
- Biochemistry (AREA)
- General Health & Medical Sciences (AREA)
- Immunology (AREA)
- Quality & Reliability (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
- Image Analysis (AREA)
Abstract
제품 결함 이미지 원격 학습을 통한 비전 검사 시스템 및 방법이 개시된다. 제품 결함 이미지 원격 학습을 통한 비전 검사 시스템은 카메라, 센서와 LED 조명과 콘트롤러와 연결되고, 머신 비전 영상 분석 SW를 구비한 머신 비전 검사 시스템을 구비하며, 제품 ID를 판독하고, 제품의 카메라 영상 데이터의 형상 판단 검사/이물질 검사/스크래치 검사를 제공하는 불량 검사 모듈과 불량 판정 모듈과 학습용 제조용 데이터 전송 모듈을 구비하는 엣지 플랫폼; 상기 엣지 플랫폼과 연결되고 서비스 플랫폼과 연동하는 미들웨어; 및 상기 엣지 플랫폼과 상기 미들웨어를 통해 연동되며, 불량 판정 제조 지능, 불량 예측 제조 지능을 제공하며, 누적되어 저장된 불량 이미지 학습 데이터와 비교하여 비정형 불량 이미지를 검출하고, 제품의 카메라 영상 데이터의 이물질 유무 검사, 형상 검사, 정상/불량 판정 결과 데이터를 제공하는 딥러닝 알고리즘을 사용한 제품 결함 이미지 원격 학습을 통한 비전 검사를 제공하는 서비스 플랫폼을 포함한다.
Description
본 발명은 딥러닝 기반 머신 비전 검사 시스템에 관한 것으로, 보다 상세하게는 카메라 영상 데이터의 형상 판단 검사/이물질 검사/스크래치 검사를 제공하는 불량 검사 모듈과 불량 판정 모듈과 학습용 제조용 데이터 전송 모듈을 구비하는 엣지 플랫폼과 미들웨어를 통해 연동되는 서비스 플랫폼을 구비하며, 서비스 플랫폼은 불량 판정 제조 지능, 불량 예측 제조 지능을 제공하며, 학습 데이터에 기초하여 딥러닝 알고리즘을 사용한 제품 결함 이미지 원격 학습을 통한 비전 검사 시스템에 관한 것이다.
머신 비전(MV, machine vision)은 로봇, 기계, 비전 시스템의 소프트웨어 기술이 융합된 기술로써 산업체의 공장 자동화(FA, Factory Automation) 공정에서 wafer, 디스플레이, PCB 검사, LED chip 반도체 패키지 검사 등의 여러 분야에서 제품 표면 결함 검사, PCB 결함 검사, LED chip package, 기타 제품의 불량을 검출하는데 머신 비전 검사 시스템을 사용한다. 머신 비전 검사 시스템은 대량으로 생산되는 제품 표면의 결함을 검사하여 제품의 불량을 검출하는데 사용된다.
머신 비전 검사 시스템은 광학 조명(LED 또는 할로겐 조명), 고해상도 카메라, 카메라 인터페이스 장비[Frame Grabber, Gigabit Ethernet(GigE), IEEE 1394, camera link, USB 3.0], 산업용 PC의 I/O와 모션 제어(motion control)를 담당하는 비전 영상처리 보드, 비전 영상 처리 소프트웨어를 구비한다.
PC 기반의 머신 비전 검사 시스템은 광학 조명(LED 또는 할로겐 조명), 카메라, 카메라 인터페이스[Frame Grabber, Gigabit Ethernet(GigE), IEEE 1394, 카메라 링크, USB 3.0], 컴퓨터에 탑재된 비전 영상처리 보드가 구비된 비전 검사 시스템, 제품 표면 이미지의 검사(inspection)를 위한 비전 검사 영상처리 SW에 의해 이미지 프로세싱(image processing)를 통해 제품 표면의 이물질, 스크래치, 패턴 오류를 검출한다.
비전 검사 영상처리 SW는 이미지 획득(frame grabbing)/이미지 처리(imgae processing)/특징 추출(feature extraction)/결함 검출과 제어 기능을 제공하며, 카메라와 연동된 컴퓨터의 비전 검사 시스템은 실시간으로 제품 표면 결함을 검사하여 영상 처리(image processing)와 결함 검출 알고리즘을 가진 소프트웨어에 의해 정상 이미지와 검사 이미지의 특징값을 비교하여 이물질, 스크래치, 패턴 오류, 찍힘성 결함과 결함 위치를 측정하여 제품 불량을 검출한다.
□ 비전 검사 시스템의 기능
1) 디스플레이 패널 및 반도체 샘플/제품 정밀 촬영(비전 검사)
2) 결함 검출 및 양불 판정 Review
3) 광학 카메라 및 조명 제어
4) 검사 스테이지 유닛 이송 제어
5) 비상 상황 시 알람 발생 기능
카메라와 PC를 연결하는 카메라 인터페이스는 프레임 그래버(Frame Grabber), Gigabit Ethernet(GigE), IEEE 1394a, IEEE 1394b, camera link, USB 3.0를 사용한다. 표 1은 머신 비전 카메라 인터페이스를 나타낸다.
비전 검사 시스템은 기존 Frame Grabber를 사용하거나, 또는 ㎛ 단위 고해상도 정밀 측정과 대용량 데이터를 고속으로 처리하기 위해 기가비트 이더넷(GigE), CoaXpres 등의 카메라 인터페이스를 사용하여 영상처리를 한다.
구분 | Gigabit Ethernet(GigE) | IEEE 1394a | IEEE 1394b | camera link |
케이블 길이 | 100m | 4.5m(리피터를 사용하는 경우 72m까지 가능) | 4.5m(리피터를 사용하는 경우 72m까지 가능) | 최대 15m |
대역폭 |
100 Mb/s | 32 Mbytes/s | 64 Mbytes/s | 255Mbytes/s(base configuration) 680Mbytes/s(full configuration) |
Bit rate | 1000 Mb/s | 400 Mb/s | 800 Mb/s | > 2000 Mb/s |
표준 |
GigE Vision Standard | IEEE 1394 Trade Association DCAM Standard |
IEEE 1394 Trade Association DCAM Standard |
AIA 카메라 링크 표준 |
인터페이스 보드 | 기가비트 이더넷 보드 | IEEE 1394a 보드 | 특별한 프레임 그래버 | |
카메라 최대수 | 제한 없음 | 16대 (DCAM) | 16대 (DCAM) | 프레임 그래버당 2대 |
케이블 | Industrial and consumer | Industrial and consumer | Industrial and consumer | Industrial |
도 1은 엔코더를 구비한 컨베이어 벨트 생산 라인에서 센서와 ID 리더기와 카메라와 광학 조명을 구비하는 비전 검사 시스템 구성도이다. 멀티 광학 모듈 비전 검사 시스템은
외면 케이스가 하우징되는 기구부, 상기 기구부의 정면에는 키보드 마우스를 구비하는 컴퓨터와 모니터를 구비하며, 고정된 지지대에 line scan 카메라 또는 area scan 카메라를 구성하는 고해상도 멀티 카메라가 구비된 카메라부와, 카메라부 하단에 설치된 광학 조명부와, 카메라부와 광학조명부 하단에 위치되며 피검사체가 XY-스테이지에 놓이는 검사 스테이지와, 상기 검사 스테이지가 놓이는 베이스와, 베이스 밑에 진동 저감 Air Cylinder 구조의 방진 설비, 비전 검사 장비 좌우를 지지하는 프레임, XYZ 위치 이동을 제어하는 스테이지 유닛 이송 모듈을 포함하며,
상기 카메라부는 고정된 지지대에 라인 스캔 카메라 또는 에어리어 스캔 카메라를 구성하는 멀티 카메라가 카메라 인터페이스를 통해 각각 하나의 카메라가 각각 하나의 PC에 연결되고, 각각의 PC는 네트워크 허브를 통해 LAN과 TCP/IP를 통해 메인 서버 컴퓨터에 연결되며, 상기 메인 서버 컴퓨터는 네트워크 허브를 통해 LAN과 TCP/IP를 통해 엔코더/분배기와 연결되며, 상기 엔코더/분배기는 라인 스캔 카메라 또는 에어리어 스캔 카메라를 구성하는 멀티 카메라에 연결되며,
상기 카메라부는 라인 스캔 카메라 또는 에어리어 스캔 카메라를 구성하는 멀티 카메라들을 구비하며, 각각의 카메라는 제품 표면 결함의 정밀 측정을 위해 일반 CCD 카메라보다 100배 정도 향상된 고해상도 10~100㎛(pixel size)의 정밀 측정이 가능한 TDI 카메라를 사용하며,
상기 방진 설비는 10~100㎛ pixel size의 정밀 측정을 위한 라인 스캔 또는 에어리어 카메라를 사용한 비전 검사 시스템의 정밀 측정시 진동을 저감시키기 위해 상기 베이스 밑에 격자보 하단의 Air Cylinder 구조를 이용한 방진 시스템을 사용하였으며, 즉, 석정반과 Isolator를 설치하여 외부 진동에 대한 차단 및 내부 진동을 방지한다.
1) ID 리더기(제품에 부착된 DPM 코드, 또는 1D 또는 2D 코드 판독): 공장 자동화 공정에서 생산 라인의 컨베이어 벨트로 이송된 검사 대상체, 또는 검사 대상체 이송 로봇의 로더(loader)에 의해 검사 스테이지(XY 스테이지)의 놓인 제품의 ID를 판독하여 컴퓨터로 검출된 제품ID를 전송한다.
2) 광학 조명(illumination): 비전 검사 시스템에서 광학 조명은 흰색 또는 적색 LED 조명, 또는 광섬유 가이드를 가지는 할로겐 조명 사용하며, 본 발명의 실시예에서는 LED를 사용하였다.
LED 조명을 사용하는 경우, 일렬로 배열된 white LED와 조명 콘트롤러, 또는 카메라 렌즈 주위를 둘러싼 많은 LED들로 구성된 링 LED와 조명 콘트롤러 사용한다.
3) 카메라
Line Scan 카메라 또는 Area Scan 카메라는 멀티 카메라들을 구비하며, 각각의 카메라는 제품 표면 결함의 정밀 측정을 위해 일반 CCD 카메라보다 100배 정도 향상된 고해상도 10~20㎛ 단위까지 정밀 측정이 가능한 TDI camera를 사용한다.
10~20㎛ 단위까지 카메라의 정밀 측정이 요구되지 않는 경우, TDI 카메라 보다 해상도가 낮은 CCD 카메라, 또는 CMOS 이미지 센서(CMOS Image Sensor, CIS)가 사용된다.
4) 엔코더(Encoder)
산업체의 공장 자동화 공정에서 컴퓨터와 연결된 스텝 모터 드라이버(Step Motor Driver)와 스텝 모터(Step Motor, 서보 모터)의 구동에 의해 동작되는 컨베이어 벨트 시스템 위에서 지지대에 고정된 상태에서 광학 조명과 고해상도 멀티 카메라를 구비하는 Line scan 카메라 또는 Area scan 카메라가 설치된 상황에서,
엔코더(Encoder)는 공장의 생산 라인에서 컨베이어 벨트(conveyor belt)를 동작시키는 경우, 서보 모터의 정확한 이송량을 측정한다.
상기 기구부는 로더(loader)에 의해 검사 스테이지(XY 스테이지)의 놓는 피검사체 이송 로봇을 더 포함한다.
상기 기구부는 공장 자동화 공정에서 생산 라인의 컨베이어 벨트로 이송된 피검사체, 또는 피검사체 이송 로봇의 로더(loader)에 의해 검사 스테이지(XY 스테이지)의 놓인 제품의 ID를 제품에 부착된 DPM 코드, 또는 바코드 또는 QR 코드를 판독하여 컴퓨터로 검출된 제품ID를 전송하는 ID 리더기를 더 포함할 수 있다.
상기 스테이지 유닛 이송 모듈은 리니어 모터에 의해 X축 방향으로 라인 스캔 카메라가 이동하고, 리니어 모터에 의해 Y축 방향으로 검사 스테이지의 위치 이동, Z1, Z2, Z3축 상하 방향으로 카메라부가 이동된다.
상기 리니어 모터는 제어 컴퓨터에 연동된 모터 구동부에 의해 작동되며, 모터의 속도와 이동 위치를 제어하기 위해 PID 제어를 사용한다.
상기 방진 설비는 10~100㎛ pixel size의 정밀 측정을 위한 Line Scan 또는 Area scan 카메라를 사용한 비전 검사 시스템의 정밀 측정시 진동을 저감시키기 위해 상기 베이스 밑에 격자보 하단의 Air Cylinder 구조를 이용한 방진 시스템을 사용하였으며, 즉, 석정반과 Isolator를 설치하여 외부 진동에 대한 차단 및 내부 진동을 방지하는 것을 특징으로 한다.
머신 비전은 기구부와 라인 스캔 카메라 또는 에어리어 스캔 카메라와 연동된 카메라 인터페이스(Frame Grabber, Gigabit Ethernet(GigE), IEEE 1394a, IEEE 1394b, 카메라 링크, USB 3.0)를 통해 연결된 컴퓨터의 비전 검사용 영상처리 알고리즘이 영상 처리(image processing)[(1) 영상 획득, (2) 영상 이진화, (3) 영상 처리, (4) 영상 분석, (5)영상 해석]를 통해 제품 표면의 디스플레이의 이물, 스크래치, 패턴 오류 등의 결함과 결함의 위치를 분석하여 제품의 불량을 걸러낸다
예를 들면, TFT-LCD 패널의 표면 결함 검사 시에, Line Scan 카메라를 사용하여 획득된 영상이 카메라 인터페이스를 통해 산업용 PC에서 획득된 TFT-LCD의 이미지는 대용량이기 때문에 생산 공정에서 적용하기 위해 빠른 영상 처리 시간이 요구된다. TFT-LCD 영상은 반복되는 패턴을 갖고 있기 인접 패턴과의 영상차를 이용하여 쉽게 LCD 불량 영역이 검출된다.
이와 관련된 선행기술2로써, 특허 공개번호 10-2019-0063839에서는 "제조 공정에서 딥러닝을 활용한 머신 비전 기반 품질검사 방법 및 시스템"이 제공된다.
도 2는 종래의 딥러닝 기반 분류기 생성 과정의 동작 흐름도이다.
제조 공정에서 딥러닝을 활용한 머신 비전 기반 품질 검사 방법은, 학습용 제품 영상을 생성하는 단계; 생성된 학습용 제품 영상으로 양품과 불량품을 구분하기 위한 분류기를 학습시키는 단계; 및 학습된 분류기를 이용하여. 제품을 양품 또는 불량품으로 판정하는 단계를 포함한다. 이에 따라, 학습에 의해 판별 대상의 데이터의 특징값을 스스로 찾을 수 있고, 결함의 정형화가 어려워 수동 검사에 의존하는 검사 영역에 대해서도 머신 비전 기반 검사가 가능해진다.
품질 검사를 통해 제품을 양품 또는 불량으로 판정하기 위해, 먼저, 검사 카메라의 위치를 정렬하여 검사 대상 제품을 카메라로 촬영하고, 카메라 촬영을 통해 생성된 영상에서 관심 영역을 추출하여 저장한다. 관심 영역의 대상 이미지를 학습 모델 생성의 이미지 전처리 과정에서와 같이, 일정 규격의 사이즈의 작은 이미지로 중첩되도록 자른다(cropping).
다음, 품질 검사 장치는, 각각의 조각 이미지 각각에 대해 분류기를 이용하여 검사를 수행한다. 이때, 심층신경망 알고리즘은 분류 결과로 학습을 통해 분류기를 생성할 때 사용된 학습 데이터들 중 가장 근접한 이미지의 분류 번호와 확률 값을 결과로 출력한다. 이에, 각각의 조각된 이미지를 딥러닝 기반 분류기를 통해, 해당 인덱스에서 가장 높은 확률로 분류표가 양품인지 결함인지 확인하여, 판정 결과값을 표시한다. 이때, 결함 제품인 경우 결함으로 판명하고 결함 영역을 표시하여 준다.
이와 관련된 선행기술3로써, 특허등록번호 10-11827680000에서는 "머신비전 시스템을 위한 검사 장치 및 방법"이 등록되어 있다.
머신비전 시스템을 위한 검사 장치는 내부를 조명하는 하나 이상의 조명들을 구비하며 일정 형상을 갖는 거치대; 카메라 기능을 가지며, 상기 거치대의 내부에 위치한 검사 객체를 상기 거치대에 고정된 채 촬영 가능한 휴대용 단말기; 및 상기 휴대용 단말기의 지시에 따라 상기 휴대용 단말기의 촬영 조건을 설정하고, 설정된 촬영 조건에 따라 상기 조명들을 제어하는 제어부를 포함한다.
이와 관련된 선행기술4로써, 특허등록번호 10-1688641에서는 "머신 비전 기반 전자부품 검사 시스템"이 등록되어 있다.
머신 비전 기반 전자부품 검사 시스템은, 품질검사를 위해 다수로 공급된 다종의 전자부품이 미정렬 안착되어 자동선별되도록 마련된 선별플레이트가 내부에 구비된 하우징, 상기 선별플레이트의 상부에서 설정된 거리로 위치 이동가능하게 설치된 위치이동장치, 상기 위치이동장치에 설치되어 상기 선별플레이트상에 랜덤하게 배치된 상기 전자부품을 촬영하는 카메라장치, 상기 하우징에 설치되어 상기 카메라장치로부터 촬영된 영상정보를 기반으로 상기 전자부품 각각의 위치 및 각도를 산출하는 분석 장치, 상기 위치이동장치에 설치되어 상기 분석장치로부터 판별된 상기 전자부품의 위치 및 각도 등의 산출값을 기반으로 상기 선별플레이트에 랜덤 배치된 상기 전자부품을 흡착시켜 상기 선별플레이트상의 지정된 위치로 순차이동시키는 그리퍼장치, 상기 그리퍼장치에 의해 이동되어 정렬고정된 상기 전자부품을 각 대상에 따른 용량에 맞춰 상기 품질검사를 수행하도록 상기 위치이동장치에 설치된 검사장치 및, 상기 위치이동장치, 상기 카메라장치, 상기 분석장치, 상기 그리퍼장치 및 상기 검사장치의 작동을 제어하는 제어장치를 포함하여 이루어지되, 상기 그리퍼장치는 상기 전자부품을 개별적으로 흡착시킨 상태에서 회전되도록 하는 회전장치가 구비되고, 상기 회전장치는 상기 그리퍼장치에 흡착된 상기 전자부품의 각각을 상기 분석장치의 상기 산출값을 토대로 회전시켜 상기 선별플레이트에 랜덤 배치된 각각의 상기 전자부품이 상기 검사장치에서 정방향 위치되어 상기 품질검사가 수행되도록 한다.
이와 관련된 선행기술5로써, 특허등록번호 10-21089560000에서는 "인공지능을 활용한 머신비전 모듈형 소프트웨어를 갖는 머신비전 검사장치 및 그 장치의 구동방법, 그리고 컴퓨터 판독가능 기록매체"가 등록되어 있다.
인공지능을 활용한 머신비전 모듈형 소프트웨어를 갖는 머신비전 검사장치 및 그 장치의 구동방법, 그리고 컴퓨터 판독가능 기록매체에 관한 것으로, 발명의 실시예에 따른 인공지능을 활용한 머신비전 모듈형 소프트웨어를 갖는 머신비전 검사장치는, 지정 제품과 관련한 복수의 검사 항목에 대한 제1 볼륨의 학습 샘플 데이터를 인공지능 기반의 비전 검사를 위해 사용자마다 다르게 저장하는 저장부, 및 다르게 저장한 제1 볼륨의 학습 샘플 데이터 및 생산 라인의 촬영장치에서 제공하는 촬영영상을 근거로 검사 항목별로 인공지능 기반의 딥러닝을 수행하여 지정 제품의 비전 검사를 수행하며, 비전 검사의 결과를 근거로 제1 볼륨에서 제2 볼륨으로 학습 샘플 데이터를 확장시키는 제어부를 포함할 수 있다.
이와 관련된 선행기술6로써, 특허공개번호 10-2019-0063839에서는 "제조 공정에서 딥러닝을 활용한 머신 비전 기반 품질검사 방법 및 시스템"이 공개되어 있다.
제조 공정에서 딥러닝을 활용한 머신 비전 기반 품질검사 방법 및 시스템이 제공된다. 본 발명의 실시예에 따른 품질 검사 방법은, 학습용 제품 영상을 생성하고, 생성된 학습용 제품 영상으로 양품과 불량품을 구분하기 위한 분류기를 학습시키며, 학습된 분류기를 이용하여 제품을 양품 또는 불량품으로 판정한다. 이에 의해, 학습에 의해 판별 대상의 데이터의 특징값을 스스로 찾을 수 있어, 결함의 정형화가 어려워 수동 검사에 의존하는 검사 영역에 대해서도 머신 비전 기반 검사가 가능해진다.
이와 관련된 선행기술7로써, 특허공개번호 10-2019-0067439에서는 "딥러닝 기반의 반도체 비전 검사 시스템에서의 제어 변수 설정 장치 및 방법"이 공개되어 있다.
딥러닝 기반의 반도체 비전 검사 시스템에서의 제어 변수 설정 장치의 동작방법에 있어서, 영상 획득 장치의 동작을 제어하는 복수의 제어 변수들에 대한 정보를 수신하는 단계, 수신된 복수의 제어 변수들에 대한 정보에 포함된 복수의 제어 변수들의 개수 및 복수의 제어 변수들 각각의 변수 값의 개수를 이용하여 제어 변수 집합을 구성하는 단계, 적어도 하나 이상의 비전 검사 샘플에 대해, 구성된 제어 변수 집합의 구성 원소 각각에 대응되는 복수의 제어 변수들의 변수 값들이 각각 반영된 영상 획득 장치에 의해 획득된 이미지들을 수신하는 단계, 및 이미 학습된 딥러닝 기반의 신경망을 이용하여 수신된 이미지들 중 최종 이미지를 결정하고, 결정된 최종 이미지를 획득하기 위한 복수의 제어 변수들 각각의 최종 변수 값들을 획득하는 단계를 포함하고, 구성된 제어 변수 집합의 구성 원소 각각은 복수의 제어 변수들을 모두 포함하고, 구성된 제어 변수 집합의 서로 다른 임의의 2개의 구성 원소들은 적어도 하나 이상 동일한 제어 변수들간에 다른 변수 값들을 가지도록 대응시킨 것을 특징으로 하는, 제어 변수 설정 장치의 동작방법이 개시된다.
기업은 스마트 공장(Smart Factory)이 전혀 구축되지 않은 초기 단계에서, 제조 산업 분야에서 원자재 입고, 제품 수/발주, 생산 계획, 생산 지시, 작업 상황, LOT 관리, 공정 관리, 품질 관리, 입고/출고/재고 관리, 판매 실적 관리 등은 현장에서 완전 수작업으로 재고 공정 프로세스의 정보들을 전산화하기가 쉽지 않다.
스마트 팩토리는 제조 실행 시스템(MES, Manufacturing Execution System)과 비전 검사 시스템, 품질관리 시스템(QMS, Quality Management System)이 결합되어 구축되고, 제품에 바코드 마킹 과정이 존재하며, 비전 검사 시스템은 제조 공정에 따라 생산 라인이 머신 비전 시스템이 비정정형 데이터로 생성되는 제품의 결함을 검출하여 불량을 걸러낸다. 그러나, 비전 검사 시스템은 실시간으로 카메라의 영상을 통해 비정형 패턴의 결함과 금속 표면의 난반사, 진동에 의해 비전 인식 오류가 발생된다.
MES(제조 실행 시스템, Manufacturing Execution System)는 제조 공정상의 실시간 카메라 비전검사 모니터링, 제어, 물류 및 작업내역 추적 관리, 양불 상태 파악, 불량 관리에 초점을 맞춘다.
그러나, 기존의 머신비전 불량 검출 시스템은 제조 공정과 제품 생산 라인에 컨베이어 벨트와 인코더, 카메라와 비전 시스템을 설치하기에 고가의 설치 비용이 들고, 이미 머신비전(MV)을 도입한 기업 입장에서는 다시 딥러닝 비전 시스템 설치시에 중복 투자가 될 수 있다. 또한, 스마트 팩토리를 구축하는 제조 공정과 생산 라인와 머신 러닝 비전 시스템을 갖춘 대기업 이외에 중소 기업은 현실적으로 생산 라인에 1억이 넘는 컨베이어 벨트와 딥러닝 비전 시스템 구축이 어렵고, 많은 비용이 드는 인공 지능 프로그래밍을 사용한 딥러닝 비전 검사 시스템을 도입하기 어려운게 현실이다.
[선행기술문헌]
(특허문헌 1) 특허등록번호 10-1772673 (등록일자 2017년 08월 23일), "멀티 광학 모듈 비전 검사 시스템", 주식회사 에이피에스
(특허문헌 2) 특허공개번호 10-2019-0063839 (공개일자 2019년 06월 10일), "제조 공정에서 딥러닝을 활용한 머신 비전 기반 품질검사 방법 및 시스템", 전자부품연구원
(특허문헌 3) 특허등록번호 10-11827680000 (등록일자 2012년 09월 07일), "머신비전 시스템을 위한 검사 장치 및 방법", 주식회사 엠비젼
(특허문헌 4) 특허등록번호 10-1688641 (등록일자 2016년 12월 15일), "머신 비전 기반 전자부품 검사 시스템", 동서대학교산학협력단, (주)케이엠시스
(특허문헌 5) 특허등록번호 10-21089560000 (등록일자 2020년 05월 04일), "인공지능을 활용한 머신비전 모듈형 소프트웨어를 갖는 머신비전 검사장치 및 그 장치의 구동방법, 그리고 컴퓨터 판독가능 기록매체", 주식회사 만컴퍼니
(특허문헌 6) 특허공개번호 10-2019-0063839 (공개일자 2019년 06월 10일), "제조 공정에서 딥러닝을 활용한 머신 비전 기반 품질검사 방법 및 시스템", 한국전자기술연구원
(특허문헌 7) 특허공개번호 10-2019-0067439 (공개일자 2019년 06월 17일), "딥러닝 기반의 반도체 비전 검사 시스템에서의 제어 변수 설정 장치 및 방법", 한국전자통신연구원
상기 문제점을 해결하기 위한 본 발명의 목적은 카메라 영상 데이터의 형상 판단 검사/이물질 검사/스크래치 검사를 제공하는 불량 검사 모듈과 불량 판정 모듈과 학습용 제조용 데이터 전송 모듈을 구비하는 엣지 플랫폼과 미들웨어를 통해 연동되는 서비스 플랫폼을 구비하며, 서비스 플랫폼은 불량 판정 제조 지능, 불량 예측 제조 지능을 제공하며, 학습 데이터에 기초하여 딥러닝 알고리즘을 사용한 제품 결함 이미지 원격 학습을 통한 비전 검사 시스템을 제공한다.
본 발명의 목적을 달성하기 위해, 제품 결함 이미지 원격 학습을 통한 비전 검사 시스템은 카메라, 센서와 LED 조명과 콘트롤러와 연결되고, 머신 비전 영상 분석 SW를 구비한 머신 비전 검사 시스템을 구비하며, 제품 ID를 판독하고 제품의 카메라 영상 데이터의 형상 판단 검사/이물질 검사/스크래치 검사를 제공하는 불량 검사 모듈과 불량 판정 모듈과 학습용 제조용 데이터 전송 모듈을 구비하는 엣지 플랫폼; 상기 엣지 플랫폼과 연결되고 서비스 플랫폼과 연동하는 미들웨어; 및 상기 엣지 플랫폼과 상기 미들웨어를 통해 연동되며, 불량 판정 제조 지능, 불량 예측 제조 지능을 제공하며, 누적되어 저장된 불량 이미지 학습 데이터와 비교하여 비정형 불량 이미지를 검출하고, 제품의 카메라 영상 데이터의 이물질 유무 검사, 형상 검사, 정상/불량 판정 결과 데이터를 제공하는 딥러닝 알고리즘을 사용한 제품 결함 이미지 원격 학습을 통한 비전 검사를 제공하는 서비스 플랫폼을 포함한다.
본 발명의 제품 결함 이미지 원격 학습을 통한 비전 검사 시스템은 카메라 영상 데이터의 형상 판단 검사/이물질 검사/스크래치 검사를 제공하는 불량 검사 모듈과 불량 판정 모듈과 학습용 제조용 데이터 전송 모듈을 구비하는 엣지 플랫폼과 미들웨어를 통해 연동되는 서비스 플랫폼을 구비하며, 서비스 플랫폼은 불량 판정 제조 지능, 불량 예측 제조 지능을 제공하며, 학습 데이터에 기초하여 딥러닝 알고리즘을 사용한 제품 결함 이미지 원격 학습을 통한 비전 검사를 제공한다.
제품 결함 이미지 원격 학습을 통한 비전 검사 시스템은 컨베이어 벨트와 머신 비전 시스템이 구비된 스마트 팩토리를 구축하기 어려운 중소 기업들이 상대적으로 적은 비용으로 인공 지능 프로그래밍을 사용한 딥러닝 비전 검사 시스템을 구축하여 제품 결함을 포함하는 학습 데이터를 기초로 딥러닝 비전 시스템에 의해 제품의 결함(이물질, 스크래치 등)을 판단하고 제품의 불량 여부를 판단하게 되었다.
제품 결함 이미지 원격 학습을 사용한 비전 검사 방법은 머신비전 기반 PCB 불량판정 및 불량예측을 지원하는 머신 비전 기반 PCB 제조 지능과, Pan Valve 및 Dual Check Valve의 불량을 판정할 수 있는 Valve 제조지능(머신비전 기반 PCB 제조 지능, 머신비전 기반 Valve 제조 지능)을 제공한다.
머신비전 기반 PCB 제조 지능은 미삽, 오삽 등의 불량을 검출할때 아래쪽의 컨덴서에 가려서 머신비전에서 잘못 찾는 경우에 딥러닝을 사용하여 제대로 찾을 수 있도록 지능형 머신비전을 제공한다.
머신비전 기반 Valve 제조 지능은 머신비전에서 스크래치 불량검출을 하기 위해 카메라를 추가로 설치하고 수차례 나눠 여러장을 촬영해야 하지만, 한번 촬영한 전체 이미지를 딥러닝을 통해 스크래치 불량을 검출함으로서 검사 시간과 비용을 줄이게 되었다.
도 1은 엔코더를 구비한 컨베이어 벨트 생산 라인에서 센서와 ID 리더기와 카메라와 광학 조명을 구비하는 비전 검사 시스템 구성도이다.
도 2는 종래의 딥러닝 기반 분류기 생성 과정의 동작 흐름도이다.
도 3a, 3b는 PC와 연결되는 카메라와 조명과 콘트롤러를 구비하며, 제품의 결함(이물질, 스크래치 등)을 검출하여 제품의 불량을 판단하는 수동 비전 검사기, 주요 기능을 나타낸 도면이다.
도 4는 본 발명에 따른 딥러닝 알고리즘을 사용한 제품 결함 이미지 원격 학습을 사용한 머신비전 제조지능 플랫폼을 나타낸 도면이다.
도 5는 제품 결함 이미지 원격 학습을 사용한 비전 검사 방법의 비즈니스 모델을 나타낸 도면이다.
도 6은 카메라, 센서, 조명과 콘트롤 박스, PC, PLC의 비전 시스템 결선도이다.
도 7은 딥러닝 기반의 머신비전 플랫폼에서 센서와 카메라를 사용한 PC의 비전 검사(얼룩, 찍힘, 긁힘), 제품 형상 검사(미타발, 변형 불량), Blob 검사(도금 유무 판단)의 AI View를 나타낸 그림이다.
도 8은 제품 결함 이미지 원격 학습을 사용한 비전 검사 방법의 머신 비전 AI 솔류션 구성도이다.
도 9는 제품 결함 이미지 원격 학습을 사용한 비전 검사 방법의 머신 비전 AI 솔류션 아키텍처이다.
도 10은 제품 결함 이미지 원격 학습을 사용한 비전 검사 방법의 머신 비전 AI 모델링 아키텍처이다.
도 11은 제품 결함 이미지 원격 학습을 사용한 비전 검사 방법의 머신 비전 AI 미들웨어 아키텍처이다.
도 12는 제품 결함 이미지 원격 학습을 사용한 비전 검사 방법의 머신 비전 AI 플랫폼 프로세스이다.
도 13은 제품 결함 이미지 원격 학습을 사용한 비전 검사 방법의 머신 비전 AI 플랫폼 통합 아키텍처이다.
도 14는 제품 결함 이미지 원격 학습을 사용한 비전 검사 방법에 따라 머신비전 기반 PCB 불량판정 및 불량예측을 지원하는 머신 비전 기반 PCB 제조 지능과, Pan Valve 및 Dual Check Valve의 불량을 판정할 수 있는 Value 제조지능(머신비전 기반 PCB 제조 지능, 머신비전 기반 Valve 제조 지능)을 개발한 사례이다.
이하, 본 발명의 바람직한 실시예를 첨부된 도면을 참조하여 발명의 구성 및 동작을 상세하게 설명한다. 본 발명의 설명에 있어서 관련된 공지의 기능 또는 공지의 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 자세한 설명을 생략한다. 또한, 첨부된 도면 번호는 동일한 구성을 표기할 때에 다른 도면에서 동일한 도면번호를 부여한다.
본 발명의 제품 결함 이미지 원격 학습을 통한 비전 검사 시스템 및 방법은 제품 ID를 판독하고 카메라 영상 데이터의 형상 판단 검사/이물질 검사/스크래치 검사를 제공하는 불량 검사 모듈과 불량 판정 모듈과 학습용 제조용 데이터 전송 모듈을 구비하는 엣지 플랫폼과 미들웨어를 통해 연동되는 서비스 플랫폼을 구비하며, 서비스 플랫폼은 불량 판정 제조 지능, 불량 예측 제조 지능을 제공하며, 학습 데이터에 기초하여 딥러닝 알고리즘을 사용한다.
도 3a, 3b는 PC와 연결되는 카메라와 조명과 콘트롤러를 구비하며, 제품의 결함(이물질, 스크래치 등)을 검출하여 제품의 불량을 판단하는 수동 비전 검사기, 주요 기능을 나타낸 도면이다.
* 제품 결함 이미지 원격 학습을 통한 비전 검사 시스템의 특징
1) 딥러닝 비전검사 기능을 모듈화 하여 기존 머신비전 검사시스템과 연동하여 검사 능력을 고도화할 수 있다.
2) 머신비전 검사 시스템에서 취득한 테스트용 이미지와 참조용 판정 결과를 이용하여 딥러닝용 데이터 구축을 간편하게 지원한다.
* 주요기능
1. 머신비전 불량 검출 시스템 : 기존 머신비전 장비가 있는 경우 딥러닝 비전 불량 검출 모듈만 도입 가능하다.
2. 머신비전 인터페이스 : 기존 머신비전으로부터 테스트 시료 이미지와 참조용 판정 결과를 받는다.
3. 딥러닝 학습 : 전달받은 이미지와 참조용 판정 결과로 딥러닝 학습 진행
4. 딥러닝 판정 : 불량검출 대상 시료 이미지에 대하여 2에서 만들어진 학습 모델로 판정 진행
5. 딥러닝 재학습 : 현장 작업자는 3의 판정 결과를 보고 최종 판정을 하며, 이 결과는 딥러닝 학습 자료로 재사용된다.
6. 2~6의 단계가 충분히 진행이 되면 딥러닝 비젂검사의 판정 정확도가 높아저 사용자의 별도 판정이 필요없게 된다.
도 4는 본 발명에 따른 딥러닝 알고리즘을 사용한 제품 결함 이미지 원격 학습을 사용한 머신비전 제조지능 플랫폼을 나타낸 도면이다.
기존에 보유한 머신비전 검사장비를 Hybrid 형태로 지능화하여 새로운 제품 및 예외적인 불량 유형의 발생에 신속하게 대처할 수 있는 딥러닝 머신비전 플랫폼을 지원한다. 이를 통해 도입 기업은 스마트 팩토리 운영 연속성을 확보할 수 있다.
1. 기업에 기 도입된 머신비전 검사장비의 지능화를 지원하는 AI 솔루션을 탑재하여 제조지능 엣지 플랫폼(Edge Platform)을 공급한다.
2. 도입기업의 머신비전 검사 데이터(제품의 카메라 영상 데이터)에 예외적인 불량유형이 발생하거나 새로운 제품을 검사해야 할 경우, 서비스 플랫폼(Service Platform)에서 딥러닝 후 고도화 된 제조지능을 엣지 플랫폼(Edge Platform)으로 공급한다.
3. 서비스 플랫폼(Service Platform)에서 유사 업종별 공동의 제조 데이터 학습을 통해 머신비전 제조 지능을 고도화하여 기존의 엣지 플랫폼(Edge Platform)의 지능을 향상시킬 수 있도록 지속적인 고객 관리 서비스를 제공한다.
4. 선진화된 도입 기업의 제조지능 또는 학습데이터를 수익 쉐어 기반으로 활용하여 신규 딥러닝 플랫폼 구축기간을 단축한다.
본 발명의 제품 결함 이미지 원격 학습을 통한 비전 검사 시스템은 제품 ID를 판독하고 카메라 영상 데이터의 형상 판단 검사/이물질 검사/스크래치 검사를 제공하는 불량 검사 모듈과 불량 판정 모듈과 학습용 제조용 데이터 전송 모듈을 구비하는 엣지 플랫폼과 미들웨어를 통해 연동되는 서비스 플랫폼을 구비하며, 서비스 플랫폼은 불량 판정 제조 지능, 불량 예측 제조 지능을 제공하며, 학습 데이터에 기초하여 딥러닝 알고리즘을 사용한다.
상기 제품은 바코드, QR 코드, 또는 13.56MHz RFID 태그 중 어느 하나가 부착된다.
추가적으로, PC는 상기 제품에 바코드가 부착된 경우, 제품에 부착된 바코드를 인식하는 바코드 리더기와 인식 모듈을 더 포함한다.
추가적으로, PC는 상기 제품에 QR 코드가 부착된 경우, 제품에 부착된 QR 코드를 인식하는 QR 코드 인식 모듈을 더 포함한다.
추가적으로, 상기 제품에 13.56MHz RFID 태그가 부착된 경우, 13.56MHz RFID 리더와 "제품 코드 전송 미들웨어"를 통해 연결되는 PC의 SW 모듈을 더 포함한다.
제품 결함 이미지 원격 학습을 통한 비전 검사 시스템은 카메라, 센서와 LED 조명과 콘트롤러와 연결되고, 머신 비전 영상 분석 SW를 구비한 머신 비전 검사 시스템을 구비하며, 머신 비전 검사 시스템의 컴퓨터(PC)에 연결된 인식기(바코드 리더, QR 코드 인식기 또는 13.56MHz RFID 리더)가 제품 ID(바코드, QR 코드, 13.56MHz RFID 태그)를 판독하고, 제품의 카메라 영상 데이터의 형상 판단 검사/이물질 검사/스크래치 검사를 제공하는 불량 검사 모듈과 불량 판정 모듈과 학습용 제조용 데이터 전송 모듈을 구비하는 엣지 플랫폼; 상기 엣지 플랫폼과 연결되고 서비스 플랫폼과 연동하는 미들웨어; 및 상기 엣지 플랫폼과 상기 미들웨어를 통해 연동되며, 불량 판정 제조 지능, 불량 예측 제조 지능을 제공하며, 누적되어 저장된 불량 이미지 학습 데이터(이물질 또는 스크래치가 포함된 불량의 이미지의 훈련 data set)와 비교하여 비정형 불량 이미지를 검출하고, 제품의 카메라 영상 데이터의 이물질 유무 검사, 형상 검사, 정상/불량 판정 결과 데이터를 제공하는 AI 딥러닝 알고리즘을 사용한 제품 결함 이미지 원격 학습을 통한 비전 검사를 제공하는 서비스 플랫폼을 포함한다.
엣지 플랫폼은 불량 검사 모듈(형상 판단 검사, 이물질 검사, 스크래치 검사, 검사 데이터 기준 스펙 정보 취합, 검사 예측 분석 화면, 검사 결과 화면, 양품/불량 검사 결과 판정 라벨링 저장 및 전송), 불량 판정 모듈(판정 라벨링, 임계치 분석), 불량 예측 모듈(형상 예측 분석, 이물질 예측 분석, 스크래치 예측 분석, 예측 규칙 상관 계수 모듈), 학습용 제조 데이터 전송 모듈(제조 데이터 저장 및 전송 모듈)을 포함한다.
서비스 플랫폼은 상기 엣지 플랫폼과 불량 판정 제조 지능, 불량 예측 제조 지능, 학습용 제조 데이터를 공유하며,
서비스 플랫폼은 딥러닝 후 개발 지능을 제공하는 제조 지능 서비스 모듈을 구비하며, Python 프레임워크 상에 Scikit-learn Engine, CNN, RNN, 오디오 인코더, 학습용 제조 데이터를 저장하는 DB 모듈, 커뮤니케이션 모듈을 포함한다.
상기 미들웨어는
바코드 리더, QR 코드 인식기 또는 13.56MHz RFID 리더에 의해 인식된 제품에 부착된 추출된 모델정보에 해당하는 바코드, QR 코드 또는 13.56MHz RFID 태그 정보 중 어느 하나를 상기 엣지 플랫폼으로부터 상기 서비스 플랫폼으로 전송하는 제품 코드 전송 미들웨어; 및
제품 결함 이미지 원격 학습을 통한 비전 검사 방법에 따라 머신 비전 시스템으로부터 전송된 비정형 불량 가공 데이터를 전송받아 딥러닝 모델 훈련 시스템에 의해 누적되어 저장된 불량 이미지 학습 데이터(이물질, 스크래치)와 비교하여 비정형 불량 이미지를 검출하는 비정형 불량 판정 학습 모델을 구비하고, 딥러닝 형상 판단 시스템에 의해 AI 딥러닝 모듈에 의해 카메라 영상 데이터의 이물질 유무 검사, 형상 검사, 정상/불량 판정 결과 데이터를 상기 서비스 플랫폼으로부터 상기 엣지 플랫폼으로 전송하는 딥러닝 미들웨어를 포함한다.
딥러닝 툴은 Tensorflow, Keras, Caffe, PyTorch 중 어느 하나를 사용할 수 있다.
카메라부와 광학조명부 하단에 위치되며 피검사체가 XY-스테이지에 놓이는 검사 스테이지와, 상기 검사 스테이지가 놓이는 베이스와, 비전 검사 장비를 지지하는 프레임, XYZ 위치 이동을 제어하는 스테이지 유닛 이송 모듈을 더 포함하며,
카메라가 카메라 인터페이스를 통해 PC에 연결되고, PC는 네트워크 허브를 통해 LAN과 TCP/IP를 통해 메인 서버 컴퓨터에 연결된다.
참고로, 카메라 영상 데이터의 영상 분석 SW는 i) 그레이 스케일 영상 처리, 또는 ii) 딥러닝 알고리즘을 사용할 수 있다. 카메라 영상의 이미지는 그레이스케일 이미지, RGB 이미지, HSI 이미지, YCbCr, JPEG 이미지, TIFF 이미지, GIF 이미지 등이 적용가능하다. 실시예에서는 그레이스케일(grayscale) 이미지를 사용하였다.
i) 그레이 스케일 영상 처리
영상 분석 SW는 카메라 영상 데이터(RGB 영상)을 그레이 스케일 영상 데이터로 변환하고, 그레이 스케일 영상을 사용하여 버퍼링하여 저장하고, 이미지 프로세싱(image processing) 및 영상 분석 기능을 제공하며, 관심 영역(ROI, Region of Interest)을 그레이 스케일(grayscale)로 변환하며, 관심 영역(ROI)의 외곽선이 추출되는 실험에 의한 특정 임계값(threshold)을 사용하여 관심 영역(ROI)의 이미지의 히스토그램(histogram)[x축 영상의 각 픽셀의 화소 값, y축 해당 화소 값의 갯수(빈도수)]을 구하고, 그 관심영역 이미지를 Ostu 알고리즘을 사용하여 임계값을 기준으로 0,1로 이진화(binarization)한 후, 히스토그램 평활화(histogram equalization)를 통해 관심 영역(ROI)의 영상의 전처리를 수행하며, sobel edge operator(소벨 엣지 연산자, sobel mask) 또는 canny edge operator(캐니 엣지 연산자)를 사용하여 x 방향의 미분과 y 방향의 미분을 구하고, sobel mask의 가중치를 영상의 화소 값에 곱하고 이들 더하는 convolution에 의해 관심 영역 이미지의 엣지(edge, 물체 영역, 배경 영역의 경계에 위치하는 화소들)를 검출하고 특정 임계값을 적용하여 생성된 엣지 영상의 결함 객체들의 윤곽선을 검출하고, 형상 특징(Shape Features)을 추출한다.
Ostu 알고리즘을 사용한 임계 방법을 사용하는 경우, 화소 값 f(x,y)들이 특정 임계값을 기준으로 입력 영상에 대하여 물체 영역과 배경 영역으로 분리하고, 화소 값 f(x,y)이 특정 임계값 보다 클 경우 물체 영역에 속하는 화소로 결정하며, 반대로 화소 값 f(x,y)이 특정 임계값 보다 작은 경우 배경 영역에 속하는 화소로 결정한다.
ii) 딥러닝 알고리즘(CNN 알고리즘 등)을 사용하여 영상의 특징 추출과 분류하고 학습 모델의 누적 저장된 학습 데이터DB의 결함 이미지의 학습 데이터(이물질, 스크래치 등)와 비교하여 결함이 있는 객체(이물질, 스크래치 등)를 추출한다.
머신 비전 영상 분석 SW의 딥러닝 알고리즘은 CNN(Convolutional Neural Network), R-CNN(Recurrent Convolutional Neural Network), Fast RCNN, 및 Faster RCNN(Region based Convolutional Neural Network) 알고리즘, YOLO(You Only Look Once), SSD(Single Shot Detector) 알고리즘 중 어느 하나의 알고리즘을 사용하여 영상의 객체들을 검출한다(object detection).
머신 비전 영상 분석 SW의 딥러닝 알고리즘은 CNN 알고리즘을 사용하며, AlexNet, ZFNet, VGGNet, GoogLeNet, ResNet 중 어느 하나의 알고리즘을 사용하며,
상기 CNN 알고리즘을 사용하여 영상의 특징 추출(feature extraction)과 분류(classification)하고, 학습 모델에 따라 학습데이터DB에 누적되어 저장된 결함 이미지의 학습 데이터와 비교하여 결함이 있는 객체(이물질, 스크래치)를 추출한다.
딥러닝의 CNN(Conventional Neural Network) 알고리즘은 카메라 입력 영상으로부터 입력층(input layer)/n개의 은닉층(hidden layer)(Layer 1, Layer 2, Layer 3... )/출력층(output layer)으로 구성되며, 다층구조의 컨볼루션 신경망(CNN)을 사용하여 Multilayer Perceptron을 통해 영상의 특징 추출(feature extraction)과 객체를 분류(classification)하여 결함이 있는 객체(이물질, 스크래치 등)를 검출한다.
컨볼루션 신경망(CNN, Convolutional Neural Network)은 컨볼루셔널 층(Convolutional Layer), 풀링 층(Pooling Layer), FC 층(Fully Connected Layer, 완전연결층)을 포함하는 3개의 레이어가 사용된다.
CNN 알고리즘은 가중치(weight)를 갖는 마스크(예, 3x3 윈도우)를 이동해가며 컨볼루셔널 층(Convolutional Layer)과 풀링 층(Pooling Layer)에 의해 각각 convolution(합성곱)과 subsampling을 반복하여 영상의 데이터량을 줄이며 영상의 왜곡에 강인한 특징을 추출(feature extraction)하며, 컨볼루션에 의해 특징맵(feature map)을 추출하고, 신경망(Neural Network)에 의해 학습 모델에 따라 검출된 결함이 있는 객체(이물질, 스크래치 등)를 분류(classification)한다.
CNN 알고리즘을 사용한 영상처리에서, 컨볼루션(convolution)은 가중치를 갖는 마스크(예, 3x3 윈도우)를 사용하여 영상처리가 이루어지며, 입력 영상에 가중치를 갖는 마스크(예, 3x3 윈도우)를 이동해가며, 현재 입력 영상에 가중치를 갖는 마스크를 씌운 후 입력 영상의 픽셀값과 마스크의 가중치를 각각 곱한 후 그 합을 출력 영상의 픽셀값으로 정해진다.
subsampling은 화면 크기를 줄이는 과정이며, 해당영역의 최대치를 선택하는 max pooling을 사용한다.
FC 층(Fully Connected Layer, 완전연결층)은 신경망의 입력단자에 연결시켜 학습에 의해 객체를 분류한다.
현재 5층의 convolution layer와 3층의 fully_connected layer로 이루어져 있다.
컨볼루셔널 층(Convolutional Layer)의 출력은 Max-Pooling Layer에 의해 subsampling을 진행하여 image의 사이즈가 줄여지며, Max-Pooling의 출력은 FC 층(Fully Connected Layer)에서 객체의 클래스를 분류한다.
결과적으로, 카메라 영상의 결함이 있는 객체들을 추출하기 위해 CNN 구조의 중간 몇 개의 컨볼루션 층(convolutional layer)에서 객체 위치영역과 종류 정보를 포함하는 특징맵(feature map)을 추출하고, 풀링 층(Pooling layer)를 통과함에 따라 특징맵(feature map)의 크기가 작아지며 각각 다른 크기의 특징지도에서 객체 위치영역 정보를 추출하여 객체들을 검출하여, FC 층(Fully Connected Layer, 완전 연결층)에 의해 학습 모델의 사전 학습 데이터와 비교하여 결함이 있는 객체(이물질, 스크래치)를 분류(classification)한다.
카메라의 입력 영상 I로부터 입력층/은닉층/출력층의 다층 구조의 컨볼루션 신경망(CNN)을 사용하여 영상의 특징 벡터 x를 추출하며; 추출된 영상의 특징 벡터 x로부터 함수를 반복 적용하여 출력 벡터 h(x)를 계산한다:
여기서, hi는 i번째 은닉 특징 벡터, hi-1은 i-1번째 은닉 특징 벡터, Wi는 신경망 회로의 가중치 파라미터(weight parameter, 상수값), bi는 신경망 회로의 바이어스 값이다.
입력 특징 벡터는 로 설정되며, 총 L 개의 은닉층(hidden layer)이 존재할 경우 h1,h2,...hL을 차례로 계산하여 최종 출력 벡터는 로 결정된다. 또한, h1,h2,...hL-1은 시스템의 출력으로 드러나지 않는 양으로 은닉 특징 벡터(Hidden Feature Vector)라고 불린다. hL-1은 L-1 번째 은닉 특징 벡터이다.
R-CNN의 기본적인 구조는 입력 이미지에서 Selective Search라는 Region Proposal 생성 알고리즘을 사용하여, 객체가 존재할 것으로 추정되는 Region Proposal들을 추출한다. 각각의 Region Proposal들은 사각형 모양의 Bounding Box 안의 이미지 형태인데, 모든 Region Proposal들에 대하여 크기를 동일하게 만든 후 CNN을 거쳐 분류하는 작업을 수행한다.
R-CNN은 모든 Region Proposal마다 하나의 CNN(Convolutional Neural Network)을 실행해야 하므로 속도가 느려지며, 이미지 특징 추출을 위한 모델, 분류를 위한 모델, Bounding Box를 잡아주는 모델을 동시에 학습해야 하므로 기계 학습에 걸리는 시간이 많이 들었다.
R-CNN의 속도 문제를 해결하기 위해, Fast R-CNN이라는 모델이 개발되었다. Fast R-CNN 모델은 Feature를 입력 이미지로부터 추출하는 것이 아니라, CNN을 거친 특징맵(Feature Map) 상에서 RoI Pooling을 사용하여 특징(Feature)을 추출한다.
Faster R-CNN은, Region Proposal을 생성하는 방법 자체를 CNN 내부에 네트워크 구조로 넣은 모델이다. 이 네트워크를 RPN(Region Proposal Network)라고 한다. RPN을 통해 RoI Pooling을 수행하는 레이어와 Bounding Box를 추출하는 레이어가 같은 특징 맵(feature map)을 공유할 수 있다.
Fast RCNN은 전체 영상과 객체들을 입력받고, 전체 영상에 대한 CNN의 특징 지도(feature map)를 획득한다. ROI(Region of Interest) 풀링층은 각각의 개체에 대하여 특징맵(feature map)으로부터 고정된 길이의 특징벡터를 추출한다. 각각의 특징벡터는 FC 층(Fully Connected layer)을 통해 하나의 시퀀스가 되어, 소프트맥스(Softmax)를 통한 확률 추정과 경계 박스의 위치를 출력한다.
풀링(Pooling)은 다양한 위치에서 특징의 통계를 집계하여 이미지의 해상도를 줄일 수 있는 하위 샘플링 프로세스이며, 풀링은 회전, 노이즈 및 왜곡과 같은 이미지 변형에 견고성을 향상시켜, 풀링은 최대값 풀링과 평균값 풀링 두 가지 방법이 사용된다.
하나의 CNN 분류기는 컨볼루션층과 풀링층이 반복되며 그 구조에 따라 다양한 기능의 층(layer)들이 추가될 수 있다. 입력 이미지에 대하여 컨볼루션과 풀링 과정을 거쳐 추출된 특징(faeture)은 학습 모델의 학습 데이터에 따라 다양한 분류기들(예, SVM 분류기)을 적용시켜 객체들(예, 이물질, 스크래치 등)이 분류될 수 있다.
Faster R-CNN은 입력 이미지에 대해 통째로 Convolution Layer를 여러 번 거쳐서 특징을 추출하며, 이렇게 추출된 출력 특징 맵을 RPN과 RoI Pooling Layer가 공유하게 된다. RPN은 특징맵(feature map)에서 Region Proposal들을 추출하며, RoI Pooling Layer는 RPN에서 추출된 Region Proposal들에 대해 RoI 풀링을 수행한다.
딥러닝을 사용한 카메라 영상 데이터의 실시간 객체 인식을 위해 YOLO(You Only Look Once) 모델이 사용될 수 있다.
YOLO는 각 이미지를 SxS 개의 그리드(grid, 경계 상자)로 분할하고, 각 그리드의 신뢰도를 계산하여 그리드 내 객체 인식시 정확도를 반영하여 이미지 전체를 한번에 보는 방식으로 클래스를 구분하며, YOLO는 단순한 처리로 다른 모델에 비해 2배 정도 높은 성능을 갖고 있다. 그리드에 객체 포함 여부를 계산하기 위해, 객체 클래스 점수를 계산한다. 이 결과로 총 S x S x N 객체가 예측된다.
YOLO와 유사하면서 더 나은 성능을 보이는 SSD(Single Shot Detector) 모델은 영상내 객체 검출 속도 및 정확도 사이의 균형감이 고유한 장점, SSD는 입력 이미지에 대한 CNN을 단 한번만 실행하고도 특징 맵(feature map) 계산이 가능하여 다양한 스케일의 객체 검출 가능하다.
SSD는 카메라 영상 내의 객체 검출(object detection)을 위한 그리드(grid)가 표시되는 객체 검출 속도 및 정확도 사이의 균형이 있는 인공지능 기반 객체 검출 알고리즘이다. SSD는 1회에만 입력 이미지에 대하여 CNN(Convolutional Neural Network)을 실행하고, 특징 맵(feature map)을 계산한다. 그리드 및 객체 분류 확률을 예측하기 위해 특징 맵을 3 × 3 필터 크기로 CNN을 수행한다. SSD는 CNN처리 후, 그리드(grid)를 예측한다. 이 방법은 다양한 스케일의 객체를 검출할 수 있다
도 5는 제품 결함 이미지 원격 학습을 사용한 비전 검사 방법의 비즈니스 모델을 나타낸 도면이다.
수요 기업(제조 기업)은 엣지 시스템으로써 지능화된 머신 비전 솔류션을 도입하고, 제조 지능 마켓 플레이스(MiraeCIT)에서 학습/불량 판정과 불량 예측 모델을 수행하며, 제조 지능 마켓 플레이스(MiraeCIT)는 클라우드 컴퓨팅을 통해 자동차부품/사출 성형/전자부품/제약/식품 등의 산업별 전문가 그룹과 연계된다.
도 6은 카메라, 조명, 콘트롤 박스, PC 또는 PLC와 연결되는 비전 시스템 결선도이다.
제품 결함 이미지 원격 학습을 통한 AI 머신 비전 검사 시스템은 PC(100), PLC(110), 카메라(120), 센서(130), 조명(140), 콘트롤러(170)를 포함한다.
콘트롤러(170)는 카메라(120), 센서(130), 조명(140)과 연결되며,
카메라(120)와 연결된 PC(100)는 PLC(110)와 연결될 수 있다.
PC(100)와 연결되는 카메라(120)와 조명(140)과 콘트롤러(170)를 구비하며, 제품의 결함(이물질, 스크래치 등)을 검출하여 제품의 불량(스크래치, 이물질 등)을 판단하는 수동 비전 검사기는 추가적으로 카메라(120)에 Trigger Input을 제공하는 센서(130)를 더 구비한다.
AI 머신 비전 검사 시스템에서 조명(140)은 흰색 또는 적색 LED 조명, 또는 광섬유 가이드를 가지는 할로겐 조명 사용하며, 실시예에서는 LED 조명과 조명 콘트롤러를 사용하였다.
LED 조명을 사용하는 경우, 일렬로 배열된 white LED와 조명 콘트롤러, 또는 카메라 렌즈 주위를 둘러싼 다수의 LED들로 구성된 링 LED와 조명 콘트롤러 사용한다. 조명은 링 LED 조명, 상면/좌상/우상 경사각도 조명, 백 라이트 조명 등이 사용될 수 있다.
추가적으로 딥러닝 기반의 비전영상처리 SW를 구비하는 PC(100)는 Ethernet cable을 통해 연결되는 PLC(110)를 더 구비한다.
상기 제품의 카메라 영상 데이터의 머신 비전 영상 분석 SW는 i) 그레이 스케일 영상 처리, 또는 ii) 딥러닝 알고리즘을 사용하며,
카메라 영상의 이미지는 그레이스케일 이미지, RGB 이미지, HSI 이미지, YCbCr, JPEG 이미지, TIFF 이미지, GIF 이미지를 적용하며,
상기 딥러닝 알고리즘은 CNN(Convolutional Neural Network), R-CNN(Recurrent Convolutional Neural Network), Fast RCNN, 및 Faster RCNN(Region based Convolutional Neural Network) 알고리즘, YOLO(You Only Look Once), SSD(Single Shot Detector) 알고리즘 중 어느 하나의 알고리즘을 사용하여 카메라 영상 데이터의 이물질과 스크래치의 결함이 있는 객체들을 검출하여 제품의 불량 여부를 판단한다.
머신 비전 영상 분석 SW의 딥러닝 알고리즘은 CNN(Convolutional Neural Network), R-CNN(Recurrent Convolutional Neural Network), Fast RCNN, 및 Faster RCNN(Region based Convolutional Neural Network) 알고리즘, YOLO(You Only Look Once), SSD(Single Shot Detector) 알고리즘 중 어느 하나의 알고리즘을 사용하여 영상의 객체들을 검출하여(object detection) 제품의 불량 여부를 판정한다.
엣지 플랫폼의 머신 비전 영상 분석 SW의 딥러닝 알고리즘은 CNN 알고리즘을 사용하며, AlexNet, ZFNet, VGGNet, GoogLeNet, ResNet 중 어느 하나의 알고리즘을 사용하며,
상기 CNN 알고리즘을 사용하여 영상의 특징 추출과 분류하고 학습 모델의 누적된 결함 이미지의 학습 데이터와 비교하여 결함이 있는 객체(이물질, 스크래치)를 추출하고, 결함이 있는 객체를 포함하는 이미지를 상기 서비스 플랫폼으로 전송하여 상기 서비스 플랫폼이 제품의 불량 여부를 판단한다.
제품은 바코드, QR 코드, 또는 13.56MHz RFID 태그가 부착될 수 있다.
추가적으로, PC는 제품에 바코드가 부착된 경우, 제품에 부착된 바코드를 인식하는 바코드 리더기와 인식 모듈을 더 포함할 수 있다.
추가적으로, PC는 제품에 QR 코드가 부착된 경우, 제품에 부착된 QR 코드를 인식하는 QR 코드 인식 모듈을 더 포함할 수 있다.
추가적으로, 제품에 13.56MHz RFID 태그가 부착된 경우, 13.56MHz RFID 리더와 "제품 코드 전송 미들웨어"를 통해 연결되는 PC의 SW 모듈을 더 구비할 수 있다.
상기 미들웨어는
바코드 리더, QR 코드 인식기 또는 13.56MHz RFID 리더에 의해 인식된 제품에 부착된 추출된 모델정보에 해당하는 바코드, QR 코드 또는 13.56MHz RFID 태그 정보 중 어느 하나를 상기 엣지 플랫폼으로부터 상기 서비스 플랫폼으로 전송하는 제품 코드 전송 미들웨어; 및
제품 결함 이미지 원격 학습을 통한 비전 검사 방법에 따라 머신 비전 시스템으로부터 전송된 비정형 불량 가공 데이터를 전송받아 딥러닝 모델 훈련 시스템에 의해 누적되어 저장된 불량 이미지 학습 데이터(이물질, 스크래치)와 비교하여 비정형 불량 이미지를 검출하는 비정형 불량 판정 학습 모델을 구비하고, 딥러닝 형상 판단 시스템에 의해 AI 딥러닝 모듈에 의해 카메라 영상 데이터의 이물질 유무 검사, 형상 검사, 정상/불량 판정 결과 데이터를 상기 서비스 플랫폼으로부터 상기 엣지 플랫폼으로 전송하는 딥러닝 미들웨어를 포함한다.
추가적으로, PC는 딥러닝 기반의 2D 비전 검사 후, 제품 이동을 제어하도록 로봇 인터페이스를 통해 제어 로봇과 연동될 수 있다.
도 7은 딥러닝 기반의 머신비전 플랫폼에서 센서와 카메라를 사용한 PC의 비전 검사(얼룩, 찍힘, 긁힘), 제품 형상 검사(미타발, 변형 불량), Blob 검사(도금 유무 판단)의 AI View를 나타낸 그림이다.
센서는 Trigger Input을 발생하여 카메라로 전송하면, 카메라는 조명 Strobe를 제어하기 위해 Digital Output을 발생하여 이미지 센서에서 이미지 데이터를 생성하고 PC로 전송한다.
PC는 필요에 따라, 이미지 데이터의 Inspection 검사(얼룩, 찍힘, 긁힘), 제품 형상 검사(미타발, 변형 불량), Blob 검사(도금 유무)를 검사한다.
Inspection 검사(얼룩, 찍힘, 긁힘)는 양품 이미지와 불량 이미지를 등록한 후 구분 임계치를 기준으로 실시간으로 이미지의 불량을 판단한다.
제품 형상 검사(미타발, 변형 불량)는 제품의 형상의 모양과 크기를 양품 이미지를 기준으로 제품의 형상 변형 유무를 판단한다.
Blob 검사(도금 유무)는 정상 도금 영역의 밝기와 불량 도금 영역의 밝기 비교를 통한 마련된 기준으로 도금 유무를 판단한다.
도 8은 제품 결함 이미지 원격 학습을 사용한 비전 검사 방법의 머신 비전 AI 솔류션 구성도이다.
센서, 카메라, 조명, 콘트롤 박스, PC 또는 PLC와 연결되는 머신비전 AI 시스템 구성도를 참조하면, 딥러닝 기반의 머신 비전 플랫폼에서 불량 판정 지능을 개발하고 지속적인 학습이 가능하다.
학습된 지능은 딥러닝 기반의 머신 비전 플랫폼에서 실행하여 공정 결함 검출율을 높인다.
지속적인 제조 데이터 축적을 통해 수준 높은 지능형 비전 시스템으로 진화하도록 지원한다.
도 9는 제품 결함 이미지 원격 학습을 사용한 비전 검사 방법의 머신 비전 AI 솔류션 아키텍처이다.
제품 결함 이미지 원격 학습을 통한 비전 검사 방법의 머신 비전 AI 솔루션 아키텍처는 제품 모델 식별(영상 촬영, QR 코드 인식, 모델 정보 추출), 모델별 검사 수행(모델별 검사 알고리즘 선택->이물질 유무 검사->형상 판단 검사->스크래치 유무 검사-> 형상 치수 검사), 제품 분류(제어 로봇 인터페이스-> 불량 판별 데이터 저장 -> 미들웨어 데이터 전송)를 실행한다.
도 10은 제품 결함 이미지 원격 학습을 사용한 비전 검사 방법의 머신 비전 AI 모델링 아키텍처이다.
머신 비전 AI 모델링 아키텍처는 MS Windows10 운영체제가 설치된 PC에서 MS SQL express, Image Storage, Python(Scikit-learn, Keras, Tensorflow 딥러닝 툴 사용), Python Flask 1.1.1, 2D 비전검사와 MES(제조 실행 시스템, Manufacturing Execution System) 인터페이스, AI 학습 모듈, 제품 검사 관리 모듈, 제품 실시간 검사 모듈을 구비한다.
스마트 팩토리는 제조 실행 시스템/품질 관리 시스템(MES/QMS)가 구축되고, 제품에 바코드 마킹 과정이 추가되며, 제조 공정에 따라 생산 라인이 머신 비전 시스템이 제품의 불량을 걸러낸다.
MES(제조 실행 시스템, Manufacturing Execution System)는 제조 공정상의 실시간 카메라 비전검사 모니터링, 제어, 물류 및 작업내역 추적 관리, 양불 상태 파악, 불량 관리에 초점을 맞춘 현장 제조 실행 시스템이다.
도 11은 제품 결함 이미지 원격 학습을 사용한 비전 검사 방법의 머신 비전 AI 미들웨어 아키텍처이다.
제조 기업의 기 구축된 머신 비전(MV) 시스템과 새롭게 도입된 딥러닝 비전 검사 시스템은 미들웨어(Middleware)를 통해 PC와 통신되며,
PC는 제품의 검사기준에 따라 제품 검사 정보 통합 관리하는 통합 운영관리 소프트웨어를 구비하며, 데이터 송수신, 형상 수치 정보 전달, 취득 데이터 가공, DB 운영 관리, 제품 검사 기준 정보를 저장하는 데이터베이스를 구비한다.
머신 비전(MV) 시스템은 미들웨어를 통해 카메라 영상의 검사 결과 이미지 형상 수치 정보를 미들웨어를 통해 PC와 딥러닝 비전 검사 시스템으로 전달하고, 딥러닝 비전 검사 시스템으로부터 기 누적 저장된 제품 불량과 결함 학습 데이터에 기초하여 제품 검사 기준(이물질, 스크래치 등)에 따라 판정 데이터 결과를 PC와 미들웨어를 통해 머신 비전(MV) 시스템으로 전송한다.
도 12는 제품 결함 이미지 원격 학습을 사용한 비전 검사 방법의 머신 비전 AI 플랫폼 프로세스이다.
제품 결함 이미지 원격 학습을 사용한 비전 검사 방법은
훈련 단계는, 제조 기업(수요 기업)에서 요구하는 수집된 불량 판정 데이터에 기초하여 비정형적인 불량 및 결함 데이터를 제공하는 단계;
머신 비전 시스템은 상기 불량 및 결함 데이터에 기초하여 제품 검사 기준에 따라 이물질 유무 검사, 형상 유무 검사, 스크래치 유무 검사를 실시하고, 카메라 영상의 머신 비전 검사 결과 데이터를 제공하는 단계;
미들웨어는 데이터 송수신(TCP/IP), 머신 비전 검사 결과 데이터 수집, 제품 불량과 결함 데이터를 가공하여 PC로 학습용 데이터를 제공하는 단계; 및
딥러닝 시스템은 카메라 영상의 이미지의 데이터 전처리, 딥러닝 모델 훈련(training), 딥러닝 모델 검증하는 단계를 포함한다.
실행 단계는, 제조 기업(수요 기업)에서 요구하는 수집된 불량 판정 데이터에 기초하여 비정형적인 불량 및 결함 데이터를 제공하는 단계;
딥러닝 시스템은 상기 불량 및 결함 데이터에 기초하여 제품 검사 기준에 따라 이물질 유무 검사, 형상 유무 검사, 스크래치 유무 검사를 실시하고, 카메라 영상의 딥러닝 검사 결과 데이터를 제공하는 단계;
미들웨어는 데이터 송수신(TCP/IP), 딥러닝 검사 결과 데이터 수집, 제품 불량과 결함 데이터를 가공하여 PC의 DB 통합 관리 저장되며, PC로 검사용 데이터를 제공하는 단계; 및
딥러닝 시스템은 카메라 영상의 비정형적인 이미지 판독, ?비정형적읶 형상 검사, 비정형적인 정상/불량 판단, 비정형적인 불량 및 결함이 포함된 검사 결과 데이터를 미들웨어를 통해 PC로 제공하는 단계를 포함한다.
도 13은 제품 결함 이미지 원격 학습을 사용한 비전 검사 방법의 머신 비전 AI 플랫폼 통합 아키텍처이다.
1) 제품 결함 이미지 원격 학습을 통한 비전 검사 방법의 머신 비전 AI 솔루션 아키텍처는 제품 모델 식별(영상 촬영, QR 코드 인식, 모델 정보 추출), 모델별 검사 수행(모델별 검사 알고리즘 선택->이물질 유무 검사->형상 판단 검사->스크래치 유무 검사-> 형상 치수 검사), 제품 분류(제어 로봇 인터페이스-> 불량 판별 데이터 저장 -> 미들웨어 데이터 전송)를 실행한다.
2) 검사 결과 이미지 형상 수치 정보 전달
3) 주요 기능: 데이터 송수신, 형상 수치 정보 전달, 취득 데이터 가공, DB 운영 관리
4) 데이터베이스에 저장된 제품 검사기준 운영, 비정형 불량 가공 데이터 정보 전달
5) 딥러닝 모델 훈련 시스템: 훈련 데이터셋 -> 데이터 라벨링, 데이터 전처리 -> 딥 인공 신경망 학습 -> 딥러닝 모델 생성, 테스트 데이터 셋의 딥러닝 모델 검증
6) 비정형 불량 판정 학습 모델 전달
7) 딥러닝 형상 판단 시스템: 딥러닝 딥러닝 모델, 이미지 판독, 형상 검사, 정상/불량 판정, 결과 데이터 전송
8) 비정향 불량 판정 결과 전달
자재 투입, 모델 정보 추출, 이물질 유무 검사, 형상 판단 검사, 스크래치 유무 검사, 형상치수 검사, 자재 출하의 순서로 동작된다.
도 14는 제품 결함 이미지 원격 학습을 사용한 비전 검사 방법에 따라 머신비전 기반 PCB 불량판정 및 불량예측을 지원하는 머신 비전 기반 PCB 제조 지능과, Pan Valve 및 Dual Check Valve의 불량을 판정할 수 있는 Valve 제조지능(머신비전 기반 PCB 제조 지능, 머신비전 기반 Valve 제조 지능)을 개발한 사례이다.
머신비전 기반 PCB 제조 지능은 미삽, 오삽 등의 불량을 검출할때 아래쪽의 컨덴서에 가려서 머신비전에서 잘못 찾는 경우에 딥러닝을 사용하여 제대로 찾을 수 있도록 지능형 머신비전을 만든 사례이다.
머신비전 기반 Valve 제조 지능은 머신비전에서 이물질과 스크래치 불량검출을 하기 위해 카메라를 추가로 설치하고 수차례 나눠 여러장을 촬영해야 하지만, 한번 촬영한 전체 이미지를 딥러닝을 통해 이물질과 스크래치 불량을 검출함으로서 검사 시간과 비용을 절감하게 되었다.
본 발명의 제품 결함 이미지 원격 학습을 통한 비전 검사 방법은 컨베이어 벨트와 머신 비전 시스템이 구비된 스마트 팩토리를 구축하기 어려운 중소 기업들이 상대적으로 적은 비용으로 인공 지능 프로그래밍을 사용한 딥러닝 비전 검사 시스템을 구축하여 제품 결함을 포함하는 학습 데이터를 기초로 딥러닝 비전 시스템에 의해 제품의 결함(이물질, 스크래치 등)을 판단하고 제품의 불량 여부를 판단하게 되었다.
본 발명에 따른 실시예들은 다양한 컴퓨터 수단을 통해 수행될 수 있는 프로그램 명령 형태로 구현되고 컴퓨터 판독 가능 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 기록 매체는 프로그램 명령, 데이터 파일, 데이터 구조를 단독으로 또는 조합하여 포함할 수 있다. 컴퓨터 판독 가능 기록 매체는 스토리지, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 저장 매체에 프로그램 명령을 저장하고 수행하도록 구성된 하드웨어 장치가 포함될 수 있다. 프로그램 명령의 예는 컴파일러에 의해 만들어지는 것과, 기계어 코드뿐만 아니라 인터프리터를 사용하여 컴퓨터에 의해 실행될 수 있는 고급 언어 코드를 포함할 수 있다. 상기 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로써 작동하도록 구성될 수 있다.
이상에서 설명한 바와 같이, 본 발명의 방법은 프로그램으로 구현되어 컴퓨터의 소프트웨어를 이용하여 읽을 수 있는 형태로 기록매체(CD-ROM, RAM, ROM, 메모리 카드, 하드 디스크, 광자기 디스크, 스토리지 디바이스 등)에 저장될 수 있다.
본 발명의 구체적인 실시예를 참조하여 설명하였지만, 본 발명은 상기와 같이 기술적 사상을 예시하기 위해 구체적인 실시 예와 동일한 구성 및 작용에만 한정되지 않고, 본 발명의 기술적 사상과 범위를 벗어나지 않는 한도 내에서 다양하게 변형하여 실시될 수 있으며, 본 발명의 범위는 후술하는 특허청구범위에 의해 결정되어야 한다.
(부호의 설명)
100: PC 110: PLC
120: 카메라 130: 센서
140: 조명 170: 콘트롤러
본 발명의 제품 결함 이미지 원격 학습을 통한 비전 검사 시스템은 카메라 영상 데이터의 형상 판단 검사/이물질 검사/스크래치 검사를 제공하는 불량 검사 모듈과 불량 판정 모듈과 학습용 제조용 데이터 전송 모듈을 구비하는 엣지 플랫폼과 미들웨어를 통해 연동되는 서비스 플랫폼을 구비하며, 서비스 플랫폼은 불량 판정 제조 지능, 불량 예측 제조 지능을 제공하며, 학습 데이터에 기초하여 딥러닝 알고리즘을 사용한 제품 결함 이미지 원격 학습을 통한 비전 검사를 제공한다.
제품 결함 이미지 원격 학습을 통한 비전 검사 시스템은 컨베이어 벨트와 머신 비전 시스템이 구비된 스마트 팩토리를 구축하기 어려운 중소 기업들이 상대적으로 적은 비용으로 인공 지능 프로그래밍을 사용한 딥러닝 비전 검사 시스템을 구축하여 제품 결함을 포함하는 학습 데이터를 기초로 딥러닝 비전 시스템에 의해 제품의 결함(이물질, 스크래치 등)을 판단하고 제품의 불량 여부를 판단하게 되었다.
제품 결함 이미지 원격 학습을 사용한 비전 검사 방법은 머신비전 기반 PCB 불량판정 및 불량예측을 지원하는 머신 비전 기반 PCB 제조 지능과, Pan Valve 및 Dual Check Valve의 불량을 판정할 수 있는 Valve 제조지능(머신비전 기반 PCB 제조 지능, 머신비전 기반 Valve 제조 지능)을 제공한다.
머신비전 기반 PCB 제조 지능은 미삽, 오삽 등의 불량을 검출할때 아래쪽의 컨덴서에 가려서 머신비전에서 잘못 찾는 경우에 딥러닝을 사용하여 제대로 찾을 수 있도록 지능형 머신비전을 제공한다.
머신비전 기반 Valve 제조 지능은 머신비전에서 스크래치 불량검출을 하기 위해 카메라를 추가로 설치하고 수차례 나눠 여러장을 촬영해야 하지만, 한번 촬영한 전체 이미지를 딥러닝을 통해 스크래치 불량을 검출함으로서 검사 시간과 비용을 줄이게 되었다.
Claims (11)
- 카메라, 센서와 LED 조명과 콘트롤러와 연결되고, 머신 비전 영상 분석 SW를 구비한 머신 비전 검사 시스템을 구비하며, 제품 ID를 판독하고, 제품의 카메라 영상 데이터의 형상 판단 검사/이물질 검사/스크래치 검사를 제공하는 불량 검사 모듈과 불량 판정 모듈과 학습용 제조용 데이터 전송 모듈을 구비하는 엣지 플랫폼;상기 엣지 플랫폼과 연결되고 서비스 플랫폼과 연동하는 미들웨어;상기 엣지 플랫폼과 상기 미들웨어를 통해 연동되며, 불량 판정 제조 지능, 불량 예측 제조 지능을 제공하며, 누적되어 저장된 불량 이미지 학습 데이터와 비교하여 비정형 불량 이미지를 검출하고, 제품의 카메라 영상 데이터의 이물질 유무 검사, 형상 검사, 정상/불량 판정 결과 데이터를 제공하는 딥러닝 알고리즘을 사용한 제품 결함 이미지 원격 학습을 통한 비전 검사를 제공하는 서비스 플랫폼을 포함하는 제품 결함 이미지 원격 학습을 통한 비전 검사 시스템.
- 제1항에 있어서,상기 제품은 바코드, QR 코드, 또는 13.56MHz RFID 태그 중 어느 하나가 부착되는, 제품 결함 이미지 원격 학습을 통한 비전 검사 시스템.
- 제2항에 있어서,추가적으로, PC는 상기 제품에 바코드가 부착된 경우, 제품에 부착된 바코드를 인식하는 바코드 리더기와 인식 모듈을 더 포함하는, 제품 결함 이미지 원격 학습을 통한 비전 검사 시스템.
- 제2항에 있어서,추가적으로, PC는 상기 제품에 QR 코드가 부착된 경우, 제품에 부착된 QR 코드를 인식하는 QR 코드 인식 모듈을 더 포함하는, 제품 결함 이미지 원격 학습을 통한 비전 검사 시스템.
- 제1항에 있어서,추가적으로, 상기 제품에 13.56MHz RFID 태그가 부착된 경우, 13.56MHz RFID 리더와 "제품 코드 전송 미들웨어"를 통해 연결되는 PC의 SW 모듈을 더 포함하는, 제품 결함 이미지 원격 학습을 통한 비전 검사 시스템.
- 제1항에 있어서,상기 미들웨어는바코드 리더, QR 코드 인식기 또는 13.56MHz RFID 리더에 의해 인식된 제품에 부착된 추출된 모델정보에 해당하는 바코드, QR 코드 또는 13.56MHz RFID 태그 정보 중 어느 하나를 상기 엣지 플랫폼으로부터 상기 서비스 플랫폼으로 전송하는 제품 코드 전송 미들웨어; 및제품 결함 이미지 원격 학습을 통한 비전 검사 방법에 따라 머신 비전 시스템으로부터 전송된 비정형 불량 가공 데이터를 전송받아 딥러닝 모델 훈련 시스템에 의해 누적되어 저장된 불량 이미지 학습 데이터(이물질, 스크래치)와 비교하여 비정형 불량 이미지를 검출하는 비정형 불량 판정 학습 모델을 구비하고, 딥러닝 형상 판단 시스템에 의해 AI 딥러닝 모듈에 의해 카메라 영상 데이터의 이물질 유무 검사, 형상 검사, 정상/불량 판정 결과 데이터를 상기 서비스 플랫폼으로부터 상기 엣지 플랫폼으로 전송하는 딥러닝 미들웨어를 포함하는 제품 결함 이미지 원격 학습을 통한 비전 검사 시스템.
- 제1항에 있어서,상기 엣지 플랫폼은 불량 검사 모듈(형상 판단 검사, 이물질 검사, 스크래치 검사, 검사 데이터 기준 스펙 정보 취합, 검사 예측 분석 화면, 검사 결과 화면, 양품/불량 검사 결과 판정 라벨링 저장 및 전송), 불량 판정 모듈(판정 라벨링, 임계치 분석), 불량 예측 모듈(형상 예측 분석, 이물질 예측 분석, 스크래치 예측 분석, 예측 규칙 상관 계수 모듈), 학습용 제조 데이터 전송 모듈(제조 데이터 저장 및 전송 모듈)을 포함하며,상기 서비스 플랫폼은 상기 엣지 플랫폼과 불량 판정 제조 지능, 불량 예측 제조 지능, 학습용 제조 데이터를 공유하며,상기 서비스 플랫폼은 딥러닝 후 개발 지능을 제공하는 제조 지능 서비스 모듈을 구비하며, Python 프레임워크 상에 Scikit-learn Engine, CNN, RNN, 오디오 인코더, 학습용 제조 데이터를 저장하는 DB 모듈, 커뮤니케이션 모듈을 포함하는 제품 결함 이미지 원격 학습을 통한 비전 검사 시스템.
- 제1항에 있어서,상기 제품의 카메라 영상 데이터의 머신 비전 영상 분석 SW는 i) 그레이 스케일 영상 처리, 또는 ii) 딥러닝 알고리즘을 사용하며,카메라 영상의 이미지는 그레이스케일 이미지, RGB 이미지, HSI 이미지, YCbCr, JPEG 이미지, TIFF 이미지, GIF 이미지를 적용하며,상기 딥러닝 알고리즘은 CNN(Convolutional Neural Network), R-CNN(Recurrent Convolutional Neural Network), Fast RCNN, 및 Faster RCNN(Region based Convolutional Neural Network) 알고리즘, YOLO(You Only Look Once), SSD(Single Shot Detector) 알고리즘 중 어느 하나의 알고리즘을 사용하여 카메라 영상 데이터의 이물질과 스크래치의 결함이 있는 객체들을 검출하여 제품의 불량 여부를 판단하는, 제품 결함 이미지 원격 학습을 통한 비전 검사 시스템.
- 제8항에 있어서,상기 머신 비전 영상 분석 SW는 i) 그레이 스케일 영상 처리를 사용하며, 카메라 영상 데이터(RGB 영상)을 그레이 스케일 영상 데이터로 변환하고, 그레이 스케일 영상을 사용하여 버퍼링하여 저장하고, 이미지 프로세싱(image processing) 및 영상 분석 기능을 제공하며, 관심 영역(ROI, Region of Interest)을 그레이 스케일(grayscale)로 변환하며, 관심 영역(ROI)의 외곽선이 추출되는 실험에 의한 특정 임계값(threshold)을 사용하여 관심 영역(ROI)의 이미지의 히스토그램(histogram)[x축 영상의 각 픽셀의 화소 값, y축 해당 화소 값의 갯수(빈도수)]을 구하고, 그 관심영역 이미지를 Ostu 알고리즘을 사용하여 임계값을 기준으로 0,1로 이진화(binarization)한 후, 히스토그램 평활화(histogram equalization)를 통해 관심 영역(ROI)의 영상의 전처리를 수행하며, sobel edge operator(소벨 엣지 연산자, sobel mask) 또는 canny edge operator(캐니 엣지 연산자)를 사용하여 x 방향의 미분과 y 방향의 미분을 구하고, sobel mask의 가중치를 영상의 화소 값에 곱하고 이들 더하는 convolution에 의해 관심 영역 이미지의 엣지(edge, 물체 영역, 배경 영역의 경계에 위치하는 화소들)를 검출하고 특정 임계값을 적용하여 생성된 엣지 영상의 결함 객체들의 윤곽선을 검출하고, 형상 특징(Shape Features)을 추출하고,Ostu 알고리즘을 사용한 임계 방법을 사용하는 경우, 화소 값 f(x,y)들이 특정 임계값을 기준으로 입력 영상에 대하여 물체 영역과 배경 영역으로 분리하고, 화소 값 f(x,y)이 특정 임계값 보다 클 경우 물체 영역에 속하는 화소로 결정하며, 반대로 화소 값 f(x,y)이 특정 임계값 보다 작은 경우 배경 영역에 속하는 화소로 결정하는, 제품 결함 이미지 원격 학습을 통한 비전 검사 시스템.
- 제8항에 있어서,상기 머신 영상 분석 SW의 딥러닝 알고리즘은 CNN 알고리즘을 사용하며, AlexNet, ZFNet, VGGNet, GoogLeNet, ResNet 중 어느 하나의 알고리즘을 사용하며,상기 CNN 알고리즘을 사용하여 영상의 특징 추출과 분류하고 학습 모델의 누적된 결함 이미지의 학습 데이터와 비교하여 결함이 있는 객체(이물질, 스크래치)를 추출된 이미지를 상기 서비스 플랫폼으로 전송하여 상기 서비스 플랫폼이 제품의 불량 여부를 판단하는, 제품 결함 이미지 원격 학습을 통한 비전 검사 시스템.
- 제8항에 있어서,상기 서비스 플랫폼은 딥러닝 기반의 머신비전 플랫폼에서, 센서와 카메라를 사용한 PC의 비전 검사(얼룩, 찍힘, 긁힘), 제품 형상 검사(미타발, 변형 불량), Blob 검사(도금 유무 판단)의 AI View를 제공하며,센서는 Trigger Input을 발생하여 카메라로 전송하면, 카메라는 조명 Strobe를 제어하기 위해 Digital Output을 발생하여 이미지 센서에서 이미지 데이터를 생성하고 PC로 전송하고,PC는 필요에 따라, 이미지 데이터의 Inspection 검사(얼룩, 찍힘, 긁힘), 제품 형상 검사(미타발, 변형 불량), Blob 검사(도금 유무)를 검사하며,Inspection 검사(얼룩, 찍힘, 긁힘)는 양품 이미지와 불량 이미지를 등록한 후 구분 임계치를 기준으로 실시간으로 이미지의 불량을 판단하고,제품 형상 검사(미타발, 변형 불량)는 제품의 형상의 모양과 크기를 양품 이미지를 기준으로 제품의 형상 변형 유무를 판단하며,Blob 검사(도금 유무)는 정상 도금 영역의 밝기와 불량 도금 영역의 밝기 비교를 통한 마련된 기준으로 도금 유무를 판단하는, 제품 결함 이미지 원격 학습을 통한 비전 검사 시스템.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200126326A KR102579783B1 (ko) | 2020-09-28 | 2020-09-28 | 제품 결함 이미지 원격 학습을 통한 비전 검사 시스템 |
KR10-2020-0126326 | 2020-09-28 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2022065621A1 true WO2022065621A1 (ko) | 2022-03-31 |
Family
ID=80846715
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/KR2021/005587 WO2022065621A1 (ko) | 2020-09-28 | 2021-05-04 | 제품 결함 이미지 원격 학습을 통한 비전 검사 시스템 |
Country Status (2)
Country | Link |
---|---|
KR (1) | KR102579783B1 (ko) |
WO (1) | WO2022065621A1 (ko) |
Cited By (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20220091576A1 (en) * | 2020-09-24 | 2022-03-24 | International Business Machines Corporation | Detection of defect in edge device manufacturing by artificial intelligence |
CN114820796A (zh) * | 2022-05-16 | 2022-07-29 | 中国科学技术大学 | 基于自监督表示学习的视觉抓取检测方法及系统 |
CN114897864A (zh) * | 2022-05-27 | 2022-08-12 | 中国科学院重庆绿色智能技术研究院 | 基于数模信息的工件检测及缺陷判断方法 |
CN115775227A (zh) * | 2022-10-12 | 2023-03-10 | 浙江吉昌新材料有限公司 | 防裂匣钵的智能化生产方法及其控制系统 |
CN115953397A (zh) * | 2023-03-13 | 2023-04-11 | 山东金帝精密机械科技股份有限公司 | 一种圆锥轴承保持器的工艺制备流程的监测方法及设备 |
CN116385353A (zh) * | 2023-02-10 | 2023-07-04 | 南通大学 | 一种摄像头模组异常检测方法 |
CN116452598A (zh) * | 2023-06-20 | 2023-07-18 | 曼德惟尔(山东)智能制造有限公司 | 基于计算机视觉的车桥生产质量快速检测方法及系统 |
CN116499731A (zh) * | 2023-06-27 | 2023-07-28 | 浙江春风动力股份有限公司 | 面向发动机高度柔性智能制造的活塞智能视觉检测系统 |
CN116645366A (zh) * | 2023-07-25 | 2023-08-25 | 山东千颐科技有限公司 | 一种立井提升机尾绳弧度异常ai视觉识别检测方法 |
CN116664871A (zh) * | 2023-06-27 | 2023-08-29 | 本溪钢铁(集团)信息自动化有限责任公司 | 一种基于深度学习的智能化控制方法及系统 |
CN117094609A (zh) * | 2023-10-20 | 2023-11-21 | 山东卓越精工集团有限公司 | 一种基于机器视觉的铝型材生产质量智能管理系统 |
CN117197534A (zh) * | 2023-08-04 | 2023-12-08 | 广州电缆厂有限公司 | 一种基于特征识别的电缆表面缺陷自动检测方法 |
CN117252851A (zh) * | 2023-10-16 | 2023-12-19 | 北京石栎科技有限公司 | 一种基于图像检测识别的标准质量检测管理平台 |
CN117253026A (zh) * | 2023-10-08 | 2023-12-19 | 北京信诺时代科技发展有限公司 | 一种基于图像识别的智能化检测系统及检测方法 |
CN117333493A (zh) * | 2023-12-01 | 2024-01-02 | 深圳市志达精密科技有限公司 | 一种基于机器视觉的显示器底座生产用检测系统以及方法 |
WO2024011674A1 (zh) * | 2022-07-14 | 2024-01-18 | 淮南师范学院 | 基于机器视觉技术的多功能自动检测平台 |
CN117710901A (zh) * | 2024-02-02 | 2024-03-15 | 鲁能泰山曲阜电缆有限公司 | 一种基于机器视觉的电缆制造异常检测系统 |
CN117745724A (zh) * | 2024-02-20 | 2024-03-22 | 高唐县瑞景精密机械有限公司 | 基于视觉分析的石材打磨加工缺陷区域分割方法 |
WO2024060917A1 (zh) * | 2022-09-23 | 2024-03-28 | 中国电信股份有限公司 | 缺陷识别方法、装置和系统 |
CN118397304A (zh) * | 2024-05-17 | 2024-07-26 | 欧拉深视(上海)科技有限公司 | 一种基于残差神经网络的物品纹理特征识别方法 |
CN118468915A (zh) * | 2024-07-10 | 2024-08-09 | 杭州智源电子有限公司 | 生产信息追溯方法、装置、计算机设备及存储介质 |
WO2024187356A1 (zh) * | 2023-03-14 | 2024-09-19 | 广州盛创文化发展有限公司 | 一种硅胶制品缺陷的检测方法、装置、终端设备和介质 |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023234621A1 (ko) * | 2022-05-31 | 2023-12-07 | 현대제철 주식회사 | 스나우트 제어 시스템 및 이를 포함하는 용융아연 도금 설비 |
KR102690818B1 (ko) * | 2022-05-31 | 2024-08-05 | 현대제철 주식회사 | 스나우트 제어 시스템 및 이를 포함하는 용융아연 도금 설비 |
KR102557771B1 (ko) * | 2022-10-12 | 2023-07-20 | 주식회사 지오스테크놀러지 | 양부판정을 용이하게 수행할 수 있는 광 반도체 패키지 검사 장치 |
KR102550108B1 (ko) * | 2022-10-31 | 2023-06-30 | (주)바질컴퍼니 | 클라우드 플랫폼에서 인공지능 모델을 활용한 용접 불량 탐지 방법 |
KR102541166B1 (ko) * | 2022-10-31 | 2023-06-14 | 주식회사 인터엑스 | 로봇을 활용한 ai비전 검사 시스템 |
KR102563230B1 (ko) * | 2022-12-09 | 2023-08-03 | (주)일주지앤에스 | Ai비전 결함탐지 시스템 |
KR102597501B1 (ko) * | 2022-12-19 | 2023-11-03 | 주식회사 티지네트워크 | Rf필터 검사 및 학습 시스템과 그 방법 |
KR102532531B1 (ko) * | 2023-02-21 | 2023-05-15 | 주식회사 태종레이져 | 복수의 뉴럴 네트워크를 이용하여 절단 공정을 위한 스마트 팩토리를 운용하는 방법 및 장치 |
KR102599785B1 (ko) * | 2023-02-27 | 2023-11-08 | (주)일주지앤에스 | Ai비전 결함탐지 시스템 및 방법 |
KR102703844B1 (ko) * | 2023-06-01 | 2024-09-09 | 주식회사 디월드 | 빅데이터 기반 딥러닝을 이용한 비전 검사 서비스 제공 시스템 |
CN117197133B (zh) * | 2023-11-06 | 2024-01-30 | 湖南睿图智能科技有限公司 | 一种复杂工业环境下视觉机器人的控制系统及方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170061601A1 (en) * | 2015-08-31 | 2017-03-02 | Mitutoyo Corporation | Multi-level image focus using a tunable lens in a machine vision inspection system |
KR20170055462A (ko) * | 2015-10-01 | 2017-05-19 | 라온피플 주식회사 | 머신 비전을 위한 가이드 제공 방법 및 장치 |
KR20190092975A (ko) * | 2018-01-31 | 2019-08-08 | 삼성전자주식회사 | 비전 검사 관리 방법 및 비전 검사 시스템 |
KR20200054066A (ko) * | 2018-11-09 | 2020-05-19 | 한국기술교육대학교 산학협력단 | 유연 생산 공정 시스템 |
KR20200063340A (ko) * | 2018-11-22 | 2020-06-05 | 한국클라우드컴퓨팅연구조합 | 클라우드향 기계학습 기반의 품질 검사 방법 및 그 시스템 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101182768B1 (ko) | 2012-02-21 | 2012-09-13 | 주식회사 엠비젼 | 머신비전 시스템을 위한 검사 장치 및 방법 |
KR101688641B1 (ko) | 2015-09-22 | 2016-12-21 | 동서대학교산학협력단 | 머신 비전 기반 전자부품 검사 시스템 |
KR101772673B1 (ko) | 2017-05-13 | 2017-08-29 | 주식회사 에이피에스 | 멀티 광학 모듈 비전 검사 시스템 |
KR20190063839A (ko) | 2017-11-30 | 2019-06-10 | 전자부품연구원 | 제조 공정에서 딥러닝을 활용한 머신 비전 기반 품질검사 방법 및 시스템 |
KR20190067439A (ko) | 2017-12-07 | 2019-06-17 | 한국전자통신연구원 | 딥러닝 기반의 반도체 비전 검사 시스템에서의 제어 변수 설정 장치 및 방법 |
KR102121958B1 (ko) * | 2018-07-18 | 2020-06-11 | 주식회사 케이엠티엘 | 콘크리트 구조물 결함 분석 서비스 제공 방법, 시스템 및 컴퓨터 프로그램 |
KR102108956B1 (ko) | 2019-11-13 | 2020-05-12 | 주식회사 만컴퍼니 | 인공지능을 활용한 머신비전 모듈형 소프트웨어를 갖는 머신비전 검사장치 및 그 장치의 구동방법, 그리고 컴퓨터 판독가능 기록매체 |
-
2020
- 2020-09-28 KR KR1020200126326A patent/KR102579783B1/ko active IP Right Grant
-
2021
- 2021-05-04 WO PCT/KR2021/005587 patent/WO2022065621A1/ko active Application Filing
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170061601A1 (en) * | 2015-08-31 | 2017-03-02 | Mitutoyo Corporation | Multi-level image focus using a tunable lens in a machine vision inspection system |
KR20170055462A (ko) * | 2015-10-01 | 2017-05-19 | 라온피플 주식회사 | 머신 비전을 위한 가이드 제공 방법 및 장치 |
KR20190092975A (ko) * | 2018-01-31 | 2019-08-08 | 삼성전자주식회사 | 비전 검사 관리 방법 및 비전 검사 시스템 |
KR20200054066A (ko) * | 2018-11-09 | 2020-05-19 | 한국기술교육대학교 산학협력단 | 유연 생산 공정 시스템 |
KR20200063340A (ko) * | 2018-11-22 | 2020-06-05 | 한국클라우드컴퓨팅연구조합 | 클라우드향 기계학습 기반의 품질 검사 방법 및 그 시스템 |
Cited By (36)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11493901B2 (en) * | 2020-09-24 | 2022-11-08 | International Business Machines Corporation | Detection of defect in edge device manufacturing by artificial intelligence |
US20220091576A1 (en) * | 2020-09-24 | 2022-03-24 | International Business Machines Corporation | Detection of defect in edge device manufacturing by artificial intelligence |
CN114820796A (zh) * | 2022-05-16 | 2022-07-29 | 中国科学技术大学 | 基于自监督表示学习的视觉抓取检测方法及系统 |
CN114897864A (zh) * | 2022-05-27 | 2022-08-12 | 中国科学院重庆绿色智能技术研究院 | 基于数模信息的工件检测及缺陷判断方法 |
CN114897864B (zh) * | 2022-05-27 | 2024-04-12 | 中国科学院重庆绿色智能技术研究院 | 基于数模信息的工件检测及缺陷判断方法 |
WO2024011674A1 (zh) * | 2022-07-14 | 2024-01-18 | 淮南师范学院 | 基于机器视觉技术的多功能自动检测平台 |
WO2024060917A1 (zh) * | 2022-09-23 | 2024-03-28 | 中国电信股份有限公司 | 缺陷识别方法、装置和系统 |
CN115775227A (zh) * | 2022-10-12 | 2023-03-10 | 浙江吉昌新材料有限公司 | 防裂匣钵的智能化生产方法及其控制系统 |
CN116385353A (zh) * | 2023-02-10 | 2023-07-04 | 南通大学 | 一种摄像头模组异常检测方法 |
CN116385353B (zh) * | 2023-02-10 | 2024-01-30 | 南通大学 | 一种摄像头模组异常检测方法 |
CN115953397A (zh) * | 2023-03-13 | 2023-04-11 | 山东金帝精密机械科技股份有限公司 | 一种圆锥轴承保持器的工艺制备流程的监测方法及设备 |
WO2024187356A1 (zh) * | 2023-03-14 | 2024-09-19 | 广州盛创文化发展有限公司 | 一种硅胶制品缺陷的检测方法、装置、终端设备和介质 |
CN116452598B (zh) * | 2023-06-20 | 2023-08-29 | 曼德惟尔(山东)智能制造有限公司 | 基于计算机视觉的车桥生产质量快速检测方法及系统 |
CN116452598A (zh) * | 2023-06-20 | 2023-07-18 | 曼德惟尔(山东)智能制造有限公司 | 基于计算机视觉的车桥生产质量快速检测方法及系统 |
CN116499731B (zh) * | 2023-06-27 | 2023-11-21 | 浙江春风动力股份有限公司 | 面向发动机高度柔性智能制造的活塞智能视觉检测系统 |
CN116664871B (zh) * | 2023-06-27 | 2024-05-31 | 本溪钢铁(集团)信息自动化有限责任公司 | 一种基于深度学习的智能化控制方法及系统 |
CN116664871A (zh) * | 2023-06-27 | 2023-08-29 | 本溪钢铁(集团)信息自动化有限责任公司 | 一种基于深度学习的智能化控制方法及系统 |
CN116499731A (zh) * | 2023-06-27 | 2023-07-28 | 浙江春风动力股份有限公司 | 面向发动机高度柔性智能制造的活塞智能视觉检测系统 |
CN116645366B (zh) * | 2023-07-25 | 2023-10-03 | 山东千颐科技有限公司 | 一种立井提升机尾绳弧度异常ai视觉识别检测方法 |
CN116645366A (zh) * | 2023-07-25 | 2023-08-25 | 山东千颐科技有限公司 | 一种立井提升机尾绳弧度异常ai视觉识别检测方法 |
CN117197534A (zh) * | 2023-08-04 | 2023-12-08 | 广州电缆厂有限公司 | 一种基于特征识别的电缆表面缺陷自动检测方法 |
CN117197534B (zh) * | 2023-08-04 | 2024-04-05 | 广州电缆厂有限公司 | 一种基于特征识别的电缆表面缺陷自动检测方法 |
CN117253026B (zh) * | 2023-10-08 | 2024-04-09 | 北京信诺时代科技发展有限公司 | 一种基于图像识别的智能化检测系统及检测方法 |
CN117253026A (zh) * | 2023-10-08 | 2023-12-19 | 北京信诺时代科技发展有限公司 | 一种基于图像识别的智能化检测系统及检测方法 |
CN117252851B (zh) * | 2023-10-16 | 2024-06-07 | 北京石栎科技有限公司 | 一种基于图像检测识别的标准质量检测管理平台 |
CN117252851A (zh) * | 2023-10-16 | 2023-12-19 | 北京石栎科技有限公司 | 一种基于图像检测识别的标准质量检测管理平台 |
CN117094609B (zh) * | 2023-10-20 | 2024-01-12 | 山东卓越精工集团有限公司 | 一种基于机器视觉的铝型材生产质量智能管理系统 |
CN117094609A (zh) * | 2023-10-20 | 2023-11-21 | 山东卓越精工集团有限公司 | 一种基于机器视觉的铝型材生产质量智能管理系统 |
CN117333493A (zh) * | 2023-12-01 | 2024-01-02 | 深圳市志达精密科技有限公司 | 一种基于机器视觉的显示器底座生产用检测系统以及方法 |
CN117333493B (zh) * | 2023-12-01 | 2024-03-15 | 深圳市志达精密科技有限公司 | 一种基于机器视觉的显示器底座生产用检测系统以及方法 |
CN117710901B (zh) * | 2024-02-02 | 2024-04-26 | 鲁能泰山曲阜电缆有限公司 | 一种基于机器视觉的电缆制造异常检测系统 |
CN117710901A (zh) * | 2024-02-02 | 2024-03-15 | 鲁能泰山曲阜电缆有限公司 | 一种基于机器视觉的电缆制造异常检测系统 |
CN117745724B (zh) * | 2024-02-20 | 2024-04-26 | 高唐县瑞景精密机械有限公司 | 基于视觉分析的石材打磨加工缺陷区域分割方法 |
CN117745724A (zh) * | 2024-02-20 | 2024-03-22 | 高唐县瑞景精密机械有限公司 | 基于视觉分析的石材打磨加工缺陷区域分割方法 |
CN118397304A (zh) * | 2024-05-17 | 2024-07-26 | 欧拉深视(上海)科技有限公司 | 一种基于残差神经网络的物品纹理特征识别方法 |
CN118468915A (zh) * | 2024-07-10 | 2024-08-09 | 杭州智源电子有限公司 | 生产信息追溯方法、装置、计算机设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
KR102579783B1 (ko) | 2023-09-18 |
KR20220042916A (ko) | 2022-04-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2022065621A1 (ko) | 제품 결함 이미지 원격 학습을 통한 비전 검사 시스템 | |
KR101772673B1 (ko) | 멀티 광학 모듈 비전 검사 시스템 | |
US10438340B2 (en) | Automatic optical inspection system and operating method thereof | |
US11941799B2 (en) | Machine-learning based camera image triggering for quality assurance inspection processes | |
KR100788205B1 (ko) | 웹 검사 방법 및 장치 | |
EP1664749B1 (en) | Apparatus and method for automated web inspection | |
KR102108956B1 (ko) | 인공지능을 활용한 머신비전 모듈형 소프트웨어를 갖는 머신비전 검사장치 및 그 장치의 구동방법, 그리고 컴퓨터 판독가능 기록매체 | |
Li et al. | Automatic industry PCB board DIP process defect detection with deep ensemble method | |
WO2019009664A1 (en) | APPARATUS FOR OPTIMIZING THE INSPECTION OF THE OUTSIDE OF A TARGET OBJECT AND ASSOCIATED METHOD | |
CN110567976A (zh) | 基于机器视觉的手机盖板丝印缺陷检测装置及检测方法 | |
US20230152781A1 (en) | Manufacturing intelligence service system connected to mes in smart factory | |
CN114226262A (zh) | 瑕疵检测方法、瑕疵分类方法及其系统 | |
Huang et al. | Deep learning object detection applied to defect recognition of memory modules | |
CN111307817B (zh) | 一种智能产线pcb生产过程的在线检测方法及系统 | |
Boukouvalas et al. | An integrated system for quality inspection of tiles | |
US20230060506A1 (en) | Method and system for package movement visibility in warehouse operations | |
CN109738459A (zh) | 表面清洁度在线监测系统 | |
US20230237636A1 (en) | Vision inspection system for defect detection | |
WO2022250190A1 (ko) | 딥러닝 모델을 이용한 영상검사 대상체의 결함 판정시스템 | |
KR100357764B1 (ko) | 지능형 피혁 품질선별 장치 | |
WO2019124919A1 (ko) | 마커를 이용한 자동차 부품 품질 보증 방법 및 장치 | |
CN111891609A (zh) | 一种基于印刷电路板成品外观影像挑拣的仓储系统 | |
KR102618194B1 (ko) | Ai와 자동제어 기술을 접목한 반도체 패키지 기판 가공홀 3d 자동 공정검사 방법 및 시스템 | |
Wiangtong et al. | Deployment of machine vision platform for checking spot welds on metal strap belts | |
Munawaroh et al. | Automatic optical inspection for detecting keycaps misplacement using Tesseract optical character recognition. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 21872661 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
32PN | Ep: public notification in the ep bulletin as address of the adressee cannot be established |
Free format text: NOTING OF LOSS OF RIGHTS PURSUANT TO RULE 112(1) EPC (EPO FORM 1205A DATED 03/08/2023) |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 21872661 Country of ref document: EP Kind code of ref document: A1 |