CN117393485B - 基于深度学习的芯片高精固晶机视觉定位系统 - Google Patents
基于深度学习的芯片高精固晶机视觉定位系统 Download PDFInfo
- Publication number
- CN117393485B CN117393485B CN202311432528.1A CN202311432528A CN117393485B CN 117393485 B CN117393485 B CN 117393485B CN 202311432528 A CN202311432528 A CN 202311432528A CN 117393485 B CN117393485 B CN 117393485B
- Authority
- CN
- China
- Prior art keywords
- chip
- area
- determining
- offset vector
- pneumatic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000000007 visual effect Effects 0.000 title claims abstract description 88
- 238000013135 deep learning Methods 0.000 title claims abstract description 23
- 239000013078 crystal Substances 0.000 claims abstract description 67
- 238000000034 method Methods 0.000 claims abstract description 44
- 230000008569 process Effects 0.000 claims abstract description 34
- 238000005457 optimization Methods 0.000 claims abstract description 10
- 238000013136 deep learning model Methods 0.000 claims abstract description 5
- 238000012216 screening Methods 0.000 claims description 81
- 238000006243 chemical reaction Methods 0.000 claims description 23
- 230000005484 gravity Effects 0.000 claims description 15
- 238000012549 training Methods 0.000 claims description 13
- 238000004519 manufacturing process Methods 0.000 abstract description 2
- 239000004065 semiconductor Substances 0.000 abstract description 2
- 238000005516 engineering process Methods 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000004806 packaging method and process Methods 0.000 description 2
- 238000001179 sorption measurement Methods 0.000 description 2
- 230000004075 alteration Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H01—ELECTRIC ELEMENTS
- H01L—SEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
- H01L21/00—Processes or apparatus adapted for the manufacture or treatment of semiconductor or solid state devices or of parts thereof
- H01L21/67—Apparatus specially adapted for handling semiconductor or electric solid state devices during manufacture or treatment thereof; Apparatus specially adapted for handling wafers during manufacture or treatment of semiconductor or electric solid state devices or components ; Apparatus not specifically provided for elsewhere
- H01L21/68—Apparatus specially adapted for handling semiconductor or electric solid state devices during manufacture or treatment thereof; Apparatus specially adapted for handling wafers during manufacture or treatment of semiconductor or electric solid state devices or components ; Apparatus not specifically provided for elsewhere for positioning, orientation or alignment
- H01L21/681—Apparatus specially adapted for handling semiconductor or electric solid state devices during manufacture or treatment thereof; Apparatus specially adapted for handling wafers during manufacture or treatment of semiconductor or electric solid state devices or components ; Apparatus not specifically provided for elsewhere for positioning, orientation or alignment using optical controlling means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/62—Analysis of geometric attributes of area, perimeter, diameter or volume
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- H—ELECTRICITY
- H01—ELECTRIC ELEMENTS
- H01L—SEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
- H01L21/00—Processes or apparatus adapted for the manufacture or treatment of semiconductor or solid state devices or of parts thereof
- H01L21/67—Apparatus specially adapted for handling semiconductor or electric solid state devices during manufacture or treatment thereof; Apparatus specially adapted for handling wafers during manufacture or treatment of semiconductor or electric solid state devices or components ; Apparatus not specifically provided for elsewhere
- H01L21/67005—Apparatus not specifically provided for elsewhere
- H01L21/67011—Apparatus for manufacture or treatment
- H01L21/67092—Apparatus for mechanical treatment
-
- H—ELECTRICITY
- H01—ELECTRIC ELEMENTS
- H01L—SEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
- H01L21/00—Processes or apparatus adapted for the manufacture or treatment of semiconductor or solid state devices or of parts thereof
- H01L21/67—Apparatus specially adapted for handling semiconductor or electric solid state devices during manufacture or treatment thereof; Apparatus specially adapted for handling wafers during manufacture or treatment of semiconductor or electric solid state devices or components ; Apparatus not specifically provided for elsewhere
- H01L21/67005—Apparatus not specifically provided for elsewhere
- H01L21/67011—Apparatus for manufacture or treatment
- H01L21/67121—Apparatus for making assemblies not otherwise provided for, e.g. package constructions
-
- H—ELECTRICITY
- H01—ELECTRIC ELEMENTS
- H01L—SEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
- H01L21/00—Processes or apparatus adapted for the manufacture or treatment of semiconductor or solid state devices or of parts thereof
- H01L21/67—Apparatus specially adapted for handling semiconductor or electric solid state devices during manufacture or treatment thereof; Apparatus specially adapted for handling wafers during manufacture or treatment of semiconductor or electric solid state devices or components ; Apparatus not specifically provided for elsewhere
- H01L21/67005—Apparatus not specifically provided for elsewhere
- H01L21/67242—Apparatus for monitoring, sorting or marking
- H01L21/67259—Position monitoring, e.g. misposition detection or presence detection
- H01L21/67265—Position monitoring, e.g. misposition detection or presence detection of substrates stored in a container, a magazine, a carrier, a boat or the like
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20112—Image segmentation details
- G06T2207/20164—Salient point detection; Corner detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
- G06T2207/30148—Semiconductor; IC; Wafer
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Condensed Matter Physics & Semiconductors (AREA)
- Manufacturing & Machinery (AREA)
- Computer Hardware Design (AREA)
- Microelectronics & Electronic Packaging (AREA)
- Power Engineering (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Quality & Reliability (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Geometry (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了基于深度学习的芯片高精固晶机视觉定位系统,属于半导体生产技术领域,包括:芯片图像获取模块实时获取目标芯片在装载台上时的芯片图像;偏移向量确定模块基于移动过程中实时获取的芯片图像,确定出摄像装置的当前摄像视角相对于标准正视视角的实时偏移向量;深度学习模型搭建模块基于深度学习算法搭建出气动吸晶装置的控制参数确定模型;视觉定位优化模块基于实时偏移向量和控制参数确定模型,不断优化控制气动吸晶装置,直至最新获得的实时偏移向量和标准偏移向量完全一致时,则发出视觉定位结束指令;用以在气动吸晶装置在吸附芯片之前实现对芯片位置的视觉定位,以保证气动吸晶装置的吸晶精度。
Description
技术领域
本发明涉及半导体生产技术领域,特别涉及基于深度学习的芯片高精固晶机视觉定位系统。
背景技术
目前,固晶机是一种高速高精的光机电一体化的设备,广泛用于各种微型结构的封装形式,无论任何形式的封装其实现过程都会用到定位技术,而不同领域对定位技术的技术要求不同,随着视觉定位技术的发展,将视觉定位技术应用于与芯片高精固晶机在该技术领域中已有先例。
但是,现有技术中的芯片高精固晶机的视觉定位方法或系统仅仅通过摄像装置获取的图像的进行单一次或简单的图像分析,以确定出其在空间坐标系下的司机坐标,以实现对芯片的视觉定位,然后由于芯片形状的多样化以及芯片或者过程中的误差,单次视觉定位将会导致视觉定位精度较低,进而导致后续对吸晶装置的控制误差较大,进而导致高精固晶机后续的吸晶误差也较大。
因此,本发明提出了基于深度学习的芯片高精固晶机视觉定位系统。
发明内容
本发明提供基于深度学习的芯片高精固晶机视觉定位系统,用以在芯片高精固晶机的气动吸晶装置在吸附芯片之前向芯片移动过程中,实现了对芯片在装载台上位置的多次视觉定位,并基于多次视觉定位结果中获得的当前拍摄视角相对于标准正视视角的偏移向量,使得控制气动吸晶装置在吸附芯片之前可以自动优化调整自己在移动过程中的方向和姿态,即实现对芯片的高精视觉定位和对气动吸晶装置的高精移动控制,也提高了芯片高精固晶机后续过程中的吸晶精度。
本发明提供一种基于深度学习的芯片高精固晶机视觉定位系统,包括:
芯片图像获取模块,用于基于设置于芯片高精固晶机的气动吸晶装置上的摄像装置,实时获取目标芯片在装载台上时的芯片图像;
偏移向量确定模块,用于基于轨迹终点控制气动吸晶装置进行移动,并基于在气动吸晶装置移动过程中实时获取的芯片图像,确定出摄像装置的当前摄像视角相对于标准正视视角的实时偏移向量;
深度学习模型搭建模块,用于基于深度学习算法搭建出气动吸晶装置的控制参数确定模型;
视觉定位优化模块,用于基于实时偏移向量和控制参数确定模型,不断优化控制气动吸晶装置,直至最新获得的实时偏移向量和标准偏移向量完全一致时,则发出视觉定位结束指令。
优选的,偏移向量确定模块,包括:
参照点确定子模块,用于基于芯片图像确定出目标芯片的所有轨迹确定参照点;
动态轨迹确定子模块,用于将所有轨迹确定参照点在预设二维坐标系下的坐标值的均值在芯片图像中对应的位置点,作为轨迹终点;
图像获取及识别子模块,用于基于轨迹终点控制气动吸晶装置进行移动,并在气动吸晶装置移动过程中实时获取的芯片图像中识别出芯片主视区域和芯片转折面区域;
偏移向量确定子模块,用于基于实时确定出的芯片主视区域和芯片转折面区域,确定出摄像装置的当前摄像视角相对于标准正视视角的实时偏移向量。
优选的,参照点确定子模块,包括:
坐标转换单元,用于基于芯片图像中的装载台轮廓的坐标表示和参照图像中的装载台轮廓的坐标表示,对芯片图像中的所有像素点进行坐标转换,获得芯片图像的坐标转换图像;
区域确定单元,用于在坐标转换图像与参照图像之间的差异区域中确定出芯片区域;
参照点确定单元,用于基于芯片区域确定出目标芯片的轨迹确定参照点。
优选的,区域确定单元,包括:
差异区域确定子单元,用于在坐标转换图像中确定出相对于参照图像的所有差异区域;
区域初次筛选子单元,用于计算出差异区域的轮廓和参照芯片形状库中的轮廓之间的形状相似度,将在参照芯片形状库中存在对应形状相似度超出相似度阈值的参照芯片形状的差异区域,当作初筛合格区域;
轮廓规则度确定子单元,用于确定出初筛合格区域的轮廓规则度;
芯片区域确定子单元,用于基于初筛合格区域的轮廓规则度和初筛合格区域相对于坐标转换图像中的装载台区域的中心位置偏差度确定出芯片区域。
优选的,轮廓规则度确定子单元确定出初筛合格区域的轮廓规则度的方法,包括:
基于预设方向,将初筛合格区域的轮廓在初筛合格区域的所有轮廓点处的切线的切线角度进行曲线拟合,获得切线角度曲线;
确定出切线角度曲线中所有相邻波峰值之间的横坐标间隔,作为切线角度曲线的第一特征值集,并确定出切线角度曲线中所有相邻波谷值之间的横坐标间隔,作为切线角度曲线的第二特征值集,并确定出切线角度曲线中所有相邻波峰波谷之间的横坐标间隔,作为切线角度曲线的第三特征值集;
将切线角度曲线的每个特征值集中的特征值和对应的特征值均值之间的差值的绝对值,当作特征值集中的每个特征值的偏差值,将特征值集中的所有特征值的偏差值的均值与特征值均值的比值当作特征值集的不均匀度,将1与每个特征值集的不均匀度的差值当作对应特征值集的均匀度;
将切线角度曲线的所有特征值集的均匀度的均值,当作初筛合格区域的轮廓规则度;
其中,切线角度曲线的特征值集包括第一特征值集和第二特征值集以及第三特征值集。
优选的,芯片区域确定子单元基于初筛合格区域的轮廓规则度和初筛合格区域相对于坐标转换图像中的装载台区域的中心位置偏差度确定出芯片区域的方法,包括:
将初筛合格区域中所有坐标点在预设二维坐标系下的坐标值的均值,当作初筛合格区域中心点,将装载台区域中所有坐标点在预设二维坐标系下的坐标值的均值,当作装载台区域中心点;
将从装载台区域中心点至初筛合格区域中心点的向量,当作相对位置表征向量;
确定出装载台区域在相对位置表征向量方向上的区域内径,将相对位置表征向量的模与区域内径的比值当作初筛合格区域的中心位置偏差度;
基于初筛合格区域的轮廓规则度和对应的第一预设权重的乘积与中心位置偏差度和对应的第二预设权重的乘积之和,当作初筛合格区域的芯片区域概率;
将最大芯片区域概率的初筛合格区域当作芯片区域。
优选的,参照点确定单元,包括:
内径确定子单元,用于确定出芯片区域的重心位置,计算出芯片区域的轮廓上每个轮廓点与重心位置之间的间距中的最大值,作为芯片区域的最大表示内径;
间距确定子单元,用于将芯片区域的轮廓中每个角点与重心位置之间的间距作为第一间距,将与当前角点左右相邻的两个角点与重心位置之间的间距作为第二间距;
凹凸度计算子单元,用于将每个角点的第一间距和对应的两个第二间距的均值之差与对应的个两个第二间距的均值之间的比值,作为角点凹凸度;
参照点确定子单元,用于将芯片区域的轮廓的所有角点中角点凹凸度不小于预设凹凸度阈值的角点作为目标芯片的轨迹确定参照点。
优选的,图像获取及识别子模块,包括:
移动控制单元,用于将轨迹终点的二维坐标输入至移动控制参数确定模型,获得移动控制参数,基于移动控制参数控制气动吸晶装置进行移动;
区域筛选单元,用于在气动吸晶装置移动过程中实时获取芯片图像,将芯片图像中封闭轮廓围成的区域中最大面积的区域作为芯片主视区域,并将芯片图像中封闭轮廓围成的区域中除芯片主视区域以外剩余的区域当作芯片转折面区域。
优选的,偏移向量确定子模块,包括:
样本确定单元,用于将大量不同形状的芯片在不同拍摄视角的芯片图像的主视区域的轮廓的坐标表示和芯片转折面区域的轮廓的坐标表示以及对应的拍摄视角相对于标准正视视角的偏移向量,当作训练样本;
模块搭建单元,用于基于训练样本进行模型训练,搭建出视角偏移向量确定模型;
偏移向量确定单元,用于将芯片主视区域的轮廓的坐标表示和芯片转折面区域的轮廓的坐标表示,输入至视角偏移向量确定模型,获得拍摄装置的当前拍摄视角相对于标准正视视角的实时偏移向量。
优选的,视觉定位优化模块,包括:
控制参数确定子模块,用于将最新获得的实时偏移向量和标准偏移向量之间的向量差不断输入至控制参数确定模型,获得气动吸晶装置的实时控制参数;
优化控制子模块,用于基于最新获得的实时控制参数不断优化控制气动吸晶装置,直至最新获得的实时偏移向量和标准偏移向量完全一致时,则发出视觉定位结束指令。
本发明区别于现有技术的有益效果为:在芯片高精固晶机的气动吸晶装置在吸附芯片之前向芯片移动过程中,实现了对芯片在装载台上位置的多次视觉定位,并基于多次视觉定位结果中获得的当前拍摄视角相对于标准正视视角的偏移向量,使得控制气动吸晶装置在吸附芯片之前可以自动优化调整自己在移动过程中的方向和姿态,即实现对芯片的高精视觉定位和对气动吸晶装置的高精移动控制,也提高了芯片高精固晶机后续过程中的吸晶精度。
本发明的其它特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明而了解。本发明的目的和其他优点可通过在本申请文件中所特别指出的结构来实现和获得。
下面通过附图和实施例,对本发明的技术方案做进一步的详细描述。
附图说明
附图用来提供对本发明的进一步理解,并且构成说明书的一部分,与本发明的实施例一起用于解释本发明,并不构成对本发明的限制。在附图中:
图1为本发明实施例中的基于深度学习的芯片高精固晶机视觉定位系统示意图;
图2为本发明实施例中的偏移向量确定模块示意图;
图3为本发明实施例中的参照点确定子模块示意图。
具体实施方式
以下结合附图对本发明的优选实施例进行说明,应当理解,此处所描述的优选实施例仅用于说明和解释本发明,并不用于限定本发明。
实施例1:
本发明提供了一种基于深度学习的芯片高精固晶机视觉定位系统,参考图1,包括:
芯片图像获取模块,用于基于设置于芯片高精固晶机(即为用于利用其中包含的气动吸晶装置固定芯片并对芯片进行运输的高精度设备)的气动吸晶装置(即为利用真空吸附装置实现对芯片的吸附拿取功能的装置)上的摄像装置(即为固定设置与启动吸晶装置之上,并用于获取放置在装载台上的芯片的图像的摄像装置),实时获取目标芯片(即为需要利用该实施例中的芯片高精固晶机视觉定位系统被视觉定位的芯片)在装载台上时的芯片图像;
偏移向量确定模块,用于基于轨迹终点(即为基于第一次获取的芯片图像确定出的芯片外表面的实际参照点,确定出的合理控制气动吸晶装置进行移动时应该遵循的轨迹的终点在芯片图像中的位置)控制气动吸晶装置进行移动,并基于在气动吸晶装置移动过程中实时获取的芯片图像,确定出摄像装置的当前摄像视角相对于标准正视视角(即为预设的摄像装置在正视(或者拍摄目标芯片的正视图时的)目标芯片时的拍摄视角)的实时偏移向量(即为将当前拍摄视角对应的方向的单位向量和标准正视视角对应的方向的单位向量之间的向量差当作实时偏移向量);
深度学习模型搭建模块,用于基于深度学习算法搭建出气动吸晶装置的控制参数确定模型(即为可以根据输入的实时偏移向和标准偏移向量之间的向量差确定出气动吸晶装置的实时控制参数,基于该实时控制参数控制气动吸晶装置的话,可以将气动吸晶装置调整至使安装在其之上的拍摄装置的拍摄视角可以以预设视角拍摄目标芯片的状态,其中该预设视角即为与标准正视视角之间的偏移向量为标准偏移向量的拍摄视角);
视觉定位优化模块,用于基于实时偏移向量和控制参数确定模型,不断优化控制气动吸晶装置,直至最新获得的实时偏移向量和标准偏移向量完全一致时,则发出视觉定位结束指令(视觉定位结束指令即为用于提示高精固晶机的总控中心系统可以停止对目标芯片的视觉定位过程的提示指令,即意味着之后只要控制气动吸晶装置按照当前姿态直线前进即可)。
该实施例在芯片高精固晶机的气动吸晶装置在吸附芯片之前向芯片移动过程中,实现了对芯片在装载台上位置的多次视觉定位,并基于多次视觉定位结果中获得的当前拍摄视角相对于标准正视视角的偏移向量,使得控制气动吸晶装置在吸附芯片之前可以自动优化调整自己在移动过程中的方向和姿态,即实现对芯片的高精视觉定位和对气动吸晶装置的高精移动控制,也提高了芯片高精固晶机后续过程中的吸晶精度。
实施例2:
在实施例1的基础上,偏移向量确定模块,参考图2,包括:
参照点确定子模块,用于基于芯片图像确定出目标芯片的所有轨迹确定参照点(即为在芯片区域中确定出的可以用于后续确定目标移动轨迹的轨迹终点时依据的参照点);
动态轨迹确定子模块,用于将所有轨迹确定参照点在预设二维坐标系(该二维坐标系的横纵坐标与芯片图像的长、宽分别平行)下的坐标值的均值在芯片图像中对应的位置点,作为轨迹终点;
图像获取及识别子模块,用于基于轨迹终点控制气动吸晶装置进行移动,并在气动吸晶装置移动过程中实时获取的芯片图像中识别出芯片主视区域(即为芯片图像中包含的芯片的多个外表面区域中面积最大的区域,也是芯片外表面被气动吸晶装置吸附的区域)和芯片转折面区域(即为芯片图像中包含的所有外表面区域中除芯片主视区域以外剩余的外表面区域);
偏移向量确定子模块,用于基于实时确定出的芯片主视区域和芯片转折面区域,确定出摄像装置的当前摄像视角相对于标准正视视角的实时偏移向量。
上述过程通过在芯片图像中确定出的轨迹确定参照点,合理确定出气动吸晶装置接下来移动过程中所遵循的移动轨迹的轨迹终点,在基于移动终点控制气动吸晶装置移动过程中获取的芯片图像中识别出的芯片主视区域和芯片转折面区域确定出摄像装置的当前摄像视角相对于标准正视视角的实时偏移向量,实现基于芯片图像中不同区域之间的联动关系准确分析出可以表征芯片的当前视觉定位结果的视觉偏移向量。
实施例3:
在实施例2的基础上,参照点确定子模块,参考图3,包括:
坐标转换单元,用于基于芯片图像中的装载台轮廓的坐标表示(即为包含芯片图像中的装载台轮廓中所有点在预设二维坐标系下的坐标值)和参照图像(即为包含装载台的完整装载面的图像)中的装载台轮廓的坐标表示(即为包含参照图像中的装载台轮廓中所有点在预设二维坐标系下的坐标值),对芯片图像中的所有像素点进行坐标转换(使得芯片图像中的装载台轮廓的坐标表示与参照图像中的装载台轮廓的坐标表示一致),获得芯片图像的坐标转换图像(即为芯片图像被坐标转换后的图像,芯片图像中所有像素点的坐标都被变换了,坐标转换图像中的装载台轮廓的坐标表示与参照图像中的装载台轮廓的坐标表示一致);
区域确定单元,用于在坐标转换图像与参照图像之间的差异区域(即为坐标转换图像中包含的且参照图像中不包含的区域)中确定出芯片区域(即为目标芯片在坐标转换图像中对应的区域);
参照点确定单元,用于基于芯片区域确定出目标芯片的轨迹确定参照点。
上述过程通过对芯片图像的坐标转换,基于转换后的图像与参照图像的差异比对,准确确定出芯片区域,并进一步地基于芯片区域确定出轨迹确定参照点,保证了确定出的轨迹确定参照点的准确度和合理度。
实施例4:
在实施例3的基础上,区域确定单元,包括:
差异区域确定子单元,用于在坐标转换图像中确定出相对于参照图像的所有差异区域;
区域初次筛选子单元,用于计算出差异区域的轮廓和参照芯片形状库(即为包含预先准备的多个不同的芯片形状的形状库)中的轮廓之间的形状相似度(该步骤中计算形状相似度的方法包括:计算出两个轮廓中每个轮廓点处的曲率,并生成以每个轮廓点为起始点的多个曲率序列,计算出两个轮廓的不同曲率序列之间的相似度,将所有相似度的均值当作最终的形状相似度;其中曲率序列之间的相似度的计算方式为:计算出两个曲率序列中所有序数相同的曲率值之间的比值,将所有比值的均值当作两个曲率序列的相似度),将在参照芯片形状库中存在对应形状相似度超出相似度阈值(即为预设的用于筛选出初筛合格区域时所依据的相似度的筛选阈值)的参照芯片形状(即为参照芯片形状库中包含的芯片形状)的差异区域,当作初筛合格区域(即为初步筛选出的可能为芯片区域的差异区域);
轮廓规则度确定子单元,用于确定出初筛合格区域的轮廓规则度(即为表征初筛合格区域的轮廓线的规则程度的数值);
芯片区域确定子单元,用于基于初筛合格区域的轮廓规则度和初筛合格区域相对于坐标转换图像中的装载台区域的中心位置偏差度(即为初筛合格区域相对于装载台区域的重心位置的偏移程度)确定出芯片区域。
上述过程先在所有差异区域中筛选出参照芯片形状库中存在与之形状相似度超出相似度阈值的差异区域,实现对差异区域的初步筛选,并进一步基于初筛合格区域的轮廓规则度和中心位置偏差度,实现对初筛合格区域的进一步筛选,即通过对差异区域的三层筛选,准确地在差异区域中筛选出芯片区域。
实施例5:
在实施例4的基础上,轮廓规则度确定子单元确定出初筛合格区域的轮廓规则度的方法,包括:
基于预设方向(例如将初筛合格区域的轮廓中与预设二维坐标系的横坐标轴正方向交叉的轮廓点为起始点,以顺时针或者逆时针方向确定出的轮廓点的顺序),将初筛合格区域的轮廓在初筛合格区域的所有轮廓点处的切线的切线角度进行曲线拟合,获得切线角度曲线(即为将初筛合格区域的所有轮廓点处的切线角度按照预设方向确定出的轮廓点顺序进行曲线拟合后获得的曲线);
确定出切线角度曲线中所有相邻波峰值(即为相邻的波峰值)之间的横坐标间隔(可以用相邻波峰值之间间隔的轮廓点个数表示),作为切线角度曲线的第一特征值集(即为包含切线角度曲线中所有相邻波峰值之间的横坐标间隔的集合),并确定出切线角度曲线中所有相邻波谷值(即为相邻的波谷值)之间的横坐标间隔(可以用相邻波谷值之间间隔的轮廓点个数表示),作为切线角度曲线的第二特征值集(即为包含切线角度曲线中所有相邻波谷值之间的横坐标间隔的集合),并确定出切线角度曲线中所有相邻波峰波谷(即为相邻的波峰和波谷)之间的横坐标间隔(可以用相邻波峰波谷之间间隔的轮廓点个数表示),作为切线角度曲线的第三特征值集(即为包含切线角度曲线中所有相邻波峰波谷之间的横坐标间隔的集合);
将切线角度曲线的每个特征值集中的特征值x和对应的特征值均值xavg(即为特征值集中包含的所有特征值的均值)之间的差值(x-xavg)的绝对值|x-xavg|,当作特征值集中的每个特征值的偏差值,将特征值集中的所有特征值的偏差值的均值|x-xavg|avg与特征值均值xavg的比值|x-xavg|avg/xavg当作特征值集的不均匀度(即为表征特征值集的不均匀程度的数值),将1与每个特征值集的不均匀度的差值当作对应特征值集的均匀度(即为表征特征值集的均匀程度的数值);
将切线角度曲线的所有特征值集的均匀度的均值,当作初筛合格区域的轮廓规则度;
其中,切线角度曲线的特征值集包括第一特征值集和第二特征值集以及第三特征值集。
上述过程以初筛合格区域的轮廓点处的切线的切线角度拟合处的切线角度曲线中的波峰和波谷的横坐标特性构成初筛合格区域的轮廓的多个特征值集,基于特征值集的均匀度的角度,实现对初筛合格区域的轮廓规则度的准确计算。
实施例6:
在实施例4的基础上,芯片区域确定子单元基于初筛合格区域的轮廓规则度和初筛合格区域相对于坐标转换图像中的装载台区域的中心位置偏差度确定出芯片区域的方法,包括:
将初筛合格区域中所有坐标点在预设二维坐标系下的坐标值的均值,当作初筛合格区域中心点(即为初筛合格区域的重心位置),将装载台区域中所有坐标点在预设二维坐标系下的坐标值的均值,当作装载台区域中心点(即为装载台区域的重心位置);
将从装载台区域中心点至初筛合格区域中心点的向量,当作相对位置表征向量(即为表征初筛合格区域相对于装载台区域的相对位置的向量);
确定出装载台区域在相对位置表征向量方向上的区域内径(即为将相对位置表征向量的方向上的直线进行延长与装载台区域的轮廓相交,将相交的点中两个最远的点之间的间距当作区域内径,区域内径的概念类似于圆区域的直径),将相对位置表征向量的模与区域内径的比值当作初筛合格区域的中心位置偏差度;
基于初筛合格区域的轮廓规则度和对应的第一预设权重(即为预设的表征轮廓规则度在芯片区域概率中的重要程度的数值)的乘积与中心位置偏差度和对应的第二预设权重(即为预设的表征中心位置偏差度在芯片区域概率中的重要程度的数值)的乘积之和,当作初筛合格区域的芯片区域概率(即为表征初筛合格区域为芯片区域的概率);
将最大芯片区域概率的初筛合格区域当作芯片区域。
上述过程不仅实现了准确计算出初筛合格区域的轮廓规则度和中心位置偏差度,也进一步地准确计算出初筛合格区域的芯片区域概率,并基于芯片区域概率准确地在初筛合格区域中筛选出芯片区域。
实施例7:
在实施例3的基础上,参照点确定单元,包括:
内径确定子单元,用于确定出芯片区域的重心位置,计算出芯片区域的轮廓上每个轮廓点与重心位置之间的间距中的最大值,作为芯片区域的最大表示内径;
间距确定子单元,用于将芯片区域的轮廓中每个角点(即为基于角点识别算法识别出的角点,角点识别算法例如有Harris角点检测算法)与重心位置之间的间距作为第一间距,将与当前角点左右相邻的两个角点与重心位置之间的间距作为第二间距;
凹凸度计算子单元,用于将每个角点的第一间距L1和对应的两个第二间距的均值L2之差(L1-L2)与对应的个两个第二间距的均值L2之间的比值,作为角点凹凸度(L1-L2)/L2(即为表征芯片区域的轮廓在角点位置的凹凸程度的数值);
参照点确定子单元,用于将芯片区域的轮廓的所有角点中角点凹凸度不小于预设凹凸度阈值(即为预设的用于在所有角点中筛选出轨迹确定参照点的角点凹凸度的筛选阈值)的角点作为目标芯片的轨迹确定参照点。
上述过程实现对芯片区域的轮廓中所有角点的角点凹凸度的计算,并基于凹凸度精准筛选出轨迹确定参照点。
实施例8:
在实施例1的基础上,图像获取及识别子模块,包括:
移动控制单元,用于将轨迹终点的二维坐标输入至移动控制参数确定模型(即为预先利用大量轨迹终点在芯片图像中的二维坐标和对应的移动控制参数作为训练样本训练获得的模型,该模型可以基于输入的轨迹终点的二维坐标确定出对应的移动控制参数),获得移动控制参数(即为用于控制气动吸晶装置可以移动至轨迹终点在实际空间中对应的位置的控制参数),基于移动控制参数控制气动吸晶装置进行移动;
区域筛选单元,用于在气动吸晶装置移动过程中实时获取芯片图像,将芯片图像中封闭轮廓围成的区域中最大面积的区域作为芯片主视区域,并将芯片图像中封闭轮廓围成的区域中除芯片主视区域以外剩余的区域当作芯片转折面区域。
上述过程基于移动控制参数模型精准确定出移动控制参数,并实现了在移动过程中获取的芯片图像中确定出芯片主视区域和芯片转折面区域。
实施例9:
在实施例1的基础上,偏移向量确定子模块,包括:
样本确定单元,用于将大量不同形状的芯片在不同拍摄视角的芯片图像的主视区域的轮廓的坐标表示和芯片转折面区域的轮廓的坐标表示以及对应的拍摄视角相对于标准正视视角的偏移向量,当作训练样本;
模块搭建单元,用于基于训练样本进行模型训练,搭建出视角偏移向量确定模型(即为基于深度学习技术搭建出的可以基于输入的芯片主视区域的轮廓的坐标表示和芯片转折面区域的轮廓的坐标表示确定出拍摄装置的当前拍摄视角相对于标准正视视角的实时偏移向量的模型);
偏移向量确定单元,用于将芯片主视区域的轮廓的坐标表示和芯片转折面区域的轮廓的坐标表示,输入至视角偏移向量确定模型,获得拍摄装置的当前拍摄视角相对于标准正视视角的实时偏移向量。
上述过程基于深度学习技术和预先获取的训练样本训练获得视角偏移向量确定模型,并以芯片主视区域的轮廓的坐标表示和芯片转折面区域的轮廓的坐标表示为输入,精准确定出拍摄装置的当前拍摄视角相对于标准正视视角的实时偏移向量。
实施例10:
在实施例1的基础上,视觉定位优化模块,包括:
控制参数确定子模块,用于将最新获得的实时偏移向量和标准偏移向量之间的向量差不断输入至控制参数确定模型,获得气动吸晶装置的实时控制参数(基于该实时控制参数控制气动吸晶装置的话,可以将气动吸晶装置调整至使安装在其之上的拍摄装置的拍摄视角可以以预设视角拍摄目标芯片的状态,其中该预设视角即为与标准正视视角之间的偏移向量为标准偏移向量的拍摄视角);
优化控制子模块,用于基于最新获得的实时控制参数不断优化控制气动吸晶装置,直至最新获得的实时偏移向量和标准偏移向量完全一致时,则发出视觉定位结束指令。
基于上述过程使得气动吸晶装置在吸附芯片之前可以自动优化调整自己在移动过程中的方向和姿态,即实现对芯片的高精视觉定位和对气动吸晶装置的高精移动控制,也提高了芯片高精固晶机后续过程中的吸晶精度。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。
Claims (8)
1.基于深度学习的芯片高精固晶机视觉定位系统,其特征在于,包括:
芯片图像获取模块,用于基于设置于芯片高精固晶机的气动吸晶装置上的摄像装置,实时获取目标芯片在装载台上时的芯片图像;
偏移向量确定模块,用于基于轨迹终点控制气动吸晶装置进行移动,并基于在气动吸晶装置移动过程中实时获取的芯片图像,确定出摄像装置的当前摄像视角相对于标准正视视角的实时偏移向量;
深度学习模型搭建模块,用于基于深度学习算法搭建出气动吸晶装置的控制参数确定模型;
视觉定位优化模块,用于基于实时偏移向量和控制参数确定模型,不断优化控制气动吸晶装置,直至最新获得的实时偏移向量和标准偏移向量完全一致时,则发出视觉定位结束指令;
偏移向量确定模块,包括:
参照点确定子模块,用于基于芯片图像确定出目标芯片的所有轨迹确定参照点;
动态轨迹确定子模块,用于将所有轨迹确定参照点在预设二维坐标系下的坐标值的均值在芯片图像中对应的位置点,作为轨迹终点;
图像获取及识别子模块,用于基于轨迹终点控制气动吸晶装置进行移动,并在气动吸晶装置移动过程中实时获取的芯片图像中识别出芯片主视区域和芯片转折面区域;
偏移向量确定子模块,用于基于实时确定出的芯片主视区域和芯片转折面区域,确定出摄像装置的当前摄像视角相对于标准正视视角的实时偏移向量;
深度学习模型搭建模块,包括:根据输入的实时偏移向和标准偏移向量之间的向量差确定出气动吸晶装置的实时控制参数,基于该实时控制参数控制气动吸晶装置的话,可以将气动吸晶装置调整至使安装在其之上的拍摄装置的拍摄视角可以以预设视角拍摄目标芯片的状态,其中该预设视角即为与标准正视视角之间的偏移向量为标准偏移向量的拍摄视角;
视觉定位优化模块,包括:
控制参数确定子模块,用于将最新获得的实时偏移向量和标准偏移向量之间的向量差不断输入至控制参数确定模型,获得气动吸晶装置的实时控制参数;
优化控制子模块,用于基于最新获得的实时控制参数不断优化控制气动吸晶装置,直至最新获得的实时偏移向量和标准偏移向量完全一致时,则发出视觉定位结束指令。
2.根据权利要求1所述的基于深度学习的芯片高精固晶机视觉定位系统,其特征在于,参照点确定子模块,包括:
坐标转换单元,用于基于芯片图像中的装载台轮廓的坐标表示和参照图像中的装载台轮廓的坐标表示,对芯片图像中的所有像素点进行坐标转换,获得芯片图像的坐标转换图像;
区域确定单元,用于在坐标转换图像与参照图像之间的差异区域中确定出芯片区域;
参照点确定单元,用于基于芯片区域确定出目标芯片的轨迹确定参照点。
3.根据权利要求2所述的基于深度学习的芯片高精固晶机视觉定位系统,其特征在于,区域确定单元,包括:
差异区域确定子单元,用于在坐标转换图像中确定出相对于参照图像的所有差异区域;
区域初次筛选子单元,用于计算出差异区域的轮廓和参照芯片形状库中的轮廓之间的形状相似度,将在参照芯片形状库中存在对应形状相似度超出相似度阈值的参照芯片形状的差异区域,当作初筛合格区域;
轮廓规则度确定子单元,用于确定出初筛合格区域的轮廓规则度;
芯片区域确定子单元,用于基于初筛合格区域的轮廓规则度和初筛合格区域相对于坐标转换图像中的装载台区域的中心位置偏差度确定出芯片区域。
4.根据权利要求3所述的基于深度学习的芯片高精固晶机视觉定位系统,其特征在于,轮廓规则度确定子单元确定出初筛合格区域的轮廓规则度的方法,包括:
基于预设方向,将初筛合格区域的轮廓在初筛合格区域的所有轮廓点处的切线的切线角度进行曲线拟合,获得切线角度曲线;
确定出切线角度曲线中所有相邻波峰值之间的横坐标间隔,作为切线角度曲线的第一特征值集,并确定出切线角度曲线中所有相邻波谷值之间的横坐标间隔,作为切线角度曲线的第二特征值集,并确定出切线角度曲线中所有相邻波峰波谷之间的横坐标间隔,作为切线角度曲线的第三特征值集;
将切线角度曲线的每个特征值集中的特征值和对应的特征值均值之间的差值的绝对值,当作特征值集中的每个特征值的偏差值,将特征值集中的所有特征值的偏差值的均值与特征值均值的比值当作特征值集的不均匀度,将1与每个特征值集的不均匀度的差值当作对应特征值集的均匀度;
将切线角度曲线的所有特征值集的均匀度的均值,当作初筛合格区域的轮廓规则度;
其中,切线角度曲线的特征值集包括第一特征值集和第二特征值集以及第三特征值集。
5.根据权利要求3所述的基于深度学习的芯片高精固晶机视觉定位系统,其特征在于,芯片区域确定子单元基于初筛合格区域的轮廓规则度和初筛合格区域相对于坐标转换图像中的装载台区域的中心位置偏差度确定出芯片区域的方法,包括:
将初筛合格区域中所有坐标点在预设二维坐标系下的坐标值的均值,当作初筛合格区域中心点,将装载台区域中所有坐标点在预设二维坐标系下的坐标值的均值,当作装载台区域中心点;
将从装载台区域中心点至初筛合格区域中心点的向量,当作相对位置表征向量;
确定出装载台区域在相对位置表征向量方向上的区域内径,将相对位置表征向量的模与区域内径的比值当作初筛合格区域的中心位置偏差度;
基于初筛合格区域的轮廓规则度和对应的第一预设权重的乘积与中心位置偏差度和对应的第二预设权重的乘积之和,当作初筛合格区域的芯片区域概率;
将最大芯片区域概率的初筛合格区域当作芯片区域。
6.根据权利要求2所述的基于深度学习的芯片高精固晶机视觉定位系统,其特征在于,参照点确定单元,包括:
内径确定子单元,用于确定出芯片区域的重心位置,计算出芯片区域的轮廓上每个轮廓点与重心位置之间的间距中的最大值,作为芯片区域的最大表示内径;
间距确定子单元,用于将芯片区域的轮廓中每个角点与重心位置之间的间距作为第一间距,将与当前角点左右相邻的两个角点与重心位置之间的间距作为第二间距;
凹凸度计算子单元,用于将每个角点的第一间距和对应的两个第二间距的均值之差与对应的个两个第二间距的均值之间的比值,作为角点凹凸度;
参照点确定子单元,用于将芯片区域的轮廓的所有角点中角点凹凸度不小于预设凹凸度阈值的角点作为目标芯片的轨迹确定参照点。
7.根据权利要求1所述的基于深度学习的芯片高精固晶机视觉定位系统,其特征在于,图像获取及识别子模块,包括:
移动控制单元,用于将轨迹终点的二维坐标输入至移动控制参数确定模型,获得移动控制参数,基于移动控制参数控制气动吸晶装置进行移动;
区域筛选单元,用于在气动吸晶装置移动过程中实时获取芯片图像,将芯片图像中封闭轮廓围成的区域中最大面积的区域作为芯片主视区域,并将芯片图像中封闭轮廓围成的区域中除芯片主视区域以外剩余的区域当作芯片转折面区域。
8.根据权利要求1所述的基于深度学习的芯片高精固晶机视觉定位系统,其特征在于,偏移向量确定子模块,包括:
样本确定单元,用于将大量不同形状的芯片在不同拍摄视角的芯片图像的主视区域的轮廓的坐标表示和芯片转折面区域的轮廓的坐标表示以及对应的拍摄视角相对于标准正视视角的偏移向量,当作训练样本;
模块搭建单元,用于基于训练样本进行模型训练,搭建出视角偏移向量确定模型;
偏移向量确定单元,用于将芯片主视区域的轮廓的坐标表示和芯片转折面区域的轮廓的坐标表示,输入至视角偏移向量确定模型,获得拍摄装置的当前拍摄视角相对于标准正视视角的实时偏移向量。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311432528.1A CN117393485B (zh) | 2023-11-01 | 2023-11-01 | 基于深度学习的芯片高精固晶机视觉定位系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311432528.1A CN117393485B (zh) | 2023-11-01 | 2023-11-01 | 基于深度学习的芯片高精固晶机视觉定位系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117393485A CN117393485A (zh) | 2024-01-12 |
CN117393485B true CN117393485B (zh) | 2024-05-03 |
Family
ID=89469917
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311432528.1A Active CN117393485B (zh) | 2023-11-01 | 2023-11-01 | 基于深度学习的芯片高精固晶机视觉定位系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117393485B (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018032700A1 (zh) * | 2016-08-16 | 2018-02-22 | 广州视源电子科技股份有限公司 | 跟踪指蹼位置的方法及其装置 |
CN108231645A (zh) * | 2017-12-29 | 2018-06-29 | 广东工业大学 | 一种晶圆级倒装视觉系统中的高精度定位方法和装置 |
CN115890639A (zh) * | 2022-11-17 | 2023-04-04 | 浙江荣图智能科技有限公司 | 一种机器人视觉引导定位抓取控制系统 |
CN116587288A (zh) * | 2023-07-04 | 2023-08-15 | 广州东焊智能装备有限公司 | 一种基于深度学习的焊接机器人视觉控制系统 |
KR102575268B1 (ko) * | 2022-11-16 | 2023-09-06 | (주)에프피에이 | 인공지능 기반의 정밀 오토포커스 기능을 갖는 웨이퍼 비전 검사 장치 및 방법 |
CN116721958A (zh) * | 2023-08-11 | 2023-09-08 | 深圳市立可自动化设备有限公司 | 一种芯片间距调整方法、夹取系统和处理器 |
-
2023
- 2023-11-01 CN CN202311432528.1A patent/CN117393485B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018032700A1 (zh) * | 2016-08-16 | 2018-02-22 | 广州视源电子科技股份有限公司 | 跟踪指蹼位置的方法及其装置 |
CN108231645A (zh) * | 2017-12-29 | 2018-06-29 | 广东工业大学 | 一种晶圆级倒装视觉系统中的高精度定位方法和装置 |
KR102575268B1 (ko) * | 2022-11-16 | 2023-09-06 | (주)에프피에이 | 인공지능 기반의 정밀 오토포커스 기능을 갖는 웨이퍼 비전 검사 장치 및 방법 |
CN115890639A (zh) * | 2022-11-17 | 2023-04-04 | 浙江荣图智能科技有限公司 | 一种机器人视觉引导定位抓取控制系统 |
CN116587288A (zh) * | 2023-07-04 | 2023-08-15 | 广州东焊智能装备有限公司 | 一种基于深度学习的焊接机器人视觉控制系统 |
CN116721958A (zh) * | 2023-08-11 | 2023-09-08 | 深圳市立可自动化设备有限公司 | 一种芯片间距调整方法、夹取系统和处理器 |
Also Published As
Publication number | Publication date |
---|---|
CN117393485A (zh) | 2024-01-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110497187B (zh) | 基于视觉引导的太阳花模组装配系统 | |
CN106824816B (zh) | 一种基于机器视觉的pe瓶检测与分拣方法 | |
CN108827154B (zh) | 一种机器人无示教抓取方法、装置及计算机可读存储介质 | |
KR102056664B1 (ko) | 센서를 이용한 작업 방법 및 이를 수행하는 작업 시스템 | |
CN109671123A (zh) | 一种基于单目视觉的鞋底喷胶设备及方法 | |
CN109926817A (zh) | 基于机器视觉的变压器自动装配方法 | |
CN112893007A (zh) | 一种基于机器视觉的点胶系统及其点胶方法 | |
CN109297433A (zh) | 3d视觉引导拆垛测量系统及其控制方法 | |
CN109883336B (zh) | 一种面向船舶曲面板材加工过程中的测量系统及测量方法 | |
CN107388991B (zh) | 一种端面多圆角轴类零件圆角半径测量方法 | |
Hsu et al. | Development of a faster classification system for metal parts using machine vision under different lighting environments | |
JPH06137840A (ja) | 視覚センサの自動キャリブレーション装置 | |
CN117393485B (zh) | 基于深度学习的芯片高精固晶机视觉定位系统 | |
CN116402792A (zh) | 一种基于三维点云的空间孔位对接方法 | |
CN1300833C (zh) | 集成电路芯片视觉对准方法 | |
CN110992416A (zh) | 基于双目视觉与cad模型的高反光面金属零件位姿测量方法 | |
CN111507949B (zh) | 一种基于视觉的芯片识别方法 | |
CN110539297A (zh) | 一种3d视觉引导的轮对配盘机械手定位方法及装置 | |
CN113118604B (zh) | 基于机器人手眼视觉反馈的高精度凸焊误差补偿系统 | |
JP5685665B1 (ja) | 画像認識装置 | |
CN110415247A (zh) | 一种机器人化模锻过程锻件异位识别和定位方法 | |
CN112164018B (zh) | 一种机器视觉校准系统及其校准方法 | |
CN113421207A (zh) | 视觉检测方法、设备、产品和计算机存储介质 | |
CN209281477U (zh) | 一种基于单目视觉的鞋底喷胶设备 | |
CN114492681A (zh) | 应用电子设备识别彩印包装图案方法及其计算机视觉系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |