CN113096105A - 一种基于有向稀疏采样的手机屏幕缺陷检测方法 - Google Patents
一种基于有向稀疏采样的手机屏幕缺陷检测方法 Download PDFInfo
- Publication number
- CN113096105A CN113096105A CN202110410722.4A CN202110410722A CN113096105A CN 113096105 A CN113096105 A CN 113096105A CN 202110410722 A CN202110410722 A CN 202110410722A CN 113096105 A CN113096105 A CN 113096105A
- Authority
- CN
- China
- Prior art keywords
- bounding box
- model
- sampling
- corner
- mobile phone
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
- G06F18/24155—Bayesian classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
Abstract
本发明涉及一种基于有向稀疏采样的手机屏幕缺陷检测方法,包括步骤:构建DeNet模型;DeNet模型训练;检测DeNet模型;输出手机屏幕缺陷检测结果。本发明的有益效果是:通过低成本的图像处理技术提高手机屏幕缺陷检测的精度;结合了基于稀疏区域方法的易于训练、场景适应性和分类精度,以及基于密集非区域方法的快速训练和评估;设定一个稀疏分布估计方案定向稀疏采样模型(DeNet模型),并将其应用于一个基于CNN的端到端检测模型中,解决了现阶段手机屏幕缺陷检测中遇到的问题,实现了扩展和适用于以前的最先进的检测模型,并额外强调高评估率和减少人工工程。
Description
技术领域
本发明属于手机屏幕缺陷检测领域,尤其涉及一种基于有向稀疏采样的手机屏幕缺陷检测方法。
背景技术
随着计算机技术、通信技术以及互联网技术的高速发展,手机在人们生产生活中所扮演的角色越来越重要。从最初的电话通信、文字通信,到现在的网络社交、获取资源,手机在人们的生产生活中有着越来越无可比拟的地位。在这个手机社交的时代,智能手机的出货量和成交量都在年年攀升,为使自己生产的手机能够在市场中占有一席之地,如何提高手机产品的质量并且保证手机的生产效率是目前各大手机生厂商的当务之急。
纵观手机屏幕的发展史,从最初的键盘交互方式到现在的触屏交互方式,从最初的黑白屏幕到现在高清彩色显示屏,从最初的不满半个手掌的小屏幕到现在比一个手掌还大的屏幕,如今的手机屏幕能够展示各种各样复杂的图像,画面感也越来越丰富多彩。随着手机功能的不断增多,各大手机生厂商对手机屏幕的生产工艺越来越苛刻。但是,手机屏幕在生产的过程中,又极容易受到生产环境和生产工艺的影响。为了防止装有缺陷屏幕的手机流入市场,损害消费者的利益,并对手机屏幕生厂商自身的信誉造成影响,在手机屏幕出厂前,各大手机屏幕生厂商采取一些必要的手段来对手机屏幕的质量进行检测。
传统的检测手段是在生产线上安排工人值守,工人对生产线上的屏幕用肉眼逐一进行检测。但是这种手段存在检测效率慢、人工成本高、缺乏统一的判断标准等缺点。随着计算机视觉的高速发展,基于机器视觉的自动化检测方法崭露头角。基于机器视觉的自动化检测方法使用高分率的工业相机对屏幕进行拍摄,对采集得到的图像进行实时的分析处理。但是这种方法大多只是针对一种或者几种特定的缺陷类型进行算法设计且遇到新的缺陷,又要针对性的设计新的算法,缺乏通用性。手机屏幕产品多种多样,材质、亮度、尺寸、分辨率各不相同。适用于这个手机屏幕的检测算法,不一定适用于另一种型号的手机屏幕。再者,相同的算法,应用于不同型号的手机屏,需要重新调整算法和参数,进而增加了时间成本和人力成本。因此,如何提升算法的通用性,减少算法的时间成本和人力成本,有效的统计缺陷类别是探索自动化手机屏幕缺陷检系统一项具有重要意义的工作。
发明内容
本发明的目的是克服现有技术中的不足,提供一种基于有向稀疏采样的手机屏幕缺陷检测方法。
这种基于有向稀疏采样的手机屏幕缺陷检测方法,包括以下步骤:
步骤1、构建DeNet模型;
步骤1.1、输入图片,使用对边界框注释的图像数据训练基于CNN的端到端检测模型;通过对绑定框的每个拐角应用朴素贝叶斯分类器来估计边界框B包含地面真实实例的概率:
上式中,s表示分类的状态,是一个二进制变量;B表示每个不同的边界框;null表示零;k为角点类型;xk表示边界框的横坐标,yk表示边界框的纵坐标;(xk,yk)=fk(B)表示与每个角点类型k相关的边界框位置;将具有最大非零概率Pr(s≠null|B)的N×N个边界框定义为采样边界框BS,其中N为变量;
步骤1.2、采用用户定义的变量N平衡定向稀疏采样的手机屏幕缺陷检测模型处理的最大检测次数、计算次数和内存需求;在估计的边界框非零的情况下,将预定义长度的特征向量从拐角检测器传递到CNN的最终分类阶段,CNN的最终分类阶段是形为f的函数:
步骤1.3、通过在相对于每个采样边界框的预定义位置处连接最近的相邻采样特征来构造特征向量边界框的宽度和边界框的高度,产生最终的分类分布Pr(s|BS)和更新的边界框参数BBox,其中BS为采样边界框;从特征向量中省略边界框中心位置;
步骤1.4、基于角点的RoI拐角检测器,通过估计图像中每个位置的角类型来估算拐角分布:
Pr(t|k,y,x)
上式中,t是二进制变量,指示在输入图像中存在类型为k∈{top left,topright,bottom left,bottom right},其中k为角点类型;x表示边界框的横坐标,y表示边界框的纵坐标,Pr()表示概率值;top left、top right、bottom left、bottom right为边界框的四个拐角。
步骤2、DeNet模型训练;
步骤3、检测DeNet模型;
步骤4、输出手机屏幕缺陷检测结果。
作为优选,步骤2具体包括如下步骤:
步骤2.1、首先对DeNet模型进行前向传播,生成步骤1中的采样边界框BS,使用地面真值边界框和随机生成的样本来扩展采样边界框BS;
步骤2.3、通过DeNet模型优化拐角分布、最终分类分布和边界框回归成本:
上式中,φ()是地面真角和基准分布;φB,i={xi,yi,wi,hi}是地面真实边界框;(λs,λt,λb)是用户定义的常量,表示每个组件的相对强度;(Λs,Λt,Λb)是对每个组件进行归一化的常数给定模型初始化值,将其设置为1;φ(t|k,y,x)为角分布,\operatornamePr()表示求概率;βi为DeNet模型中的超参数,0<βi<1;
步骤2.4、通过将每个地面真实实例的角映射到角图中的单个位置来标识角分布φ(t|k,y,x),将超出范围的角点丢弃;通过计算地面真值边界框和采样边界框BS之间的并集交叉重叠来确定检测分布φ(s|B);通过选择具有最大Lou重叠的地面真值边界框来确定回归目标边界框φB。
作为优选,步骤3具体包括如下步骤:
步骤3.1、选择34层21M参数ResNet-34模型和101层45M参数ResNet-101模型作为拐角检测器网络的基础模型;
步骤3.2、将每个拐角检测器网络基础模型的输入大小修改为512×512像素,删除最终的平均合并和完全连接层,并附加两个解卷积层,卷积层后面是拐角检测器,拐角检测器之后是稀疏层;拐角检测器负责产生拐角分布,并通过在每个空间位置具有Fs特征学习到的线性投影来生成特征采样图;稀疏层观察由拐角检测器标识的拐角,并生成一组采样边界框;
步骤3.3、用RoI从特征采样图中提取一组N×N个特征向量,;
步骤3.4、特征向量通过全连接网络传播,为每个采样RoI生成最终分类和微调边界框。
本发明的有益效果是:本发明通过低成本的图像处理技术提高手机屏幕缺陷检测的精度;结合了基于稀疏区域方法的易于训练、场景适应性和分类精度,以及基于密集非区域方法的快速训练和评估;本发明设定一个稀疏分布估计方案定向稀疏采样模型(DeNet模型),并将其应用于一个基于CNN的端到端检测模型中,解决了现阶段手机屏幕缺陷检测中遇到的问题,实现了扩展和适用于以前的最先进的检测模型,并额外强调高评估率和减少人工工程。
附图说明
图1为手机屏幕缺陷检测模型构架图;
图2为本发明的检测流程图。
具体实施方式
下面结合实施例对本发明做进一步描述。下述实施例的说明只是用于帮助理解本发明。应当指出,对于本技术领域的普通人员来说,在不脱离本发明原理的前提下,还可以对本发明进行若干修饰,这些改进和修饰也落入本发明权利要求的保护范围内。
在随机梯度下降(SGD)的随机初始化条件下,前馈神经网络表现出良好的收敛性,并且在适当的网络设计和训练机制下,可以很好地推广到之前不可见的数据。特别是,由具有ReLU激活函数的交叉卷积和池化层构建的卷积神经网络(CNN)在计算机视觉任务中设置了无数的基准。这些方法之间的主要区别在于每种方法如何识别和处理要分类的区域。基于R-CNN的方法基于算法预处理步骤稀疏采样区域并将感兴趣的区域归一化,而基于YOLO的方法使用手工定义的检测器网格进行密集采样,无需图像归一化。密集方法通常非常适合当前的实现,因此相对于稀疏方法具有显著的时间优势。
本发明结合了基于稀疏区域方法的易于训练、场景适应性和分类精度,以及基于密集非区域方法的快速训练和评估。本发明使用定向稀疏采样来指代应用联合优化两阶段CNN的方法,其中一个阶段估计用户定义的有趣值发生的可能位置,另一个则稀疏地对识别出的值进行分类。图1展示了本发明手机屏幕缺陷检测模型(DeNet模型)的整体框架,主要包括转换、解压缩、拐角检测、稀疏和分类器五部分;本发明在其他模型的基础上增加了拐角检测和稀疏方面内容构成了DeNet模型。
作为一种实施例,图2展示了基于有向稀疏采样的手机屏幕缺陷检测方法的流程图,具体的实施方案如下:
步骤1、构建DeNet模型(手机屏幕缺陷检测模型);
步骤1.1、输入图片,由于问题的自然平移不变性,可以使用对边界框注释的图像数据训练基于CNN的端到端检测模型,可以有效地估算角分布;通过对绑定框的每个拐角应用朴素贝叶斯分类器来估计边界框B包含地面真实实例的概率:
上式中,s表示分类的状态,是一个二进制变量;B表示每个不同的边界框;null表示零;k为角点类型;xk表示边界框的横坐标,yk表示边界框的纵坐标;(xk,yk)=fk(B)表示与每个角点类型k相关的边界框位置;为了易于实施,将具有最大非零概率Pr(s≠null|B)的N×N个边界框定义为采样边界框BS,其中N为变量;
步骤1.2、采用用户定义的变量N平衡定向稀疏采样的手机屏幕缺陷检测模型处理的最大检测次数、计算次数和内存需求;在估计的边界框非零的情况下,将预定义长度的特征向量从拐角检测器传递到CNN的最终分类阶段,CNN的最终分类阶段是形为f的函数:
步骤1.3、要素必须与每个边界框唯一关联,否则朴素贝叶斯分类器将没有信息来区分具有相同的边界框,究竟如何构造特征向量仍是一个有待讨论的问题,但是通过在相对于每个采样边界框的预定义位置处连接最近的相邻采样特征来构造特征向量边界框的宽度和边界框的高度,产生最终的分类分布Pr(s|BS)和更新的边界框参数BBox,其中BS为采样边界框;从特征向量中省略边界框中心位置,从而使分类器与图像偏移无关;
步骤1.4、基于角点的RoI(感兴趣区域region of interest)拐角检测器,通过估计图像中每个位置的角类型来估算拐角分布:
Pr(t|k,y,x)
上式中,t是二进制变量,指示在输入图像中存在类型为k∈{top left,topright,bottom left,bottom right},其中k为角点类型;x表示边界框的横坐标,y表示边界框的纵坐标,Pr()表示概率值;top left、top right、bottom left、bottom right为边界框的四个拐角。
步骤2、DeNet模型训练;
步骤2.1、首先对DeNet模型进行前向传播,生成步骤1中的采样边界框BS,使用地面真值边界框和随机生成的样本来扩展采样边界框BS;
步骤2.2、然后通过其余模式来激活与扩展的采样边界框集关联的激活特征向量产生最终的分类分布Pr(s|BS)和更新的边界框参数;采样边界框BS的集合在进行梯度估计时保持恒定,以进行端到端训练;因此结合边界框分类和估计任务对核心拐角检测器网络进行了优化,由于前向传播是通常用于优化神经网络的基于后向传播的SGD策略中的必要预处理步骤,因此DeNet方法不会对标准密集网络上的训练时间造成任何损失;
步骤2.3、通过DeNet模型优化拐角分布、最终分类分布和边界框回归成本:
上式中,φ(.)是地面真角和基准分布;φB,i={xi,yi,wi,hi}是地面真实边界框;(λs,λt,λb)是用户定义的常量,表示每个组件的相对强度;(Λs,Λt,Λb)是对每个组件进行归一化的常数给定模型初始化值;φ(t|k,y,x)为角分布,\operatornamePr(.)表示求概率;pi为DeNet模型中的超参数,0<βi<1;
步骤2.4、通过将每个地面真实实例的角映射到角图中的单个位置来标识角分布φ(t|k,y,x),将超出范围的角点丢弃;通过计算地面真值边界框和采样边界框BS之间的并集交叉(0U)重叠来确定检测分布φ(s|B);按照标准惯例,通过选择具有最大Lou重叠的地面真值边界框来确定回归目标边界框φB。
步骤3、检测DeNet模型;
步骤3.1、残差神经网络在许多大型数据集上都表现出令人印象深刻的回归能力,特别是当与Faster R-CNN结合使用时,101层残留网络模型(ResNet-101)在ILSVRC2015和MSCOCO数据集上达到了最先进的性能;选择34层21M参数ResNet-34模型(DeNet-34)和101层45M参数ResNet-101模型(DeNet-101)作为拐角检测器网络的基础模型;
步骤3.2、将每个拐角检测器网络基础模型的输入大小修改为512×512像素,删除最终的平均合并和完全连接层,并附加两个解卷积层,卷积层后面是拐角检测器,拐角检测器之后是稀疏层;拐角检测器负责产生拐角分布,并通过在每个空间位置具有Fs特征学习到的线性投影来生成特征采样图;稀疏层观察由拐角检测器标识的拐角,并生成一组采样边界框(RoIs);
步骤3.3、用RoI从特征采样图中提取一组N×N个特征向量,最近的邻居采样就足够了,因为特征采样图具有与边界角相同的相对较高的空间分辨率;
步骤3.4、特征向量通过相对较浅的全连接网络传播,为每个采样RoI生成最终分类和微调边界框。
步骤4、输出手机屏幕缺陷检测结果。
Claims (3)
1.一种基于有向稀疏采样的手机屏幕缺陷检测方法,其特征在于,包括以下步骤:
步骤1、构建DeNet模型;
步骤1.1、输入图片,使用对边界框注释的图像数据训练基于CNN的端到端检测模型;通过对绑定框的每个拐角应用朴素贝叶斯分类器来估计边界框B包含地面真实实例的概率:
上式中,s表示分类的状态,是一个二进制变量;B表示每个不同的边界框;null表示零;k为角点类型;xk表示边界框的横坐标,yk表示边界框的纵坐标;(xk,yk)=fk(B)表示与每个角点类型k相关的边界框位置;将具有最大非零概率Pr(s≠null∣B)的N×N个边界框定义为采样边界框BS,其中N为变量;
步骤1.2、采用用户定义的变量N平衡定向稀疏采样的手机屏幕缺陷检测模型处理的最大检测次数、计算次数和内存需求;在估计的边界框非零的情况下,将预定义长度的特征向量从拐角检测器传递到CNN的最终分类阶段,CNN的最终分类阶段是形为f的函数:
步骤1.3、通过在相对于每个采样边界框的预定义位置处连接最近的相邻采样特征来构造特征向量边界框的宽度和边界框的高度,产生最终的分类分布Pr(s∣BS)和更新的边界框参数BBox,其中BS为采样边界框;从特征向量中省略边界框中心位置;
步骤1.4、基于角点的RoI拐角检测器,通过估计图像中每个位置的角类型来估算拐角分布:
Pr(t∣k,y,x)
上式中,t是二进制变量,指示在输入图像中存在类型为k∈{top left,top right,bottom left,bottom right},其中k为角点类型;x表示边界框的横坐标,y表示边界框的纵坐标,Pr()表示概率值;top left、top right、bottom left、bottom right为边界框的四个拐角。
步骤2、DeNet模型训练;
步骤3、检测DeNet模型;
步骤4、输出手机屏幕缺陷检测结果。
2.根据权利要求1所述基于有向稀疏采样的手机屏幕缺陷检测方法,其特征在于,步骤2具体包括如下步骤:
步骤2.1、首先对DeNet模型进行前向传播,生成步骤1中的采样边界框BS,使用地面真值边界框和随机生成的样本来扩展采样边界框BS;
步骤2.3、通过DeNet模型优化拐角分布、最终分类分布和边界框回归成本:
上式中,φ(.)是地面真角和基准分布;φB,i={xi,yi,wi,hi}是地面真实边界框;(λs,λt,λb)是用户定义的常量,表示每个组件的相对强度;(Λs,Λt,Λb)是对每个组件进行归一化的常数给定模型初始化值,将其设置为1;φ(t∣k,y,x)为角分布,\operatornamePr(.)表示求概率;βi为DeNet模型中的超参数,0<βi<1;
步骤2.4、通过将每个地面真实实例的角映射到角图中的单个位置来标识角分布φ(t∣k,y,x),将超出范围的角点丢弃;通过计算地面真值边界框和采样边界框BS之间的并集交叉重叠来确定检测分布φ(s∣B);通过选择具有最大Lou重叠的地面真值边界框来确定回归目标边界框φB。
3.根据权利要求1所述基于有向稀疏采样的手机屏幕缺陷检测方法,其特征在于,步骤3具体包括如下步骤:
步骤3.1、选择34层21M参数ResNet-34模型和101层45M参数ResNet-101模型作为拐角检测器网络的基础模型;
步骤3.2、将每个拐角检测器网络基础模型的输入大小修改为512×512像素,删除最终的平均合并和完全连接层,并附加两个解卷积层,卷积层后面是拐角检测器,拐角检测器之后是稀疏层;拐角检测器负责产生拐角分布,并通过在每个空间位置具有Fs特征学习到的线性投影来生成特征采样图;稀疏层观察由拐角检测器标识的拐角,并生成一组采样边界框;
步骤3.3、用RoI从特征采样图中提取一组N×N个特征向量,;
步骤3.4、特征向量通过全连接网络传播,为每个采样RoI生成最终分类和微调边界框。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110410722.4A CN113096105A (zh) | 2021-04-15 | 2021-04-15 | 一种基于有向稀疏采样的手机屏幕缺陷检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110410722.4A CN113096105A (zh) | 2021-04-15 | 2021-04-15 | 一种基于有向稀疏采样的手机屏幕缺陷检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113096105A true CN113096105A (zh) | 2021-07-09 |
Family
ID=76678388
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110410722.4A Pending CN113096105A (zh) | 2021-04-15 | 2021-04-15 | 一种基于有向稀疏采样的手机屏幕缺陷检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113096105A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113658113A (zh) * | 2021-07-28 | 2021-11-16 | 武汉联影医疗科技有限公司 | 医学影像检测方法和医学影像检测模型的训练方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106875361A (zh) * | 2017-02-17 | 2017-06-20 | 深圳市唯特视科技有限公司 | 一种基于深度卷积神经网络去除泊松噪声的方法 |
CN109325487A (zh) * | 2018-08-27 | 2019-02-12 | 电子科技大学 | 一种基于目标检测的全种类车牌识别方法 |
CN109919934A (zh) * | 2019-03-11 | 2019-06-21 | 重庆邮电大学 | 一种基于多源域深度迁移学习的液晶面板缺陷检测方法 |
-
2021
- 2021-04-15 CN CN202110410722.4A patent/CN113096105A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106875361A (zh) * | 2017-02-17 | 2017-06-20 | 深圳市唯特视科技有限公司 | 一种基于深度卷积神经网络去除泊松噪声的方法 |
CN109325487A (zh) * | 2018-08-27 | 2019-02-12 | 电子科技大学 | 一种基于目标检测的全种类车牌识别方法 |
CN109919934A (zh) * | 2019-03-11 | 2019-06-21 | 重庆邮电大学 | 一种基于多源域深度迁移学习的液晶面板缺陷检测方法 |
Non-Patent Citations (1)
Title |
---|
LACHLAN TYCHSEN-SMITH: "DeNet,Scalable Real-time Object Detection with Directed Sparse Sampling", 《2017 IEEE INTERNATIONAL CONFERENCE ON COMPUTER VISION (ICCV)》 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113658113A (zh) * | 2021-07-28 | 2021-11-16 | 武汉联影医疗科技有限公司 | 医学影像检测方法和医学影像检测模型的训练方法 |
CN113658113B (zh) * | 2021-07-28 | 2024-02-27 | 武汉联影医疗科技有限公司 | 医学影像检测方法和医学影像检测模型的训练方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109598268B (zh) | 一种基于单流深度网络的rgb-d显著目标检测方法 | |
WO2020108358A1 (zh) | 图像修复方法、装置、计算机设备和存储介质 | |
CN112329658B (zh) | 一种对于yolov3网络的检测算法改进方法 | |
Si et al. | A deep convolutional neural network model for intelligent discrimination between coal and rocks in coal mining face | |
US20190197693A1 (en) | Automated detection and trimming of an ambiguous contour of a document in an image | |
CN111126412B (zh) | 基于特征金字塔网络的图像关键点检测方法 | |
CN107169417B (zh) | 基于多核增强和显著性融合的rgbd图像协同显著性检测方法 | |
CN109740539B (zh) | 基于超限学习机和融合卷积网络的3d物体识别方法 | |
CN111768415A (zh) | 一种无量化池化的图像实例分割方法 | |
CN114612476B (zh) | 一种基于全分辨率混合注意力机制的图像篡改检测方法 | |
CN112084952B (zh) | 一种基于自监督训练的视频点位跟踪方法 | |
Pang et al. | Redefining self-similarity in natural images for denoising using graph signal gradient | |
US20230289608A1 (en) | Optimizing Supervised Generative Adversarial Networks via Latent Space Regularizations | |
CN113159043A (zh) | 基于语义信息的特征点匹配方法及系统 | |
CN111161213B (zh) | 一种基于知识图谱的工业产品缺陷图像分类方法 | |
CN113096105A (zh) | 一种基于有向稀疏采样的手机屏幕缺陷检测方法 | |
Chen et al. | Robust detection of dehazed images via dual-stream CNNs with adaptive feature fusion | |
Hamdi et al. | Sparf: Large-scale learning of 3d sparse radiance fields from few input images | |
CN113496480A (zh) | 一种焊缝图像缺陷的检测方法 | |
CN111738237A (zh) | 一种基于异构卷积的多核迭代rpn的目标检测方法 | |
CN115410059B (zh) | 基于对比损失的遥感图像部分监督变化检测方法及设备 | |
CN116385660A (zh) | 室内单视图场景语义重建方法及系统 | |
CN114511862B (zh) | 表格识别方法、装置及电子设备 | |
CN116385466A (zh) | 一种基于边界框弱标注的图像中目标分割方法及系统 | |
Li et al. | Synthetic data generation based on local-foreground generative adversarial networks for surface defect detection |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20210709 |
|
WD01 | Invention patent application deemed withdrawn after publication |