CN116597163A - 红外光学透镜及其制备方法 - Google Patents
红外光学透镜及其制备方法 Download PDFInfo
- Publication number
- CN116597163A CN116597163A CN202310563305.2A CN202310563305A CN116597163A CN 116597163 A CN116597163 A CN 116597163A CN 202310563305 A CN202310563305 A CN 202310563305A CN 116597163 A CN116597163 A CN 116597163A
- Authority
- CN
- China
- Prior art keywords
- feature vector
- scale
- training
- optical lens
- infrared optical
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000003287 optical effect Effects 0.000 title claims abstract description 167
- 238000004519 manufacturing process Methods 0.000 title claims abstract description 61
- 238000000034 method Methods 0.000 title claims description 30
- 238000000465 moulding Methods 0.000 claims abstract description 41
- 239000013598 vector Substances 0.000 claims description 334
- 238000012549 training Methods 0.000 claims description 132
- 238000013527 convolutional neural network Methods 0.000 claims description 93
- 238000012545 processing Methods 0.000 claims description 24
- 238000003062 neural network model Methods 0.000 claims description 21
- 238000013461 design Methods 0.000 claims description 19
- 230000000007 visual effect Effects 0.000 claims description 17
- 230000004913 activation Effects 0.000 claims description 16
- 238000011176 pooling Methods 0.000 claims description 16
- 239000011159 matrix material Substances 0.000 claims description 15
- 238000005457 optimization Methods 0.000 claims description 14
- 238000012546 transfer Methods 0.000 claims description 12
- 238000012935 Averaging Methods 0.000 claims description 4
- 238000001514 detection method Methods 0.000 abstract description 26
- 238000009826 distribution Methods 0.000 abstract description 16
- 238000003384 imaging method Methods 0.000 abstract description 12
- 238000012544 monitoring process Methods 0.000 abstract description 11
- 238000002360 preparation method Methods 0.000 abstract description 10
- 238000004422 calculation algorithm Methods 0.000 abstract description 8
- 238000005516 engineering process Methods 0.000 abstract description 5
- 239000000284 extract Substances 0.000 abstract description 2
- 230000006870 function Effects 0.000 description 17
- 238000010586 diagram Methods 0.000 description 7
- 230000008901 benefit Effects 0.000 description 5
- 238000000605 extraction Methods 0.000 description 5
- 230000004927 fusion Effects 0.000 description 5
- 238000005065 mining Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 230000002457 bidirectional effect Effects 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 238000010191 image analysis Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000013139 quantization Methods 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 238000007792 addition Methods 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 239000011324 bead Substances 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 239000000047 product Substances 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 230000006798 recombination Effects 0.000 description 1
- 238000005215 recombination Methods 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01M—TESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
- G01M11/00—Testing of optical apparatus; Testing structures by optical methods not otherwise provided for
- G01M11/02—Testing optical properties
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B3/00—Simple or compound lenses
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/30—Computing systems specially adapted for manufacturing
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biomedical Technology (AREA)
- Computational Linguistics (AREA)
- Medical Informatics (AREA)
- Mathematical Physics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Databases & Information Systems (AREA)
- Biophysics (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- Chemical & Material Sciences (AREA)
- Analytical Chemistry (AREA)
- Optics & Photonics (AREA)
- Lenses (AREA)
Abstract
本申请公开了一种红外光学透镜及其制备方法。其制备方法采用基于机器视觉的人工智能检测技术,以通过对于红外光学透镜的六视图进行隐含特征提取来提取出各个视角图像中关于红外光学透镜的隐含特征分布信息,并在将其进行全局化视角排列后,使用人工智能检测算法来提取出全局视角特征在高维空间中的多尺度隐含关联特征信息,以此来进行所述红外光学透镜的成型质量检测。通过这样的方式,可以准确地对于红外光学透镜的成型质量进行智能检测,以确保监控摄像机的成像质量。
Description
技术领域
本申请涉及智能检测技术领域,且更为具体地,涉及一种红外光学透镜及其制备方法。
背景技术
目前用于监控摄像机产品夜间补光的红外线LED光源使用的光学透镜为圆锥形,其中,光线在红外光学透镜的调制后呈现出的光斑形状为圆形。但是,用于监控摄像机的成像芯片(例如,CCD或CMOS)的高宽比为3/4,光线的圆形光斑投影于成像芯片时,在传感器四周会产生较大的暗角。
针对上述技术问题,中国专利CN 202598378揭露了一种红外LED光学透镜,其具有特殊的结构配置以使得红外LED灯珠的光线从光学透镜的入射面进入透镜折射后从出射面出射形成的光路沿透镜长度方向夹角与宽度方向夹角的比值为4:3,这样当该LED光学透镜应用于监控摄像机,所述LED灯珠的光线从所述入射面进入透镜折射后从出射面出射形成的光路的水平夹角与垂直夹角的比值为4:3,更为贴合传感器的形状,减少暗角区域。
在实际生产制备中,虽然上述红外光学透镜能够改善成像效果,但是在其生产过程中发现:因红外光学透镜的形状变得复杂,导致其在生产过程的成型精度容易发生偏差,而使得最终成型的光学透镜无法满足设计要求。因此,在红外光学透镜的生产过程中,需要将红外光学透镜进行成型质量检测,但因其形状变得复杂,通过传统的测量工序也变得极为复杂,增加了生产成本。
因此,期待一种优化的红外光学透镜及其制备方案。
发明内容
为了解决上述技术问题,提出了本申请。本申请的实施例提供了一种红外光学透镜及其制备方法。其制备方法采用基于机器视觉的人工智能检测技术,以通过对于红外光学透镜的六视图进行隐含特征提取来提取出各个视角图像中关于红外光学透镜的隐含特征分布信息,并在将其进行全局化视角排列后,使用人工智能检测算法来提取出全局视角特征在高维空间中的多尺度隐含关联特征信息,以此来进行所述红外光学透镜的成型质量检测。通过这样的方式,可以准确地对于红外光学透镜的成型质量进行智能检测,以确保监控摄像机的成像质量。
根据本申请的一个方面,提供了一种红外光学透镜的制备方法,其包括:
获取待检测红外光学透镜的六视图,所述待检测红外光学透镜的六视图为第一至第六局部视角图像;
将所述第一至第六局部视角图像分别通过作为过滤器的第一卷积神经网络模型以得到第一至第六局部视角特征向量;
将所述第一至第六局部视角特征向量进行一维排列以得到全局视角特征向量;
将所述全局视角特征向量通过使用具有第一尺度的第一卷积核的第二卷积神经网络模型以得到第一尺度关联特征向量;
将所述全局视角特征向量通过使用具有第二尺度的第二卷积核的第三卷积神经网络模型以得到第二尺度关联特征向量;
融合所述第一尺度关联特征向量和所述第二尺度关联特征向量以得到分类特征向量;以及
将所述分类特征向量通过分类器以得到分类结果,所述分类结果用于表示待检测红外光学透镜的成型质量是否满足设计要求。
在上述的红外光学透镜的制备方法中,所述将所述第一至第六局部视角图像分别通过作为过滤器的第一卷积神经网络模型以得到第一至第六局部视角特征向量,包括:
使用所述作为过滤器的第一卷积神经网络模型的各层在层的正向传递中对输入数据分别进行二维卷积处理、基于特征矩阵的均值池化处理和非线性激活处理以由所述作为过滤器的第一卷积神经网络模型的最后一层输出所述第一至第六局部视角特征向量,其中,所述作为过滤器的第一卷积神经网络模型的第一层的输入为所述第一至第六局部视角图像。
在上述的红外光学透镜的制备方法中,所述将所述全局视角特征向量通过使用具有第一尺度的第一卷积核的第二卷积神经网络模型以得到第一尺度关联特征向量,包括:使用所述具有第一尺度的第一卷积核的第二卷积神经网络模型的各层在层的正向传递中分别对输入数据进行:
对所述输入数据进行卷积处理以得到第一尺度卷积特征向量;
对所述第一尺度卷积特征向量进行池化处理以得到第一尺度池化特征向量;以及
对所述第一尺度池化特征向量进行非线性激活以得到第一尺度激活特征向量;
其中,所述具有第一尺度的第一卷积核的第二卷积神经网络模型的最后一层的输出为所述第一尺度关联特征向量,所述具有第一尺度的第一卷积核的第二卷积神经网络模型的第一层的输入为所述全局视角特征向量。
在上述的红外光学透镜的制备方法中,所述将所述全局视角特征向量通过使用具有第二尺度的第二卷积核的第三卷积神经网络模型以得到第二尺度关联特征向量,包括:使用所述具有第二尺度的第二卷积核的第三卷积神经网络模型的各层在层的正向传递中分别对输入数据进行:
对所述输入数据进行卷积处理以得到第二尺度卷积特征向量;
对所述第二尺度卷积特征向量进行池化处理以得到第二尺度池化特征向量;以及
对所述第二尺度池化特征向量进行非线性激活以得到第二尺度激活特征向量;
其中,所述具有第二尺度的第二卷积核的第三卷积神经网络模型的最后一层的输出为所述第二尺度关联特征向量,所述具有第二尺度的第二卷积核的第三卷积神经网络模型的第一层的输入为所述全局视角特征向量。
在上述的红外光学透镜的制备方法中,所述融合所述第一尺度关联特征向量和所述第二尺度关联特征向量以得到分类特征向量,包括:以如下公式来融合所述第一尺度关联特征向量和所述第二尺度关联特征向量以得到分类特征向量;
其中,所述公式为:
Vc=Concat[V1,V2]
其中,V1,V2表示所述第一尺度关联特征向量和所述第二尺度关联特征向量,Concat[·]表示级联函数,Vc表示所述分类特征向量。
在上述的红外光学透镜的制备方法中,所述将所述分类特征向量通过分类器以得到分类结果,所述分类结果用于表示待检测红外光学透镜的成型质量是否满足设计要求,包括:
使用所述分类器的全连接层对所述分类特征向量进行全连接编码以得到编码分类特征向量;
将所述编码分类特征向量输入所述分类器的Softmax分类函数以得到所述分类结果。
在上述的红外光学透镜的制备方法中,还包括训练步骤:用于对所述作为过滤器的第一卷积神经网络模型、所述使用具有第一尺度的第一卷积核的第二卷积神经网络模型、所述使用具有第二尺度的第二卷积核的第三卷积神经网络模型和所述分类器进行训练。
在上述的红外光学透镜的制备方法中,所述训练步骤,包括:
获取训练数据,所述训练数据包括待检测红外光学透镜的训练六视图,所述待检测红外光学透镜的训练六视图为第一至第六训练局部视角图像,以及,所述待检测红外光学透镜的成型质量是否满足设计要求的真实值;
将所述第一至第六训练局部视角图像分别通过所述作为过滤器的第一卷积神经网络模型以得到第一至第六训练局部视角特征向量;
将所述第一至第六训练局部视角特征向量进行一维排列以得到训练全局视角特征向量;
将所述训练全局视角特征向量通过所述使用具有第一尺度的第一卷积核的第二卷积神经网络模型以得到第一尺度训练关联特征向量;
将所述训练全局视角特征向量通过所述使用具有第二尺度的第二卷积核的第三卷积神经网络模型以得到第二尺度训练关联特征向量;
融合所述第一尺度训练关联特征向量和所述第二尺度训练关联特征向量以得到训练分类特征向量;
将所述训练分类特征向量通过所述分类器以得到分类损失函数值;
基于所述分类损失函数值并通过梯度下降的方向传播来对所述作为过滤器的第一卷积神经网络模型、所述使用具有第一尺度的第一卷积核的第二卷积神经网络模型、所述使用具有第二尺度的第二卷积核的第三卷积神经网络模型和所述分类器进行训练,其中,在所述训练的每一轮迭代中,计算所述训练分类特征向量的基于跨分类器软相似性的自由标签优化因数作为加权权重对所述训练分类特征向量进行加权迭代。
在上述的红外光学透镜的制备方法中,所述在所述训练的每一轮迭代中,以如下公式计算所述训练分类特征向量的基于跨分类器软相似性的自由标签优化因数作为所述加权权重对所述训练分类特征向量进行加权迭代;
其中,所述公式为:
其中V是所述训练分类特征向量,M是所述分类器对所述训练分类特征向量的权重矩阵,表示张量乘法,d(·,·)表示向量之间的距离,且α和β是权重超参数,exp(·)表示向量的指数运算,所述向量的指数运算表示计算以向量中各个位置的特征值为幂的自然指数函数值,w表示所述加权权重。
根据本申请的另一方面,提供了一种红外光学透镜,其由上述任一所述的红外光学透镜的制备方法制得。
与现有技术相比,本申请提供的红外光学透镜及其制备方法,其制备方法采用基于机器视觉的人工智能检测技术,以通过对于红外光学透镜的六视图进行隐含特征提取来提取出各个视角图像中关于红外光学透镜的隐含特征分布信息,并在将其进行全局化视角排列后,使用人工智能检测算法来提取出全局视角特征在高维空间中的多尺度隐含关联特征信息,以此来进行所述红外光学透镜的成型质量检测。通过这样的方式,可以准确地对于红外光学透镜的成型质量进行智能检测,以确保监控摄像机的成像质量。
附图说明
通过结合附图对本申请实施例进行更详细的描述,本申请的上述以及其他目的、特征和优势将变得更加明显。附图用来提供对本申请实施例的进一步理解,并且构成说明书的一部分,与本申请实施例一起用于解释本申请,并不构成对本申请的限制。在附图中,相同的参考标号通常代表相同部件或步骤。
图1为根据本申请实施例的红外光学透镜的结构示意图。
图2为根据本申请实施例的红外光学透镜的制备方法的场景示意图。
图3为根据本申请实施例的红外光学透镜的制备方法的流程图。
图4为根据本申请实施例的红外光学透镜的制备方法的架构示意图。
图5为根据本申请实施例的红外光学透镜的制备方法中步骤S170的子步骤流程图。
图6为根据本申请实施例的红外光学透镜的制备方法中进一步包括的训练步骤的流程图。
图7为根据本申请实施例的红外光学透镜的制备系统的框图。
具体实施方式
下面,将参考附图详细地描述根据本申请的示例实施例。显然,所描述的实施例仅仅是本申请的一部分实施例,而不是本申请的全部实施例,应理解,本申请不受这里描述的示例实施例的限制。
场景概述
图1示出了本申请实施例的红外光学透镜10的结构示意图。如上所述,由于红外光学透镜10的形状变得复杂,导致其在生产过程的成型精度容易发生偏差,而使得最终成型的红外光学透镜10无法满足设计要求。因此,在红外光学透镜10的生产过程中,需要将红外光学透镜10进行成型质量检测,但因其形状变得复杂,通过传统的测量工序也变得极为复杂,增加了生产成本。因此,期待一种优化的红外光学透镜10及其制备方案。
目前,深度学习以及神经网络已经广泛应用于计算机视觉、自然语言处理、语音信号处理等领域。此外,深度学习以及神经网络在图像分类、物体检测、语义分割、文本翻译等领域,也展现出了接近甚至超越人类的水平。
近年来,深度学习以及神经网络的发展为红外光学透镜的成型质量检测提供了新的解决思路和方案。
相应地,考虑到在对于红外光学透镜的成型质量进行检测时,因其形状变得复杂,通过传统的测量工序也变得极为复杂,增加了生产成本,因此,为了便于对其成型质量进行准确地检测,期望利用图像识别检测技术以通过对于红外光学透镜的六视图进行图像分析来进行质量检测。但是,由于图像中的信息量较多且各个视角的图像之间具有着关联性关系,因此如何从图像中找到关于透镜成型质量的分布信息以及如何利用这种关联性关系来提高检测的精准度是关键所在。
基于此,在本申请的技术方案中,采用基于机器视觉的人工智能检测技术,以通过对于红外光学透镜的六视图进行隐含特征提取来提取出各个视角图像中关于红外光学透镜的隐含特征分布信息,并在将其进行全局化视角排列后,使用人工智能检测算法来提取出全局视角特征在高维空间中的多尺度隐含关联特征信息,以此来进行所述红外光学透镜的成型质量检测。这样,能够准确地对于红外光学透镜的成型质量进行智能检测,以确保监控摄像机的成像质量。
具体地,在本申请的技术方案中,首先,获取待检测红外光学透镜的六视图,所述待检测红外光学透镜的六视图为第一至第六局部视角图像。接着,使用在图像的局部隐含特征提取方面具有优异表现的作为过滤器的第一卷积神经网络模型来进行所述第一至第六局部视角图像的特征挖掘,以分别提取出所述第一至第六局部视角图像中关于所述红外光学透镜的局部隐含特征分布信息,从而得到第一至第六局部视角特征向量。
然后,考虑到所述第一至第六局部视角图像为所述待检测红外光学透镜的六视图,其在所述待检测红外光学透镜的空间维度上具有着相互的关联性。并且还考虑到所述六视图中各个视角的图像特征中具有着不同尺度的关联性特征,也就是说,在所述六视图中的第一至第六局部视角图像中,可能所述第一视角图像中的高维隐含特征与所述第二至第五视角图像的高维隐含特征有着关联而与所述第六视角图像的高维隐含特征没有关联性。因此,为了能够充分且准确地对于所述各个视角图像中的局部隐含关联特征进行深层挖掘,以提高对于所述待检测红外光学透镜的成型质量判断的精准度,进一步需要其进行多尺度的关联性特征提取。
也就是,具体地,在本申请的技术方案中,将所述第一至第六局部视角特征向量进行一维排列以整合所述各个视角下的图像隐含特征分布信息,从而得到全局视角特征向量。接着,再将所述全局视角特征向量使用不同尺度的卷积核的卷积神经网络模型进行处理,以提取出所述全局视角特征向量中关于所述各个视角图像的关于红外光学透镜的隐含特征间的多尺度关联性特征分布信息,从而得到第一尺度关联特征向量和第二尺度关联特征向量。具体的,将所述全局视角特征向量通过使用具有第一尺度的第一卷积核的第二卷积神经网络模型以得到第一尺度关联特征向量,并将所述全局视角特征向量通过使用具有第二尺度的第二卷积核的第三卷积神经网络模型以得到第二尺度关联特征向量。
进一步地,再融合所述第一尺度关联特征向量和所述第二尺度关联特征向量来得到具有所述待检测红外光学透镜的各个视角图像特征的多尺度关联性融合特征的分类特征向量,并将所述分类特征向量通过分类器中进行分类处理,以得到用于表示待检测红外光学透镜的成型质量是否满足设计要求的分类结果。这样,能够对于红外光学透镜的成型质量进行智能检测,以确保监控摄像机的成像质量。
特别地,在本申请的技术方案中,将所述全局视角特征向量分别通过使用具有第一尺度的第一卷积核的第二卷积神经网络模型和使用具有第二尺度的第二卷积核的第三卷积神经网络模型得到所述第一尺度关联特征向量和所述第二尺度关联特征向量,以使得所述第一尺度关联特征向量和所述第二尺度关联特征向量分别表达了不同尺度下的全局视角特征关联。因此,为了充分使用上述信息来提高分类准确性,优选地通过直接级联所述第一尺度关联特征向量和所述第二尺度关联特征向量来得到所述分类特征向量,同时,由于所述全局视角特征向量本身也是由所述第一至第六局部视角特征向量级联得到的,这就使得所述分类特征向量的整体分布具有较强的离散性,使得分类器的训练困难,尤其是分类器的标签值的收敛困难。
因此,优选地使用软标签学习来代替常用的硬标签学习,具体地,在每次迭代时,计算所述分类特征向量的基于跨分类器软相似性的自由标签优化因数,表示为:
V是所述分类特征向量,M是所述分类器对所述分类特征向量V的权重矩阵,表示张量乘法,d(·,·)表示向量之间的距离,且α和β是权重超参数。
这里,所述基于跨分类器软相似性的自由标签优化因数通过在以硬标签值计算特征向量的分类概率之前来对所述分类特征向量和分类器对于其的权重矩阵进行双向聚簇,来通过所述分类特征向量与所述权重矩阵的跨分类器的软相似性模拟基于分类器权重矩阵的伪类别,从而以软相似性学习来避免了硬标签学习带来的分类量化损失,实现了更关注于分类器的内在权重结构的自由标签优化,从而优化了分类器的标签值的训练,提升了分类器的训练速度,进而提高了分类的准确性。这样,能够准确地对于红外光学透镜的成型质量进行智能检测,以确保监控摄像机的成像质量。
基于此,本申请提供了一种红外光学透镜的制备方法,其包括:获取待检测红外光学透镜的六视图,所述待检测红外光学透镜的六视图为第一至第六局部视角图像;将所述第一至第六局部视角图像分别通过作为过滤器的第一卷积神经网络模型以得到第一至第六局部视角特征向量;将所述第一至第六局部视角特征向量进行一维排列以得到全局视角特征向量;将所述全局视角特征向量通过使用具有第一尺度的第一卷积核的第二卷积神经网络模型以得到第一尺度关联特征向量;将所述全局视角特征向量通过使用具有第二尺度的第二卷积核的第三卷积神经网络模型以得到第二尺度关联特征向量;融合所述第一尺度关联特征向量和所述第二尺度关联特征向量以得到分类特征向量;以及,将所述分类特征向量通过分类器以得到分类结果,所述分类结果用于表示待检测红外光学透镜的成型质量是否满足设计要求。
图2为根据本申请实施例的红外光学透镜的制备方法的应用场景图。如图2所示,在该应用场景中,获取待检测红外光学透镜(例如,如图2中所示意的L)的六视图(例如,如图2中所示意的D),所述待检测红外光学透镜的六视图为第一至第六局部视角图像,然后,将所述第一至第六局部视角图像输入至部署有红外光学透镜的制备算法的服务器(例如,如图2中所示意的S)中,其中所述服务器能够基于所述红外光学透镜的制备算法生成用于表示待检测红外光学透镜的成型质量是否满足设计要求的分类结果。
在介绍了本申请的基本原理之后,下面将参考附图来具体介绍本申请的各种非限制性实施例。
示例性方法
图3为根据本申请实施例的红外光学透镜的制备方法的流程图。如图3所示,根据本申请实施例的红外光学透镜的制备方法,包括步骤:S110,获取待检测红外光学透镜的六视图,所述待检测红外光学透镜的六视图为第一至第六局部视角图像;S120,将所述第一至第六局部视角图像分别通过作为过滤器的第一卷积神经网络模型以得到第一至第六局部视角特征向量;S130,将所述第一至第六局部视角特征向量进行一维排列以得到全局视角特征向量;S140,将所述全局视角特征向量通过使用具有第一尺度的第一卷积核的第二卷积神经网络模型以得到第一尺度关联特征向量;S150,将所述全局视角特征向量通过使用具有第二尺度的第二卷积核的第三卷积神经网络模型以得到第二尺度关联特征向量;S160,融合所述第一尺度关联特征向量和所述第二尺度关联特征向量以得到分类特征向量;以及,S170,将所述分类特征向量通过分类器以得到分类结果,所述分类结果用于表示待检测红外光学透镜的成型质量是否满足设计要求。
图4为根据本申请实施例的红外光学透镜的制备方法的架构示意图。如图4所示,在该网络架构中,首先,获取待检测红外光学透镜的六视图,所述待检测红外光学透镜的六视图为第一至第六局部视角图像;接着,将所述第一至第六局部视角图像分别通过作为过滤器的第一卷积神经网络模型以得到第一至第六局部视角特征向量;然后,将所述第一至第六局部视角特征向量进行一维排列以得到全局视角特征向量;接着,将所述全局视角特征向量通过使用具有第一尺度的第一卷积核的第二卷积神经网络模型以得到第一尺度关联特征向量;然后,将所述全局视角特征向量通过使用具有第二尺度的第二卷积核的第三卷积神经网络模型以得到第二尺度关联特征向量;接着,融合所述第一尺度关联特征向量和所述第二尺度关联特征向量以得到分类特征向量;最后,将所述分类特征向量通过分类器以得到分类结果,所述分类结果用于表示待检测红外光学透镜的成型质量是否满足设计要求。
更具体地,在步骤S110中,获取待检测红外光学透镜的六视图,所述待检测红外光学透镜的六视图为第一至第六局部视角图像。在对于红外光学透镜的成型质量进行检测时,因其形状变得复杂,通过传统的测量工序也变得极为复杂,增加了生产成本,因此,为了便于对其成型质量进行准确地检测,利用图像识别检测技术以通过对于红外光学透镜的六视图进行图像分析来进行质量检测。
更具体地,在步骤S120中,将所述第一至第六局部视角图像分别通过作为过滤器的第一卷积神经网络模型以得到第一至第六局部视角特征向量。使用在图像的局部隐含特征提取方面具有优异表现的作为过滤器的第一卷积神经网络模型来进行所述第一至第六局部视角图像的特征挖掘,以分别提取出所述第一至第六局部视角图像中关于所述红外光学透镜的局部隐含特征分布信息,从而得到第一至第六局部视角特征向量。
相应地,在一个具体示例中,所述将所述第一至第六局部视角图像分别通过作为过滤器的第一卷积神经网络模型以得到第一至第六局部视角特征向量,包括:使用所述作为过滤器的第一卷积神经网络模型的各层在层的正向传递中对输入数据分别进行二维卷积处理、基于特征矩阵的均值池化处理和非线性激活处理以由所述作为过滤器的第一卷积神经网络模型的最后一层输出所述第一至第六局部视角特征向量,其中,所述作为过滤器的第一卷积神经网络模型的第一层的输入为所述第一至第六局部视角图像。
考虑到所述第一至第六局部视角图像为所述待检测红外光学透镜的六视图,其在所述待检测红外光学透镜的空间维度上具有着相互的关联性。并且还考虑到所述六视图中各个视角的图像特征中具有着不同尺度的关联性特征,也就是说,在所述六视图中的第一至第六局部视角图像中,可能所述第一视角图像中的高维隐含特征与所述第二至第五视角图像的高维隐含特征有着关联而与所述第六视角图像的高维隐含特征没有关联性。因此,为了能够充分且准确地对于所述各个视角图像中的局部隐含关联特征进行深层挖掘,以提高对于所述待检测红外光学透镜的成型质量判断的精准度,进一步需要其进行多尺度的关联性特征提取。
也就是,将所述第一至第六局部视角特征向量进行一维排列以整合所述各个视角下的图像隐含特征分布信息,从而得到全局视角特征向量。接着,再将所述全局视角特征向量使用不同尺度的卷积核的卷积神经网络模型进行处理,以提取出所述全局视角特征向量中关于所述各个视角图像的关于红外光学透镜的隐含特征间的多尺度关联性特征分布信息,从而得到第一尺度关联特征向量和第二尺度关联特征向量。具体的,将所述全局视角特征向量通过使用具有第一尺度的第一卷积核的第二卷积神经网络模型以得到第一尺度关联特征向量,并将所述全局视角特征向量通过使用具有第二尺度的第二卷积核的第三卷积神经网络模型以得到第二尺度关联特征向量。
更具体地,在步骤S130中,将所述第一至第六局部视角特征向量进行一维排列以得到全局视角特征向量。
更具体地,在步骤S140中,将所述全局视角特征向量通过使用具有第一尺度的第一卷积核的第二卷积神经网络模型以得到第一尺度关联特征向量。
相应地,在一个具体示例中,所述将所述全局视角特征向量通过使用具有第一尺度的第一卷积核的第二卷积神经网络模型以得到第一尺度关联特征向量,包括:使用所述具有第一尺度的第一卷积核的第二卷积神经网络模型的各层在层的正向传递中分别对输入数据进行:对所述输入数据进行卷积处理以得到第一尺度卷积特征向量;对所述第一尺度卷积特征向量进行池化处理以得到第一尺度池化特征向量;以及,对所述第一尺度池化特征向量进行非线性激活以得到第一尺度激活特征向量;其中,所述具有第一尺度的第一卷积核的第二卷积神经网络模型的最后一层的输出为所述第一尺度关联特征向量,所述具有第一尺度的第一卷积核的第二卷积神经网络模型的第一层的输入为所述全局视角特征向量。
更具体地,在步骤S150中,将所述全局视角特征向量通过使用具有第二尺度的第二卷积核的第三卷积神经网络模型以得到第二尺度关联特征向量。
相应地,在一个具体示例中,所述将所述全局视角特征向量通过使用具有第二尺度的第二卷积核的第三卷积神经网络模型以得到第二尺度关联特征向量,包括:使用所述具有第二尺度的第二卷积核的第三卷积神经网络模型的各层在层的正向传递中分别对输入数据进行:对所述输入数据进行卷积处理以得到第二尺度卷积特征向量;对所述第二尺度卷积特征向量进行池化处理以得到第二尺度池化特征向量;以及,对所述第二尺度池化特征向量进行非线性激活以得到第二尺度激活特征向量;其中,所述具有第二尺度的第二卷积核的第三卷积神经网络模型的最后一层的输出为所述第二尺度关联特征向量,所述具有第二尺度的第二卷积核的第三卷积神经网络模型的第一层的输入为所述全局视角特征向量。
更具体地,在步骤S160中,融合所述第一尺度关联特征向量和所述第二尺度关联特征向量以得到分类特征向量。融合所述第一尺度关联特征向量和所述第二尺度关联特征向量来得到具有所述待检测红外光学透镜的各个视角图像特征的多尺度关联性融合特征的分类特征向量,并将所述分类特征向量通过分类器中进行分类处理,以得到用于表示待检测红外光学透镜的成型质量是否满足设计要求的分类结果。这样,能够对于红外光学透镜的成型质量进行智能检测,以确保监控摄像机的成像质量。
相应地,在一个具体示例中,所述融合所述第一尺度关联特征向量和所述第二尺度关联特征向量以得到分类特征向量,包括:以如下公式来融合所述第一尺度关联特征向量和所述第二尺度关联特征向量以得到分类特征向量;其中,所述公式为:
Vc=Concat[V1,V2]
其中,V1,V2表示所述第一尺度关联特征向量和所述第二尺度关联特征向量,Convcat[·]表示级联函数,Vc表示所述分类特征向量。
更具体地,在步骤S170中,将所述分类特征向量通过分类器以得到分类结果,所述分类结果用于表示待检测红外光学透镜的成型质量是否满足设计要求。
相应地,在一个具体示例中,如图5所示,所述将所述分类特征向量通过分类器以得到分类结果,所述分类结果用于表示待检测红外光学透镜的成型质量是否满足设计要求,包括:S171,使用所述分类器的全连接层对所述分类特征向量进行全连接编码以得到编码分类特征向量;S172,将所述编码分类特征向量输入所述分类器的Softmax分类函数以得到所述分类结果。
相应地,在一个具体示例中,所述的红外光学透镜的制备方法,还包括训练步骤:用于对所述作为过滤器的第一卷积神经网络模型、所述使用具有第一尺度的第一卷积核的第二卷积神经网络模型、所述使用具有第二尺度的第二卷积核的第三卷积神经网络模型和所述分类器进行训练。
相应地,在一个具体示例中,如图6所示,所述训练步骤S200,包括:S210,获取训练数据,所述训练数据包括待检测红外光学透镜的训练六视图,所述待检测红外光学透镜的训练六视图为第一至第六训练局部视角图像,以及,所述待检测红外光学透镜的成型质量是否满足设计要求的真实值;S220,将所述第一至第六训练局部视角图像分别通过所述作为过滤器的第一卷积神经网络模型以得到第一至第六训练局部视角特征向量;S230,将所述第一至第六训练局部视角特征向量进行一维排列以得到训练全局视角特征向量;S240,将所述训练全局视角特征向量通过所述使用具有第一尺度的第一卷积核的第二卷积神经网络模型以得到第一尺度训练关联特征向量;S250,将所述训练全局视角特征向量通过所述使用具有第二尺度的第二卷积核的第三卷积神经网络模型以得到第二尺度训练关联特征向量;S260,融合所述第一尺度训练关联特征向量和所述第二尺度训练关联特征向量以得到训练分类特征向量;S270,将所述训练分类特征向量通过所述分类器以得到分类损失函数值;S280,基于所述分类损失函数值并通过梯度下降的方向传播来对所述作为过滤器的第一卷积神经网络模型、所述使用具有第一尺度的第一卷积核的第二卷积神经网络模型、所述使用具有第二尺度的第二卷积核的第三卷积神经网络模型和所述分类器进行训练,其中,在所述训练的每一轮迭代中,计算所述训练分类特征向量的基于跨分类器软相似性的自由标签优化因数作为加权权重对所述训练分类特征向量进行加权迭代。
特别地,在本申请的技术方案中,将所述全局视角特征向量分别通过使用具有第一尺度的第一卷积核的第二卷积神经网络模型和使用具有第二尺度的第二卷积核的第三卷积神经网络模型得到所述第一尺度关联特征向量和所述第二尺度关联特征向量,以使得所述第一尺度关联特征向量和所述第二尺度关联特征向量分别表达了不同尺度下的全局视角特征关联。因此,为了充分使用上述信息来提高分类准确性,优选地通过直接级联所述第一尺度关联特征向量和所述第二尺度关联特征向量来得到所述分类特征向量,同时,由于所述全局视角特征向量本身也是由所述第一至第六局部视角特征向量级联得到的,这就使得所述分类特征向量的整体分布具有较强的离散性,使得分类器的训练困难,尤其是分类器的标签值的收敛困难。因此,优选地使用软标签学习来代替常用的硬标签学习,具体地,在每次迭代时,计算所述分类特征向量的基于跨分类器软相似性的自由标签优化因数。
相应地,在一个具体示例中,所述在所述训练的每一轮迭代中,以如下公式计算所述训练分类特征向量的基于跨分类器软相似性的自由标签优化因数作为所述加权权重对所述训练分类特征向量进行加权迭代;其中,所述公式为:
其中V是所述训练分类特征向量,M是所述分类器对所述训练分类特征向量的权重矩阵,表示张量乘法,d(·,·)表示向量之间的距离,且α和β是权重超参数,exp(·)表示向量的指数运算,所述向量的指数运算表示计算以向量中各个位置的特征值为幂的自然指数函数值,w表示所述加权权重。
这里,所述基于跨分类器软相似性的自由标签优化因数通过在以硬标签值计算特征向量的分类概率之前来对所述分类特征向量和分类器对于其的权重矩阵进行双向聚簇,来通过所述分类特征向量与所述权重矩阵的跨分类器的软相似性模拟基于分类器权重矩阵的伪类别,从而以软相似性学习来避免了硬标签学习带来的分类量化损失,实现了更关注于分类器的内在权重结构的自由标签优化,从而优化了分类器的标签值的训练,提升了分类器的训练速度,进而提高了分类的准确性。这样,能够准确地对于红外光学透镜的成型质量进行智能检测,以确保监控摄像机的成像质量。
相应地,本申请所述的红外光学透镜通过上述方法制得。
综上,基于本申请实施例的红外光学透镜的制备方法,其采用基于机器视觉的人工智能检测技术,以通过对于红外光学透镜的六视图进行隐含特征提取来提取出各个视角图像中关于红外光学透镜的隐含特征分布信息,并在将其进行全局化视角排列后,使用人工智能检测算法来提取出全局视角特征在高维空间中的多尺度隐含关联特征信息,以此来进行所述红外光学透镜的成型质量检测。通过这样的方式,可以准确地对于红外光学透镜的成型质量进行智能检测,以确保监控摄像机的成像质量。
示例性系统
图7为根据本申请实施例的红外光学透镜的制备系统100的框图。如图7所示,根据本申请实施例的红外光学透镜的制备系统100,包括:数据获取模块110,用于获取待检测红外光学透镜的六视图,所述待检测红外光学透镜的六视图为第一至第六局部视角图像;第一卷积编码模块120,用于将所述第一至第六局部视角图像分别通过作为过滤器的第一卷积神经网络模型以得到第一至第六局部视角特征向量;一维排列模块130,用于将所述第一至第六局部视角特征向量进行一维排列以得到全局视角特征向量;第二卷积编码模块140,用于将所述全局视角特征向量通过使用具有第一尺度的第一卷积核的第二卷积神经网络模型以得到第一尺度关联特征向量;第三卷积编码模块150,用于将所述全局视角特征向量通过使用具有第二尺度的第二卷积核的第三卷积神经网络模型以得到第二尺度关联特征向量;融合模块160,用于融合所述第一尺度关联特征向量和所述第二尺度关联特征向量以得到分类特征向量;以及,分类结果生成模块170,用于将所述分类特征向量通过分类器以得到分类结果,所述分类结果用于表示待检测红外光学透镜的成型质量是否满足设计要求。
在一个示例中,在上述红外光学透镜的制备系统100中,所述第一卷积编码模块120,进一步用于:使用所述作为过滤器的第一卷积神经网络模型的各层在层的正向传递中对输入数据分别进行二维卷积处理、基于特征矩阵的均值池化处理和非线性激活处理以由所述作为过滤器的第一卷积神经网络模型的最后一层输出所述第一至第六局部视角特征向量,其中,所述作为过滤器的第一卷积神经网络模型的第一层的输入为所述第一至第六局部视角图像。
在一个示例中,在上述红外光学透镜的制备系统100中,所述第二卷积编码模块140,进一步用于:使用所述具有第一尺度的第一卷积核的第二卷积神经网络模型的各层在层的正向传递中分别对输入数据进行:对所述输入数据进行卷积处理以得到第一尺度卷积特征向量;对所述第一尺度卷积特征向量进行池化处理以得到第一尺度池化特征向量;以及,对所述第一尺度池化特征向量进行非线性激活以得到第一尺度激活特征向量;其中,所述具有第一尺度的第一卷积核的第二卷积神经网络模型的最后一层的输出为所述第一尺度关联特征向量,所述具有第一尺度的第一卷积核的第二卷积神经网络模型的第一层的输入为所述全局视角特征向量。
在一个示例中,在上述红外光学透镜的制备系统100中,所述第三卷积编码模块150,进一步用于:使用所述具有第二尺度的第二卷积核的第三卷积神经网络模型的各层在层的正向传递中分别对输入数据进行:对所述输入数据进行卷积处理以得到第二尺度卷积特征向量;对所述第二尺度卷积特征向量进行池化处理以得到第二尺度池化特征向量;以及,对所述第二尺度池化特征向量进行非线性激活以得到第二尺度激活特征向量;其中,所述具有第二尺度的第二卷积核的第三卷积神经网络模型的最后一层的输出为所述第二尺度关联特征向量,所述具有第二尺度的第二卷积核的第三卷积神经网络模型的第一层的输入为所述全局视角特征向量。
在一个示例中,在上述红外光学透镜的制备系统100中,所述融合模块160,进一步用于:以如下公式来融合所述第一尺度关联特征向量和所述第二尺度关联特征向量以得到分类特征向量;其中,所述公式为:
Vc=Concat[V1,V2]
其中,V1,V2表示所述第一尺度关联特征向量和所述第二尺度关联特征向量,Concat[·]表示级联函数,Vc表示所述分类特征向量。
在一个示例中,在上述红外光学透镜的制备系统100中,所述分类结果生成模块170,进一步用于:使用所述分类器的全连接层对所述分类特征向量进行全连接编码以得到编码分类特征向量;将所述编码分类特征向量输入所述分类器的Softmax分类函数以得到所述分类结果。
在一个示例中,在上述红外光学透镜的制备系统100中,还包括训练模块,所述训练模块:用于对所述作为过滤器的第一卷积神经网络模型、所述使用具有第一尺度的第一卷积核的第二卷积神经网络模型、所述使用具有第二尺度的第二卷积核的第三卷积神经网络模型和所述分类器进行训练。
在一个示例中,在上述红外光学透镜的制备系统100中,所述训练模块,包括:训练数据获取模块,用于获取训练数据,所述训练数据包括待检测红外光学透镜的训练六视图,所述待检测红外光学透镜的训练六视图为第一至第六训练局部视角图像,以及,所述待检测红外光学透镜的成型质量是否满足设计要求的真实值;训练第一卷积编码模块,用于将所述第一至第六训练局部视角图像分别通过所述作为过滤器的第一卷积神经网络模型以得到第一至第六训练局部视角特征向量;训练一维排列模块,用于将所述第一至第六训练局部视角特征向量进行一维排列以得到训练全局视角特征向量;训练第二卷积编码模块,用于将所述训练全局视角特征向量通过所述使用具有第一尺度的第一卷积核的第二卷积神经网络模型以得到第一尺度训练关联特征向量;训练第三卷积编码模块,用于将所述训练全局视角特征向量通过所述使用具有第二尺度的第二卷积核的第三卷积神经网络模型以得到第二尺度训练关联特征向量;训练融合模块,用于融合所述第一尺度训练关联特征向量和所述第二尺度训练关联特征向量以得到训练分类特征向量;分类损失函数值计算模块,用于将所述训练分类特征向量通过所述分类器以得到分类损失函数值;迭代训练模块,用于基于所述分类损失函数值并通过梯度下降的方向传播来对所述作为过滤器的第一卷积神经网络模型、所述使用具有第一尺度的第一卷积核的第二卷积神经网络模型、所述使用具有第二尺度的第二卷积核的第三卷积神经网络模型和所述分类器进行训练,其中,在所述训练的每一轮迭代中,计算所述训练分类特征向量的基于跨分类器软相似性的自由标签优化因数作为加权权重对所述训练分类特征向量进行加权迭代。
在一个示例中,在上述红外光学透镜的制备系统100中,所述在所述训练的每一轮迭代中,以如下公式计算所述训练分类特征向量的基于跨分类器软相似性的自由标签优化因数作为所述加权权重对所述训练分类特征向量进行加权迭代;其中,所述公式为:
其中V是所述训练分类特征向量,M是所述分类器对所述训练分类特征向量的权重矩阵,表示张量乘法,d(·,·)表示向量之间的距离,且α和β是权重超参数,exp(·)表示向量的指数运算,所述向量的指数运算表示计算以向量中各个位置的特征值为幂的自然指数函数值,w表示所述加权权重。
这里,本领域技术人员可以理解,上述红外光学透镜的制备系统100中的各个单元和模块的具体功能和操作已经在上面参考图2到图6的红外光学透镜的制备方法的描述中得到了详细介绍,并因此,将省略其重复描述。
如上所述,根据本申请实施例的红外光学透镜的制备系统100可以实现在各种无线终端中,例如具有红外光学透镜的制备算法的服务器等。在一个示例中,根据本申请实施例的红外光学透镜的制备系统100可以作为一个软件模块和/或硬件模块而集成到无线终端中。例如,该红外光学透镜的制备系统100可以是该无线终端的操作系统中的一个软件模块,或者可以是针对于该无线终端所开发的一个应用程序;当然,该红外光学透镜的制备系统100同样可以是该无线终端的众多硬件模块之一。
替换地,在另一示例中,该红外光学透镜的制备系统100与该无线终端也可以是分立的设备,并且该红外光学透镜的制备系统100可以通过有线和/或无线网络连接到该无线终端,并且按照约定的数据格式来传输交互信息。
以上结合具体实施例描述了本申请的基本原理,但是,需要指出的是,在本申请中提及的优点、优势、效果等仅是示例而非限制,不能认为这些优点、优势、效果等是本申请的各个实施例必须具备的。另外,上述公开的具体细节仅是为了示例的作用和便于理解的作用,而非限制,上述细节并不限制本申请为必须采用上述具体的细节来实现。
本申请中涉及的器件、装置、设备、系统的方框图仅作为例示性的例子并且不意图要求或暗示必须按照方框图示出的方式进行连接、布置、配置。如本领域技术人员将认识到的,可以按任意方式连接、布置、配置这些器件、装置、设备、系统。诸如“包括”、“包含”、“具有”等等的词语是开放性词汇,指“包括但不限于”,且可与其互换使用。这里所使用的词汇“或”和“和”指词汇“和/或”,且可与其互换使用,除非上下文明确指示不是如此。这里所使用的词汇“诸如”指词组“诸如但不限于”,且可与其互换使用。
还需要指出的是,在本申请的装置、设备和方法中,各部件或各步骤是可以分解和/或重新组合的。这些分解和/或重新组合应视为本申请的等效方案。
提供所公开的方面的以上描述以使本领域的任何技术人员能够做出或者使用本申请。对这些方面的各种修改对于本领域技术人员而言是非常显而易见的,并且在此定义的一般原理可以应用于其他方面而不脱离本申请的范围。因此,本申请不意图被限制到在此示出的方面,而是按照与在此公开的原理和新颖的特征一致的最宽范围。
为了例示和描述的目的已经给出了以上描述。此外,此描述不意图将本申请的实施例限制到在此公开的形式。尽管以上已经讨论了多个示例方面和实施例,但是本领域技术人员将认识到其某些变型、修改、改变、添加和子组合。
Claims (10)
1.一种红外光学透镜的制备方法,其特征在于,包括:
获取待检测红外光学透镜的六视图,所述待检测红外光学透镜的六视图为第一至第六局部视角图像;
将所述第一至第六局部视角图像分别通过作为过滤器的第一卷积神经网络模型以得到第一至第六局部视角特征向量;
将所述第一至第六局部视角特征向量进行一维排列以得到全局视角特征向量;
将所述全局视角特征向量通过使用具有第一尺度的第一卷积核的第二卷积神经网络模型以得到第一尺度关联特征向量;
将所述全局视角特征向量通过使用具有第二尺度的第二卷积核的第三卷积神经网络模型以得到第二尺度关联特征向量;
融合所述第一尺度关联特征向量和所述第二尺度关联特征向量以得到分类特征向量;以及
将所述分类特征向量通过分类器以得到分类结果,所述分类结果用于表示待检测红外光学透镜的成型质量是否满足设计要求。
2.根据权利要求1所述的红外光学透镜的制备方法,其特征在于,所述将所述第一至第六局部视角图像分别通过作为过滤器的第一卷积神经网络模型以得到第一至第六局部视角特征向量,包括:
使用所述作为过滤器的第一卷积神经网络模型的各层在层的正向传递中对输入数据分别进行二维卷积处理、基于特征矩阵的均值池化处理和非线性激活处理以由所述作为过滤器的第一卷积神经网络模型的最后一层输出所述第一至第六局部视角特征向量,其中,所述作为过滤器的第一卷积神经网络模型的第一层的输入为所述第一至第六局部视角图像。
3.根据权利要求2所述的红外光学透镜的制备方法,其特征在于,所述将所述全局视角特征向量通过使用具有第一尺度的第一卷积核的第二卷积神经网络模型以得到第一尺度关联特征向量,包括:使用所述具有第一尺度的第一卷积核的第二卷积神经网络模型的各层在层的正向传递中分别对输入数据进行:
对所述输入数据进行卷积处理以得到第一尺度卷积特征向量;
对所述第一尺度卷积特征向量进行池化处理以得到第一尺度池化特征向量;以及
对所述第一尺度池化特征向量进行非线性激活以得到第一尺度激活特征向量;
其中,所述具有第一尺度的第一卷积核的第二卷积神经网络模型的最后一层的输出为所述第一尺度关联特征向量,所述具有第一尺度的第一卷积核的第二卷积神经网络模型的第一层的输入为所述全局视角特征向量。
4.根据权利要求3所述的红外光学透镜的制备方法,其特征在于,所述将所述全局视角特征向量通过使用具有第二尺度的第二卷积核的第三卷积神经网络模型以得到第二尺度关联特征向量,包括:使用所述具有第二尺度的第二卷积核的第三卷积神经网络模型的各层在层的正向传递中分别对输入数据进行:
对所述输入数据进行卷积处理以得到第二尺度卷积特征向量;
对所述第二尺度卷积特征向量进行池化处理以得到第二尺度池化特征向量;以及
对所述第二尺度池化特征向量进行非线性激活以得到第二尺度激活特征向量;
其中,所述具有第二尺度的第二卷积核的第三卷积神经网络模型的最后一层的输出为所述第二尺度关联特征向量,所述具有第二尺度的第二卷积核的第三卷积神经网络模型的第一层的输入为所述全局视角特征向量。
5.根据权利要求4所述的红外光学透镜的制备方法,其特征在于,所述融合所述第一尺度关联特征向量和所述第二尺度关联特征向量以得到分类特征向量,包括:以如下公式来融合所述第一尺度关联特征向量和所述第二尺度关联特征向量以得到分类特征向量;
其中,所述公式为:
Vc=Concat[V1,V2]
其中,V1,V2表示所述第一尺度关联特征向量和所述第二尺度关联特征向量,Concat[·]表示级联函数,Vc表示所述分类特征向量。
6.根据权利要求5所述的红外光学透镜的制备方法,其特征在于,所述将所述分类特征向量通过分类器以得到分类结果,所述分类结果用于表示待检测红外光学透镜的成型质量是否满足设计要求,包括:
使用所述分类器的全连接层对所述分类特征向量进行全连接编码以得到编码分类特征向量;
将所述编码分类特征向量输入所述分类器的Softmax分类函数以得到所述分类结果。
7.根据权利要求6所述的红外光学透镜的制备方法,其特征在于,还包括训练步骤:用于对所述作为过滤器的第一卷积神经网络模型、所述使用具有第一尺度的第一卷积核的第二卷积神经网络模型、所述使用具有第二尺度的第二卷积核的第三卷积神经网络模型和所述分类器进行训练。
8.根据权利要求7所述的红外光学透镜的制备方法,其特征在于,所述训练步骤,包括:
获取训练数据,所述训练数据包括待检测红外光学透镜的训练六视图,所述待检测红外光学透镜的训练六视图为第一至第六训练局部视角图像,以及,所述待检测红外光学透镜的成型质量是否满足设计要求的真实值;
将所述第一至第六训练局部视角图像分别通过所述作为过滤器的第一卷积神经网络模型以得到第一至第六训练局部视角特征向量;
将所述第一至第六训练局部视角特征向量进行一维排列以得到训练全局视角特征向量;
将所述训练全局视角特征向量通过所述使用具有第一尺度的第一卷积核的第二卷积神经网络模型以得到第一尺度训练关联特征向量;
将所述训练全局视角特征向量通过所述使用具有第二尺度的第二卷积核的第三卷积神经网络模型以得到第二尺度训练关联特征向量;
融合所述第一尺度训练关联特征向量和所述第二尺度训练关联特征向量以得到训练分类特征向量;
将所述训练分类特征向量通过所述分类器以得到分类损失函数值;
基于所述分类损失函数值并通过梯度下降的方向传播来对所述作为过滤器的第一卷积神经网络模型、所述使用具有第一尺度的第一卷积核的第二卷积神经网络模型、所述使用具有第二尺度的第二卷积核的第三卷积神经网络模型和所述分类器进行训练,其中,在所述训练的每一轮迭代中,计算所述训练分类特征向量的基于跨分类器软相似性的自由标签优化因数作为加权权重对所述训练分类特征向量进行加权迭代。
9.根据权利要求8所述的红外光学透镜的制备方法,其特征在于,所述在所述训练的每一轮迭代中,以如下公式计算所述训练分类特征向量的基于跨分类器软相似性的自由标签优化因数作为所述加权权重对所述训练分类特征向量进行加权迭代;
其中,所述公式为:
其中V是所述训练分类特征向量,M是所述分类器对所述训练分类特征向量的权重矩阵,表示张量乘法,d(·,·)表示向量之间的距离,且α和β是权重超参数,exp(·)表示向量的指数运算,所述向量的指数运算表示计算以向量中各个位置的特征值为幂的自然指数函数值,w表示所述加权权重。
10.一种红外光学透镜,其特征在于,由如权利要求1至9任一所述的红外光学透镜的制备方法制得。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310563305.2A CN116597163A (zh) | 2023-05-18 | 2023-05-18 | 红外光学透镜及其制备方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310563305.2A CN116597163A (zh) | 2023-05-18 | 2023-05-18 | 红外光学透镜及其制备方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116597163A true CN116597163A (zh) | 2023-08-15 |
Family
ID=87598694
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310563305.2A Pending CN116597163A (zh) | 2023-05-18 | 2023-05-18 | 红外光学透镜及其制备方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116597163A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117132600A (zh) * | 2023-10-26 | 2023-11-28 | 广东岚瑞新材料科技集团有限公司 | 基于图像的注塑制品质量检测系统及其方法 |
Citations (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104850633A (zh) * | 2015-05-22 | 2015-08-19 | 中山大学 | 一种基于手绘草图部件分割的三维模型检索系统及方法 |
WO2019105036A1 (zh) * | 2017-11-30 | 2019-06-06 | 上海海事大学 | 一种基于局部特征的多视角分类器及设计方法 |
US20200242422A1 (en) * | 2019-01-29 | 2020-07-30 | Boe Technology Group Co., Ltd. | Method and electronic device for retrieving an image and computer readable storage medium |
US20210042567A1 (en) * | 2019-04-03 | 2021-02-11 | Beijing Sensetime Technology Development Co., Ltd. | Text recognition |
CN115205543A (zh) * | 2022-07-19 | 2022-10-18 | 宁波西卡曼厨具有限公司 | 不锈钢橱柜的智能制造方法及其系统 |
CN115359300A (zh) * | 2022-08-30 | 2022-11-18 | 德玛克(长兴)精密机械有限公司 | 风力发电机部件智能化加工制造系统及其制造方法 |
CN115512166A (zh) * | 2022-10-18 | 2022-12-23 | 湖北华鑫光电有限公司 | 镜头的智能化制备方法及其系统 |
CN115759658A (zh) * | 2022-11-24 | 2023-03-07 | 浙江智慧信息产业有限公司 | 适用于智慧城市的企业能耗数据管理系统 |
CN115761900A (zh) * | 2022-12-06 | 2023-03-07 | 深圳信息职业技术学院 | 用于实训基地管理的物联网云平台 |
CN115755768A (zh) * | 2022-11-22 | 2023-03-07 | 黄鹄(浙江)精密机床有限公司 | 五轴联动精密数控机床及其控制方法 |
CN115827939A (zh) * | 2022-11-28 | 2023-03-21 | 华东冶金地质勘查局八一五地质队 | 数字化档案管理系统 |
CN115909171A (zh) * | 2022-12-19 | 2023-04-04 | 浙江金汇华特种耐火材料有限公司 | 钢包透气砖生产方法及其系统 |
CN115937571A (zh) * | 2022-10-24 | 2023-04-07 | 江苏长欣车辆装备有限公司 | 车用玻璃球面度检测装置及其检测方法 |
CN115965217A (zh) * | 2023-01-10 | 2023-04-14 | 吉安吉之模型有限公司 | 用于塑料模型的智能化生产监控方法及其系统 |
WO2023071680A1 (zh) * | 2021-10-26 | 2023-05-04 | 北京字节跳动网络技术有限公司 | 内窥镜图像特征学习模型、分类模型的训练方法和装置 |
CN116129168A (zh) * | 2022-11-17 | 2023-05-16 | 金帝集团股份有限公司 | 一种鞋子的智能化加工方法 |
-
2023
- 2023-05-18 CN CN202310563305.2A patent/CN116597163A/zh active Pending
Patent Citations (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104850633A (zh) * | 2015-05-22 | 2015-08-19 | 中山大学 | 一种基于手绘草图部件分割的三维模型检索系统及方法 |
WO2019105036A1 (zh) * | 2017-11-30 | 2019-06-06 | 上海海事大学 | 一种基于局部特征的多视角分类器及设计方法 |
US20200242422A1 (en) * | 2019-01-29 | 2020-07-30 | Boe Technology Group Co., Ltd. | Method and electronic device for retrieving an image and computer readable storage medium |
US20210042567A1 (en) * | 2019-04-03 | 2021-02-11 | Beijing Sensetime Technology Development Co., Ltd. | Text recognition |
WO2023071680A1 (zh) * | 2021-10-26 | 2023-05-04 | 北京字节跳动网络技术有限公司 | 内窥镜图像特征学习模型、分类模型的训练方法和装置 |
CN115205543A (zh) * | 2022-07-19 | 2022-10-18 | 宁波西卡曼厨具有限公司 | 不锈钢橱柜的智能制造方法及其系统 |
CN115359300A (zh) * | 2022-08-30 | 2022-11-18 | 德玛克(长兴)精密机械有限公司 | 风力发电机部件智能化加工制造系统及其制造方法 |
CN115512166A (zh) * | 2022-10-18 | 2022-12-23 | 湖北华鑫光电有限公司 | 镜头的智能化制备方法及其系统 |
CN115937571A (zh) * | 2022-10-24 | 2023-04-07 | 江苏长欣车辆装备有限公司 | 车用玻璃球面度检测装置及其检测方法 |
CN116129168A (zh) * | 2022-11-17 | 2023-05-16 | 金帝集团股份有限公司 | 一种鞋子的智能化加工方法 |
CN115755768A (zh) * | 2022-11-22 | 2023-03-07 | 黄鹄(浙江)精密机床有限公司 | 五轴联动精密数控机床及其控制方法 |
CN115759658A (zh) * | 2022-11-24 | 2023-03-07 | 浙江智慧信息产业有限公司 | 适用于智慧城市的企业能耗数据管理系统 |
CN115827939A (zh) * | 2022-11-28 | 2023-03-21 | 华东冶金地质勘查局八一五地质队 | 数字化档案管理系统 |
CN115761900A (zh) * | 2022-12-06 | 2023-03-07 | 深圳信息职业技术学院 | 用于实训基地管理的物联网云平台 |
CN115909171A (zh) * | 2022-12-19 | 2023-04-04 | 浙江金汇华特种耐火材料有限公司 | 钢包透气砖生产方法及其系统 |
CN115965217A (zh) * | 2023-01-10 | 2023-04-14 | 吉安吉之模型有限公司 | 用于塑料模型的智能化生产监控方法及其系统 |
Non-Patent Citations (2)
Title |
---|
CHENGJUN CHEN ET AL.: "Dynamic graph convolutional network for assembly behavior recognition based on attention mechanism and multi-scale feature fusion", SCIENTIFIC REPORTS * |
任永梅等: "基于多尺度卷积神经网络的自适应熵加权决策融合船舶图像分类方法", 电子与信息学报, vol. 43, no. 5 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117132600A (zh) * | 2023-10-26 | 2023-11-28 | 广东岚瑞新材料科技集团有限公司 | 基于图像的注塑制品质量检测系统及其方法 |
CN117132600B (zh) * | 2023-10-26 | 2024-04-16 | 广东岚瑞新材料科技集团有限公司 | 基于图像的注塑制品质量检测系统及其方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Kong et al. | Interactive phrases: Semantic descriptionsfor human interaction recognition | |
CN111160297A (zh) | 基于残差注意机制时空联合模型的行人重识别方法及装置 | |
CN111539255B (zh) | 基于多模态图像风格转换的跨模态行人重识别方法 | |
Kang et al. | Deep learning-based weather image recognition | |
CN113326735B (zh) | 一种基于YOLOv5的多模态小目标检测方法 | |
Wang et al. | MCF3D: Multi-stage complementary fusion for multi-sensor 3D object detection | |
CN112634369A (zh) | 空间与或图模型生成方法、装置、电子设备和存储介质 | |
CN116597163A (zh) | 红外光学透镜及其制备方法 | |
CN114998566A (zh) | 一种可解释的多尺度红外弱小目标检测网络设计方法 | |
CN112949510A (zh) | 基于Faster R-CNN热红外影像人物探测方法 | |
Chen et al. | Light transport induced domain adaptation for semantic segmentation in thermal infrared urban scenes | |
Sheu et al. | FHI-Unet: faster heterogeneous images semantic segmentation design and edge AI implementation for visible and thermal images processing | |
CN116740418A (zh) | 一种基于图重构网络的目标检测方法 | |
CN117456480B (zh) | 一种基于多源信息融合的轻量化车辆再辨识方法 | |
Shen et al. | Infrared object detection method based on DBD-YOLOv8 | |
CN116597177A (zh) | 一种基于双分支并行深度交互协同的多源图像块匹配方法 | |
Mokalla et al. | On designing MWIR and visible band based deepface detection models | |
Huang et al. | Batch loss regularization in deep learning method for aerial scene classification | |
Ştefan et al. | Deep learning-based person search with visual attention embedding | |
Velte | Semantic image segmentation combining visible and near-infrared channels with depth information | |
Genovese et al. | Driver attention assistance by pedestrian/cyclist distance estimation from a single RGB image: A CNN-based semantic segmentation approach | |
He et al. | Accurate few-shot object counting with Hough matching feature enhancement | |
Chen et al. | SA-UNet for face anti-spoofing with depth estimation | |
Xiang et al. | Discriminative boosted forest with convolutional neural network-based patch descriptor for object detection | |
CN117975314B (zh) | 一种无人机多模态跟踪方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |