CN115546271B - 基于深度联合表征的视觉分析方法、装置、设备及介质 - Google Patents
基于深度联合表征的视觉分析方法、装置、设备及介质 Download PDFInfo
- Publication number
- CN115546271B CN115546271B CN202211201939.5A CN202211201939A CN115546271B CN 115546271 B CN115546271 B CN 115546271B CN 202211201939 A CN202211201939 A CN 202211201939A CN 115546271 B CN115546271 B CN 115546271B
- Authority
- CN
- China
- Prior art keywords
- light intensity
- matrix
- feature
- depth
- feature matrix
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000004458 analytical method Methods 0.000 title claims abstract description 66
- 230000000007 visual effect Effects 0.000 title claims abstract description 61
- 238000012512 characterization method Methods 0.000 title claims abstract description 22
- 239000011159 matrix material Substances 0.000 claims abstract description 374
- 238000012545 processing Methods 0.000 claims abstract description 76
- 238000000605 extraction Methods 0.000 claims abstract description 61
- 238000010606 normalization Methods 0.000 claims abstract description 36
- 238000001514 detection method Methods 0.000 claims abstract description 24
- 239000013598 vector Substances 0.000 claims description 41
- 230000006870 function Effects 0.000 claims description 34
- 238000004364 calculation method Methods 0.000 claims description 26
- 230000003044 adaptive effect Effects 0.000 claims description 19
- 238000004590 computer program Methods 0.000 claims description 18
- 230000006835 compression Effects 0.000 claims description 15
- 238000007906 compression Methods 0.000 claims description 15
- 238000003860 storage Methods 0.000 claims description 11
- 238000011176 pooling Methods 0.000 claims description 5
- 238000013473 artificial intelligence Methods 0.000 abstract description 2
- 238000000034 method Methods 0.000 description 22
- 230000007547 defect Effects 0.000 description 14
- 230000004913 activation Effects 0.000 description 13
- 230000008569 process Effects 0.000 description 11
- 238000010586 diagram Methods 0.000 description 5
- 230000001965 increasing effect Effects 0.000 description 5
- 230000004044 response Effects 0.000 description 4
- 239000004065 semiconductor Substances 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000002708 enhancing effect Effects 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000003908 quality control method Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/40—Analysis of texture
- G06T7/41—Analysis of texture based on statistical description of texture
- G06T7/44—Analysis of texture based on statistical description of texture using image operators, e.g. filters, edge density metrics or local histograms
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/90—Dynamic range modification of images or parts thereof
- G06T5/92—Dynamic range modification of images or parts thereof based on global image properties
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Quality & Reliability (AREA)
- Probability & Statistics with Applications (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Image Processing (AREA)
Abstract
本发明涉及人工智能技术领域,尤其涉及一种基于深度联合表征的视觉分析方法、装置、设备及介质。提取待分析目标的光强特征数据与深度特征数据中的光强特征矩阵与深度特征矩阵,对基于光强特征矩阵与深度特征矩阵得到的总体误差矩阵进行归一化处理,得到光强特征矩阵与深度特征矩阵之间的依赖度矩阵,并对光强特征矩阵进行自适应特征增强处理,根据视觉分析模型中进行特征提取,输出待分析目标的检测结果,本发明中,通过将多源数据之间的依赖度作为衡量特征重要性的指标赋予到各个特征点,实现对输入特征的全局自适应特征选择,且通过多源数据之间的依赖度实现多源数据的联合表征,突出目标部位的纹理特征,从而提高视觉分析的准确性。
Description
技术领域
本发明涉及人工智能技术领域,尤其涉及一种基于深度联合表征的视觉分析方法、装置、设备及介质。
背景技术
在工业制造中,尤其是对于半导体等微、纳米级别的超高精度制造中引起的物体表面缺陷会影响物体的使用寿命和可靠度,因此视觉分析是半导体等微、纳米级别物体品控的关键环节。基于机器视觉的视觉分析方法具有效率高、准确性高、实时性高等优点,在视觉分析领域得到广泛的研究和应用。但现有机器视觉分析方法大都仅采集单一的光强信息(比如利用CMOS/CCD等图像传感器)进行处理,面对种类繁多,纹理相较背景并不突出的缺陷目标,其光强变化十分微弱,特征难以捕捉,基于单一的光强信息进行视觉分析,存在视觉分析的准确率较低的问题,因此,在对于半导体等微、纳米级别的超高精度制造中引起的物体表面缺陷的视觉分析过程中,如何提高视觉分析的准确性,成为亟待解决的问题。
发明内容
基于此,有必要针对上述技术问题,提供一种基于深度联合表征的视觉分析方法、装置、计算机设备及存储介质,以解决缺陷检测时的准确性较低的问题。
本申请实施例的第一方面提供了一种基于深度联合表征的视觉分析方法,所述视觉分析方法包括:
对待分析目标的光强特征数据与深度特征数据进行特征提取的处理,得到特征提取后的光强特征矩阵与深度特征矩阵;
对基于所述光强特征矩阵与所述深度特征矩阵进行总体误差计算得到总体误差矩阵,并对得到的总体误差矩阵进行归一化处理,确定归一化后的矩阵为所述光强特征矩阵与深度特征矩阵之间的依赖度矩阵;
基于所述依赖度矩阵,对所述光强特征矩阵进行自适应特征增强处理,得到增强后的光强特征矩阵;
将所述增强后的光强特征矩阵输入至视觉分析模型中进行特征提取,输出所述待分析目标的检测结果。
本申请实施例的第二方面提供了一种基于深度联合表征的视觉分析装置,所述装置包括:
特征提取模块,用于对待分析目标的光强特征数据与深度特征数据进行特征提取的处理,得到特征提取后的光强特征矩阵与深度特征矩阵;
归一化模块,用于对基于所述光强特征矩阵与所述深度特征矩阵进行总体误差计算得到总体误差矩阵,并对得到的总体误差矩阵进行归一化处理,确定归一化后的矩阵为所述光强特征矩阵与深度特征矩阵之间的依赖度矩阵;
增强处理模块,用于基于所述依赖度矩阵,对所述光强特征矩阵进行自适应特征增强处理,得到增强后的光强特征矩阵;
视觉分析模块,用于将所述增强后的光强特征矩阵输入至训练好的缺陷检测模型中,输出所述待分析目标的检测结果。
第三方面,本发明实施例提供一种计算机设备,所述计算机设备包括处理器、存储器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如第一方面所述的基于深度联合表征的视觉分析方法。
第四方面,本发明实施例提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现如第一方面所述的基于深度联合表征的视觉分析方法。
本发明与现有技术相比存在的有益效果是:
对待分析目标的光强特征数据与深度特征数据进行特征提取的处理,得到特征提取后的光强特征矩阵与深度特征矩阵,对基于光强特征矩阵与深度特征矩阵得到的总体误差矩阵进行归一化处理,确定归一化后的矩阵为光强特征矩阵与深度特征矩阵之间的依赖度矩阵,基于依赖度矩阵,对光强特征矩阵进行自适应特征增强处理,得到增强后的光强特征矩阵,将增强后的光强特征矩阵输入至视觉分析模型中进行特征提取,输出待分析目标的检测结果,本发明中,通过将多源数据之间的依赖度作为衡量特征重要性的指标赋予到各个特征点,实现对输入特征的全局自适应特征选择,且通过多源数据之间的依赖度可以有效降低目标的类内差异,增大类间差异,进而实现多源数据的联合表征,突出目标部位的纹理特征,从而提高视觉分析的准确性。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对本发明实施例的描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本发明一实施例提供的一种基于深度联合表征的视觉分析方法的一应用环境示意图;
图2是本发明一实施例提供的一种基于深度联合表征的视觉分析方法的流程示意图;
图3是本发明一实施例提供的一种增强后的光强特征矩阵获取示意图;
图4是本发明一实施例提供的一种基于深度联合表征的视觉分析装置的结构示意图;
图5是本发明一实施例提供的一种计算机设备的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
应当理解,当在本发明说明书和所附权利要求书中使用时,术语“包括”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。
还应当理解,在本发明说明书和所附权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。
如在本发明说明书和所附权利要求书中所使用的那样,术语“如果”可以依据上下文被解释为“当...时”或“一旦”或“响应于确定”或“响应于检测到”。类似地,短语“如果确定”或“如果检测到[所描述条件或事件]”可以依据上下文被解释为意指“一旦确定”或“响应于确定”或“一旦检测到[所描述条件或事件]”或“响应于检测到[所描述条件或事件]”。
另外,在本发明说明书和所附权利要求书的描述中,术语“第一”、“第二”、“第三”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
在本发明说明书中描述的参考“一个实施例”或“一些实施例”等意味着在本发明的一个或多个实施例中包括结合该实施例描述的特定特征、结构或特点。由此,在本说明书中的不同之处出现的语句“在一个实施例中”、“在一些实施例中”、“在其他一些实施例中”、“在另外一些实施例中”等不是必然都参考相同的实施例,而是意味着“一个或多个但不是所有的实施例”,除非是以其他方式另外特别强调。术语“包括”、“包含”、“具有”及它们的变形都意味着“包括但不限于”,除非是以其他方式另外特别强调。
应理解,以下实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。
为了说明本发明的技术方案,下面通过具体实施例来进行说明。
本发明一实施例提供的一种基于深度联合表征的视觉分析方法,可应用在如图1的应用环境中,其中,客户端与服务端进行通信。其中,客户端包括但不限于掌上电脑、桌上型计算机、笔记本电脑、超级移动个人计算机(ultra-mobile personal computer,UMPC)、上网本、个人数字助理(personal digital assistant,PDA)等计算机设备。服务端可以用独立的服务器或者是多个服务器组成的服务器集群来实现。
参见图2,是本发明一实施例提供的一种基于深度联合表征的视觉分析方法的流程示意图,上述基于深度联合表征的视觉分析方法可以应用于图1中的服务端,上述服务端连接相应的客户端,为客户端提供视觉分析服务。如图2所示,该基于深度联合表征的视觉分析方法可以包括以下步骤:
S201:对待分析目标的光强特征数据与深度特征数据进行特征提取的处理,得到特征提取后的光强特征矩阵与深度特征矩阵。
在步骤S201中,光强特征数据为根据待分析目标的RGB图像的特征数据,深度特征数据为根据待分析目标的深度图得到的特征数据,光强特征矩阵与深度特征矩阵的大小相等,通过对光强特征数据与深度特征数据进行特征提取,得到待分析目标的光强特征数据与深度特征数据中更多地特征信息。
本实施例中,将RGB图像作为待分析目标的光强特征数据,将深度图像作为待分析目标的深度特征数据,分别对光强特征数据与深度特征数据进行特征提取的处理得到特征提取后的光强特征矩阵与深度特征矩阵。
可选地,对待分析目标的光强特征数据与深度特征数据进行特征提取的处理,得到特征提取后的光强特征矩阵与深度特征矩阵,包括:
对待分析目标的光强特征数据与深度特征数据分别进行不同倍数的下采样处理,得到N个下采样光强特征数据与N个下采样深度特征数据;N为大于1的整数;
对每个下采样光强特征数据与每下采样深度特征数据进行特征提取的处理,得到特征提取后的N个光强特征矩阵与N个深度特征矩阵。
本实施例中,为了获取尺寸大小中的特征信息,在提取待分析目标的光强特征数据与深度特征数据中的特征时,提取不同感受野中待分析目标的光强特征数据与深度特征数据中的特征。浅层特征图的感受野较小,能够提取高细粒度的特征信息,有助于检测尺寸较小的缺陷目标。深层特征图的感受野较大,能够提取高语义的特征信息,由于浅层特征图中包含的语义特征过少,本实施例中,对待分析目标的光强特征数据与深度特征数据分别进行32倍、16倍、8倍的下采样处理,得到3个下采样光强特征数据与3个下采样深度特征数据。分别为光强特征数据A1,A2,A3,深度特征数据B1,B2,B3,分别提取不同尺寸下的光强特征数据A1,A2,A3与深度特征数据B1,B2,B3特征。得到N个下采样光强特征数据与N个下采样深度特征数据;N为大于1的整数。
需要说明的是,对待分析目标的光强特征数据进行下采样处理的倍数与待分析目标的深度特征数据进行下采样处理的倍数相等,以便于可以在下采样的光强特征数据中找到与下采样的深度特征数据大小相等的特征数据,为后续的计算光强特征与深度特征的依赖性做准备。
可选地,对待分析目标的光强特征数据与深度特征数据分别进行不同倍数的下采样处理,得到N个下采样光强特征数据与N个下采样深度特征数据,包括:
获取待分析目标的光强特征数据与深度特征数据;
对光强特征数据与深度特征数据进行不同倍数的最大值池化处理,得到N个不同倍数下的下采样光强特征数据与下采样深度特征数据。
本实施例中,通过RGB传感器采集待分析目标的RGB图像,通过深度传感器采集待分析目标的深度图像,将深度图像作为待分析目标的深度特征数据,在对RGB图像进行下采样处理时,通过最大值池化处理,根据不同倍数的下采样,将RGB图像划分为不同像素大小的图像,每个像素值为划分区中的最大值,得到不同下采样的光强特征数据,例如,将4×4×3的RGB图像通过2倍下采样得到2×2×3的RGB图像,下采样后的图像中每个像素值为原始图像划分区中对应的像素最大值。在对深度图像进行下采样处理时,通过最大值池化处理,根据不同倍数的下采样,将深度图像划分为不同像素大小的图像,每个像素值为划分区中的最大值,得到不同下采样的光强特征数据,例如,将4×4的深度图像通过2倍下采样得到2×2的深度图像,下采样后的图像中每个像素值为原始图像划分区中对应的深度最大值。
可选地,对每个下采样光强特征数据与每下采样深度特征数据进行特征提取的处理,得到特征提取后的N个光强特征矩阵与N个深度特征矩阵,包括:
根据预设卷积核,对同一倍数下采样得到的下采样光强特征数据与下采样深度特征数据进行卷积处理,得到卷积后的光强特征数据与卷积后的深度特征数据;
将卷积后的光强特征数据与卷积后的深度特征数据进行压缩与投影处理,得到投影后的光强特征数据与深度特征数据;
将投影后的光强特征数据与深度特征数据作为特征提取后的光强特征矩阵与深度特征矩阵,得到特征提取后的N个光强特征矩阵与N个深度特征矩阵。
本实施例中,为了保证得到的光强特征矩阵与深度特征矩阵的维度相同,对光强特征数据与深度特征矩阵进行卷积处理与压缩处理,在进行卷积处理与压缩处理时,光强特征数据使用的卷积网络与压缩参数,与深度特征数据使用的卷积网络与压缩参数相等。将卷积后的光强特征数据与卷积后的深度特征数据进行压缩与投影处理,得到投影后的光强特征数据与深度特征数据,
可选地,将卷积后的光强特征数据与卷积后的深度特征数据进行压缩与投影处理,得到投影后的光强特征数据与深度特征数据,包括:
将卷积后的光强特征数据与卷积后的深度特征数据的通道维度进行压缩处理,得到通道维度压缩后的光强特征数据与通道维度压缩后的深度特征数据;
根据预设投影函数,对通道维度压缩后的光强特征数据与通道维度压缩后的深度特征数据进行投影处理,得到投影后的光强特征数据与深度特征数据。
本实施例中,预设卷积核为3×3×C的卷积核,对下采样后的光强特征数据进行卷积处理,得到预设维度为W×H×N的卷积后的光强特征数据Ex,再利用1×1卷积核改变卷积后的光强特征数据Ex的维度,将光强特征数据Ex的维度压缩为原来的二分之一,变为W×H×C,其中W、H分别表示下采样后的光强特征数据的宽和高,C表示可调节的维度压缩参数。得到压缩后的光强特征数据,对光强特征数据进行投影处理,使用投影函数μ(·)EH×W×C→EHW×C,对光强特征数据进行投影处理,使压缩后的光强特征数据在每个通道中的长和宽展开为一行或者一列,得到投影后的光强特征数据形状为WH×C,将投影后的光强特征数据作为特征提取后的光强特征矩阵。
同理,使用预设卷积核3×3×C对下采样后的深度特征数据进行卷积处理,得到预设维度为W×H×C的卷积后的深度特征数据Dx,再利用1×1卷积核改变卷积后的深度特征数据Ex的维度,将光强特征数据Dx的维度压缩为原来的二分之一,变为W×H×C,其中得到压缩后的深度特征数据,对深度特征数据进行投影处理,使用投影函数η(·)DH×W×C→DHW×C,对光强特征数据进行投影处理,使压缩后的深度特征数据在每个通道中的长和宽展开为一行或者一列,得到投影后的深度特征数据形状为WH×C,将投影后的深度特征数据作为特征提取后的深度特征矩阵。
在每一个下采样下的光强特征数据与深度特征数据进行同样的特征提取的处理,得到特征提取后的N个光强特征矩阵与N个深度特征矩阵。
S202:对基于光强特征矩阵与深度特征矩阵进行总体误差计算得到总体误差矩阵,并对得到的总体误差矩阵进行归一化处理,确定归一化后的矩阵为光强特征矩阵与深度特征矩阵之间的依赖度矩阵。
在步骤S202中,根据光强特征矩阵与深度特征矩阵之间的相关性计算光强特征矩阵与深度特征矩阵的总体误差矩阵,并对总体误差矩阵进行归一化处理,确定归一化后的矩阵为光强特征矩阵与深度特征矩阵之间的依赖度矩阵,依赖度矩阵为光强特征对深度特征的依赖程度。
本实施例中,得到光强特征矩阵与深度特征矩阵后,根据光强特征矩阵与深度特征矩阵之间的相关性,计算光强特征矩阵与深度特征矩阵之间的总体误差矩阵。其中,总体误差矩阵中的每个方差值表示对应像素位置的依赖度,依赖度值越大,对应像素位置的特征越不稳定,依赖值越小,对应像素位置的特征越稳定。对总体误差矩阵进行归一化处理,确定归一化后的矩阵为对应的光强特征矩阵与深度特征矩阵之间的依赖度矩阵,依赖度矩阵基于总体误差矩阵得到,即通过同一位置中不同传感器获得的特征之间的稳定性得到,依赖度矩阵中的值越小,对应像素位置的特征越稳定,在后续依赖度矩阵作为衡量特征重要性的指标时,可以减小对应像素位置的差异。依赖度矩阵中的值越大,对应像素位置的特征越不稳定,在后续依赖度矩阵作为衡量特征重要性的指标时,可以增加对应像素位置的差异,所以,通过不同信息获取到的特征之间的依赖度矩阵可以起到降低待分析目标的类内差异,增大待分析目标的类间差异的作用,有助于待分析目标的视觉分析。
可选地,对基于光强特征矩阵与深度特征矩阵进行总体误差计算得到总体误差矩阵,并对得到的总体误差矩阵进行归一化处理,确定归一化后的矩阵为光强特征矩阵与深度特征矩阵之间的依赖度矩阵,包括:
根据光强特征矩阵与深度特征矩阵,计算得到光强特征矩阵与深度特征矩阵的总体误差矩阵;
根据第一预设归一化函数,对总体误差矩阵进行归一化处理,得到归一化后的总体误差矩阵,将归一化后的总体误差矩阵作为光强特征矩阵与深度特征矩阵之间的依赖度矩阵。
本实施例中,计算光强特征矩阵与深度特征矩阵之间的总体误差矩阵时,通过光强特征矩阵与深度特征矩阵的转置相乘,得到总体误差矩阵,确定光强特征矩阵中每一行中的特征与深度特征矩阵中每一行的特征之间的依赖度。本实施例中的第一预设归一化函数为softmax激活函数,对总体误差矩阵进行归一化处理,得到归一化后的总体误差矩阵,将归一化后的总体误差矩阵作为光强特征矩阵与深度特征矩阵之间的依赖度矩阵,即采用矩阵乘法对,得到光特征矩阵与深度特征矩阵之间的依赖度关系,明确了对主要光强特征与深度特征进行特征依赖关系计算得到依赖度矩阵的具体过程,在进行特征间的特征依赖关系计算之前,先对光强特征与深度特征进行特征降维,极大地减少了网络参数量,提高数据处理效率。
计算依赖度矩阵的公式如下:
S=δ(QkT)
其中,S为依赖度矩阵,Q为光强特征矩阵,K为深度特征矩阵,δ为softmax激活函数,KT为深度特征矩阵的转置矩阵。
根据softmax激活函数,得到光强特征矩阵中每一行与深度特征矩阵间的依赖度的计算公式如下为:
其中,Si为光特征特征矩阵地i行与深度特征矩阵之间的依赖度,qi为光强特征矩阵Q的第i行特征向量,kj为深度特征矩阵K转置后的第j列特征向量,HW为光强特征矩阵与深度特征矩阵的尺度HW=H×W。
S203:基于依赖度矩阵,对光强特征矩阵进行自适应特征增强处理,得到增强后的光强特征矩阵。
在步骤S203中,将依赖度矩阵作为光强特征矩阵中的衡量特征重要性的指标矩阵,通过依赖矩阵对光强特征矩阵进行自适应特征增强处理,得到增强后的光强特征矩阵,增强后的光强特征矩阵增大了特征的差异性,突出了差异性特征,以便于后续的缺陷特征的检测。
本实施例中,依赖度矩阵为光强特征与深度特征之间的依赖关系,依赖度矩阵为基于光强特征矩阵与深度特征矩阵进行依赖关系计算得到的依赖度矩阵,根据不同倍数下采样得到的不同尺寸大小的特征矩阵,得到不同大小的依赖度矩阵,将不同大小的依赖度矩阵对不同尺寸大小的光强特征数据进行加融合,从而增强光强特征矩阵中的特征。
可选地,基于依赖度矩阵,对光强特征矩阵进行自适应特征增强处理,得到增强后的光强特征矩阵,包括:
将依赖度矩阵作为权值矩阵,与光强特征矩阵进行相乘,得到自适应增强的光强特征矩阵;
根据第二预设归一化函数,对自适应增强的光强特征矩阵进行归一化处理,得到归一化后的自适应增强的光强特征矩阵,将归一化后的自适应增强的光强特征矩阵作为增强后的光强特征矩阵。
本实施例中,将依赖度矩阵与光强特征矩阵进行相乘,得到自适应增强的光强特征矩阵,根据第二预设归一化函数,对自适应增强的光强特征矩阵进行归一化处理,第二预设归一化函数为softplus激活函数,通过softplus激活函数对增强后的光强特征矩阵进行归一化处理,得到归一化后的自适应增强的光强特征矩阵。
自适应增强的光强特征矩阵中的第i行的自适应增强光强特征向量计算公式如下式:
其中,Zi为自适应增强的光强特征矩阵中第i行的自适应增强光强特征向量,qi为光强特征矩阵Q的第i行特征向量,kj为深度特征矩阵K转置后的第j列特征向量,HW为光强特征矩阵与深度特征矩阵的尺度HW=H×W。每一行的自适应增强光强特征向量组成自适应增强的光强特征矩阵。
使用softplus激活函数对自适应增强的光强特征矩阵中的第i行的自适应增强光强特征向量进行归一化激活处理,首先对自适应增强的光强特征矩阵中的第i行的自适应增强光强特征向量计算公式进行转化,将表示为归一化函数乘积形式,转换后的第i行的自适应增强光强特征向量计算公式为:
其中,其中σ、υ表示第二预设归一化函数,本实施例中第二预设归一化函数使用的是softplus激活函数,所以转换后的第i行的自适应增强光强特征向量计算公式还可以表示为如下式:
其中,Zi为第i行的归一化后的自适应增强光强特征向量,qi为光强特征矩阵Q的第i行特征向量,(qi)T为光强特征矩阵Q的第i行特征向量的转置向量,kj为深度特征矩阵K转置后的第j列特征向量,HW为光强特征矩阵与深度特征矩阵的尺度HW=H×W。
根据每一行中的归一化后的自适应增强光强特征向量,得到归一化后的自适应增强的光强特征矩阵,将归一化后的自适应增强的光强特征矩阵作为增强后的光强特征矩阵,则增强后的光强特征矩阵的公式如下式:
其中,C为光强特征矩阵Q的通道数,qi为光强特征矩阵Q的第i行特征向量,(qi)T为光强特征矩阵Q的第i行特征向量的转置向量,kj为深度特征矩阵K转置后的第j列特征向量,HW为光强特征矩阵与深度特征矩阵的尺度HW=H×W。
请参阅图3,图3是一种增强后的光强特征矩阵获取示意图,其中,深度特征矩阵Dx通过投影函数η(·)处理后,得到深度特征矩阵K,深度特征矩阵K的尺寸大小为HW×C。光强特征矩阵Ex通过投影函数μ(·)处理后,得到光强特征矩阵Q,光强特征矩阵Q的尺寸大小为HW×C,通过深度特征矩阵K与光强特征矩阵Q,计算光强特征与深度特征之间的依赖度,得到依赖度矩阵S(Q,K),基于依赖度矩阵S(Q,K)对光强特征矩阵Q进行增强,得到增强后的光强特征矩阵Z。
S204:将增强后的光强特征矩阵输入至视觉分析模型中进行特征提取,输出待分析目标的检测结果。
在步骤S204中,增强后的光强特征矩阵中的特征数据增大了待分析目标中的类间差距,便于视觉分析模型对待分析目标中缺陷的检测。
本实施例中,对于半导体等精细物体,纹理相较背景并不突出,在检测该物体上的缺陷位置时,如果单纯依靠单一的光强信息往往难以捕捉到缺陷目标的纹理特征,影响检测准确度。当待分析目标上的特征数据与背景数据差异较大时,有助于通过视觉分析模型对待分析目标中缺陷的检测,增强后的光强特征矩阵中增大了待分析目标中的类间差距,使缺陷区域与背景区域的差异变大,增加了缺陷纹理在背景中的突出性。
将增强后的光强特征矩阵输入至视觉分析模型中进行特征提取,输出待分析目标的检测结果,其中,训练视觉分析模型时,获取视觉分析模型的基准参数,采用样本数据中增强后的光强特征矩阵对视觉分析模型进行至少一次的迭代计算,训练过程中需要对视觉分析模型参数进行多轮迭代更新,直到视觉分析模型收敛时,停止训练,得到训练好的视觉分析模型。
需要说明的是,在视觉分析时,由于产品缺陷目标往往形态各异,尺寸大小不一。因此,视觉分析模型必须具备对多尺度目标都具备良好的检测能力。本实施例中,建立待分析目标中目标的多尺度上下文知识,将目标不同尺度的深度特征与不同尺度的光强信息进行特征融合,实现多源数据的多尺度上下文特征融合。
需要说明的是,当进行多尺度特征检测时,每一层下采样中的自适应增强的光强特征矩阵中的第i行的自适应增强光强特征向量计算公式如下式:
其中,Zli为第l层下采样自适应增强的光强特征矩阵中第i行的自适应增强光强特征向量,qli为第l层下采样光强特征矩阵Q的第i行特征向量,klj为第l层下采样深度特征矩阵K转置后的第j列特征向量,HW为第l层下采样光强特征矩阵与深度特征矩阵的尺度HW=H×W。
使用softplus激活函数对第l层下采样自适应增强的光强特征矩阵中的第i行的自适应增强光强特征向量进行归一化激活处理,首先对第l层下采样自适应增强的光强特征矩阵中的第i行的自适应增强光强特征向量计算公式进行转化,将表示为归一化函数乘积形式,转换后的第i行的自适应增强光强特征向量计算公式为:
其中,其中σ、υ表示第二预设归一化函数,本实施例中第二预设归一化函数使用的是softplus激活函数,所以转换后的第l层下采样自适应增强的光强特征矩阵中的第i行的自适应增强光强特征向量计算公式还可以表示为如下式:
其中,Zli为第l层下采样自适应增强的光强特征矩阵中的第i行的归一化后的自适应增强光强特征向量,qli为第l层下采样光强特征矩阵Q的第i行特征向量,(qli)T为第l层下采样光强特征矩阵Q的第i行特征向量的转置向量,klj为第l层下采样深度特征矩阵K转置后的第j列特征向量,HW为第l层下采样光强特征矩阵与深度特征矩阵的尺度HW=H×W。
根据每一行中的归一化后的自适应增强光强特征向量,得到归一化后的自适应增强的光强特征矩阵,将归一化后的自适应增强的光强特征矩阵作为增强后的光强特征矩阵,则第l层下采样增强后的光强特征矩阵的公式如下式:
其中,C为光强特征矩阵Q的通道数,qli为第l层下采样光强特征矩阵Q的第i行特征向量,(qli)T为第l层下采样光强特征矩阵Q的第i行特征向量的转置向量,klj为第l层下采样深度特征矩阵K转置后的第j列特征向量,HW为第l层下采样光强特征矩阵与深度特征矩阵的尺度HW=H×W。
根据不同倍数下采样得到的不同尺寸的光强特征数据与深度特征数据,每一次下采样得到相同尺寸的光强特征数据与深度图像的特征数据,提取相同尺寸的光强特征数据与深度特征数据中的光强特征矩阵与深度特征矩阵,将相同尺寸的光强特征矩阵与深度特征矩阵进行依赖性计算,得到对应光强特征矩阵对深度特征矩阵的依赖度矩阵,将依赖度矩阵作为衡量特征重要性的指标矩阵,对对应的光强特征矩阵进行自适应特征增强处理和归一化处理,得到对应尺寸的增强后的光强特征矩阵。每个下采样的光强特征数据与深度特征数据通过特征提取与数据增强,可以得到尺寸大小不同增强后的光强特征矩阵,将尺寸大小不同增强后的光强特征矩阵分别输入至视觉分析模型中进行特征提取,训练好的视觉分析模型可以检测出不同尺寸大小的光强特征数据中的不同检测区域,根据非极大值抑制算法,将不同检测区域进行去重化,得到目标检测区域的检测结果。
本发明中对待分析目标的光强特征数据与深度特征数据进行特征提取的处理,得到特征提取后的光强特征矩阵与深度特征矩阵,对基于光强特征矩阵与深度特征矩阵得到的总体误差矩阵进行归一化处理,确定归一化后的矩阵为光强特征矩阵与深度特征矩阵之间的依赖度矩阵,基于依赖度矩阵,对光强特征矩阵进行自适应特征增强处理,得到增强后的光强特征矩阵,将增强后的光强特征矩阵输入至视觉分析模型中进行特征提取,输出待分析目标的检测结果,本发明中,通过将多源数据之间的依赖度作为衡量特征重要性的指标赋予到各个特征点,实现对输入特征的全局自适应特征选择,且通过多源数据之间的依赖度可以有效降低目标的类内差异,增大类间差异,进而实现多源数据的联合表征,突出目标部位的纹理特征,从而提高视觉分析的准确性。
请参阅图4,图4是本发明实施例提供的一种基于深度联合表征的视觉分析装置的结构示意图。本实施例中该终端包括的各单元用于执行图2对应的实施例中的各步骤。具体请参阅图2以及图2所对应的实施例中的相关描述。为了便于说明,仅示出了与本实施例相关的部分。参见图4,视觉分析装置40包括:特征提取模块41,归一化模块42,增强处理模块43,视觉分析模块44,
特征提取模块41,用于对待分析目标的光强特征数据与深度特征数据进行特征提取的处理,得到特征提取后的光强特征矩阵与深度特征矩阵;
归一化模块42,用于对基于光强特征矩阵与深度特征矩阵进行总体误差计算得到总体误差矩阵,并对得到的总体误差矩阵进行归一化处理,确定归一化后的矩阵为光强特征矩阵与深度特征矩阵之间的依赖度矩阵;
增强处理模块43,用于基于依赖度矩阵,对光强特征矩阵进行自适应特征增强处理,得到增强后的光强特征矩阵;
视觉分析模块44,用于将增强后的光强特征矩阵输入至视觉分析模型中进行特征提取,输出待分析目标的检测结果。
可选地,上述特征提取模块41包括:
下采样单元,用于对待分析目标的光强特征数据与深度特征数据分别进行不同倍数的下采样处理,得到N个下采样光强特征数据与N个下采样深度特征数据;N为大于1的整数;
下采样数据的特征提取单元,用于对每个下采样光强特征数据与每个下采样深度特征数据进行特征提取的处理,得到特征提取后的N个光强特征矩阵与N个深度特征矩阵。
可选地,上述下采样单元包括:
获取子单元,用于获取待分析目标的光强特征数据与深度特征数据;
最大值池化处理子单元,用于对光强特征数据与深度特征数据进行不同倍数的最大值池化处理,得到N个不同倍数下的下采样光强特征数据与下采样深度特征数据。
可选地,上述下采样数据的特征提取单元包括:
卷积子单元,用于根据预设卷积核,对同一倍数下采样得到的下采样光强特征数据与下采样深度特征数据进行卷积处理,得到卷积后的光强特征数据与卷积后的深度特征数据;
压缩与投影处理子单元,用于将卷积后的光强特征数据与卷积后的深度特征数据进行压缩与投影处理,得到投影后的光强特征数据与深度特征数据;
N个光强特征矩阵与N个深度特征矩阵确定子单元,用于将投影后的光强特征数据与深度特征数据作为特征提取后的光强特征矩阵与深度特征矩阵,得到特征提取后的N个光强特征矩阵与N个深度特征矩阵。
可选地,上述压缩与投影处理子单元包括:
通道维度压缩处理子单元,用于将卷积后的光强特征数据与卷积后的深度特征数据的通道维度进行压缩处理,得到通道维度压缩后的光强特征数据与通道维度压缩后的深度特征数据;
投影后的光强特征数据与深度特征数据确定单元,用于根据预设投影函数,对通道维度压缩后的光强特征数据与通道维度压缩后的深度特征数据进行投影处理,得到投影后的光强特征数据与深度特征数据。
可选地,上述归一化模块42包括:
光强特征矩阵与深度特征矩阵的总体误差矩阵确定单元,用于根据光强特征矩阵与深度特征矩阵,计算得到光强特征矩阵与深度特征矩阵的总体误差矩阵;
依赖度矩阵确定单元,用于根据第一预设归一化函数,对总体误差矩阵进行归一化处理,得到归一化后的总体误差矩阵,将归一化后的总体误差矩阵作为光强特征矩阵与深度特征矩阵之间的依赖度矩阵。
可选地,上述增强处理模块43包括:
自适应增强的光强特征矩阵确定单元,用于将依赖度矩阵作为权值矩阵,与光强特征矩阵进行相乘,得到自适应增强的光强特征矩阵;
增强后的光强特征矩阵确定单元,用于根据预设第二激活函数,对自适应增强的光强特征矩阵进行归一化处理,得到归一化后的自适应增强的光强特征矩阵,将归一化后的自适应增强的光强特征矩阵作为增强后的光强特征矩阵。
需要说明的是,上述单元之间的信息交互、执行过程等内容,由于与本发明方法实施例基于同一构思,其具体功能及带来的技术效果,具体可参见方法实施例部分,此处不再赘述。
图5是本发明实施例提供的一种计算机设备的结构示意图。如图5所示,该实施例的计算机设备包括:至少一个处理器(图5中仅示出一个)、存储器以及存储在存储器中并可在至少一个处理器上运行的计算机程序,处理器执行计算机程序时实现上述任意各个基于深度联合表征的视觉分析方法实施例中的步骤。
该计算机设备可包括,但不仅限于,处理器、存储器。本领域技术人员可以理解,图5仅仅是计算机设备的举例,并不构成对计算机设备的限定,计算机设备可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如还可以包括网络接口、显示屏和输入装置等。
所称处理器可以是CPU,该处理器还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific IntegratedCircuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
存储器包括可读存储介质、内存储器等,其中,内存储器可以是计算机设备的内存,内存储器为可读存储介质中的操作系统和计算机可读指令的运行提供环境。可读存储介质可以是计算机设备的硬盘,在另一些实施例中也可以是计算机设备的外部存储设备,例如,计算机设备上配备的插接式硬盘、智能存储卡(Smart Media Card,SMC)、安全数字(Secure Digital,SD)卡、闪存卡(Flash Card)等。进一步地,存储器还可以既包括计算机设备的内部存储单元也包括外部存储设备。存储器用于存储操作系统、应用程序、引导装载程序(BootLoader)、数据以及其他程序等,该其他程序如计算机程序的程序代码等。存储器还可以用于暂时地存储已经输出或者将要输出的数据。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本发明的保护范围。上述装置中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,可以通过计算机程序来指令相关的硬件来完成,计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述方法实施例的步骤。其中,计算机程序包括计算机程序代码,计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。计算机可读介质至少可以包括:能够携带计算机程序代码的任何实体或装置、记录介质、计算机存储器、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、电载波信号、电信信号以及软件分发介质。例如U盘、移动硬盘、磁碟或者光盘等。在某些司法管辖区,根据立法和专利实践,计算机可读介质不可以是电载波信号和电信信号。
本发明实现上述实施例方法中的全部或部分流程,也可以通过一种计算机程序产品来完成,当计算机程序产品在计算机设备上运行时,使得计算机设备执行时实现可实现上述方法实施例中的步骤。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
在本发明所提供的实施例中,应该理解到,所揭露的装置/计算机设备和方法,可以通过其它的方式实现。例如,以上所描述的装置/计算机设备实施例仅仅是示意性的,例如,模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,装置或单元的间接耦合或通讯连接,可以是电性,机械或其它的形式。
作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围,均应包含在本发明的保护范围之内。
Claims (9)
1.一种基于深度联合表征的视觉分析方法,其特征在于,所述视觉分析方法包括:
对待分析目标的光强特征数据与深度特征数据进行特征提取的处理,得到特征提取后的光强特征矩阵与深度特征矩阵;
将所述光强特征矩阵与深度特征矩阵的转置相乘得到总体误差矩阵,并对得到的总体误差矩阵进行归一化处理,确定归一化后的矩阵为所述光强特征矩阵与深度特征矩阵之间的依赖度矩阵;
将所述依赖度矩阵作为权值矩阵,与所述光强特征矩阵进行相乘,得到自适应增强的光强特征矩阵,其中,自适应增强的光强特征矩阵中的第i行的自适应增强光强特征向量计算公式如下式:
其中,Zi为自适应增强的光强特征矩阵中第i行的自适应增强光强特征向量,qi为光强特征矩阵Q的第i行特征向量,kj为深度特征矩阵K转置后的第j列特征向量,HW为光强特征矩阵与深度特征矩阵的尺度HW=H×W;
根据第二预设归一化函数,对所述自适应增强的光强特征矩阵进行归一化处理,得到归一化后的自适应增强的光强特征矩阵,将所述归一化后的自适应增强的光强特征矩阵作为增强后的光强特征矩阵,其中,所述归一化后的自适应增强的光强特征矩阵的第i行的归一化后的自适应增强光强特征向量的计算公式如下:
其中,Zi为第i行的归一化后的自适应增强光强特征向量,qi为光强特征矩阵Q的第i行特征向量,(qi)T为光强特征矩阵Q的第i行特征向量的转置向量,kj为深度特征矩阵K转置后的第j列特征向量,HW为光强特征矩阵与深度特征矩阵的尺度HW=H×W,根据每一行中的归一化后的自适应增强光强特征向量,得到归一化后的自适应增强的光强特征矩阵;
将所述增强后的光强特征矩阵输入至视觉分析模型中进行特征提取,输出所述待分析目标的检测结果。
2.如权利要求1所述的视觉分析方法,其特征在于,所述对待分析目标的光强特征数据与深度特征数据进行特征提取的处理,得到特征提取后的光强特征矩阵与深度特征矩阵,包括:
对所述待分析目标的光强特征数据与深度特征数据分别进行不同倍数的下采样处理,得到N个下采样光强特征数据与N个下采样深度特征数据;N为大于1的整数;
对每个下采样光强特征数据与每个下采样深度特征数据进行特征提取的处理,得到特征提取后的N个光强特征矩阵与N个深度特征矩阵。
3.如权利要求2所述的视觉分析方法,其特征在于,所述对所述待分析目标的光强特征数据与深度特征数据分别进行不同倍数的下采样处理,得到N个下采样光强特征数据与N个下采样深度特征数据,包括:
获取所述待分析目标的光强特征数据与深度特征数据;
对所述光强特征数据与深度特征数据进行不同倍数的最大值池化处理,得到N个不同倍数下的下采样光强特征数据与下采样深度特征数据。
4.如权利要求2所述的视觉分析方法,其特征在于,所述对每个下采样光强特征数据与每个下采样深度特征数据进行特征提取的处理,得到特征提取后的N个光强特征矩阵与N个深度特征矩阵,包括:
根据预设卷积核,对同一倍数下采样得到的所述下采样光强特征数据与所述下采样深度特征数据进行卷积处理,得到卷积后的光强特征数据与卷积后的深度特征数据;
将所述卷积后的光强特征数据与卷积后的深度特征数据进行压缩与投影处理,得到投影后的光强特征数据与深度特征数据;
将所述投影后的光强特征数据与深度特征数据作为特征提取后的光强特征矩阵与深度特征矩阵,得到特征提取后的N个光强特征矩阵与N个深度特征矩阵。
5.如权利要求4所述的视觉分析方法,其特征在于,所述将所述卷积后的光强特征数据与卷积后的深度特征数据进行压缩与投影处理,得到投影后的光强特征数据与深度特征数据,包括:
将所述卷积后的光强特征数据与卷积后的深度特征数据的通道维度进行压缩处理,得到通道维度压缩后的光强特征数据与通道维度压缩后的深度特征数据;
根据预设投影函数,对所述通道维度压缩后的光强特征数据与通道维度压缩后的深度特征数据进行投影处理,得到投影后的光强特征数据与深度特征数据。
6.如权利要求1所述的视觉分析方法,其特征在于,所述对基于所述光强特征矩阵与所述深度特征矩阵进行总体误差计算得到总体误差矩阵,并对得到的总体误差矩阵进行归一化处理,确定归一化后的矩阵为所述光强特征矩阵与深度特征矩阵之间的依赖度矩阵,包括:
根据所述光强特征矩阵与所述深度特征矩阵,计算得到所述光强特征矩阵与所述深度特征矩阵的总体误差矩阵;
根据第一预设归一化函数,对所述总体误差矩阵进行归一化处理,得到归一化后的总体误差矩阵,将所述归一化后的总体误差矩阵作为所述光强特征矩阵与深度特征矩阵之间的依赖度矩阵,所述依赖矩阵的计算公式如下:
其中,Si为所述光强特征矩阵第i行与所述深度特征矩阵之间的依赖度,qi为所述光强特征矩阵第i行的特征向量,kj为所述深度特征矩阵转置后的第j列特征向量,HW为所述光强特征矩阵与所述深度特征矩阵的尺度,HW=H×W。
7.一种基于深度联合表征的视觉分析装置,其特征在于,所述视觉分析装置包括:
特征提取模块,用于对待分析目标的光强特征数据与深度特征数据进行特征提取的处理,得到特征提取后的光强特征矩阵与深度特征矩阵;
归一化模块,用于将所述光强特征矩阵与深度特征矩阵的转置相乘得到总体误差矩阵,并对得到的总体误差矩阵进行归一化处理,确定归一化后的矩阵为所述光强特征矩阵与深度特征矩阵之间的依赖度矩阵;
增强处理模块,用于将所述依赖度矩阵作为权值矩阵,与所述光强特征矩阵进行相乘,得到自适应增强的光强特征矩阵,其中,自适应增强的光强特征矩阵中的第i行的自适应增强光强特征向量计算公式如下式:
其中,Zi为自适应增强的光强特征矩阵中第i行的自适应增强光强特征向量,qi为光强特征矩阵Q的第i行特征向量,kj为深度特征矩阵K转置后的第j列特征向量,HW为光强特征矩阵与深度特征矩阵的尺度HW=H×W,每一行的自适应增强光强特征向量组成自适应增强的光强特征矩阵;
根据第二预设归一化函数,对所述自适应增强的光强特征矩阵进行归一化处理,得到归一化后的自适应增强的光强特征矩阵,将所述归一化后的自适应增强的光强特征矩阵作为增强后的光强特征矩阵,其中,所述归一化后的自适应增强的光强特征矩阵的第i行的归一化后的自适应增强光强特征向量的计算公式如下:
其中,Zi为第i行的归一化后的自适应增强光强特征向量,qi为光强特征矩阵Q的第i行特征向量,(qi)T为光强特征矩阵Q的第i行特征向量的转置向量,kj为深度特征矩阵K转置后的第j列特征向量,HW为光强特征矩阵与深度特征矩阵的尺度HW=H×W,根据每一行中的归一化后的自适应增强光强特征向量,得到归一化后的自适应增强的光强特征矩阵;
视觉分析模块,用于将所述增强后的光强特征矩阵输入至视觉分析模型中进行特征提取,输出所述待分析目标的检测结果。
8.一种计算机设备,其特征在于,所述计算机设备包括处理器、存储器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如权利要求1至6任一项所述的基于深度联合表征的视觉分析方法。
9.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至6任一项所述的基于深度联合表征的视觉分析方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211201939.5A CN115546271B (zh) | 2022-09-29 | 2022-09-29 | 基于深度联合表征的视觉分析方法、装置、设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211201939.5A CN115546271B (zh) | 2022-09-29 | 2022-09-29 | 基于深度联合表征的视觉分析方法、装置、设备及介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115546271A CN115546271A (zh) | 2022-12-30 |
CN115546271B true CN115546271B (zh) | 2023-08-22 |
Family
ID=84731182
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211201939.5A Active CN115546271B (zh) | 2022-09-29 | 2022-09-29 | 基于深度联合表征的视觉分析方法、装置、设备及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115546271B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116542846B (zh) * | 2023-07-05 | 2024-04-26 | 深圳兔展智能科技有限公司 | 用户账号图标生成方法、装置、计算机设备及存储介质 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018076212A1 (zh) * | 2016-10-26 | 2018-05-03 | 中国科学院自动化研究所 | 基于反卷积神经网络的场景语义分割方法 |
CN109376667A (zh) * | 2018-10-29 | 2019-02-22 | 北京旷视科技有限公司 | 目标检测方法、装置及电子设备 |
CN110335231A (zh) * | 2019-04-01 | 2019-10-15 | 浙江工业大学 | 一种融合纹理特征和深度特征的超声影像慢性肾脏病辅助筛查方法 |
CN112949641A (zh) * | 2021-02-04 | 2021-06-11 | 深圳市广宁股份有限公司 | 图像分割方法及电子设备、计算机可读存储介质 |
CN113111974A (zh) * | 2021-05-10 | 2021-07-13 | 清华大学 | 基于深度典型相关分析的视觉-激光雷达融合方法及系统 |
CN113379707A (zh) * | 2021-06-11 | 2021-09-10 | 大连理工大学 | 一种基于动态滤波解耦卷积网络的rgb-d显著性检测方法 |
CN114359100A (zh) * | 2021-12-31 | 2022-04-15 | Oppo广东移动通信有限公司 | 图像色彩增强方法、装置、存储介质与电子设备 |
CN114972611A (zh) * | 2022-07-18 | 2022-08-30 | 深圳大学 | 一种基于引导匹配损失的深度纹理合成方法及相关设备 |
CN115115601A (zh) * | 2022-07-04 | 2022-09-27 | 中国矿业大学 | 一种基于形变注意金字塔的遥感舰船目标检测方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114693850A (zh) * | 2020-12-25 | 2022-07-01 | 英特尔公司 | 用于图像和视频处理的条件核预测网络和自适应深度预测 |
-
2022
- 2022-09-29 CN CN202211201939.5A patent/CN115546271B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018076212A1 (zh) * | 2016-10-26 | 2018-05-03 | 中国科学院自动化研究所 | 基于反卷积神经网络的场景语义分割方法 |
CN109376667A (zh) * | 2018-10-29 | 2019-02-22 | 北京旷视科技有限公司 | 目标检测方法、装置及电子设备 |
CN110335231A (zh) * | 2019-04-01 | 2019-10-15 | 浙江工业大学 | 一种融合纹理特征和深度特征的超声影像慢性肾脏病辅助筛查方法 |
CN112949641A (zh) * | 2021-02-04 | 2021-06-11 | 深圳市广宁股份有限公司 | 图像分割方法及电子设备、计算机可读存储介质 |
CN113111974A (zh) * | 2021-05-10 | 2021-07-13 | 清华大学 | 基于深度典型相关分析的视觉-激光雷达融合方法及系统 |
CN113379707A (zh) * | 2021-06-11 | 2021-09-10 | 大连理工大学 | 一种基于动态滤波解耦卷积网络的rgb-d显著性检测方法 |
CN114359100A (zh) * | 2021-12-31 | 2022-04-15 | Oppo广东移动通信有限公司 | 图像色彩增强方法、装置、存储介质与电子设备 |
CN115115601A (zh) * | 2022-07-04 | 2022-09-27 | 中国矿业大学 | 一种基于形变注意金字塔的遥感舰船目标检测方法 |
CN114972611A (zh) * | 2022-07-18 | 2022-08-30 | 深圳大学 | 一种基于引导匹配损失的深度纹理合成方法及相关设备 |
Non-Patent Citations (1)
Title |
---|
张志华 ; 刘政怡 ; .多角度融合的RGB-D显著检测.计算机工程与科学.2018,(第04期),全文. * |
Also Published As
Publication number | Publication date |
---|---|
CN115546271A (zh) | 2022-12-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108921806B (zh) | 一种图像处理方法、图像处理装置及终端设备 | |
TWI532014B (zh) | 圖像相似度判斷系統及方法 | |
CN113971751A (zh) | 训练特征提取模型、检测相似图像的方法和装置 | |
CN112435193B (zh) | 一种点云数据去噪的方法、装置、存储介质和电子设备 | |
CN103295022A (zh) | 图像相似度计算系统及方法 | |
CN114186632A (zh) | 关键点检测模型的训练方法、装置、设备、存储介质 | |
EP3012803A1 (en) | Image processing method, image processing device, and image processing program | |
CN115546271B (zh) | 基于深度联合表征的视觉分析方法、装置、设备及介质 | |
CN111179270A (zh) | 基于注意力机制的图像共分割方法和装置 | |
CN113793370A (zh) | 三维点云配准方法、装置、电子设备及可读介质 | |
CN115496976A (zh) | 多源异构数据融合的视觉处理方法、装置、设备及介质 | |
CN111126296A (zh) | 水果定位方法及装置 | |
CN114202473A (zh) | 一种基于多尺度特征和注意力机制的图像复原方法及装置 | |
CN111814735A (zh) | 基于人脸识别的取票方法、装置、设备及存储介质 | |
CN116645365A (zh) | 基于频谱的石英玻璃检测方法、装置、设备及介质 | |
CN116416227A (zh) | 背景图像处理方法和装置 | |
CN116486259A (zh) | 遥感图像中的点目标的提取方法和装置 | |
CN112232361B (zh) | 图像处理的方法及装置、电子设备及计算机可读存储介质 | |
Rodin et al. | Document image quality assessment via explicit blur and text size estimation | |
CN114463764A (zh) | 表格线检测方法、装置、计算机设备和存储介质 | |
CN110287943B (zh) | 图像的对象识别方法、装置、电子设备及存储介质 | |
CN112241740B (zh) | 一种特征提取方法及装置 | |
CN113610856A (zh) | 训练图像分割模型和图像分割的方法和装置 | |
CN112418098A (zh) | 视频结构化模型的训练方法及相关设备 | |
CN112084874A (zh) | 一种物体检测方法、装置及终端设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |