CN116563584B - 图像匹配方法、装置及设备 - Google Patents
图像匹配方法、装置及设备 Download PDFInfo
- Publication number
- CN116563584B CN116563584B CN202310837219.6A CN202310837219A CN116563584B CN 116563584 B CN116563584 B CN 116563584B CN 202310837219 A CN202310837219 A CN 202310837219A CN 116563584 B CN116563584 B CN 116563584B
- Authority
- CN
- China
- Prior art keywords
- image
- specific
- shared
- feature
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 57
- 238000012545 processing Methods 0.000 claims abstract description 74
- 238000013075 data extraction Methods 0.000 claims abstract description 41
- 230000005855 radiation Effects 0.000 claims abstract description 36
- 238000000605 extraction Methods 0.000 claims description 147
- 230000006835 compression Effects 0.000 claims description 68
- 238000007906 compression Methods 0.000 claims description 68
- 230000006870 function Effects 0.000 claims description 39
- 238000010606 normalization Methods 0.000 claims description 29
- 230000004913 activation Effects 0.000 claims description 14
- 230000007246 mechanism Effects 0.000 claims description 5
- 238000006243 chemical reaction Methods 0.000 claims description 4
- 238000007689 inspection Methods 0.000 abstract description 14
- 108091006146 Channels Proteins 0.000 description 44
- 230000008569 process Effects 0.000 description 14
- 230000003993 interaction Effects 0.000 description 11
- 238000012549 training Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 4
- 239000000126 substance Substances 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 3
- 238000003491 array Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 241000213006 Angelica dahurica Species 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/751—Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/76—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries based on eigen-space representations, e.g. from pose or different illumination conditions; Shape manifolds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/7715—Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种图像匹配方法、装置及设备,所述方法包括:获取多对图像,每对图像包括可见光图像和射线图像,且不同对图像中的射线图像相同;采用模态数据提取模型对每对图像进行处理,得到模态数据提取模型输出的第一共享模态数据;基于多个第一共享模态数据确定与射线图像属于同一包裹的目标可见光图像。由此,该方法,能够提高射线与可见光包裹双模态重识别任务的效率和可靠性,满足了应用场景的需求,解决了安检信息追溯的难题。
Description
技术领域
本发明涉及图像数据处理技术领域,尤其涉及一种图像匹配方法、装置及设备。
背景技术
在安检领域,电子设备可以安检机采集的射线图像和摄像机采集的可见光图像进行匹配,以确定射线图像属于同一包裹的可见光图像,由此可以实现信息快速高效检索追踪。
相关技术中,利用包裹射线图像的完全成像时间,计算出包裹在传送带上的起始运动点和包裹进入安检机的具体时间段,并将具体时间段中缓存队列的包裹图像数据与包裹射线图像进行模糊匹配,得到匹配出的包裹图像数据。
但是,该种匹配方式的效率和可靠性较低。
发明内容
本发明旨在至少在一定程度上解决相关技术中的技术问题之一。为此,本发明的第一个目的在于提出一种图像匹配方法,能够提高射线与可见光包裹双模态重识别任务的效率和可靠性,满足了应用场景的需求,解决了安检信息追溯的难题。
本发明的第二个目的在于提出一种图像匹配装置。
本发明的第三个目的在于提出一种图像匹配设备。
为达到上述目的,本发明第一方面实施例提出了一种图像匹配方法,所述方法包括:获取多对图像,每对所述图像包括可见光图像和射线图像,且不同对图像中的射线图像相同;采用模态数据提取模型对每对所述图像进行处理,得到所述模态数据提取模型输出的第一共享模态数据;基于多个所述第一共享模态数据确定与所述射线图像属于同一包裹的目标可见光图像。
根据本发明实施例的图像匹配方法,能够提高射线与可见光包裹双模态重识别任务的效率和可靠性,满足了应用场景的需求,解决了安检信息追溯的难题。
为达到上述目的,本发明第二方面实施例提出了一种图像匹配装置,所述装置包括:获取模块,用于获取多对图像,每对所述图像包括可见光图像和射线图像,且不同对图像中的射线图像相同;匹配模块,用于采用模态数据提取模型对每对所述图像进行处理,得到所述模态数据提取模型输出的第一共享模态数据;基于多个所述第一共享模态数据确定与所述射线图像属于同一包裹的目标可见光图像。
根据本发明实施例的图像匹配装置,能够提高射线与可见光包裹双模态重识别任务的效率和可靠性,满足了应用场景的需求,解决了安检信息追溯的难题。
为达到上述目的,本发明第三方面实施例提出了一种图像匹配设备,包括存储器、处理器以及存储在存储器上并可在处理器上运行的图像匹配的运行程序,所述处理器执行所述图像匹配的运行程序时,实现所述的图像匹配方法。
根据本发明实施例的图像匹配设备,在其存储器上存储的图像匹配的运行程序被处理器执行时,能够提高射线与可见光包裹双模态重识别任务的效率和可靠性,满足了应用场景的需求,解决了安检信息追溯的难题。
本发明附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
图1是本发明一个实施例的图像匹配方法的流程示意图;
图2是本发明一个实施例的可见光图像和射线图像的示意图;
图3是本发明第一个实施例的模态数据提取模型的结构示意图;
图4是本发明第二个实施例的模态数据提取模型的结构示意图;
图5是本发明一个实施例的第二特定模态提取模块的结构示意图;
图6是本发明第三个实施例的模态数据提取模型的结构示意图;
图7是本发明一个实施例的图像匹配装置的结构示意图;
图8是本发明一个实施例的图像匹配设备的结构示意图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本发明,而不能理解为对本发明的限制。
下面参考附图1-8描述本发明实施例的图像匹配方法、装置及设备。
图1是本发明一个实施例的图像匹配方法的流程示意图。如图1所示,图像匹配方法包括以下步骤:
S101、获取多对图像,每对图像包括可见光图像和射线图像,且不同对图像中的射线图像相同。
具体地,可通过安检机中X光机器获取射线图像,通过可见光摄像头获取可见光图像。多帧可见光图像可以为同一场景下连续采集的图像。其中,在安检场景中,可见光图像可以为包裹进入安检机之前可见光摄像头采集的图像。另外,参见图2,射线图像特点是通过双能X-ray射线穿过物质后的衰减属性,计算得出等效原子序数和密度,通过等效原子序数信息赋值于不同的颜色,例如等效原子序数小于10的物质,图像赋予橙色,等效原子序数大于10小于20的物质,图像赋予绿色,等效原子序数大于20的物质,图像赋予蓝色;通过密度信息赋于图像不同的灰度大小。因此,X-ray包裹的颜色信息比较少,且特征信息包含包裹内部物品的成像特征,基本无背景干扰。而参见图2,可见光包裹颜色信息比较丰富,且特征信息不包含包裹内部物品的成像特征,只对包裹表面属性敏感,且包含了丰富的背景信息。
S102、采用模态数据提取模型对每对图像进行处理,得到模态数据提取模型输出的第一共享模态数据。
作为一个示例,参见图3,模态数据提取模型100可包括:第一特定模态提取模块10、共享模态提取模块20。步骤S102可包括:对于每对图像的每帧图像,采用第一特定模态提取模块10对图像进行处理,得到图像的第一特定模态数据;采用共享模态提取模块20对可见光图像的第一特定模态数据和射线图像的第一特定模态数据进行处理,得到第一共享模态数据。
具体地,由于图像的空间尺寸较大,主要在空间上进行压缩,因此对于可见光图像和射线图像中的每帧图像,采用第一特定模态提取模块10对图像进行处理,得到可见光图像的第一特定模态数据和射线图像的第一特定模态数据。需要说明的是,第一特定模态提取模块10对图像进行处理时,不同时处理可见光图像和射线图像。另外,参见图5,第一特定模态提取模块10的数量可为两个,一个第一特定模态提取模块10对可见光图像进行处理,得到可见光图像的第一特定模态数据;另一个第一特定模态提取模块10对射线图像进行处理,得到射线图像的第一特定模态数据。
由于图像的通道长度较大,主要对通道进行压缩,因此采用共享模态提取模块20对可见光图像的第一特定模态数据和射线图像的第一特定模态数据进行处理,得到第一共享模态数据。其中,第一特定模态提取模块10的空间压缩比大于共享模态提取模块20的空间压缩比,且第一特定模态提取模块10的通道压缩比小于共享模态提取模块20的通道压缩比。例如:第一特定模态提取模块10的空间压缩比为2、通道压缩比/>为2,共享模态提取模块20的空间压缩比/>为1、通道压缩比/>为4。由此,通过对图像空间和通道的压缩,降低了第一特定模态提取模块和共享模态提取模块的复杂度。
参见图4,模态数据提取模型100还可包括:第二特定模态提取模块30,在采用第一特定模态提取模块10对图像进行处理,得到图像的第一特定模态数据之前,图像匹配方法还可包括:采用第二特定模态提取模块30对图像进行处理,得到图像的第二特定模态数据;采用第一特定模态提取模块10对图像进行处理,得到图像的第一特定模态数据,可包括:采用第一特定模态提取模块10对图像的第二特定模态数据进行处理,得到图像的第一特定模态数据。
具体地,采用第二特定模态提取模块30对可见光图像和射线图像中的每帧图像进行处理,得到图像的第二特定模态数据。需要说明的是,参见图5,第二特定模态提取模块30的数量可为两个,一个第二特定模态提取模块30对可见光图像的每帧图像进行处理,得到可见光图像的第二特定模态数据;另一个第二特定模态提取模块30对射线图像进行处理,得到射线图像的第二特定模态数据。
再采用第一特定模态提取模块10对可见光图像的第二特定模态数据和射线图像的第二特定模态数据进行处理,得到可见光图像的第一特定模态数据和射线图像的第一特定模态数据。其中,第二特定模态提取模块30的空间压缩比大于第一特定模态提取模块10的空间压缩比,且第二特定模态提取模块30的通道压缩比等于第一特定模态提取模块10的通道压缩比。例如:第一特定模态提取模块10的空间压缩比为2、通道压缩比/>为2,第二特定模态提取模块30的空间压缩比/>为4、通道压缩比/>为2。由此,通过对图像空间和通道的压缩,降低了第一特定模态提取模块和第二特定模态提取模块的复杂度。
参见图5,模态数据提取模型100还包括:第一卷积层40;在采用第二特定模态提取模块30对图像进行处理之前,图像匹配方法还可包括:采用第一卷积层对图像进行卷积处理,得到图像的第一卷积特征。
具体地,第一卷积层40可为预训练的单流网络ResNet(Residual Network,残差网络)-50,采用ResNet50对图像进行卷积处理,得到可见光图像和射线图像的第一卷积特征。
作为一个示例,参见图6,第二特定模态提取模块30可包括:第一归一化层31、第一激活函数32和第二归一化层33;采用第二特定模态提取模块30对图像进行处理,得到图像的第二特定模态数据,可包括:采用第一归一化层31对第一卷积特征进行归一化处理;采用第一激活函数32对归一化后的特征和权重特征的乘积进行处理,得到第一特征;采用第二归一化层33对第一特征进行归一化处理,得到第二特定模态数据。
具体地,采用第一归一化层31对第一卷积特征F1(即多维向量,其中,H为高度,W为宽度,C为通道个数)进行归一化处理,即进行SI(SampleInteraction,样本交互):对训练批次内的所有样本求均值和方差,使用该均值和方差对样本进行归一化,也就是说,将输入特征减去该训练批次内所有样本的均值μ,再除以该训练批次内所有样本标准方差σ,以实现训练批次内所有样本的交互。需要说明的是,在推理时,使用滑动平均的均值μ和标准方差σ来标准化。由此,使用BN(Batch Normalization,批量归一化)的方法来进行样本交互。
进一步地,参见图6,采用第一激活函数32对归一化后的特征和权重特征的乘积进行处理,得到第一特征。
具体地,将归一化后的特征和权重特征M2进行逐元素相乘得到乘积,采用第一激活函数32对乘积进行处理,得到第一特征。其中,第一激活函数32可以是RELU(RectifiedLinear Unit,修正线性单元)函数。
进一步地,参见图6,采用第二归一化层33对第一特征进行归一化处理,得到第二特定模态数据。
具体地,采用第二归一化层33对第一特征进行归一化处理,即进行SI(SampleInteraction,样本交互),得到第二特定模态数据:对训练批次内的所有样本求均值和方差,使用该均值和方差对样本进行归一化,也就是说,将输入特征减去该训练批次内所有样本的均值μ,再除以该训练批次内所有样本标准方差σ,以实现训练批次内所有样本的交互。需要说明的是,在推理时,使用滑动平均的均值μ和标准方差σ来标准化。由此,使用BN(Batch Normalization,批量归一化)的方法来进行样本交互。
由此,第二特定模态提取模块通过批量归一化进行样本交互,通过采用第一激活函数对归一化后的特征和权重特征的乘积进行处理,能够很好地区分射线图像与可见光图像包裹之间的模态差异。
需要说明的是,上述第一特定模态提取模块10、下述第一共享模态提取子模块21和第二共享模态提取子模块22均与第二特定模态提取模块30的结构相同,在此不再赘述。
参见图5,模态数据提取模型100还可包括:第二卷积层50;在采用第一特定模态提取模块10对图像的第二特定模态数据进行处理之前,图像匹配方法还可包括:采用第二卷积层50对图像的第二特定模态数据进行卷积处理。
具体地,第二卷积层50可为预训练的单流网络ResNet-50,采用ResNet-50对图像进行卷积处理,得到图像的第二卷积特征。
参见图5,在采用第一特定模态提取模块10对图像的第二特定模态数据进行处理后,共享模态提取模块20可包括:第一共享模态提取子模块21和第二共享模态提取子模块22;采用共享模态提取模块20对可见光图像的第一特定模态数据和射线图像的第一特定模态数据进行处理,得到第一共享模态数据,可包括:
采用第一共享模态提取子模块21对可见光图像的第一特定模态数据和射线图像的第一特定模态数据进行处理,得到第二共享模态数据;采用第二共享模态提取子模块22对可见光图像和射线图像的第二共享模态数据进行处理,得到第一共享模态数据P4;其中,第一共享模态提取子模块21的空间压缩比等于第二共享模态提取子模块22的空间压缩比,且第一共享模态提取子模块21的通道压缩比等于第二共享模态提取子模块22的通道压缩比。例如:第一共享模态提取子模块21的空间压缩比为1、通道压缩比/>为4,第二共享模态提取子模块22的空间压缩比/>为1、通道压缩比/>为4。
参见图5,模态数据提取模型100还可包括:第三卷积层60和第四卷积层70;在采用第一共享模态提取子模块21对可见光图像的第一特定模态数据和射线图像的第一特定模态数据进行处理之前,图像匹配方法还可包括:采用第三卷积层60对可见光图像的第一特定模态数据和射线图像的第一特定模态数据进行卷积处理;在采用第二共享模态提取子模块22对可见光图像和射线图像的第二共享模态数据进行处理之前,图像匹配方法还可包括:采用第四卷积层70对可见光图像和射线图像的第二共享模态数据进行处理进行卷积处理。
具体地,第三卷积层60和第四卷积层70可为预训练的单流网络ResNet-50,采用第三卷积层60进行卷积处理,得到图像的第三卷积特征,采用第四卷积层70进行卷积处理,得到图像的第四卷积特征。需要说明的是,第一卷积层40和第二卷积层50、第三卷积层60和第四卷积层70均为骨干网络。第一卷积层40和第二卷积层50、第三卷积层60和第四卷积层70中任一卷积层包括多个卷积核,每个卷积核可以相同也可以不同,后一个卷积层的卷积核数量可以大于前一个卷积层的卷积核数量,卷积核数量可呈一定倍数增加,以提取更多、更细化的图像特征。
S103、基于多个第一共享模态数据确定与射线图像属于同一包裹的目标可见光图像。
作为一个示例,步骤S103可包括:基于每个第一共享模态数据确定对应的一对图像中每帧图像的第二特征,第二特征包括全局特征和多个局部特征;确定每帧可见光图像的第二特征和射线图像的第二特征的相似度;若相似度大于相似度阈值,则确定可见光图像与射线图像属于同一包裹。
具体地,参见图5,在物理上直接提取可见光图像和射线图像中每帧图像的第一共享模态数据P4的第二特征,即全局特征和多个局部特征(/>到/>),其中,多个局部特征(/>到/>)是将第一共享模态数据在垂直区域进行分割成N个部分得到的,N≥1。确定每帧可见光图像的第二特征和射线图像的第二特征的相似度(如余弦相似度),可得到多个相似度。如果多个相似度中的一个相似度大于相似度阈值,则确定和该相似度对应的可见光图像(即目标可见光图像)与射线图像属于同一包裹。需要说明的是,不同第一共享模态数据确定的射线图像的第二特征是相同的。由此,通过第一共享模态数据确定与射线图像属于同一包裹的目标可见光图像。
作为一个示例,在采用模态数据提取模型对可见光图像和射线图像进行处理之前,方法还包括:获取多个第一样本数据,将多个第一样本数据训练得到模态数据提取模型。
其中,每个第一样本数据包括样本图像和样本图像的属性信息,样本图像包括一对样本可见光图像和样本射线图像,样本可见光图像和样本射线图像均是针对同一个对象拍摄的。属性信息用于标识样本可见光图像和样本射线图像的样本共享模态数据。多个样本图像可以包括至少一个第一样本图像和至少一个第二样本图像,第一样本图像和第二样本图像所针对的对象不同。
在本申请实施例中,可以将第一共享模态数据输入特征提取模型中,得到特征提取模型输出的第二特征。其中,该特征提取模型是采用多个第二样本数据训练得到的,每个第二样本特征可以包括样本共享模态数据和样本共享模态数据的属性信息,该属性信息用于指示该样本共享模态数据的样本第二特征,该样本第二特征包括样本全局特征和多个样本局部特征。
具体地,模态数据提取模型100包括:第一特定模态提取模块10、共享模态提取模块20。步骤S102可包括:对于样本可见光图像和样本射线图像中的每帧样本图像,采用第一特定模态提取模块10对样本图像进行处理,得到样本图像的第一样本特定模态数据;采用共享模态提取模块20对样本可见光图像的第一样本特定模态数据和射线图像的第一样本特定模态数据进行处理,得到第一样本共享模态数据。其中,第一样本特定模态提取模块10的空间压缩比大于共享模态提取模块20的空间压缩比,且第一特定模态提取模块10的通道压缩比小于共享模态提取模块20的通道压缩比。例如:第一特定模态提取模块10的空间压缩比为2、通道压缩比/>为2,共享模态提取模块20的空间压缩比/>为1、通道压缩比/>为4。由此,通过对图像空间和通道的压缩,降低了第一特定模态提取模块和共享模态提取模块的复杂度。
参见图4,模态数据提取模型100还可包括:第二特定模态提取模块30,在采用第一特定模态提取模块10对样本图像进行处理,得到样本图像的第一样本特定模态数据之前,图像匹配方法还可包括:采用第二特定模态提取模块30对样本图像进行处理,得到样本图像的第二样本特定模态数据;采用第一特定模态提取模块10对样本图像进行处理,得到样本图像的第一样本特定模态数据,可包括:采用第一特定模态提取模块10对样本图像的第二样本特定模态数据进行处理,得到样本图像的第一样本特定模态数据。其中,第二特定模态提取模块30的空间压缩比大于第一特定模态提取模块10的空间压缩比,且第二特定模态提取模块30的通道压缩比等于第一特定模态提取模块10的通道压缩比。例如:第一特定模态提取模块10的空间压缩比为2、通道压缩比/>为2,第二特定模态提取模块30的空间压缩比/>为4、通道压缩比/>为2。
参见图5,模态数据提取模型100还包括:第一卷积层40;在采用第二特定模态提取模块30对样本图像进行处理之前,图像匹配方法还可包括:采用第一卷积层对样本图像进行卷积处理,得到样本图像的第一样本卷积特征。
参见图6,第二特定模态提取模块30包括:第一归一化层31、第一激活函数32和第二归一化层33;采用第二特定模态提取模块30对样本图像进行处理,得到样本图像的第二样本特定模态数据,可包括:采用第一归一化层31对第一样本卷积特征进行归一化处理;采用第一激活函数32对归一化后的样本特征和权重特征的乘积进行处理,得到第一样本特征;采用第二归一化层33对第一样本特征进行归一化处理,得到第二样本特定模态数据。
其中,可通过步骤S201-S203得到权重特征:
S201、采用压缩层对第一归一化层处理得到的样本特征进行空间压缩和通道压缩,并采用维度变换层对压缩后的样本特征进行处理,得到第一样本特征,第一样本特征的维度小于压缩后的样本特征的维度。
具体地,参见图6,将第一样本卷积特征输入第一归一化层31,得到归一化后的样本特征。采用压缩层341对归一化后的样本特征进行空间压缩和通道压缩,其中,压缩层341通过CONV(Convolution,卷积)实现空间压缩和通道压缩。采用维度变换层342将压缩后的样本特征F2在空间维度上展平,得到第一样本特征Z1,其中,维度变换层342可通过Reshape函数实现在空间维度上展平,第一样本特征Z1的维度小于压缩后的样本特征F2的维度。
S202、采用多头自注意力机制对第一样本特征进行空间注意力和通道注意力的特征提取,得到样本注意力特征,并采用全连接层对样本注意力特征进行处理,得到第二样本特征,第二样本特征的通道个数大于样本注意力特征的通道个数。
具体地,采用多头自注意力机制(,Multi-Head Self-Attention,多头自注意力)343对第一样本特征Z1进行空间注意力和通道注意力(Spatial Channel Attention,空间通道注意力)的特征提取,得到样本注意力特征Z2。采用全连接层344对样本注意力特征Z2进行处理,恢复原有的通道,进行通道的交互,得到第二样本特征,第二样本特征的通道个数大于样本注意力特征Z2的通道个数。
S203、采用第二激活函数和尺寸变换层对第二样本特征进行处理,得到权重特征,权重特征的空间尺寸与第一归一化层处理得到的样本特征的空间尺寸相同,且权重特征的通道个数与第一归一化层处理得到的样本特征的通道个数相同。
具体地,采用第二激活函数345对第二样本特征进行处理,形成在空间和通道上的参考权重特征M1,其中,第二激活函数345可以是/>函数。采用尺寸变换层346对参考权重特征M1进行处理得到权重特征M2,其中,尺寸变换层346可先使用Reshape函数将参考权重特征M1变形成/>,再使用上采样恢复原有的空间尺寸,得到权重特征M2/>,其中,权重特征M2的空间尺寸大于参考权重特征M1的空间尺寸,权重特征M2的空间尺寸与第一归一化层处理得到的样本特征的空间尺寸相同,且权重特征M2的通道个数与第一归一化层处理得到的样本特征的通道个数相同。
参见图5,模态数据提取模型100还可包括:第二卷积层50;在采用第一特定模态提取模块10对样本图像的第二样本特定模态数据进行处理之前,图像匹配方法还可包括:采用第二卷积层50对样本图像的第二样本特定模态数据进行卷积处理。
参见图5,在采用第一特定模态提取模块10对样本图像的第二样本特定模态数据进行处理后,共享模态提取模块20包括:第一共享模态提取子模块21和第二共享模态提取子模块22;采用共享模态提取模块20对样本可见光图像的第一样本特定模态数据和样本射线图像的第一样本特定模态数据进行处理,得到第一样本共享模态数据,可包括:
采用第一共享模态提取子模块21对样本可见光图像的第一样本特定模态数据和样本射线图像的第一样本特定模态数据进行处理,得到第二样本共享模态数据;采用第二共享模态提取子模块22对样本可见光图像和样本射线图像的第二样本共享模态数据进行处理,得到第一样本共享模态数据P4;其中,第一共享模态提取子模块21的空间压缩比等于第二共享模态提取子模块22的空间压缩比,且第一共享模态提取子模块21的通道压缩比等于第二共享模态提取子模块22的通道压缩比。例如:第一共享模态提取子模块21的空间压缩比为1、通道压缩比/>为4,第二共享模态提取子模块22的空间压缩比/>为1、通道压缩比/>为4。
进一步地,基于每个第一样本共享模态数据确定对应的一对样本图像中样本可见光图像和样本射线图像的第二样本特征,第二样本特征包括样本全局特征和多个样本局部特征。
进一步地,还可采用所述损失函数80对涵盖不同包裹数据样本的数据集(即第一样本数据)进行训练,其中数据集中单一样本包括样本可见光图像和同包裹下样本射线图像,经过多轮迭代学习,得到最优的模态数据提取模型100。
具体地,损失函数80包括:三元损失函数和交叉熵损失函数。利用三元损失函数对同一包裹的每帧样本可见光图像和同包裹下样本射线图像的样本全局特征进行损失计算,得到每帧样本可见光图像和样本射线图像的三元损失函数值;利用交叉熵损失函数对每帧样本可见光图像和样本射线图像的多个样本局部特征进行分类损失计算,得到每帧样本可见光图像和样本射线图像的多个交叉熵损失函数值;根据每帧样本图像的三元损失函数值和多个交叉熵损失函数值,得到每帧样本图像的损失函数值;根据每帧样本图像的损失函数值,得到平均损失函数值,计算平均损失函数值的反向传播梯度,利用梯度进行参数更新(即对权重特征M2进行更新),依次迭代进行网络训练,保存每一次迭代的模态数据提取模型100,直到所有迭代结束得到最优的模态数据提取模型100。
其中,通过下式计算同一个包裹下,每帧样本图像的三元损失函数值:
,其中,E为期望,/>为同一个包裹的样本射线图像与样本可见光图像样本全局特征的最大欧式距离,/>为样本射线图像与其他包裹的样本可见光图像样本全局特征的最小欧式距离,/>为控制参数,函数[/>]+中,若/>大于0,[/>]+输出,若/>小于或等于0,[/>]+输出为0。
通过下式计算同一个包裹下,每帧样本图像的交叉熵损失函数值:
,其中,/>为样本图像的样本全局特征,/>为/>的损失概率,/>为样本图像的第i个样本局部特征,即样本图像中的样本可见光图像的第i个样本局部特征和样本射线图像的第i个样本局部特征,/>为/>的损失概率,i≥1,E为期望。
将多帧样本图像的三元损失函数值,与多帧样本图像的交叉熵损失函数值求和并取均值得到平均损失值。
综上所述,该图像匹配方法,通过对样本、空间、通道之间的多维度交互机制,实现强有力的特征提取,通过特定模态提取模块、共享模态提取模块分别置于模态数据提取模型的浅层和深层,能够有效提取模态间的特定特征和共享特征,提高射线与可见光包裹双模态重识别任务的效率和可靠性,满足了应用场景的需求,解决了安检信息追溯的难题。
图7是本发明一个实施例的图像匹配装置的结构示意图。如图7所示,图像匹配装置200包括获取模块210和匹配模块220。其中,获取模块210,用于获取多对图像,每对图像包括可见光图像和射线图像,且不同对图像中的射线图像相同;匹配模块220,用于采用模态数据提取模型100对每对图像进行处理,得到模态数据提取模型100输出的第一共享模态数据;基于多个第一共享模态数据确定与射线图像属于同一包裹的目标可见光图像。
需要说明的是,本发明实施例的图像匹配装置200的其他具体实施方式可参见本发明上述实施例的图像匹配方法的具体实施方式。
由此,该图像匹配装置,通过对样本、空间、通道之间的多维度交互机制,实现强有力的特征提取,通过特定模态提取模块、共享模态提取模块分别置于模态数据提取模型的浅层和深层,能够有效提取模态间的特定特征和共享特征,提高射线与可见光包裹双模态重识别任务的效率和可靠性,满足了应用场景的需求,解决了安检信息追溯的难题。
图8是本发明一个实施例的图像匹配设备的结构示意图。如图8所示,图像匹配设备300,包括存储器310、处理器320以及存储在存储器310上并可在处理器320上运行的图像匹配的运行程序330,处理器320执行图像匹配的运行程序330时,实现上述的图像匹配方法。
根据本发明实施例的图像匹配设备,在其存储器上存储的图像匹配的运行程序被处理器执行时,能够提高射线与可见光包裹双模态重识别任务的效率和可靠性,满足了应用场景的需求,解决了安检信息追溯的难题。
需要说明的是,在流程图中表示或在此以其他方式描述的逻辑和/或步骤,例如,可以被认为是用于实现逻辑功能的可执行指令的定序列表,可以具体实现在任何计算机可读介质中,以供指令执行系统、装置或设备(如基于计算机的系统、包括处理器的系统或其他可以从指令执行系统、装置或设备取指令并执行指令的系统)使用,或结合这些指令执行系统、装置或设备而使用。就本说明书而言,“计算机可读介质”可以是任何可以包含、存储、通信、传播或传输程序以供指令执行系统、装置或设备或结合这些指令执行系统、装置或设备而使用的装置。计算机可读介质的更具体的示例(非穷尽性列表)包括以下:具有一个或多个布线的电连接部(电子装置),便携式计算机盘盒(磁装置),随机存取存储器(RAM),只读存储器(ROM),可擦除可编辑只读存储器(EPROM或闪速存储器),光纤装置,以及便携式光盘只读存储器(CDROM)。另外,计算机可读介质甚至可以是可在其上打印所述程序的纸或其他合适的介质,因为可以例如通过对纸或其他介质进行光学扫描,接着进行编辑、解译或必要时以其他合适方式进行处理来以电子方式获得所述程序,然后将其存储在计算机存储器中。
应当理解,本发明的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。例如,如果用硬件来实现,和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
在本发明的描述中,需要理解的是,术语“中心”、“纵向”、“横向”、“长度”、“宽度”、“厚度”、“上”、“下”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”“内”、“外”、“顺时针”、“逆时针”、“轴向”、“径向”、“周向”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本发明的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
在本发明中,除非另有明确的规定和限定,术语“安装”、“相连”、“连接”、“固定”等术语应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或成一体;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通或两个元件的相互作用关系,除非另有明确的限定。对于本领域的普通技术人员而言,可以根据具体情况理解上述术语在本发明中的具体含义。
在本发明中,除非另有明确的规定和限定,第一特征在第二特征“上”或“下”可以是第一和第二特征直接接触,或第一和第二特征通过中间媒介间接接触。而且,第一特征在第二特征“之上”、“上方”和“上面”可是第一特征在第二特征正上方或斜上方,或仅仅表示第一特征水平高度高于第二特征。第一特征在第二特征“之下”、“下方”和“下面”可以是第一特征在第二特征正下方或斜下方,或仅仅表示第一特征水平高度小于第二特征。
尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。
Claims (8)
1.一种图像匹配方法,其特征在于,所述方法包括:
获取多对图像,每对所述图像包括可见光图像和射线图像,且不同对图像中的射线图像相同;
采用模态数据提取模型对每对所述图像进行处理,得到所述模态数据提取模型输出的第一共享模态数据;
基于多个所述第一共享模态数据确定与所述射线图像属于同一包裹的目标可见光图像;
所述模态数据提取模型包括:第一特定模态提取模块和共享模态提取模块;所述采用模态数据提取模型对每对所述图像进行处理,得到所述模态数据提取模型输出的第一共享模态数据,包括:
对于每对所述图像的每帧图像,采用所述第一特定模态提取模块对所述图像进行处理,得到所述图像的第一特定模态数据;
采用所述共享模态提取模块对所述可见光图像的第一特定模态数据和所述射线图像的第一特定模态数据进行处理,得到第一共享模态数据;
其中,所述第一特定模态提取模块的空间压缩比大于所述共享模态提取模块的空间压缩比,且所述第一特定模态提取模块的通道压缩比小于所述共享模态提取模块的通道压缩比;
所述基于多个所述第一共享模态数据确定与所述射线图像属于同一包裹的目标可见光图像,包括:
基于每个所述第一共享模态数据确定对应的一对图像中每帧图像的第二特征,所述第二特征包括全局特征和多个局部特征;
确定每帧所述可见光图像的第二特征和所述射线图像的第二特征的相似度;
若所述相似度大于相似度阈值,则确定所述可见光图像与所述射线图像属于同一包裹。
2.根据权利要求1所述的图像匹配方法,其特征在于,所述模态数据提取模型还包括:第二特定模态提取模块,在所述采用所述第一特定模态提取模块对所述图像进行处理,得到所述图像的第一特定模态数据之前,所述方法还包括:
采用所述第二特定模态提取模块对所述图像进行处理,得到所述图像的第二特定模态数据;
所述采用所述第一特定模态提取模块对所述图像进行处理,得到所述图像的第一特定模态数据,包括:
采用所述第一特定模态提取模块对所述图像的第二特定模态数据进行处理,得到所述图像的第一特定模态数据;
其中,所述第二特定模态提取模块的空间压缩比大于所述第一特定模态提取模块的空间压缩比,且所述第二特定模态提取模块的通道压缩比等于所述第一特定模态提取模块的通道压缩比。
3.根据权利要求2所述的图像匹配方法,其特征在于,所述模态数据提取模型还包括:第一卷积层;在所述采用所述第二特定模态提取模块对所述图像进行处理之前,所述方法还包括:
采用所述第一卷积层对所述图像进行卷积处理,得到所述图像的第一卷积特征。
4.根据权利要求3所述的图像匹配方法,其特征在于,所述第二特定模态提取模块包括:第一归一化层、第一激活函数和第二归一化层;所述采用所述第二特定模态提取模块对所述图像进行处理,得到所述图像的第二特定模态数据,包括:
采用所述第一归一化层对所述第一卷积特征进行归一化处理;
采用所述第一激活函数对所述归一化后的特征和权重特征的乘积进行处理,得到第一特征;
采用所述第二归一化层对所述第一特征进行归一化处理,得到所述第二特定模态数据。
5.根据权利要求4所述的图像匹配方法,其特征在于,所述方法还包括:
采用压缩层对所述第一归一化层处理得到的样本特征进行空间压缩和通道压缩,并采用维度变换层对压缩后的样本特征进行处理,得到第一样本特征,所述第一样本特征的维度小于所述压缩后的样本特征的维度;
采用多头自注意力机制对所述第一样本特征进行空间注意力和通道注意力的特征提取,得到样本注意力特征,并采用全连接层对所述样本注意力特征进行处理,得到第二样本特征,所述第二样本特征的通道个数大于所述样本注意力特征的通道个数;
采用第二激活函数和尺寸变换层对所述第二样本特征进行处理,得到所述权重特征,所述权重特征的空间尺寸与所述第一归一化层处理得到的样本特征的空间尺寸相同,且所述权重特征的通道个数与所述第一归一化层处理得到的样本特征的通道个数相同。
6.根据权利要求1所述的图像匹配方法,其特征在于,所述共享模态提取模块包括:第一共享模态提取子模块和第二共享模态提取子模块;所述采用所述共享模态提取模块对所述可见光图像的第一特定模态数据和所述射线图像的第一特定模态数据进行处理,得到第一共享模态数据,包括:
采用所述第一共享模态提取子模块对所述可见光图像的第一特定模态数据和所述射线图像的第一特定模态数据进行处理,得到第二共享模态数据;
采用所述第二共享模态提取子模块对所述可见光图像的第二共享模态数据和所述射线图像的第二共享模态数据进行处理,得到所述第一共享模态数据;
其中,所述第一共享模态提取子模块的空间压缩比等于所述第二共享模态提取子模块的空间压缩比,且所述第一共享模态提取子模块的通道压缩比等于第二共享模态提取子模块的通道压缩比。
7.一种图像匹配装置,其特征在于,所述装置包括:
获取模块,用于获取多对图像,每对所述图像包括可见光图像和射线图像,且不同对图像中的射线图像相同;
匹配模块,用于采用模态数据提取模型对每对所述图像进行处理,得到所述模态数据提取模型输出的第一共享模态数据;基于多个所述第一共享模态数据确定与所述射线图像属于同一包裹的目标可见光图像;
所述模态数据提取模型包括:第一特定模态提取模块和共享模态提取模块;所述采用模态数据提取模型对每对所述图像进行处理,得到所述模态数据提取模型输出的第一共享模态数据,包括:
对于每对所述图像的每帧图像,采用所述第一特定模态提取模块对所述图像进行处理,得到所述图像的第一特定模态数据;
采用所述共享模态提取模块对所述可见光图像的第一特定模态数据和所述射线图像的第一特定模态数据进行处理,得到第一共享模态数据;
其中,所述第一特定模态提取模块的空间压缩比大于所述共享模态提取模块的空间压缩比,且所述第一特定模态提取模块的通道压缩比小于所述共享模态提取模块的通道压缩比;
所述基于多个所述第一共享模态数据确定与所述射线图像属于同一包裹的目标可见光图像,包括:
基于每个所述第一共享模态数据确定对应的一对图像中每帧图像的第二特征,所述第二特征包括全局特征和多个局部特征;
确定每帧所述可见光图像的第二特征和所述射线图像的第二特征的相似度;
若所述相似度大于相似度阈值,则确定所述可见光图像与所述射线图像属于同一包裹。
8.一种图像匹配设备,其特征在于,包括存储器、处理器以及存储在存储器上并可在处理器上运行的图像匹配的运行程序,所述处理器执行所述图像匹配的运行程序时,实现根据权利要求1至6任一所述的图像匹配方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310837219.6A CN116563584B (zh) | 2023-07-10 | 2023-07-10 | 图像匹配方法、装置及设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310837219.6A CN116563584B (zh) | 2023-07-10 | 2023-07-10 | 图像匹配方法、装置及设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116563584A CN116563584A (zh) | 2023-08-08 |
CN116563584B true CN116563584B (zh) | 2023-11-14 |
Family
ID=87496886
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310837219.6A Active CN116563584B (zh) | 2023-07-10 | 2023-07-10 | 图像匹配方法、装置及设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116563584B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117078983B (zh) * | 2023-10-16 | 2023-12-29 | 安徽启新明智科技有限公司 | 图像匹配方法、装置、设备 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101650537A (zh) * | 2009-07-17 | 2010-02-17 | 山东富美科技有限公司 | 一种发光墨粉及其制备工艺 |
CN104318583A (zh) * | 2014-11-14 | 2015-01-28 | 武汉大学 | 一种可见光宽带光谱图像配准方法 |
CN106408641A (zh) * | 2016-09-19 | 2017-02-15 | 上海玮舟微电子科技有限公司 | 一种图像数据的缓存方法和装置 |
CN114445461A (zh) * | 2022-01-26 | 2022-05-06 | 安徽大学 | 基于非配对数据的可见光红外目标跟踪训练方法及装置 |
CN114550220A (zh) * | 2022-04-21 | 2022-05-27 | 中国科学技术大学 | 行人重识别模型的训练方法及行人重识别方法 |
CN114882446A (zh) * | 2022-07-08 | 2022-08-09 | 安徽启新明智科技有限公司 | 图像关联方法、装置、设备和介质 |
CN115050044A (zh) * | 2022-04-02 | 2022-09-13 | 广西科学院 | 一种基于MLP-Mixer的跨模态行人重识别方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5241335B2 (ja) * | 2008-06-10 | 2013-07-17 | キヤノン株式会社 | X線画像診断装置及び画像処理方法 |
-
2023
- 2023-07-10 CN CN202310837219.6A patent/CN116563584B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101650537A (zh) * | 2009-07-17 | 2010-02-17 | 山东富美科技有限公司 | 一种发光墨粉及其制备工艺 |
CN104318583A (zh) * | 2014-11-14 | 2015-01-28 | 武汉大学 | 一种可见光宽带光谱图像配准方法 |
CN106408641A (zh) * | 2016-09-19 | 2017-02-15 | 上海玮舟微电子科技有限公司 | 一种图像数据的缓存方法和装置 |
CN114445461A (zh) * | 2022-01-26 | 2022-05-06 | 安徽大学 | 基于非配对数据的可见光红外目标跟踪训练方法及装置 |
CN115050044A (zh) * | 2022-04-02 | 2022-09-13 | 广西科学院 | 一种基于MLP-Mixer的跨模态行人重识别方法 |
CN114550220A (zh) * | 2022-04-21 | 2022-05-27 | 中国科学技术大学 | 行人重识别模型的训练方法及行人重识别方法 |
CN114882446A (zh) * | 2022-07-08 | 2022-08-09 | 安徽启新明智科技有限公司 | 图像关联方法、装置、设备和介质 |
Non-Patent Citations (1)
Title |
---|
射线图像的立体匹配技术研究;付丽琴;韩焱;;《中国图象图形学报》;第13卷(第12期);第2363-2367页 * |
Also Published As
Publication number | Publication date |
---|---|
CN116563584A (zh) | 2023-08-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Khan et al. | Lungs nodule detection framework from computed tomography images using support vector machine | |
US10462445B2 (en) | Systems and methods for estimating and refining depth maps | |
US20190333237A1 (en) | Systems and methods for providing depth map information | |
US7715658B2 (en) | Apparatus and method for super-resolution enhancement processing | |
Sara et al. | Hyperspectral and multispectral image fusion techniques for high resolution applications: A review | |
CN110210474B (zh) | 目标检测方法及装置、设备及存储介质 | |
US20150030242A1 (en) | Method and system for fusing multiple images | |
Jain et al. | Detection of abnormality in wireless capsule endoscopy images using fractal features | |
CN116563584B (zh) | 图像匹配方法、装置及设备 | |
Wang et al. | Low-illumination image enhancement for night-time UAV pedestrian detection | |
Arunachalam et al. | An efficient and automatic glioblastoma brain tumor detection using shift‐invariant shearlet transform and neural networks | |
Reddy et al. | Enhanced speckle noise reduction in breast cancer ultrasound imagery using a hybrid deep learning model | |
CN114120176B (zh) | 远红外与可见光视频图像融合的行为分析方法 | |
Mirunalini et al. | Deep learning for skin lesion classification | |
CN111754531A (zh) | 图像实例分割方法和装置 | |
Mienye et al. | Improved predictive sparse decomposition method with densenet for prediction of lung cancer | |
CN114897728A (zh) | 图像增强方法、装置、终端设备以及存储介质 | |
Lim et al. | Robust contrast enhancement of noisy low-light images: Denoising-enhancement-completion | |
CN112508815A (zh) | 模型的训练方法和装置、电子设备、机器可读存储介质 | |
Nazir et al. | Machine Learning‐Based Lung Cancer Detection Using Multiview Image Registration and Fusion | |
CN111563525A (zh) | 一种基于YOLOv3-Tiny的运动目标检测方法 | |
Mehta et al. | MRI image denoising using U-Net and Image Processing Techniques | |
Sangeetha Francelin Vinnarasi et al. | Deep learning supported disease detection with multi-modality image fusion | |
Vankayalapati et al. | Denoising of Images Using Deep Convolutional Autoencoders for Brain Tumor Classification. | |
Kipele et al. | Poisson noise reduction with nonlocal-pca hybrid model in medical x-ray images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |