CN117475136A - 目标对象的图像确定方法及装置 - Google Patents
目标对象的图像确定方法及装置 Download PDFInfo
- Publication number
- CN117475136A CN117475136A CN202311434927.1A CN202311434927A CN117475136A CN 117475136 A CN117475136 A CN 117475136A CN 202311434927 A CN202311434927 A CN 202311434927A CN 117475136 A CN117475136 A CN 117475136A
- Authority
- CN
- China
- Prior art keywords
- feature
- candidate
- target
- image
- feature matrix
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 53
- 239000011159 matrix material Substances 0.000 claims abstract description 295
- 238000012545 processing Methods 0.000 claims abstract description 91
- 230000003993 interaction Effects 0.000 claims abstract description 52
- 230000011218 segmentation Effects 0.000 claims abstract description 11
- 238000012549 training Methods 0.000 claims description 77
- 238000011176 pooling Methods 0.000 claims description 26
- 230000009467 reduction Effects 0.000 claims description 24
- 238000004590 computer program Methods 0.000 claims description 17
- 239000000284 extract Substances 0.000 claims description 13
- 238000000605 extraction Methods 0.000 claims description 4
- 230000009286 beneficial effect Effects 0.000 abstract description 5
- 238000012935 Averaging Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 230000004807 localization Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 2
- 230000002708 enhancing effect Effects 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000011524 similarity measure Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Abstract
本公开涉及图像处理技术领域,提供了一种目标对象的图像确定方法及装置,该方法包括:通过将待识别图像集合中的候选对象图像和目标对象图像输入图像处理模型,分别提取候选特征矩阵和目标特征矩阵。对候选特征矩阵和目标特征矩阵按照通道均等原则进行分割,得到多个子候选特征矩阵和子目标特征矩阵。这种分割方式有助于保留图像的局部特征,并使得特征交互更加精细和准确。然后通过对候选特征矩阵和目标特征矩阵进行跨区域特征交互,得到局部增强特征矩阵。这种特征交互考虑了不同区域之间的关系,能够捕捉到更多的上下文信息,提高了图像定位的准确度。
Description
技术领域
本公开涉及图像处理技术领域,尤其涉及一种目标对象的图像确定方法及装置。
背景技术
随着互联网技术的快速发展,图像处理技术在各个领域得到了广泛应用。其中一项重要的应用是基于目标对象的图像定位。通过图像处理技术,可以从大量的图像集合中定位到与目标对象匹配的图像,这种方法在许多业务场景中具有重要的应用价值。例如,在儿童走失场景中,通过图像处理技术可以基于失踪儿童的图像从儿童失踪地点周边的视频中的图像集合中定位到与该儿童图像匹配的目标图像。这种技术可以帮助寻找失踪儿童,提供重要的线索,加速搜救工作的进展。目前的图像处理技术通常采用对输入图片进行切分,然后提取不同区域的特征进行匹配的方法。然而,这种方法存在一些问题。首先,它未考虑不同区域之间的关系,导致定位结果可能不够准确。其次,它未充分利用全局关系特征,可能导致遗漏重要的匹配信息,进而影响目标图像的准确度。
发明内容
有鉴于此,本公开实施例提供了一种目标对象的图像确定方法、装置、电子设备及计算机可读存储介质,以解决现有技术中在定位目标图像时未考虑不同区域之间的关系和未充分利用全局关系特征,影响目标图像的准确度的技术问题。
本公开实施例的第一方面,提供了一种目标对象的图像确定方法,该方法包括:获取待识别图像集合,待识别图像集合中包含多个候选对象的图像和一个目标对象的图像;将各个候选对象的图像和目标图像的图像输入至图像处理模型,以从各个候选对象的图像中提取对应的候选特征矩阵,以及从目标对象的图像中提取对应的目标特征矩阵;按照通道均等原则将各个候选特征矩阵分割成对应的多个子候选特征矩阵,以及按照通道均等原则将目标特征矩阵分割成多个子目标特征矩阵;对各个候选特征矩阵对应的多个子候选特征矩阵进行跨区域特征交互,得到各个候选对象的图像对应的局部增强特征矩阵,以及对目标特征矩阵对应的多个子目标特征矩阵进行跨区域特征交互,得到目标对象的图像对应的局部增强特征矩阵;根据各个候选对象的图像对应的局部增强特征矩阵和目标对象的图像对应的局部增强特征矩阵,从各个候选对象中确定与目标对象匹配的候选对象。
本公开实施例的第二方面,提供了一种目标对象的图像确定装置,该装置包括:获取模块,用于获取待识别图像集合,待识别图像集合中包含多个候选对象的图像和一个目标对象的图像;特征提取模块,用于将各个候选对象的图像和目标图像的图像输入至图像处理模型,以从各个候选对象的图像中提取对应的候选特征矩阵,以及从目标对象的图像中提取对应的目标特征矩阵;分割模块,用于按照通道均等原则将各个候选特征矩阵分割成对应的多个子候选特征矩阵,以及按照通道均等原则将目标特征矩阵分割成多个子目标特征矩阵;特征交互模块,用于对各个候选特征矩阵对应的多个子候选特征矩阵进行跨区域特征交互,得到各个候选对象的图像对应的局部增强特征矩阵,以及对目标特征矩阵对应的多个子目标特征矩阵进行跨区域特征交互,得到目标对象的图像对应的局部增强特征矩阵;确定模块,用于根据各个候选对象的图像对应的局部增强特征矩阵和目标对象的图像对应的局部增强特征矩阵,从各个候选对象中确定与目标对象匹配的候选对象。
本公开实施例的第三方面,提供了一种电子设备,包括存储器、处理器以及存储在存储器中并且可在处理器上运行的计算机程序,该处理器执行计算机程序时实现上述方法的步骤。
本公开实施例的第四方面,提供了一种计算机可读存储介质,该计算机可读存储介质存储有计算机程序,该计算机程序被处理器执行时实现上述方法的步骤。
本公开实施例与现有技术相比存在的有益效果是:本公开实施例可以通过将待识别图像集合中的候选对象图像和目标对象图像输入图像处理模型,分别提取候选特征矩阵和目标特征矩阵。对候选特征矩阵和目标特征矩阵按照通道均等原则进行分割,得到多个子候选特征矩阵和子目标特征矩阵。这种分割方式有助于保留图像的局部特征,并使得特征交互更加精细和准确。然后通过对候选特征矩阵和目标特征矩阵进行跨区域特征交互,得到局部增强特征矩阵。这种特征交互考虑了不同区域之间的关系,能够捕捉到更多的上下文信息,提高了图像定位的准确度。
附图说明
为了更清楚地说明本公开实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1示出了可以应用本发明实施例的技术方案的示例性系统架构的示意图;
图2是本公开实施例提供的一种目标对象的图像确定方法的流程示意图;
图3是本公开实施例提供的对各个候选特征矩阵对应的多个子候选特征矩阵进行跨区域特征交互的步骤的流程图;
图4是本公开实施例提供的对目标特征矩阵对应的多个子目标特征矩阵进行跨区域特征交互的步骤的流程图;
图5是本公开实施例提供的一种目标对象的图像确定装置的结构示意图;
图6是本公开实施例提供的一种电子设备的结构示意图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本公开实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本公开。在其它情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本公开的描述。
需要说明的是,本公开所涉及的用户信息(包括但不限于终端设备信息、用户个人信息等)和数据(包括但不限于用于展示的数据、分析的数据等),均为经用户授权或者经过各方充分授权的信息和数据。
图1示出了可以应用本发明实施例的技术方案的示例性系统架构的示意图。
如图1所示,系统架构100可以包括第一终端设备101、第二终端设备102、第三终端设备103中的一种或多种,网络104和服务器105。网络104用以在第一终端设备101、第二终端设备102、第三终端设备103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。比如服务器105可以是多个服务器组成的服务器集群等。
用户可以使用第一终端设备101、第二终端设备102、第三终端设备103通过网络104与服务器105交互,以接收或发送数据等。第一终端设备101、第二终端设备102、第三终端设备103可以是具有显示屏的各种电子设备,包括但不限于智能手机、平板电脑、便携式计算机和台式计算机等等。
服务器105可以是提供各种服务的服务器。例如服务器105可以从第一端设备103(也可以是第二终端设备102或第三终端设备103)获取待识别图像集合,待识别图像集合中包含多个候选对象的图像和一个目标对象的图像;特征提取模块,用于将各个候选对象的图像和目标图像的图像输入至图像处理模型,以从各个候选对象的图像中提取对应的候选特征矩阵,以及从目标对象的图像中提取对应的目标特征矩阵;分割模块,用于按照通道均等原则将各个候选特征矩阵分割成对应的多个子候选特征矩阵,以及按照通道均等原则将目标特征矩阵分割成多个子目标特征矩阵;特征交互模块,用于对各个候选特征矩阵对应的多个子候选特征矩阵进行跨区域特征交互,得到各个候选对象的图像对应的局部增强特征矩阵,以及对目标特征矩阵对应的多个子目标特征矩阵进行跨区域特征交互,得到目标对象的图像对应的局部增强特征矩阵;确定模块,用于根据各个候选对象的图像对应的局部增强特征矩阵和目标对象的图像对应的局部增强特征矩阵,从各个候选对象中确定与目标对象匹配的候选对象。
在一些实施例中,本发明实施例所提供的目标对象的图像确定方法一般由服务器105执行,相应地,目标对象的图像确定装置一般设置于服务器105中。在另一些实施例中,某些终端设备可以具有与服务器相似的功能从而执行本方法。因此,本发明实施例所提供的目标对象的图像确定方法不限定在服务器端执行。
下面将结合附图详细说明根据本公开实施例的目标对象的图像确定方法和装置。
图2是本公开实施例提供的一种目标对象的图像确定方法的流程示意图。本公开实施例提供的方法可以由任意具备计算机处理能力的电子设备执行,例如电子设备可以是图1示出的服务器。
如图2所示,该目标对象的图像确定方法包括步骤S210至步骤S250。
在步骤S210中,获取待识别图像集合,待识别图像集合中包含多个候选对象的图像和一个目标对象的图像。
步骤S220,将各个候选对象的图像和目标图像的图像输入至图像处理模型,以从各个候选对象的图像中提取对应的候选特征矩阵,以及从目标对象的图像中提取对应的目标特征矩阵。
在步骤S230中,按照通道均等原则将各个候选特征矩阵分割成对应的多个子候选特征矩阵,以及按照通道均等原则将目标特征矩阵分割成多个子目标特征矩阵。
在步骤S240中,对各个候选特征矩阵对应的多个子候选特征矩阵进行跨区域特征交互,得到各个候选对象的图像对应的局部增强特征矩阵,以及对目标特征矩阵对应的多个子目标特征矩阵进行跨区域特征交互,得到目标对象的图像对应的局部增强特征矩阵。
在步骤S250中,根据各个候选对象的图像对应的局部增强特征矩阵和目标对象的图像对应的局部增强特征矩阵,从各个候选对象中确定与目标对象匹配的候选对象。
该方法可以通过将待识别图像集合中的候选对象图像和目标对象图像输入图像处理模型,分别提取候选特征矩阵和目标特征矩阵。对候选特征矩阵和目标特征矩阵按照通道均等原则进行分割,得到多个子候选特征矩阵和子目标特征矩阵。这种分割方式有助于保留图像的局部特征,并使得特征交互更加精细和准确。然后通过对候选特征矩阵和目标特征矩阵进行跨区域特征交互,得到局部增强特征矩阵,这种特征交互考虑了不同区域之间的关系,能够捕捉到更多的上下文信息。根据各个候选对象的图像对应的局部增强特征矩阵和目标对象的图像对应的局部增强特征矩阵,从各个候选对象中确定与目标对象匹配的候选对象,这样可以提高图像定位的准确度。
在本公开一些实施例中,获取待识别图像集合,待识别图像集合中包含多个候选对象的图像和一个目标对象的图像。例如,候选对象的图像是指在目标对象定位任务中,与目标对象可能相关的一组图像。这些图像可以是从不同来源获取的,例如来自监控摄像头、图像数据库或其他图像采集设备。候选对象的图像可能包含多个对象,但只有其中一个与目标对象匹配。在目标对象定位的过程中,需要从这些候选对象的图像中确定与目标对象匹配的图像。目标对象的图像是指在目标对象定位任务中,需要准确定位和匹配的特定对象的图像。这个图像是任务的关键,通过与候选对象的图像进行比较和匹配,可以确定与目标对象匹配的候选对象。目标对象的图像通常是由用户提供或从特定来源获取的,它包含了目标对象的视觉特征和信息。例如,以儿童失踪举例,多个候选对象的图像可以是从儿童失踪地点周边的监控视频中获取的图像。目标对象的图像可以是儿童父母提供的儿童自己的图像。在本实施例中,如果儿童失踪地点周边人流量比较大,获取的图像质量不好,例如由于密集的人群造成获取的图像中的对象有遮挡情况,通过本公开的方法可以对该类图像进行很好的识别,以得到与该儿童匹配的目标图像。
在本公开一些实施例中,将各个候选对象的图像和目标图像的图像输入至图像处理模型,以从各个候选对象的图像中提取对应的候选特征矩阵,以及从目标对象的图像中提取对应的目标特征矩阵。例如,上述图像识别模型中包含骨干网络,通过骨干网络从各个候选对象的图像中提取对应的候选特征矩阵,以及从目标对象的图像中提取对应的目标特征矩阵。通过骨干网络从各个候选对象的图像和目标对象的图像中提取对应的特征矩阵,可以将图像转换为更具有抽象表示和语义信息的特征表示。这些特征矩阵将在后续的步骤中用于特征交互和匹配,以实现目标对象的准确定位。
在本公开一些实施例中,按照通道均等原则将各个候选特征矩阵分割成对应的多个子候选特征矩阵,以及按照通道均等原则将目标特征矩阵分割成多个子目标特征矩阵。例如,对于每个候选特征矩阵,按照通道均等原则进行分割。通道均等原则可以指将特征矩阵沿着通道维度(即特征通道)均等地划分成多个子矩阵。假设候选特征矩阵的大小为[H,W,C],其中H和W分别表示高度和宽度,C表示通道数。按照通道均等原则,可以将候选特征矩阵划分为N个子候选特征矩阵,每个子矩阵的大小为[H,W,C/N]。这样每个子候选特征矩阵都包含了原始候选特征矩阵中的部分通道信息。通过将候选特征矩阵分割成多个子候选特征矩阵,可以使得每个子矩阵更加专注于特定的通道信息,从而提高特征的表达能力和区分度。类似地,对于目标特征矩阵,也可以按照通道均等原则进行分割。假设目标特征矩阵的大小为[H,W,C],将其划分为N个子目标特征矩阵,每个子目标特征矩阵的大小为[H,W,C/N]。通过将目标特征矩阵分割成多个子目标特征矩阵,可以使得每个子目标特征矩阵都包含了目标对象的部分特征信息。这样做的目的是为了在后续的特征交互和匹配过程中,能够更加精细地对比候选对象和目标对象的特征,从而提高匹配的准确性。总之,按照通道均等原则将候选特征矩阵和目标特征矩阵分割成多个子矩阵,可以更好地利用特征的通道信息,并在后续的处理中进行更精确的特征交互和匹配。这有助于提高目标对象的定位准确度和匹配性能。
图3是本公开实施例提供的对各个候选特征矩阵对应的多个子候选特征矩阵进行跨区域特征交互的步骤的流程图。
如图3所示,上述步骤S240中的对各个候选特征矩阵对应的多个子候选特征矩阵进行跨区域特征交互具体可以包括步骤S310至步骤S340。
在步骤S310中,对各个候选特征矩阵对应的多个子候选特征矩阵进行相加处理,得到各个候选特征矩阵对应的候选全局特征矩阵。
在步骤S320中,将各个候选特征矩阵对应的候选全局特征矩阵输入至全局平均池化层,通过全局平均池化层对各个候选全局特征矩阵进行降维处理,并将各个降维处理结果输入至第一卷积层,通过第一卷积层对各个降维处理结果进行卷积处理,得到各个候选全局特征矩阵对应的卷积结果。
在步骤S330中,将各个候选特征矩阵对应的多个子候选特征矩阵输入至第二卷积层,通过第二卷积层分别对各个子候选特征矩阵进行卷积处理,得到各个子候选特征矩阵对应的卷积结果。
在步骤S340中,根据候选全局特征矩阵对应的卷积结果和各个子候选特征矩阵对应的卷积结果,确定候选对象的图像对应的局部增强特征矩阵。
该方法可以对各个候选特征矩阵对应的多个子候选特征矩阵进行相加处理,得到各个候选特征矩阵对应的候选全局特征矩阵,将各个候选特征矩阵对应的候选全局特征矩阵输入至全局平均池化层,通过全局平均池化层对各个候选全局特征矩阵进行降维处理,并将各个降维处理结果输入至第一卷积层,通过第一卷积层对各个降维处理结果进行卷积处理,得到各个候选全局特征矩阵对应的卷积结果。然后将各个候选特征矩阵对应的多个子候选特征矩阵输入至第二卷积层,通过第二卷积层分别对各个子候选特征矩阵进行卷积处理,得到各个子候选特征矩阵对应的卷积结果。根据候选全局特征矩阵对应的卷积结果和各个子候选特征矩阵对应的卷积结果,确定候选对象的图像对应的局部增强特征矩阵,以此方式得到的候选对象的图像对应的局部增强特征矩阵可以提供更丰富和准确的特征表示,为后续的目标对象定位和识别任务提供有力支持。
在本公开一些实施例中,上述图像识别模型中还包含局部关系学习模块,其中局部关系学习模块中包含全局平均池化层、第一卷积层、第二卷积层和第三卷积层。
基于前述实施例,对于每个候选特征矩阵的多个子候选特征矩阵,将它们进行相加处理,得到候选全局特征矩阵。相加处理是指将对应位置的子候选特征矩阵的元素进行相加,生成一个新的矩阵。例如,候选特征矩阵为A,A对应的多个子候选特征矩阵分别为A1、A2、A3。对A1、A2、A3相加处理,得到A的候选全局特征矩阵。然后将候选全局特征矩阵输入至全局平均池化层,通过全局平均池化层可以对每个通道的特征图进行平均池化操作,将每个通道的特征图的高度和宽度降为1,得到一个通道数保持不变的特征图。将全局平均池化层的输出结果输入至第一卷积层。第一卷积层对特征图进行卷积操作,提取更高级的特征表示。这一步骤可以帮助进一步提取候选对象的局部特征信息。将候选特征矩阵的多个子候选特征矩阵输入至第二卷积层。通过第二卷积层可以对每个子候选特征矩阵进行卷积操作,得到每个子候选特征矩阵对应的卷积结果。这一步骤可以提取子候选特征矩阵的局部特征信息。根据候选全局特征矩阵对应的卷积结果和各个子候选特征矩阵对应的卷积结果,可以确定候选对象的图像对应的局部增强特征矩阵。局部增强特征矩阵是通过综合全局特征和局部特征进行增强得到的,它可以更好地描述候选对象的特征和细节。
在本公开一些实施例中,根据候选全局特征矩阵对应的卷积结果和各个子候选特征矩阵对应的卷积结果,确定候选对象的图像对应的局部增强特征矩阵包括:以通道为拼接维度,对候选全局特征矩阵对应的卷积结果和各个子候选特征矩阵对应的卷积结果进行拼接处理;将拼接结果输入至第三卷积层,通过第三卷积层对拼接结果进行卷积处理,并将该卷积结果与各个子候选特征矩阵对应的卷积结果进行相加处理,得到候选对象的图像对应的局部增强特征矩阵。例如,将候选全局特征矩阵对应的卷积结果和各个子候选特征矩阵对应的卷积结果以通道为拼接维度进行拼接。假设候选全局特征矩阵对应的卷积结果的大小为[H,W,C1],其中H和W分别表示高度和宽度,C1表示通道数。对于每个子候选特征矩阵对应的卷积结果,假设其大小为[H,W,C2],其中C2表示子候选特征矩阵的通道数。将这些卷积结果按照通道维度进行拼接,得到一个新的特征矩阵,大小为[H,W,C1+3C2]。将拼接结果输入至第三卷积层,通过第三卷积层可以对拼接结果进行卷积操作,提取更高级的特征表示,卷积结果的大小可以为[H,W,C2]。这一步骤可以进一步融合全局特征和局部特征,增强对候选对象的表示能力。将第三卷积层的输出结果与各个子候选特征矩阵对应的卷积结果进行相加处理。相加处理是指将对应位置的特征矩阵元素进行相加,生成一个新的矩阵。通过相加处理,得到候选对象的图像对应的局部增强特征矩阵,大小仍为[H,W,C2]。通过以上的处理步骤,候选对象的图像对应的局部增强特征矩阵综合了全局特征和局部特征,并通过卷积和相加处理进行了增强。这样的局部增强特征矩阵能够更好地描述候选对象的图像特征和细节,为后续的目标对象定位和识别任务提供更准确和丰富的特征表示。
图4是本公开实施例提供的对目标特征矩阵对应的多个子目标特征矩阵进行跨区域特征交互的步骤的流程图。
如图4所示,上述步骤S240中的对目标特征矩阵对应的多个子目标特征矩阵进行跨区域特征交互具体可以包括步骤S410至步骤S440。
在步骤S410中,对目标特征矩阵对应的多个子目标特征矩阵进行相加处理,得到目标特征矩阵对应的目标全局特征矩阵。
在步骤S420中,将目标特征矩阵对应的目标全局特征矩阵输入至全局平均池化层,通过全局平均池化层对目标特征矩阵对应的目标全局特征矩阵进行降维处理,并将该降维处理结果输入至第一卷积层,通过第一卷积层对该降维处理结果进行卷积处理,得到目标全局特征矩阵对应的卷积结果。
在步骤S430中,将目标特征矩阵对应的多个子目标特征矩阵输入至第二卷积层,通过第二卷积层分别对各个子目标特征矩阵进行卷积处理,得到各个子目标特征矩阵对应的卷积结果。
在步骤S440中,根据目标全局特征矩阵对应的卷积结果和各个子目标特征矩阵对应的卷积结果,确定目标对象的图像对应的局部增强特征矩阵。
该方法可以对目标特征矩阵对应的多个子目标特征矩阵进行相加处理,得到目标特征矩阵对应的目标全局特征矩阵,将目标特征矩阵对应的目标全局特征矩阵输入至全局平均池化层,通过全局平均池化层对目标特征矩阵对应的目标全局特征矩阵进行降维处理,并将该降维处理结果输入至第一卷积层,通过第一卷积层对该降维处理结果进行卷积处理,得到目标全局特征矩阵对应的卷积结果,将目标特征矩阵对应的多个子目标特征矩阵输入至第二卷积层,通过第二卷积层分别对各个子目标特征矩阵进行卷积处理,得到各个子目标特征矩阵对应的卷积结果,根据目标全局特征矩阵对应的卷积结果和各个子目标特征矩阵对应的卷积结果,确定目标对象的图像对应的局部增强特征矩阵,以此方式得到的目标对象的图像对应的局部增强特征矩阵可以提供更丰富和准确的特征表示,为后续的目标对象定位和识别任务提供有力支持。
在本公开一些实施例中,对目标特征矩阵的多个子目标特征矩阵进行相加处理。假设目标特征矩阵的大小为[H,W,C1],其中H和W分别表示高度和宽度,C1表示通道数。对于每个子目标特征矩阵,假设其大小为[H,W,C2],其中C2表示子目标特征矩阵的通道数。将这些子目标特征矩阵按照通道维度进行相加,得到目标全局特征矩阵,大小为[H,W,C1]。将目标特征矩阵对应的目标全局特征矩阵输入至全局平均池化层。全局平均池化层对每个通道的特征图进行平均池化操作,将每个通道的特征图的高度和宽度降为1,得到一个通道数保持不变的特征图。将全局平均池化层的输出结果输入至第一卷积层。通过第一卷积层可以对特征图进行卷积操作,提取更高级的特征表示。这一步骤可以帮助进一步提取目标全局特征的局部特征信息。将目标特征矩阵的多个子目标特征矩阵输入至第二卷积层。通过第二卷积层可以对每个子目标特征矩阵进行卷积操作,得到每个子目标特征矩阵对应的卷积结果。这一步骤可以提取子目标特征矩阵的局部特征信息。然后根据目标全局特征矩阵对应的卷积结果和各个子目标特征矩阵对应的卷积结果,可以确定目标对象的图像对应的局部增强特征矩阵。局部增强特征矩阵是通过综合全局特征和局部特征进行增强得到的,它可以更好地描述目标对象的特征和细节。
在本公开一些实施例中,根据目标全局特征矩阵对应的卷积结果和各个子目标特征矩阵对应的卷积结果,确定目标对象的图像对应的局部增强特征矩阵包括:以通道为拼接维度,对目标全局特征矩阵对应的卷积结果和各个子目标特征矩阵对应的卷积结果进行拼接处理;将拼接结果输入至第三卷积层,通过第三卷积层对拼接结果进行卷积处理,并将该卷积结果与各个子目标特征矩阵对应的卷积结果进行相加处理,得到候选对象的图像对应的局部增强特征矩阵。例如,将目标全局特征矩阵对应的卷积结果的大小设为[H,W,C1],其中H和W分别表示高度和宽度,C1表示通道数。对于每个子目标特征矩阵对应的卷积结果,假设其大小为[H,W,C2],其中C2表示子目标特征矩阵的通道数。将这些卷积结果按照通道维度进行拼接,得到一个新的特征矩阵,大小为[H,W,C1+3C2]。将拼接结果输入至第三卷积层,通过第三卷积层可以对拼接结果进行卷积操作,提取更高级的特征表示,卷积结果的大小可以为[H,W,C2]。这一步骤可以进一步融合全局特征和局部特征,增强对候选对象的表示能力。将第三卷积层的输出结果与各个子目标特征矩阵对应的卷积结果进行相加处理。相加处理是指将对应位置的特征矩阵元素进行相加,生成一个新的矩阵。对于第三卷积层的输出结果和每个子目标特征矩阵的卷积结果,它们的大小都是[H,W,C2]。通过相加处理,得到候选对象的图像对应的局部增强特征矩阵,大小仍为[H,W,C2]。通过以上的处理步骤,候选对象的图像对应的局部增强特征矩阵综合了全局特征和局部特征,并通过卷积和相加处理进行了增强。这样的局部增强特征矩阵能够更好地描述候选对象的图像特征和细节,为后续的目标对象定位和识别任务提供更准确和丰富的特征表示。
在本公开一些实施例中,根据各个候选对象的图像对应的局部增强特征矩阵和目标对象的图像对应的局部增强特征矩阵,从各个候选对象中确定与目标对象匹配的候选对象包括:分别计算各个候选对象的图像对应的局部增强特征矩阵与目标对象的图像对应的局部增强特征矩阵之间的相似度;根据各个相似度和预设相似度阈值,从各个候选对象中确定与目标对象匹配的候选对象。例如,对于每个候选对象的图像对应的局部增强特征矩阵和目标对象的图像对应的局部增强特征矩阵,可以使用合适的相似度度量方法来计算它们之间的相似度。常用的相似度度量方法包括欧几里德距离、余弦相似度等。这些方法可以衡量两个特征矩阵之间的相似程度,值越接近1表示相似度越高,值越接近0表示相似度越低。根据具体的应用需求,可以设置一个预设的相似度阈值,例如,如果预设相似度阈值为0.8,那么相似度大于等于0.8的候选对象将被认为是与目标对象匹配的。根据各个候选对象的相似度与预设相似度阈值进行比较,确定与目标对象匹配的候选对象。如果某个候选对象的相似度大于等于预设相似度阈值,则将其视为与目标对象匹配的候选对象。可以将匹配结果存储在一个列表或数组中,以便后续处理和分析。通过以上的处理步骤,可以根据候选对象的局部增强特征矩阵与目标对象的局部增强特征矩阵之间的相似度,以及预设的相似度阈值,确定与目标对象匹配的候选对象。这样可以从多个候选对象中筛选出与目标对象相似度较高的对象,提高目标对象的定位和识别准确度。
在本公开一些实施例中,在获取待识别图像集合之前,方法还包括:获取训练样本,训练样本中包含多个训练对象的图像和各个训练对象的真实标签;将各个训练对象的图像和各个训练对象的真实标签输入至图像识别模型,以从各个训练对象的图像中提取对应的训练特征矩阵;按照通道均等原则将各个训练特征矩阵分割成对应的多个子训练特征矩阵;对各个训练特征矩阵对应的多个子训练特征矩阵进行跨区域特征交互,得到各个训练对象的图像对应的局部增强特征矩阵;根据各个训练对象的图像对应的局部增强特征矩阵,对各个训练对象进行分类处理,得到各个训练对象的标签预测概率;根据各个训练对象的标签预测概率和各个训练对象的真实标签,计算损失,并根据损失更新图像识别模型中的网络参数。
基于前述实施例,首先,需要获取包含多个训练对象的图像和各个训练对象的真实标签的训练样本。这些训练样本用于训练图像识别模型,以使其能够学习从图像中提取特征并进行分类。将各个训练对象的图像和各个训练对象的真实标签输入至图像识别模型,以从各个训练对象的图像中提取对应的训练特征矩阵。按照通道均等原则,将各个训练特征矩阵分割成对应的多个子训练特征矩阵。这样可以将每个训练特征矩阵划分为多个子训练矩阵,以便后续的跨区域特征交互处理。对各个训练特征矩阵对应的多个子训练特征矩阵进行跨区域特征交互。跨区域特征交互是指在不同区域之间进行特征的交互和融合,以增强特征的表达能力。这可以通过卷积、池化等操作来实现,以获得各个训练对象的图像对应的局部增强特征矩阵。根据各个训练对象的图像对应的局部增强特征矩阵,对各个训练对象进行分类处理,得到各个训练对象的标签预测概率。这可以通过将局部增强特征矩阵输入至分类器(如全连接层)中,并使用softmax函数进行概率归一化来实现。根据各个训练对象的标签预测概率和各个训练对象的真实标签,计算损失函数。常用的损失函数包括交叉熵损失函数等。然后,根据损失函数的值,使用反向传播算法更新图像识别模型中的网络参数,以使模型能够逐渐优化并提高分类准确度。通过以上的处理步骤,可以通过训练样本和图像识别模型,提取训练特征矩阵并进行跨区域特征交互,最终得到各个训练对象的图像对应的局部增强特征矩阵,并进行分类处理和标签预测。通过计算损失和更新参数,图像识别模型可以不断优化,提高对图像的识别能力。
下述为本公开装置实施例,可以用于执行本公开方法实施例。下文描述的目标对象的图像确定装置与上文描述的目标对象的图像确定方法可相互对应参照。对于本公开装置实施例中未披露的细节,请参照本公开方法实施例。
图5是本公开实施例提供的一种目标对象的图像确定装置的结构示意图,如图5所示,该目标对象的图像确定装置500包括获取模块510、特征提取模块520、分割模块530、特征交互模块540和确定模块550。
具体地,获取模块510,用于获取待识别图像集合,待识别图像集合中包含多个候选对象的图像和一个目标对象的图像.
特征提取模块520,用于将各个候选对象的图像和目标图像的图像输入至图像处理模型,以从各个候选对象的图像中提取对应的候选特征矩阵,以及从目标对象的图像中提取对应的目标特征矩阵.
分割模块530,用于按照通道均等原则将各个候选特征矩阵分割成对应的多个子候选特征矩阵,以及按照通道均等原则将目标特征矩阵分割成多个子目标特征矩阵。
特征交互模块540,用于对各个候选特征矩阵对应的多个子候选特征矩阵进行跨区域特征交互,得到各个候选对象的图像对应的局部增强特征矩阵,以及对目标特征矩阵对应的多个子目标特征矩阵进行跨区域特征交互,得到目标对象的图像对应的局部增强特征矩阵。
确定模块550,用于根据各个候选对象的图像对应的局部增强特征矩阵和目标对象的图像对应的局部增强特征矩阵,从各个候选对象中确定与目标对象匹配的候选对象。
该目标对象的图像确定装置500可以通过将待识别图像集合中的候选对象图像和目标对象图像输入图像处理模型,分别提取候选特征矩阵和目标特征矩阵。对候选特征矩阵和目标特征矩阵按照通道均等原则进行分割,得到多个子候选特征矩阵和子目标特征矩阵。这种分割方式有助于保留图像的局部特征,并使得特征交互更加精细和准确。然后通过对候选特征矩阵和目标特征矩阵进行跨区域特征交互,得到局部增强特征矩阵,这种特征交互考虑了不同区域之间的关系,能够捕捉到更多的上下文信息。根据各个候选对象的图像对应的局部增强特征矩阵和目标对象的图像对应的局部增强特征矩阵,从各个候选对象中确定与目标对象匹配的候选对象,这样可以提高图像定位的准确度。
在本公开一些实施例中,上述特征交互模块540被配置为:对各个候选特征矩阵对应的多个子候选特征矩阵进行相加处理,得到各个候选特征矩阵对应的候选全局特征矩阵;将各个候选特征矩阵对应的候选全局特征矩阵输入至全局平均池化层,通过全局平均池化层对各个候选全局特征矩阵进行降维处理,并将各个降维处理结果输入至第一卷积层,通过第一卷积层对各个降维处理结果进行卷积处理,得到各个候选全局特征矩阵对应的卷积结果;将各个候选特征矩阵对应的多个子候选特征矩阵输入至第二卷积层,通过第二卷积层分别对各个子候选特征矩阵进行卷积处理,得到各个子候选特征矩阵对应的卷积结果;根据候选全局特征矩阵对应的卷积结果和各个子候选特征矩阵对应的卷积结果,确定候选对象的图像对应的局部增强特征矩阵。
在本公开一些实施例中,根据候选全局特征矩阵对应的卷积结果和各个子候选特征矩阵对应的卷积结果,确定候选对象的图像对应的局部增强特征矩阵包括:以通道为拼接维度,对候选全局特征矩阵对应的卷积结果和各个子候选特征矩阵对应的卷积结果进行拼接处理;将拼接结果输入至第三卷积层,通过第三卷积层对拼接结果进行卷积处理,并将该卷积结果与各个子候选特征矩阵对应的卷积结果进行相加处理,得到候选对象的图像对应的局部增强特征矩阵。
在本公开一些实施例中,上述特征交互模块540还被配置为:对目标特征矩阵对应的多个子目标特征矩阵进行相加处理,得到目标特征矩阵对应的目标全局特征矩阵;将目标特征矩阵对应的目标全局特征矩阵输入至全局平均池化层,通过全局平均池化层对目标特征矩阵对应的目标全局特征矩阵进行降维处理,并将该降维处理结果输入至第一卷积层,通过第一卷积层对该降维处理结果进行卷积处理,得到目标全局特征矩阵对应的卷积结果;将目标特征矩阵对应的多个子目标特征矩阵输入至第二卷积层,通过第二卷积层分别对各个子目标特征矩阵进行卷积处理,得到各个子目标特征矩阵对应的卷积结果;根据目标全局特征矩阵对应的卷积结果和各个子目标特征矩阵对应的卷积结果,确定目标对象的图像对应的局部增强特征矩阵。
在本公开一些实施例中,根据目标全局特征矩阵对应的卷积结果和各个子目标特征矩阵对应的卷积结果,确定目标对象的图像对应的局部增强特征矩阵包括:以通道为拼接维度,对目标全局特征矩阵对应的卷积结果和各个子目标特征矩阵对应的卷积结果进行拼接处理;将拼接结果输入至第三卷积层,通过第三卷积层对拼接结果进行卷积处理,并将该卷积结果与各个子目标特征矩阵对应的卷积结果进行相加处理,得到候选对象的图像对应的局部增强特征矩阵。
在本公开一些实施例中,上述确定模块550被配置为:分别计算各个候选对象的图像对应的局部增强特征矩阵与目标对象的图像对应的局部增强特征矩阵之间的相似度;根据各个相似度和预设相似度阈值,从各个候选对象中确定与目标对象匹配的候选对象。
在本公开一些实施例中,在获取待识别图像集合之前,目标对象的图像确定装置500还用于:获取训练样本,训练样本中包含多个训练对象的图像和各个训练对象的真实标签;将各个训练对象的图像和各个训练对象的真实标签输入至图像识别模型,以从各个训练对象的图像中提取对应的训练特征矩阵;按照通道均等原则将各个训练特征矩阵分割成对应的多个子训练特征矩阵;对各个训练特征矩阵对应的多个子训练特征矩阵进行跨区域特征交互,得到各个训练对象的图像对应的局部增强特征矩阵;根据各个训练对象的图像对应的局部增强特征矩阵,对各个训练对象进行分类处理,得到各个训练对象的标签预测概率;根据各个训练对象的标签预测概率和各个训练对象的真实标签,计算损失,并根据损失更新图像识别模型中的网络参数。
图6是本公开实施例提供的电子设备6的示意图。如图6所示,该实施例的电子设备6包括:处理器601、存储器602以及存储在该存储器602中并且可在处理器601上运行的计算机程序603。处理器601执行计算机程序603时实现上述各个方法实施例中的步骤。或者,处理器601执行计算机程序603时实现上述各装置实施例中各模块的功能。
电子设备6可以是桌上型计算机、笔记本、掌上电脑及云端服务器等电子设备。电子设备6可以包括但不仅限于处理器601和存储器602。本领域技术人员可以理解,图6仅仅是电子设备6的示例,并不构成对电子设备6的限定,可以包括比图示更多或更少的部件,或者不同的部件。
处理器601可以是中央处理单元(Central Processing Unit,CPU),也可以是其它通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其它可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。
存储器602可以是电子设备6的内部存储单元,例如,电子设备6的硬盘或内存。存储器602也可以是电子设备6的外部存储设备,例如,电子设备6上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。存储器602还可以既包括电子设备6的内部存储单元也包括外部存储设备。存储器602用于存储计算机程序以及电子设备所需的其它程序和数据。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
集成的模块如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读存储介质中。基于这样的理解,本公开实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,计算机程序可以存储在计算机可读存储介质中,该计算机程序在被处理器执行时,可以实现上述各个方法实施例的步骤。计算机程序可以包括计算机程序代码,计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。计算机可读介质可以包括:能够携带计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、电载波信号、电信信号以及软件分发介质等。需要说明的是,计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如,在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。
以上实施例仅用以说明本公开的技术方案,而非对其限制;尽管参照前述实施例对本公开进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本公开各实施例技术方案的精神和范围,均应包含在本公开的保护范围之内。
Claims (10)
1.一种目标对象的图像确定方法,其特征在于,所述方法包括:
获取待识别图像集合,所述待识别图像集合中包含多个候选对象的图像和一个目标对象的图像;
将各个所述候选对象的图像和所述目标图像的图像输入至图像处理模型,以从各个所述候选对象的图像中提取对应的候选特征矩阵,以及从所述目标对象的图像中提取对应的目标特征矩阵;
按照通道均等原则将各个所述候选特征矩阵分割成对应的多个子候选特征矩阵,以及按照所述通道均等原则将所述目标特征矩阵分割成多个子目标特征矩阵;
对各个所述候选特征矩阵对应的多个子候选特征矩阵进行跨区域特征交互,得到各个所述候选对象的图像对应的局部增强特征矩阵,以及对所述目标特征矩阵对应的多个子目标特征矩阵进行跨区域特征交互,得到所述目标对象的图像对应的局部增强特征矩阵;
根据各个所述候选对象的图像对应的局部增强特征矩阵和所述目标对象的图像对应的局部增强特征矩阵,从各个所述候选对象中确定与所述目标对象匹配的候选对象。
2.根据权利要求1所述的方法,其特征在于,所述对各个所述候选特征矩阵对应的多个子候选特征矩阵进行跨区域特征交互,得到各个所述候选对象的图像对应的局部增强特征矩阵包括:
对各个所述候选特征矩阵对应的多个子候选特征矩阵进行相加处理,得到各个所述候选特征矩阵对应的候选全局特征矩阵;
将各个所述候选特征矩阵对应的候选全局特征矩阵输入至全局平均池化层,通过所述全局平均池化层对各个所述候选全局特征矩阵进行降维处理,并将各个降维处理结果输入至第一卷积层,通过所述第一卷积层对各个降维处理结果进行卷积处理,得到各个所述候选全局特征矩阵对应的卷积结果;
将各个所述候选特征矩阵对应的多个子候选特征矩阵输入至第二卷积层,通过所述第二卷积层分别对各个所述子候选特征矩阵进行卷积处理,得到各个所述子候选特征矩阵对应的卷积结果;
根据所述候选全局特征矩阵对应的卷积结果和各个所述子候选特征矩阵对应的卷积结果,确定所述候选对象的图像对应的局部增强特征矩阵。
3.根据权利要求2所述的方法,其特征在于,所述根据所述候选全局特征矩阵对应的卷积结果和各个所述子候选特征矩阵对应的卷积结果,确定所述候选对象的图像对应的局部增强特征矩阵包括:
以通道为拼接维度,对所述候选全局特征矩阵对应的卷积结果和各个所述子候选特征矩阵对应的卷积结果进行拼接处理;
将拼接结果输入至第三卷积层,通过所述第三卷积层对所述拼接结果进行卷积处理,并将该卷积结果与各个所述子候选特征矩阵对应的卷积结果进行相加处理,得到所述候选对象的图像对应的局部增强特征矩阵。
4.根据权利要求1所述的方法,其特征在于,所述对所述目标特征矩阵对应的多个子目标特征矩阵进行跨区域特征交互,得到所述目标对象的图像对应的局部增强特征矩阵包括:
对所述目标特征矩阵对应的多个子目标特征矩阵进行相加处理,得到所述目标特征矩阵对应的目标全局特征矩阵;
将所述目标特征矩阵对应的目标全局特征矩阵输入至全局平均池化层,通过所述全局平均池化层对所述目标特征矩阵对应的目标全局特征矩阵进行降维处理,并将该降维处理结果输入至第一卷积层,通过所述第一卷积层对该降维处理结果进行卷积处理,得到所述目标全局特征矩阵对应的卷积结果;
将所述目标特征矩阵对应的多个子目标特征矩阵输入至第二卷积层,通过所述第二卷积层分别对各个所述子目标特征矩阵进行卷积处理,得到各个所述子目标特征矩阵对应的卷积结果;
根据所述目标全局特征矩阵对应的卷积结果和各个所述子目标特征矩阵对应的卷积结果,确定所述目标对象的图像对应的局部增强特征矩阵。
5.根据权利要求4所述的方法,其特征在于,所述根据所述目标全局特征矩阵对应的卷积结果和各个所述子目标特征矩阵对应的卷积结果,确定所述目标对象的图像对应的局部增强特征矩阵包括:
以通道为拼接维度,对所述目标全局特征矩阵对应的卷积结果和各个所述子目标特征矩阵对应的卷积结果进行拼接处理;
将拼接结果输入至第三卷积层,通过所述第三卷积层对所述拼接结果进行卷积处理,并将该卷积结果与各个所述子目标特征矩阵对应的卷积结果进行相加处理,得到所述候选对象的图像对应的局部增强特征矩阵。
6.根据权利要求1所述的方法,其特征在于,所述根据各个所述候选对象的图像对应的局部增强特征矩阵和所述目标对象的图像对应的局部增强特征矩阵,从各个所述候选对象中确定与所述目标对象匹配的候选对象包括:
分别计算各个所述候选对象的图像对应的局部增强特征矩阵与所述目标对象的图像对应的局部增强特征矩阵之间的相似度;
根据各个相似度和预设相似度阈值,从各个所述候选对象中确定与所述目标对象匹配的候选对象。
7.根据权利要求1所述的方法,其特征在于,在所述获取待识别图像集合之前,所述方法还包括:
获取训练样本,所述训练样本中包含多个训练对象的图像和各个训练对象的真实标签;
将各个所述训练对象的图像和各个所述训练对象的真实标签输入至所述图像识别模型,以从各个所述训练对象的图像中提取对应的训练特征矩阵;
按照所述通道均等原则将各个所述训练特征矩阵分割成对应的多个子训练特征矩阵;
对各个所述训练特征矩阵对应的多个子训练特征矩阵进行跨区域特征交互,得到各个所述训练对象的图像对应的局部增强特征矩阵;
根据各个所述训练对象的图像对应的局部增强特征矩阵,对各个所述训练对象进行分类处理,得到各个所述训练对象的标签预测概率;
根据各个所述训练对象的标签预测概率和各个所述训练对象的真实标签,计算损失,并根据所述损失更新所述图像识别模型中的网络参数。
8.一种目标对象的图像确定装置,其特征在于,所述装置包括:
获取模块,用于获取待识别图像集合,所述待识别图像集合中包含多个候选对象的图像和一个目标对象的图像;
特征提取模块,用于将各个所述候选对象的图像和所述目标图像的图像输入至图像处理模型,以从各个所述候选对象的图像中提取对应的候选特征矩阵,以及从所述目标对象的图像中提取对应的目标特征矩阵;
分割模块,用于按照通道均等原则将各个所述候选特征矩阵分割成对应的多个子候选特征矩阵,以及按照所述通道均等原则将所述目标特征矩阵分割成多个子目标特征矩阵;
特征交互模块,用于对各个所述候选特征矩阵对应的多个子候选特征矩阵进行跨区域特征交互,得到各个所述候选对象的图像对应的局部增强特征矩阵,以及对所述目标特征矩阵对应的多个子目标特征矩阵进行跨区域特征交互,得到所述目标对象的图像对应的局部增强特征矩阵;
确定模块,用于根据各个所述候选对象的图像对应的局部增强特征矩阵和所述目标对象的图像对应的局部增强特征矩阵,从各个所述候选对象中确定与所述目标对象匹配的候选对象。
9.一种电子设备,包括存储器、处理器以及存储在所述存储器中并且可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至7中任一项所述方法的步骤。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7中任一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311434927.1A CN117475136A (zh) | 2023-10-30 | 2023-10-30 | 目标对象的图像确定方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311434927.1A CN117475136A (zh) | 2023-10-30 | 2023-10-30 | 目标对象的图像确定方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117475136A true CN117475136A (zh) | 2024-01-30 |
Family
ID=89637373
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311434927.1A Pending CN117475136A (zh) | 2023-10-30 | 2023-10-30 | 目标对象的图像确定方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117475136A (zh) |
-
2023
- 2023-10-30 CN CN202311434927.1A patent/CN117475136A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109117777B (zh) | 生成信息的方法和装置 | |
CN111476284B (zh) | 图像识别模型训练及图像识别方法、装置、电子设备 | |
EP3893125A1 (en) | Method and apparatus for searching video segment, device, medium and computer program product | |
CN110363220B (zh) | 行为类别检测方法、装置、电子设备和计算机可读介质 | |
CN111931859B (zh) | 一种多标签图像识别方法和装置 | |
CN111582409A (zh) | 图像标签分类网络的训练方法、图像标签分类方法及设备 | |
EP3249610B1 (en) | A method, an apparatus and a computer program product for video object segmentation | |
CN112766284A (zh) | 图像识别方法和装置、存储介质和电子设备 | |
CN115100717A (zh) | 特征提取模型的训练方法、卡通对象的识别方法及装置 | |
CN112801960B (zh) | 图像处理方法及装置、存储介质、电子设备 | |
CN115546554A (zh) | 敏感图像的识别方法、装置、设备和计算机可读存储介质 | |
CN117475136A (zh) | 目标对象的图像确定方法及装置 | |
CN114429628A (zh) | 图像处理方法、装置、可读存储介质及电子设备 | |
CN108287817B (zh) | 一种信息处理方法及设备 | |
CN112214639A (zh) | 视频筛选方法、视频筛选装置及终端设备 | |
CN111639198A (zh) | 媒体文件识别方法、装置、可读介质及电子设备 | |
CN117435739B (zh) | 图像文本分类的方法及装置 | |
CN116630639B (zh) | 对象图像的识别方法及装置 | |
CN116912631B (zh) | 目标识别方法、装置、电子设备及存储介质 | |
CN111898658B (zh) | 图像分类方法、装置和电子设备 | |
CN116580063B (zh) | 目标追踪方法、装置、电子设备及存储介质 | |
CN116912889B (zh) | 行人重识别方法及装置 | |
CN117421641B (zh) | 一种文本分类的方法、装置、电子设备及可读存储介质 | |
CN117423047A (zh) | 基于特征图像的计数方法、装置、电子设备及存储介质 | |
CN116977742A (zh) | 图像分类方法、装置、电子设备和计算机可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |