CN114998668A - 特征提取方法、装置、存储介质及电子设备 - Google Patents
特征提取方法、装置、存储介质及电子设备 Download PDFInfo
- Publication number
- CN114998668A CN114998668A CN202210770670.6A CN202210770670A CN114998668A CN 114998668 A CN114998668 A CN 114998668A CN 202210770670 A CN202210770670 A CN 202210770670A CN 114998668 A CN114998668 A CN 114998668A
- Authority
- CN
- China
- Prior art keywords
- data
- network
- feature extraction
- identified
- local
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/7715—Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Multimedia (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Biodiversity & Conservation Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
Abstract
本公开提供一种特征提取方法、装置、存储介质及电子设备;涉及人工智能技术领域。所述方法包括:根据待识别数据和所述待识别数据中的局部数据得到预设神经网络的输入数据;利用所述预设神经网络对所述输入数据进行融合特征提取,得到所述待识别数据的目标特征。本公开利用神经网络对全局数据和局部数据进行融合特征提取,可以提高神经网络识别的特征精度。
Description
技术领域
本公开涉及人工智能技术领域,具体而言,涉及一种特征提取方法、特征提取装置、计算机可读存储介质以及电子设备。
背景技术
随着大数据时代的来临,神经网络被应用到人工智能的各个领域当中,如图像识别、无人汽车等领域。
例如,在图像识别领域中,利用神经网络提取的图像特征可以在后续的神经网络中完成特定的任务,如人脸识别,图像分割等。其中,如何提高图像特征提取的准确性,一直是备受关注的技术问题。
需要说明的是,在上述背景技术部分公开的信息仅用于增强对本公开的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。
发明内容
本公开的目的在于提供一种特征提取方法、特征提取装置、计算机可读存储介质以及电子设备,进而至少在一定程度上克服由于相关技术导致的神经网络识别的特征精度存在局限性,使得神经网络识别的准确性较低的问题。
根据本公开的第一方面,提供一种特征提取方法,包括:
根据待识别数据和所述待识别数据中的局部数据得到预设神经网络的输入数据;
利用所述预设神经网络对所述输入数据进行融合特征提取,得到所述待识别数据的目标特征。
在本公开的一种示例性实施例中,所述预设神经网络至少包括编码器网络和解码器网络,所述编码器网络包括多个下采样层,每个下采样层至少包括多个卷积层和一个池化层,所述解码器网络包括多个上采样层,每个上采样层至少包括一个反卷积层和多个卷积层。
在本公开的一种示例性实施例中,所述预设神经网络还包括局部特征提取网络,所述局部特征提取网络的网络结构与所述编码器网络的网络结构相同;所述根据待识别数据和所述待识别数据中的局部数据得到预设神经网络的输入数据,包括:
将所述待识别数据作为所述编码器网络的输入数据;
将所述待识别数据的局部数据作为所述局部特征提取网络的输入数据。
在本公开的一种示例性实施例中,所述利用所述预设神经网络对所述输入数据进行融合特征提取,得到所述待识别数据的目标特征,包括:
利用所述编码器网络对所述待识别数据进行特征提取,得到所述编码器网络的第一输出特征;
利用所述局部特征提取网络对所述待识别数据中的局部数据进行特征提取,得到所述局部数据的第一特征表示;
将所述编码器网络的第一输出特征和所述局部数据的第一特征表示进行拼接,得到所述解码器网络的第一输入特征;
利用所述解码器网络对所述第一输入特征进行特征提取,得到所述待识别数据的目标特征。
在本公开的一种示例性实施例中,利用所述预设神经网络对所述输入数据进行融合特征提取前,所述方法还包括:
对所述预设神经网络中的所述编码器网络和所述局部特征提取网络进行训练;其中,所述编码器网络的参数初始值与所述局部特征提取网络的参数初始值相同。
在本公开的一种示例性实施例中,所述对所述预设神经网络中的所述编码器网络和所述局部特征提取网络进行训练,包括:
根据预设的参数映射关系对所述编码器网络的参数和所述局部特征提取网络的参数进行迭代,当满足迭代终止条件时,完成对所述编码器网络和所述局部特征提取网络的训练;
其中,所述参数映射关系用于确定迭代后的编码器网络的参数和对应的局部特征提取网络的参数。
在本公开的一种示例性实施例中,所述根据待识别数据和所述待识别数据中的局部数据得到预设神经网络的输入数据,包括:
基于所述待识别数据,构建所述待识别数据中的局部数据的矩阵表示,得到局部数据矩阵;
将所述待识别数据和所述局部数据矩阵中的各对应元素进行组合,得到组合数据;
将所述组合数据作为所述编码器网络的输入数据。
在本公开的一种示例性实施例中,所述将所述待识别数据和所述局部数据矩阵中的各对应元素进行组合,得到组合数据,包括:
根据:
将待识别数据X和局部数据矩阵Y中的各对应元素进行组合,得到组合数据Z;其中,Z(i,j,k)表示组合数据Z中第i行、第j列、第k个通道对应的空间位置上的元素值,分别表示图像数据X、局部数据矩阵Y中第行、第列、第k个通道对应的空间位置上的元素值,表示向上取整运算,为组合系数。
在本公开的一种示例性实施例中,所述利用所述预设神经网络对所述输入数据进行融合特征提取,得到所述待识别数据的目标特征,包括:
利用所述编码器网络对所述组合数据进行特征提取,得到所述编码器网络的第二输出特征,所述编码器网络的第一个下采样层包括多个空洞卷积层和一个池化层;
对所述编码器网络的第二输出特征进行卷积运算,得到所述解码器网络的第二输入特征;
利用所述解码器网络对所述第二输入特征进行特征提取,得到所述待识别数据的目标特征。
在本公开的一种示例性实施例中,所述预设神经网络还包括局部特征融合网络,所述局部特征融合网络包括多个空洞卷积层和一个池化层;所述利用所述预设神经网络对所述输入数据进行融合特征提取,得到所述待识别数据的目标特征,包括:
将所述组合数据输入所述局部特征融合网络中,得到融合数据;
利用所述预设神经网络中的编码器网络和解码器网络对所述融合数据进行特征提取,得到所述待识别数据的目标特征。
在本公开的一种示例性实施例中,所述预设神经网络还包括分类器;得到所述待识别数据的目标特征后,所述方法还包括:
通过所述分类器对所述待识别数据的目标特征进行分类预测,得到所述待识别数据的分类结果。
根据本公开的第二方面,提供一种特征提取装置,包括:
输入数据生成模块,用于根据待识别数据和所述待识别数据中的局部数据得到预设神经网络的输入数据;
目标特征提取模块,用于利用所述预设神经网络对所述输入数据进行融合特征提取,得到所述待识别数据的目标特征。
根据本公开的第三方面,提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述任意一项所述的方法。
根据本公开的第四方面,提供一种电子设备,包括:处理器;以及存储器,用于存储所述处理器的可执行指令;其中,所述处理器配置为经由执行所述可执行指令来执行上述任意一项所述的方法。
本公开示例性实施例可以具有以下部分或全部有益效果:
在本公开示例实施方式所提供的特征提取方法中,根据待识别数据和所述待识别数据中的局部数据得到预设神经网络的输入数据;利用所述预设神经网络对所述输入数据进行融合特征提取,得到所述待识别数据的目标特征。本公开通过将局部数据引入神经网络中,并利用神经网络对全局数据和局部数据进行融合特征提取,可以得到特征增强后的全局特征,提高了神经网络识别的特征精度,进而提高了神经网络识别的准确性。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1示出了可以应用本公开实施例的一种特征提取方法及装置的示例性系统架构的示意图;
图2示意性示出了根据本公开的一个实施例的图像分割的示意图;
图3示意性示出了根据本公开的一个实施例的特征提取方法的流程图;
图4示意性示出了根据本公开的一个实施例的U-Net网络改进后的网络结构示意图;
图5示意性示出了根据本公开的另一个实施例的U-Net网络改进后的网络结构示意图;
图6示意性示出了根据本公开的一个实施例的空洞卷积层的结构示意图;
图7示意性示出了根据本公开的一个实施例的矩阵间进行卷积运算的示意图;
图8示意性示出了根据本公开的一个实施例的融合特征提取的流程图;
图9示意性示出了根据本公开的另一个实施例的融合特征提取的流程图;
图10示意性示出了根据本公开的又一个实施例的U-Net网络改进后的网络结构示意图;
图11示意性示出了根据本公开的又一个实施例的融合特征提取的流程图;
图12示意性示出了根据本公开的一个实施例的特征提取装置的框图;
图13示意性示出了适于用来实现本公开实施例的电子设备的计算机系统的结构示意图。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本公开将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施方式中。在下面的描述中,提供许多具体细节从而给出对本公开的实施方式的充分理解。然而,本领域技术人员将意识到,可以实践本公开的技术方案而省略所述特定细节中的一个或更多,或者可以采用其它的方法、组元、装置、步骤等。在其它情况下,不详细示出或描述公知技术方案以避免喧宾夺主而使得本公开的各方面变得模糊。
此外,附图仅为本公开的示意性图解,并非一定是按比例绘制。图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。附图中所示的一些方框图是功能实体,不一定必须与物理或逻辑上独立的实体相对应。可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
图1示出了可以应用本公开实施例的一种特征提取方法及装置的示例性应用环境的系统架构的示意图。
如图1所示,系统架构100可以包括终端设备101、102、103中的一个或多个,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。终端设备101、102、103可以是各种电子设备,包括但不限于台式计算机、便携式计算机、智能手机和平板电脑等。应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。例如,服务器105可以是一个服务器,也可以是多个服务器组成的服务器集群,还可以是云计算平台或者虚拟化中心。具体地,服务器105可以用于执行:根据待识别数据和所述待识别数据中的局部数据得到预设神经网络的输入数据;利用所述预设神经网络对所述输入数据进行融合特征提取,得到所述待识别数据的目标特征。
本公开实施例所提供的特征提取方法一般由服务器105执行,相应的,特征提取装置一般设置于服务器105。例如,服务器105可以将预设神经网络模型输出的待识别数据的目标特征发送至终端设备,并通过终端设备向用户进行展示。但本领域技术人员容易理解的是,本公开实施例所提供的特征提取方法也可以由终端设备101、102、103中的一个或多个执行,相应地,特征提取装置也可以设置于终端设备101、102、103中。例如,由终端设备101执行特征提取方法后,可以将提取到的待识别数据的目标特征直接显示在终端设备的显示屏上,本示例性实施例中对此不做特殊限定。
以下对本公开实施例的技术方案进行详细阐述:
本公开示例实施方式中,可以以利用神经网络进行图像分割的场景为例进行说明。如图2所示,图(A)为待识别的图像,需要识别该图像中的动植物。具体地,可以将该图像设置为三维数据,并将其作为神经网络的输入数据,得到同样维度大小的输出数据。例如,输入数据可以是:图像行数(h)*图像列数(w)*图像通道数(channels),输出数据可以是:图像行数(h)*图像列数(w)*图像分类数(classes)。图(B)和图(C)为准确识别下的分类结果示意图,其中,图(B)为豹类分类结果,图(C)为树木类分类结果。
但是,在实际应用中,提取图像特征的特征精度存在一定的局限性。例如,神经网络容易将图(A)中的豹耳识别为背景,从而降低了神经网络识别的准确性。
基于上述一个或多个问题,本示例实施方式提供了一种特征提取方法,该方法可以应用于上述服务器105,也可以应用于上述终端设备101、102、103中的一个或多个,本示例性实施例中对此不做特殊限定。参考图3所示,该特征提取方法可以包括步骤S310和步骤S320:
步骤S310.根据待识别数据和所述待识别数据中的局部数据得到预设神经网络的输入数据;
步骤S320.利用所述预设神经网络对所述输入数据进行融合特征提取,得到所述待识别数据的目标特征。
在本公开示例实施方式所提供的特征提取方法中,根据待识别数据和所述待识别数据中的局部数据得到预设神经网络的输入数据;利用所述预设神经网络对所述输入数据进行融合特征提取,得到所述待识别数据的目标特征。本公开通过将局部数据引入神经网络中,并利用神经网络对全局数据和局部数据进行融合特征提取,可以得到特征增强后的全局特征,提高了神经网络识别的特征精度,进而提高了神经网络识别的准确性。
下面,对于本示例实施方式的上述步骤进行更加详细的说明。
在步骤S310中,根据待识别数据和所述待识别数据中的局部数据得到预设神经网络的输入数据。
仍以图像分割场景为例,对应的,待识别数据为图像数据,待识别数据中的局部数据为图像数据中包含的部分数据,且该部分数据具有可区分度较高的特征。本公开示例实施方式中,可以根据先验知识确定待识别数据中的局部数据对应的分类结果。其中,先验知识可以是指研究对象具有的特殊性质。例如,可以根据先验知识确定图2(A)对应的图像数据中像素值较大的部分数据属于一个确定的类别,如为树木类别。
示例性的,将待识别数据输入预设神经网络进行特征提取时,可以将待识别数据用一个三维矩阵表示,如h*w*channels,用来表示待识别数据为图像数据。类似的,将待识别数据中的局部数据作为预设神经网络的输入数据时,可以将待识别数据中的局部数据初始化为一个全0的三维矩阵,记为局部数据矩阵,其大小与输出的目标特征大小相同,为h*w*classes。若根据先验知识可以确定待识别数据中部分像素的分类,则可以在局部数据矩阵中对该部分像素对应的分类通道的元素进行赋值,如将该元素赋值为该部分像素识别为正类别的概率值,概率值的区间可以为[0,1]。例如,若该部分像素的正确分类类别为豹子类别,可以将局部数据矩阵中对应的元素赋值为该部分像素识别为豹子类别的概率值,如概率值为0.8。
其中,预设神经网络可以至少包括编码器网络和解码器网络,编码器网络可以包括多个下采样层,每个下采样层至少包括多个卷积层和一个池化层,解码器网络可以包括多个上采样层,每个上采样层至少包括一个反卷积层和多个卷积层。可以理解的是,根据实现需要,下采样层和上采样层的数目可以是任意的,以及下采样层中包含的卷积层的数目也是任意的,本公开对此不做具体限定。示例性的,预设神经网络可以是U-Net网络、Transformer网络等,也可以是包含编码器网络和解码器网络的其他网络模型,本公开对此不做具体限定。
一种示例实施方式中,预设神经网络还可以包括局部特征提取网络。具体地,可以根据编码器网络构建局部特征提取网络,其中,局部特征提取网络的网络结构与编码器网络的网络结构相同,并将待识别数据作为编码器网络的输入数据,将待识别数据的局部数据作为局部特征提取网络的输入数据。
该示例中,可以以预设神经网络为改进后的U-Net网络为例进行说明。参考图4所示,示意性的给出了一种改进后的U-Net网络的网络结构的示意图,该U-Net网络中含有解码器网络202和双流编码器,分别为编码器网络201和编码器网络203,编码器网络203为根据编码器网络201构建的局部特征提取网络,可以看出,编码器网络201和编码器网络203的网络结构完全相同。其中,编码器网络201包括三个下采样层(2011、2012和2013),解码器网络202包括三个上采样层(2022、2023和2024)。需要说明的是,本公开对下采样层的数目和上采样层的数目不做具体限定,但下采样层的数目和上采样层的数目是相同的。在编码器网络201与解码器网络202之间建立了三个特征传播层(2031、2032和2033)。对于编码器网络201,可以通过三个下采样层对待识别数据进行特征提取,并由三个特征传播层将提取到的特征图传输至解码器网络202。对于解码器网络202,可以通过三个上采样层对待识别数据进行特征提取,同时还对待识别数据进行特征融合。
具体地,对于编码器网络201中各个下采样层的网络结构,以下采样层2011为例,下采样层2011包括两个卷积层和一个池化层,卷积层可以是浅层卷积层,浅层卷积层的感受野较小,感受野重叠区域也较小,可以保证神经网络捕获更多细节。卷积层中具有可学习的参数,可以通过对预设神经网络进行训练以对卷积层中的参数进行拟合。池化层可以为最大池化层,也可以为平均池化层。在编码器网络201中,横向空心箭头表示由卷积层进行卷积处理,向下实心箭头表示由最大池化层进行最大池化下采样处理,或表示由平均池化层进行平均池化下采样处理。对于解码器网络202中各个上采样层的网络结构,以上采样层2022为例,上采样层2022包括一个反卷积层和两个卷积层,卷积层与反卷积层中均有可学习的参数,同样可以通过对预设神经网络进行训练以对该参数进行拟合。在解码器网络202中,横向空心箭头表示由卷积层进行卷积处理,向上实心箭头表示由反卷积层进行反卷积上采样处理。
可以将待识别数据作为编码器网络201的输入数据,得到待识别数据的全局特征。可以将待识别数据的局部数据作为局部特征提取网络(编码器网络203)的输入数据,得到待识别数据的局部特征,将该局部特征传播至编码器网络201,以将待识别数据的全局特征和局部特征的通道维度进行拼接,得到图4中所示的特征图2014。对拼接得到的特征图2014进行卷积运算,得到解码器网络202的输入,即图4中所示的特征图2021。其他示例中,也可以将待识别数据的全局特征和局部特征通过逐元素求和的方式对特征图参数进行传播,也就是将待识别数据的局部特征传输至编码器网络201,本公开对此不做限定。
图4所示的网络结构具备拓展性与容错性,该网络结构可以扩展到所有包含编解码网络结构的神经网络中,均可以对待识别数据和待识别数据中的局部数据进行特征提取,同时将待识别数据的局部数据作为神经网络的输入,使得神经网络输出的特征图可以更准确的描述待识别数据,从而提高了神经网络的特征精度。利用新增的网络分支即编码器网络203同时对待识别数据的局部数据进行特征提取,并将提取到的局部特征融入编码器网络201中,以便于解码器网络202对待识别数据的全局特征和局部特征进行融合特征提取,提高了神经网络的运行效率。
另一种示例实施方式中,预设神经网络中编码器网络的第一个下采样层可以包括多个空洞卷积层和一个池化层。该示例中,仍以预设神经网络为改进后的U-Net网络为例进行说明。参考图5所示,示意性的给出了另一种改进后的U-Net网络的网络结构的示意图,该U-Net网络中含有编码器网络201和解码器网络202。需要说明的是,图5中所示的编码器网络201的下采样层2011由两个空洞卷积层(2041和2042)和一个池化层(2043)组成。如图6所示,给出了空洞卷积层的结构示意图,其中,空洞卷积层通过在标准卷积的卷积核上注入空洞,可以增加卷积运算的感受野,使得卷积输出包含较大范围的信息。该示例中,可以初始化空洞卷积层的超参数,如预设空洞卷积层的膨胀率r=2,步长s=2,膨胀率用来定义卷积核各元素间的距离,可以理解的是,本公开对空洞卷积层的膨胀率和步长的具体取值不做限定。另外,下采样层2011中的池化层2043可以为平均池化层,也可以为最大池化层,本公开对此也不做限定。
该示例中,可以基于待识别数据,构建所述待识别数据中的局部数据的矩阵表示,得到局部数据矩阵;将所述待识别数据和所述局部数据矩阵中的各对应元素进行组合,得到组合数据,并将该组合数据作为图5中所示的编码器网络201的输入数据。具体地,参考图7所示,待识别数据为图像数据时,可以将待识别数据以三维矩阵的形式表示,得到图像数据X,为h*w*channels。同时,可以根据图像数据的矩阵大小,将先验知识数据化,也就是将待识别数据中的局部数据以三维矩阵的形式表示,得到局部数据矩阵Y,如也为h*w*channels,二者矩阵大小相同。
可以根据公式(1)对图像数据X和局部数据矩阵Y中的各对应元素进行组合。具体地,可以根据:
得到组合数据Z,组合数据Z的矩阵大小为(2h)*(2w)*channels。其中,Z(i,j,k)表示组合数据Z中第i行、第j列、第k个通道对应的空间位置上的元素值,分别表示图像数据X、局部数据矩阵Y的第行、第列、第k个通道对应的空间位置上的元素值,表示向上取整运算,为组合系数。
举例而言,对于组合数据Z中第1行、第1列、第k个通道对应的空间位置上的元素值,即i=1,j=1时,组合系数此时,可以将图像数据X中第1行、第1列、第k个通道对应的空间位置上的元素值赋值为组合数据Z中第1行、第1列、第k个通道对应的空间位置上的元素值。类似的,对于组合数据Z中第1行、第2列、第k个通道对应的空间位置上的元素值,即i=1,j=2时,组合系数 此时,可以将局部数据矩阵Y中第1行、第2列、第k个通道对应的空间位置上的元素值赋值为组合数据Z中第1行、第2列、第k个通道对应的空间位置上的元素值,赋值后得到的组合数据Z如图7所示。
图5所示的网络结构未新增网络分支,而是将原编码器网络中的浅层卷积层替换为空洞卷积层,结合池化层即可实现待识别数据和待识别数据的局部数据之间的并流融合。相比于图4所示的网络结构,不仅可以提高神经网络的训练效率和运行效率,同时还可以保持神经网络的轻量化。
在步骤S320中,利用所述预设神经网络对所述输入数据进行融合特征提取,得到所述待识别数据的目标特征。
预设神经网络为图4所示的U-Net网络的网络结构时,可以将待识别数据作为其中的编码器网络201的输入数据,同时可以将待识别数据的局部数据作为其中的编码器网络203的输入数据。利用编码器网络201对待识别数据进行特征提取,得到待识别数据的全局特征,利用编码器网络203对待识别数据的局部数据进行特征提取,得到待识别数据的局部特征。然后,再利用解码器网络202对待识别数据的全局特征和局部特征进行融合特征提取,得到该待识别数据的目标特征。
一种示例实施方式中,参考图8所示,可以根据步骤S810至步骤S840通过图4所示的U-Net网络的网络结构对输入数据进行融合特征提取,得到待识别数据的目标特征。
步骤S810.利用所述编码器网络对所述待识别数据进行特征提取,得到所述编码器网络的第一输出特征。
示例性的,待识别数据为图像数据时,可以将图像数据输入至编码器网络201的下采样层2011中,通过下采样层2011中的两个卷积层对输入的图像数据进行两次卷积处理,得到第一特征图,并将第一特征图通过特征传播层2031传输至解码器网络202中的上采样层2024中。同时,在编码器网络201中,可以通过下采样层2011中的池化层对第一特征图进行下采样处理,例如,可以对第一特征图进行最大池化下采样处理。然后,将下采样处理后的第一特征图输入下采样层2012中,可以理解的是,下采样层2012、下采样层2013对输入的特征图所做的处理与下采样层2011对图像数据的处理方式相同,此处不再依次赘述。类似的,可以通过下采样层2012得到第二特征图,将第二特征图通过特征传播层2032传输至解码器网络202中的上采样层2023中。最后,可以通过下采样层2013得到第三特征图,将第三特征图通过特征传播层2033传输至解码器网络202中的上采样层2022中,第三特征图即为编码器网络201的第一输出特征。
其中,随着编码器网络层次加深,对图像数据的特征提取逐渐由局部描述抽象为全局描述,可以更加准确地描述图像数据,从而有利于保证图像分割的精度。
步骤S820.利用所述局部特征提取网络对所述待识别数据中的局部数据进行特征提取,得到所述局部数据的第一特征表示。
与步骤S810对应,待识别数据中的局部数据为图像数据中的部分数据,例如,可以使用局部数据矩阵表示该部分数据。局部特征提取网络为编码器网络203,其网络结构与编码器网络201相同。可以利用编码器网络203对局部数据矩阵进行特征提取,得到局部数据矩阵的第一特征表示,具体的特征提取过程可以参考步骤S810,此处不再详细赘述。
步骤S830.将所述编码器网络的第一输出特征和所述局部数据的第一特征表示进行拼接,得到所述解码器网络的第一输入特征。
可以将局部数据的第一特征表示与编码器网络的第一输出特征进行拼接,例如,可以将二者的通道维度进行拼接,也可以通过逐元素求和的方式将二者进行拼接,以实现特征传播。将局部数据的第一特征表示与编码器网络的第一输出特征拼接得到如图4所示的特征图2014后,可以对特征图2014进行卷积运算,得到如图4所示的特征图2021,并将特征图2021作为解码器网络202的第一输入特征,以利用解码器网络202对该第一输入特征进行特征融合。
步骤S840.利用所述解码器网络对所述第一输入特征进行特征提取,得到所述待识别数据的目标特征。
首先,可以将特征图2021作为第一待融合特征图输入解码器网络202的上采样层2022,通过上采样层2022中的反卷积层对特征图2021进行反卷积上采样处理,也就是对特征图2021中包含的编码器网络的第一输出特征和局部数据的第一特征表示进行融合,得到第一融合特征图。将第一融合特征图与通过特征传播层传输来的第三特征图进行拼接,并通过上采样层2022中的两个卷积层对第一融合特征图和第三特征图拼接后的特征图依次进行两次卷积处理,得到第二待融合特征图。将第二待融合特征图输入上采样层2023中,通过上采样层2023中的反卷积层对第二待融合特征图进行反卷积上采样处理,可以理解的是,上采样层2023、上采样层2024对输入的待融合特征图所做的处理与上采样层2022对特征图2021的处理方式相同,此处不再依次赘述。类似的,可以通过上采样层2023得到第三待融合特征图,将第三待融合特征图输入上采样层2024中,依次进行反卷积上采样处理和两次卷积处理,上采样层2024的输出数据即为图像数据的目标特征。
该示例中,将待识别数据的局部数据作为含有双流编码器的预设神经网络的输入数据的一部分,通过双流编码器提取到待识别数据的全局特征和局部特征,并通过预设神经网络中的解码器网络融合待识别数据的全局特征和局部特征后,可以实现全局特征的特征增强,提高了预设神经网络识别的特征精度。进一步的,利用含有双流编码器的预设神经网络进行相关领域的识别应用时,如进行图像识别、人脸识别等,可以提高预设神经网络识别的准确性。
通过图4所示的U-Net网络的网络结构对输入数据进行融合特征提取前,可以对该网络结构进行训练。示例性,可以利用由输入数据和输出数据组成的数据集,对参数进行拟合。参数拟合完成后,可以通过该网络结构进行特征提取、图像分割等。
一种示例实施方式中,如图4所示,该U-Net网络中包括编码器网络(201)、局部特征提取网络(即编码器网络203)和解码器网络(202)三部分,本示例中主要对编码器网络和局部特征提取网络的训练过程进行说明。可以理解的是,训练编码器网络和局部特征提取网络的同时,解码器网络的参数也在不断地进行迭代,以拟合得到较优的参数。示例性的,在编码器网络和局部特征提取网络的训练过程中,可以在该部分网络结构的训练过程中加入参数互联机制,也就是建立双流编码器的参数之间的映射关系,以提高该网络结构的训练效率。其中,编码器网络的参数初始值与局部特征提取网络的参数初始值相同。
具体地,编码器网络中有可学习的卷积层参数,编码器网络201与局部特征提取网络203具有相同的网络结构,因此,二者在对应卷积层、池化层的参数规模也是相同的,对应的,编码器网络201的参数集合到局部特征提取网络203的参数集合是满射的,即局部特征提取网络203中的每个参数在编码器网络201中都有对应的参数。例如,X表示编码器网络201的参数集合,Y表示局部特征提取网络203的参数集合,编码器网络201与局部特征提取网络203之间的参数映射关系,表示为:
Y(i)=f[X(i)] (2)
其中,参数映射关系可以用于确定迭代后的编码器网络的参数和对应的局部特征提取网络的参数。
举例而言,可以预设编码器网络201与局部特征提取网络203之间的参数映射关系为:
其中,X1(i)表示当前迭代后的编码器网络201的第i个参数,Y1(i)表示当前迭代后的局部特征提取网络203的第i个参数,X2(i)表示用于下一次迭代的编码器网络201的第i个参数,Y1(i)表示用于下一次迭代的局部特征提取网络203的第i个参数。需要说明的是,编码器网络的参数初始值与局部特征提取网络的参数初始值相同,当局部特征提取网络203的参数和编码器网络201的参数进行梯度更新后,两个网络中的参数会发生变化。本示例中,可以利用参数映射关系使得每次用于迭代的编码器网络的参数和对应的局部特征提取网络的参数相同。具体地,可以将X1(i)和Y1(i)的平均值作为下一次迭代的编码器网络201和局部特征提取网络203的第i个参数。
需要说明的是,训练过程中,需要预设编码器网络的参数初始值与局部特征提取网络的参数初始值相同。对编码器网络与局部特征提取网络使用相同的参数初始值,参数会在训练中不断变化,但是,通过使用参数映射关系调整编码器网络中的参数与局部特征提取网络中的参数,使得编码器网络与局部特征提取网络在参数拟合的过程中可以保持确定的映射关系,便于拟合得到较优的参数。
示例性的,可以根据预设的参数映射关系对编码器网络的参数和局部特征提取网络的参数进行迭代,当满足迭代终止条件时,完成对编码器网络和局部特征提取网络的训练。例如,可以根据输入数据和输出数据构建目标函数,基于该目标函数,可以利用随机梯度下降算法对编码器网络的参数和局部特征提取网络的参数进行迭代更新,当满足迭代终止条件时,完成对编码器网络和局部特征提取网络的训练。其中,迭代终止条件可以是目标函数收敛时,完成对所有参数的训练,也可以通过反向迭代式更新参数,当满足预设的迭代次数时,完成对所有参数的训练,本公开对此不做限定。
该示例中,编码器网络与局部特征提取网络的各个层级之间无特征传播层,仅是将编码器网络的输出特征与局部特征提取网络的输出特征进行了拼接操作,因此,在前向推理过程中,编码器网络与局部特征提取网络的各层推理结果相对独立。而且,若编码器网络与局部特征提取网络具有不同的初始参数值,二者提取到的特征也不同。以及,若编码器网络的参数与局部特征提取网络的参数之间无映射关系,导致信息不能相互传递。基于此进行参数拟合时,参数的梯度更新仅受到所在网络结构的影响,使得参数拟合的效果较差。可以看出,参数互联机制可以实现各个网络结构间的特征共享,便于拟合得到较优的参数。另外,参数互联机制中,编码器网络的参数与局部特征提取网络的参数有确定的参数映射关系,例如,编码器网络的参数可以由局部特征提取网络的参数计算得到,参数储存时,只需存储编码器网络的参数或局部特征提取网络的参数,节约了储存空间,使得神经网络的结构更加轻量化。
预设神经网络为图5所示的U-Net网络的网络结构时,可以基于待识别数据,构建待识别数据中的局部数据的矩阵表示,得到局部数据矩阵,将待识别数据和局部数据矩阵中的各对应元素进行组合,得到组合数据,并将该组合数据作为图5中所示的编码器网络201的输入数据。利用编码器网络201和解码器网络202对组合数据进行融合特征提取,得到该待识别数据的目标特征。
另一种示例实施方式中,参考图9所示,可以根据步骤S910至步骤S930通过图5所示的U-Net网络的网络结构对输入数据进行融合特征提取,得到待识别数据的目标特征。
步骤S910.利用所述编码器网络对所述组合数据进行特征提取,得到所述编码器网络的第二输出特征,所述编码器网络的第一个下采样层包括多个空洞卷积层和一个池化层。
示例性的,待识别数据为图像数据,待识别数据中的局部数据为图像数据中的部分数据,且用局部数据矩阵表示时,由图像数据和局部数据矩阵得到组合数据。可以将组合数据输入编码器网络201的第一个下采样层2011中,下采样层2011由两个空洞卷积层(2041和2042)和一个池化层(2043)组成。通过下采样层2011中的两个空洞卷积层对输入的图像数据进行两次卷积处理,得到第四特征图,并将第四特征图通过特征传播层2031传输至解码器网络202中的上采样层2024中。同时,在编码器网络201中,可以通过下采样层2011中的池化层对第四特征图进行下采样处理,例如,可以对第四特征图进行平均池化下采样处理。需要说明的是,利用空洞卷积层对组合数据进行卷积运算后,组合数据中的图像数据部分与局部数据矩阵部分仍保持相对独立的空间分布状态,直至池化层将图像数据与局部数据矩阵融合。
然后,将下采样处理后的第四特征图输入下采样层2012中,可以理解的是,下采样层2012、下采样层2013对输入的特征图所做的处理与下采样层2011对图像数据的处理方式相同,此处不再依次赘述。类似的,可以通过下采样层2012得到第五特征图,将第五特征图通过特征传播层2032传输至解码器网络202中的上采样层2023中。最后,可以通过下采样层2013得到第六特征图,将第三特征图通过特征传播层2033传输至解码器网络202中的上采样层2022中,第六特征图即为编码器网络201的第二输出特征。
步骤S920.对所述编码器网络的第二输出特征进行卷积运算,得到所述解码器网络的第二输入特征。
图5所示的特征图2015为编码器网络201的第二输出特征,可以对特征图2015进行卷积运算,得到如图5所示的特征图2020,并将特征图2020作为解码器网络202的第二输入特征,以利用解码器网络202对该第二输入特征进行特征融合。
步骤S930.利用所述解码器网络对所述第二输入特征进行特征提取,得到所述待识别数据的目标特征。
可以将特征图2020作为第四待融合特征图输入解码器网络202的上采样层2022,通过上采样层2022中的反卷积层对特征图2020进行反卷积上采样处理,也就是对特征图2020中包含的图像数据和局部数据矩阵进行融合,得到第四融合特征图。将第四融合特征图与通过特征传播层传输来的第三特征图进行拼接,并通过上采样层2022中的两个卷积层对第四融合特征图和第三特征图拼接后的特征图依次进行两次卷积处理,得到第五待融合特征图。将第五待融合特征图输入上采样层2023中,通过上采样层2023中的反卷积层对第五待融合特征图进行反卷积上采样处理,可以理解的是,上采样层2023、上采样层2024对输入的待融合特征图所做的处理与上采样层2022对特征图2020的处理方式相同,此处不再依次赘述。类似的,可以通过上采样层2023得到第六待融合特征图,将第六待融合特征图输入上采样层2024中,依次进行反卷积上采样处理和两次卷积处理,上采样层2024的输出数据即为图像数据的目标特征。
该示例中,将待识别数据和待识别数据的局部数据一起输入预设神经网络的编码器网络中,通过编码器网络中包含两个空洞卷积层和一个池化层的下采样层,可以将待识别数据和待识别数据的局部数据进行融合,通过解码器网络也可以将待识别数据和待识别数据的局部数据进行融合,从而实现了待识别数据的局部数据的并流融合,对全局特征进一步增强,提高了预设神经网络识别的特征精度。
由于模型重用或结构冲突等原因,无法对神经网络的网络结构进行如图4和图5所示的改进时。参考图10所示,示意性的给出了又一种改进后的预设神经网络的网络结构的示意图,该预设神经网络可以包括编码器网络和解码器网络,还可以包括局部特征融合网络,所述局部特征融合网络包括多个空洞卷积层和一个池化层。示例性的,局部特征融合网络可以包括如图5所示的编码器网络201的第一个下采样层2011,其中,下采样层2011由两个空洞卷积层(2041和2042)和一个池化层(2043)组成,池化层2043可以为平均池化层,也可以为最大池化层,本公开对此也不做限定。进一步的,可以将局部特征融合网络与编码器网络、解码器网络串联,以将待识别数据的局部数据融合到预设神经网络中。
可以基于待识别数据,构建待识别数据中的局部数据的矩阵表示,得到局部数据矩阵,并将待识别数据和局部数据矩阵中的各对应元素进行组合,得到组合数据。可以将组合数据作为局部特征融合网络即下采样层2011的输入数据,通过下采样层2011中的池化层2043将组合数据中的待识别数据部分和局部数据部分进行融合,得到融合数据。然后,将融合数据通过编码器网络和解码器网络进行特征提取和进一步的特征融合,得到输出数据。
又一种示例实施方式中,参考图11所示,可以根据步骤S1110至步骤S1120通过图10所示的预设神经网络的网络结构对输入数据进行融合特征提取,得到待识别数据的目标特征。
步骤S1110.将所述组合数据输入所述局部特征融合网络中,得到融合数据。
示例性的,待识别数据为图像数据,待识别数据中的局部数据为图像数据中的部分数据,且用局部数据矩阵表示时,由图像数据和局部数据矩阵得到组合数据。本示例中,局部特征融合网络为图10所示的下采样层2011,可以将组合数据输入下采样层2011中,通过下采样层2011中的两个空洞卷积层对输入的图像数据进行两次卷积处理,得到第四特征图。可以通过下采样层2011中的池化层对第四特征图进行下采样处理,例如,可以对第四特征图进行平均池化下采样处理,得到融合数据。
步骤S1120.利用所述预设神经网络中的编码器网络和解码器网络对所述融合数据进行特征融合,得到所述待识别数据的目标特征。
将融合数据作为编码器网络的输入数据,通过编码器网络和解码器网络对该融合数据进行特征提取和进一步的特征融合,最后得到图像数据的目标特征。以编码器网络和解码器网络为图4所示的编码器网络201和解码器网络202为例,将融合数据作为编码器网络201的输入数据后,编码器网络201和解码器网络202对融合数据的特征提取过程和特征融合过程可以参考步骤810和步骤840,此处不再赘述。
该示例中,局部特征融合网络作为预设神经网络的输入层,由编码器网络和解码器网络构成的原始网络结构成为了预设神经网络的中间层与输出层。通过改进后的神经网络,进一步融合了待识别数据和待识别数据的局部数据,在原有的计算量基本保持不变的基础上,为待识别数据的局部数据融入编解码神经网络提供了新的改进方法。
一种示例实施方式中,预设神经网络中还可以包括分类器,分类器可以设置于解码器网络之后。例如,分类器可以是Softmax分类器、sigmoid分类器等。可以通过分类器对待识别数据的目标特征进行分类预测,得到待识别数据的分类结果。示例性的,待识别数据为图像数据时,解码器网络输出图像数据的目标特征后,可以利用分类器计算目标特征中的像素点属于不同类别的概率,实现对目标特征中的像素点的类别预测,从而进行像素点分类,即图像分割。
需要说明的是,本公开的特征提取方法可以适用于有特征提取需求的多种场景,本公开仅是以图像分割场景中的特征提取进行说明。
在本公开示例实施方式所提供的特征提取方法中,根据待识别数据和所述待识别数据中的局部数据得到预设神经网络的输入数据;利用所述预设神经网络对所述输入数据进行融合特征提取,得到所述待识别数据的目标特征。本公开通过将局部数据引入神经网络中,并利用神经网络对全局数据和局部数据进行融合特征提取,可以得到特征增强后的全局特征,提高了神经网络识别的特征精度,进而提高了神经网络识别的准确性。
应当注意,尽管在附图中以特定顺序描述了本公开中方法的各个步骤,但是,这并非要求或者暗示必须按照该特定顺序来执行这些步骤,或是必须执行全部所示的步骤才能实现期望的结果。附加的或备选的,可以省略某些步骤,将多个步骤合并为一个步骤执行,以及/或者将一个步骤分解为多个步骤执行等。
进一步的,本示例实施方式中,还提供了一种特征提取装置。该装置可以应用于一终端设备或服务器。参考图12所示,该特征提取装置1200可以包括输入数据生成模块1210和目标特征提取模块1220,其中:
输入数据生成模块1210,用于根据待识别数据和所述待识别数据中的局部数据得到预设神经网络的输入数据;
目标特征提取模块1220,用于利用所述预设神经网络对所述输入数据进行融合特征提取,得到所述待识别数据的目标特征。
在一种可选的实施方式中,该特征提取装置1200中的所述预设神经网络至少包括编码器网络和解码器网络,所述编码器网络包括多个下采样层,每个下采样层至少包括多个卷积层和一个池化层,所述解码器网络包括多个上采样层,每个上采样层至少包括一个反卷积层和多个卷积层。
在一种可选的实施方式中,所述预设神经网络还包括局部特征提取网络,所述局部特征提取网络的网络结构与所述编码器网络的网络结构相同;输入数据生成模块1210包括:
提取网络构建子模块,用于根据所述编码器网络构建所述局部特征提取网络,所述局部特征提取网络的网络结构与所述编码器网络的网络结构相同;
第一输入数据生成子模块,用于将所述待识别数据作为所述编码器网络的输入数据;以及,将所述待识别数据的局部数据作为所述局部特征提取网络的输入数据。
在一种可选的实施方式中,目标特征提取模块1220包括:
第一特征提取子模块,用于利用所述编码器网络对所述待识别数据进行特征提取,得到所述编码器网络的第一输出特征;
第二特征提取子模块,用于利用所述局部特征提取网络对所述待识别数据中的局部数据进行特征提取,得到所述局部数据的第一特征表示;
第一输入特征生成子模块,用于将所述编码器网络的第一输出特征和所述局部数据的第一特征表示进行拼接,得到所述解码器网络的第一输入特征;
第一目标特征生成子模块,用于利用所述解码器网络对所述第一输入特征进行特征提取,得到所述待识别数据的目标特征。
在一种可选的实施方式中,特征提取装置1200还包括:
网络训练模块,用于对所述预设神经网络中的所述编码器网络和所述局部特征提取网络进行训练;其中,所述编码器网络的参数初始值与所述局部特征提取网络的参数初始值相同。
在一种可选的实施方式中,网络训练模块被配置为用于根据预设的参数映射关系对所述编码器网络的参数和所述局部特征提取网络的参数进行迭代,当满足迭代终止条件时,完成对所述编码器网络和所述局部特征提取网络的训练;其中,所述参数映射关系用于确定迭代后的编码器网络的参数和对应的局部特征提取网络的参数。
在一种可选的实施方式中,输入数据生成模块1210包括:
组合数据生成子模块,用于基于所述待识别数据,构建所述待识别数据中的局部数据的矩阵表示,得到局部数据矩阵;将所述待识别数据和所述局部数据矩阵中的各对应元素进行组合,得到组合数据;
第二输入数据生成子模块,用于将所述组合数据作为所述编码器网络的输入数据。
在一种可选的实施方式中,组合数据生成子模块被配置为用于根据:
将待识别数据X和局部数据矩阵Y中的各对应元素进行组合,得到组合数据Z;其中,Z(i,j,k)表示组合数据Z中第i行、第j列、第k个通道对应的空间位置上的元素值,分别表示图像数据X、局部数据矩阵Y中第行、第列、第k个通道对应的空间位置上的元素值,表示向上取整运算,为组合系数。
在一种可选的实施方式中,目标特征提取模块1220包括:
第三特征提取子模块,用于利用所述编码器网络对所述组合数据进行特征提取,得到所述编码器网络的第二输出特征,所述编码器网络的第一个下采样层包括多个空洞卷积层和一个池化层;
第一输入特征生成子模块,用于对所述编码器网络的第二输出特征进行卷积运算,得到所述解码器网络的第二输入特征;
第二目标特征生成子模块,用于利用所述解码器网络对所述第二输入特征进行特征提取,得到所述待识别数据的目标特征。
在一种可选的实施方式中,所述预设神经网络还包括局部特征融合网络,所述局部特征融合网络包括多个空洞卷积层和一个池化层;目标特征提取模块1220包括:
融合数据生成子模块,用于将所述组合数据输入所述局部特征融合网络中,得到融合数据;
第三目标特征生成子模块,用于利用所述预设神经网络中的编码器网络和解码器网络对所述融合数据进行特征融合,得到所述待识别数据的目标特征。
在一种可选的实施方式中,所述预设神经网络还包括分类器;特征提取装置1200还包括:
数据识别模块,用于通过所述分类器对所述待识别数据的目标特征进行分类预测,得到所述待识别数据的分类结果。
上述特征提取装置中各模块的具体细节已经在对应的特征提取方法中进行了详细的描述,因此此处不再赘述。
上述装置中各模块可以是通用处理器,包括:中央处理器、网络处理器等;还可以是数字信号处理器、专用集成电路、现场可编程门阵列或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。各模块也可以由软件、固件等形式来实现。上述装置中的各处理器可以是独立的处理器,也可以集成在一起。
本公开的示例性实施方式还提供了一种计算机可读存储介质,其上存储有能够实现本说明书上述方法的程序产品。在一些可能的实施方式中,本公开的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当程序产品在电子设备上运行时,程序代码用于使电子设备执行本说明书上述“示例性方法”部分中描述的根据本公开各种示例性实施方式的步骤。该程序产品可以采用便携式紧凑盘只读存储器(CD-ROM)并包括程序代码,并可以在电子设备,例如个人电脑上运行。然而,本公开的程序产品不限于此,在本文件中,可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
程序产品可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以为但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读信号介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言的任意组合来编写用于执行本公开操作的程序代码,程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
本公开的示例性实施方式还提供了一种能够实现上述方法的电子设备。下面参照图13来描述根据本公开的这种示例性实施方式的电子设备1300。图13显示的电子设备1300仅仅是一个示例,不应对本公开实施方式的功能和使用范围带来任何限制。
如图13所示,电子设备1300可以以通用计算设备的形式表现。电子设备1300的组件可以包括但不限于:至少一个处理单元1310、至少一个存储单元1320、连接不同系统组件(包括存储单元1320和处理单元1310)的总线1330和显示单元1340。
存储单元1320存储有程序代码,程序代码可以被处理单元1310执行,使得处理单元1310执行本说明书上述“示例性方法”部分中描述的根据本公开各种示例性实施方式的步骤。例如,处理单元1310可以执行图3、图8、图9和图11中任意一个或多个方法步骤。
存储单元1320可以包括易失性存储单元形式的可读介质,例如随机存取存储单元(RAM)1321和/或高速缓存存储单元1322,还可以进一步包括只读存储单元(ROM)1323。
存储单元1320还可以包括具有一组(至少一个)程序模块1325的程序/实用工具1324,这样的程序模块1325包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
总线1330可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、外围总线、图形加速端口、处理单元或者使用多种总线结构中的任意总线结构的局域总线。
电子设备1300也可以与一个或多个外部设备1400(例如键盘、指向设备、蓝牙设备等)通信,还可与一个或者多个使得用户能与该电子设备1300交互的设备通信,和/或与使得该电子设备1300能与一个或多个其它计算设备进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口1350进行。并且,电子设备1300还可以通过网络适配器1360与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图13所示,网络适配器1360通过总线1330与电子设备1300的其它模块通信。应当明白,尽管图13中未示出,可以结合电子设备1300使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、终端装置、或者网络设备等)执行根据本公开示例性实施方式的方法。
此外,上述附图仅是根据本公开示例性实施方式的方法所包括的处理的示意性说明,而不是限制目的。易于理解,上述附图所示的处理并不表明或限制这些处理的时间顺序。另外,也易于理解,这些处理可以是例如在多个模块中同步或异步执行的。
应当注意,尽管在上文详细描述中提及了用于动作执行的设备的若干模块或者单元,但是这种划分并非强制性的。实际上,根据本公开的实施方式,上文描述的两个或更多模块或者单元的特征和功能可以在一个模块或者单元中具体化。反之,上文描述的一个模块或者单元的特征和功能可以进一步划分为由多个模块或者单元来具体化。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限制。
Claims (14)
1.一种特征提取方法,其特征在于,包括:
根据待识别数据和所述待识别数据中的局部数据得到预设神经网络的输入数据;
利用所述预设神经网络对所述输入数据进行融合特征提取,得到所述待识别数据的目标特征。
2.根据权利要求1所述的特征提取方法,其特征在于,所述预设神经网络至少包括编码器网络和解码器网络,所述编码器网络包括多个下采样层,每个下采样层至少包括多个卷积层和一个池化层,所述解码器网络包括多个上采样层,每个上采样层至少包括一个反卷积层和多个卷积层。
3.根据权利要求2所述的特征提取方法,其特征在于,所述预设神经网络还包括局部特征提取网络,所述局部特征提取网络的网络结构与所述编码器网络的网络结构相同;所述根据待识别数据和所述待识别数据中的局部数据得到预设神经网络的输入数据,包括:
将所述待识别数据作为所述编码器网络的输入数据;
将所述待识别数据的局部数据作为所述局部特征提取网络的输入数据。
4.根据权利要求3所述的特征提取方法,其特征在于,所述利用所述预设神经网络对所述输入数据进行融合特征提取,得到所述待识别数据的目标特征,包括:
利用所述编码器网络对所述待识别数据进行特征提取,得到所述编码器网络的第一输出特征;
利用所述局部特征提取网络对所述待识别数据中的局部数据进行特征提取,得到所述局部数据的第一特征表示;
将所述编码器网络的第一输出特征和所述局部数据的第一特征表示进行拼接,得到所述解码器网络的第一输入特征;
利用所述解码器网络对所述第一输入特征进行特征提取,得到所述待识别数据的目标特征。
5.根据权利要求1-4任一项所述的特征提取方法,其特征在于,利用所述预设神经网络对所述输入数据进行融合特征提取前,所述方法还包括:
对所述预设神经网络中的所述编码器网络和所述局部特征提取网络进行训练;其中,所述编码器网络的参数初始值与所述局部特征提取网络的参数初始值相同。
6.根据权利要求5所述的特征提取方法,其特征在于,所述对所述预设神经网络中的所述编码器网络和所述局部特征提取网络进行训练,包括:
根据预设的参数映射关系对所述编码器网络的参数和所述局部特征提取网络的参数进行迭代,当满足迭代终止条件时,完成对所述编码器网络和所述局部特征提取网络的训练;
其中,所述参数映射关系用于确定迭代后的编码器网络的参数和对应的局部特征提取网络的参数。
7.根据权利要求2所述的特征提取方法,其特征在于,所述根据待识别数据和所述待识别数据中的局部数据得到预设神经网络的输入数据,包括:
基于所述待识别数据,构建所述待识别数据中的局部数据的矩阵表示,得到局部数据矩阵;
将所述待识别数据和所述局部数据矩阵中的各对应元素进行组合,得到组合数据;
将所述组合数据作为所述编码器网络的输入数据。
9.根据权利要求7所述的特征提取方法,其特征在于,所述利用所述预设神经网络对所述输入数据进行融合特征提取,得到所述待识别数据的目标特征,包括:
利用所述编码器网络对所述组合数据进行特征提取,得到所述编码器网络的第二输出特征,所述编码器网络的第一个下采样层包括多个空洞卷积层和一个池化层;
对所述编码器网络的第二输出特征进行卷积运算,得到所述解码器网络的第二输入特征;
利用所述解码器网络对所述第二输入特征进行特征提取,得到所述待识别数据的目标特征。
10.根据权利要求7所述的特征提取方法,其特征在于,所述预设神经网络还包括局部特征融合网络,所述局部特征融合网络包括多个空洞卷积层和一个池化层;所述利用所述预设神经网络对所述输入数据进行融合特征提取,得到所述待识别数据的目标特征,包括:
将所述组合数据输入所述局部特征融合网络中,得到融合数据;
利用所述预设神经网络中的编码器网络和解码器网络对所述融合数据进行特征提取,得到所述待识别数据的目标特征。
11.根据权利要求1所述的特征提取方法,其特征在于,所述预设神经网络还包括分类器;得到所述待识别数据的目标特征后,所述方法还包括:
通过所述分类器对所述待识别数据的目标特征进行分类预测,得到所述待识别数据的分类结果。
12.一种特征提取装置,其特征在于,包括:
输入数据生成模块,用于根据待识别数据和所述待识别数据中的局部数据得到预设神经网络的输入数据;
目标特征提取模块,用于利用所述预设神经网络对所述输入数据进行融合特征提取,得到所述待识别数据的目标特征。
13.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1-11任一项所述的方法。
14.一种电子设备,其特征在于,包括:
处理器;以及
存储器,用于存储所述处理器的可执行指令;
其中,所述处理器配置为经由执行所述可执行指令来执行权利要求1-11任一项所述的方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210770670.6A CN114998668A (zh) | 2022-06-30 | 2022-06-30 | 特征提取方法、装置、存储介质及电子设备 |
PCT/CN2023/097373 WO2024001653A1 (zh) | 2022-06-30 | 2023-05-31 | 特征提取方法、装置、存储介质及电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210770670.6A CN114998668A (zh) | 2022-06-30 | 2022-06-30 | 特征提取方法、装置、存储介质及电子设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114998668A true CN114998668A (zh) | 2022-09-02 |
Family
ID=83020262
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210770670.6A Pending CN114998668A (zh) | 2022-06-30 | 2022-06-30 | 特征提取方法、装置、存储介质及电子设备 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN114998668A (zh) |
WO (1) | WO2024001653A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024001653A1 (zh) * | 2022-06-30 | 2024-01-04 | 京东方科技集团股份有限公司 | 特征提取方法、装置、存储介质及电子设备 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109359696B (zh) * | 2018-10-29 | 2021-04-02 | 重庆中科云从科技有限公司 | 一种车款识别方法、系统及存储介质 |
WO2021137756A1 (en) * | 2019-12-30 | 2021-07-08 | Medo Dx Pte. Ltd | Apparatus and method for image segmentation using a deep convolutional neural network with a nested u-structure |
CN113936256A (zh) * | 2021-10-15 | 2022-01-14 | 北京百度网讯科技有限公司 | 一种图像目标检测方法、装置、设备以及存储介质 |
CN114581462A (zh) * | 2022-03-01 | 2022-06-03 | 京东科技信息技术有限公司 | 一种图像分割方法、装置、设备和存储介质 |
CN114998668A (zh) * | 2022-06-30 | 2022-09-02 | 北京京东方技术开发有限公司 | 特征提取方法、装置、存储介质及电子设备 |
-
2022
- 2022-06-30 CN CN202210770670.6A patent/CN114998668A/zh active Pending
-
2023
- 2023-05-31 WO PCT/CN2023/097373 patent/WO2024001653A1/zh unknown
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024001653A1 (zh) * | 2022-06-30 | 2024-01-04 | 京东方科技集团股份有限公司 | 特征提取方法、装置、存储介质及电子设备 |
Also Published As
Publication number | Publication date |
---|---|
WO2024001653A9 (zh) | 2024-04-25 |
WO2024001653A1 (zh) | 2024-01-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7425147B2 (ja) | 画像処理方法、テキスト認識方法及び装置 | |
WO2022156561A1 (zh) | 一种自然语言处理方法以及装置 | |
CN114580263A (zh) | 基于知识图谱的信息系统故障预测方法及相关设备 | |
JP2022078310A (ja) | 画像分類モデル生成方法、装置、電子機器、記憶媒体、コンピュータプログラム、路側装置およびクラウド制御プラットフォーム | |
EP4123595A2 (en) | Method and apparatus of rectifying text image, training method and apparatus, electronic device, and medium | |
CN114913325B (zh) | 语义分割方法、装置及计算机程序产品 | |
CN115578570A (zh) | 图像处理方法、装置、可读介质及电子设备 | |
CN111444335B (zh) | 中心词的提取方法及装置 | |
WO2024001653A9 (zh) | 特征提取方法、装置、存储介质及电子设备 | |
CN114445121A (zh) | 一种广告点击率预测模型构建及广告点击率预测方法 | |
CN114627354A (zh) | 目标检测方法、装置、存储介质与电子设备 | |
CN113111971A (zh) | 分类模型的智能处理方法、装置、电子设备及介质 | |
CN116975347A (zh) | 图像生成模型训练方法及相关装置 | |
CN115018059B (zh) | 数据处理方法及装置、神经网络模型、设备、介质 | |
CN114239760B (zh) | 多模态模型训练以及图像识别方法、装置、电子设备 | |
CN113191364B (zh) | 车辆外观部件识别方法、装置、电子设备和介质 | |
CN113592074B (zh) | 一种训练方法、生成方法及装置、电子设备 | |
CN113610856B (zh) | 训练图像分割模型和图像分割的方法和装置 | |
CN114741697A (zh) | 恶意代码分类方法、装置、电子设备和介质 | |
CN114707638A (zh) | 模型训练、对象识别方法及装置、设备、介质和产品 | |
CN113033213A (zh) | 使用注意力模型分析文本信息的方法及装置、电子设备 | |
CN112417260A (zh) | 本地化推荐方法、装置及存储介质 | |
CN113343979B (zh) | 用于训练模型的方法、装置、设备、介质和程序产品 | |
CN117573123B (zh) | 应用于网页应用的页面生成方法、装置和电子设备 | |
CN117593619B (zh) | 图像处理方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |