CN114239760B - 多模态模型训练以及图像识别方法、装置、电子设备 - Google Patents
多模态模型训练以及图像识别方法、装置、电子设备 Download PDFInfo
- Publication number
- CN114239760B CN114239760B CN202210174577.9A CN202210174577A CN114239760B CN 114239760 B CN114239760 B CN 114239760B CN 202210174577 A CN202210174577 A CN 202210174577A CN 114239760 B CN114239760 B CN 114239760B
- Authority
- CN
- China
- Prior art keywords
- feature
- generated
- image
- target
- features
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 82
- 238000012549 training Methods 0.000 title claims abstract description 57
- 239000013598 vector Substances 0.000 claims abstract description 133
- 238000000605 extraction Methods 0.000 claims abstract description 28
- 230000015654 memory Effects 0.000 claims description 28
- 230000001419 dependent effect Effects 0.000 claims description 25
- 238000004891 communication Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 8
- 230000002093 peripheral effect Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/7715—Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/86—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using syntactic or structural representations of the image or video pattern, e.g. symbolic string recognition; using graph matching
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- Image Analysis (AREA)
Abstract
本发明揭示了一种多模态模型训练以及图像识别方法、装置、电子设备,涉及图像识别领域。该方法包括:获取样本图像以及样本图像对应的文字特征向量;将样本图像输入至初始多模态模型的特征提取网络,生成样本图像对应的图像特征向量。其中特征提取网络用于对样本图像进行编码,并根据待生成特征与已生成特征之间的关联关系生成图像特征向量;将文字特征向量以及图像特征向量输入至初始多模态模型的变换器结构中,输出样本图像对应的候选文字;根据文字特征向量对应的目标文字以及候选文字,更新初始多模态模型的参数,以确定目标多模态模型。采用该方法可以保证生成的图像特征向量的准确性,进而使得图像在生成的过程中局部感受野不会发生破坏。
Description
技术领域
本发明涉及图像识别领域,具体涉及一种多模态模型训练以及图像识别方法、装置、电子设备。
背景技术
从transformer出世以来,其在图像和文本上都取得了巨大的成功。但是,真正的人工智能是既可以理解图像,又可以理解的文本的,而非只针对图像或文本。因此,近几年,在多模态(文本、图像)理解问题上的相关研究涌现很多。
现有的多模态自回归模型,仍然是采用与自然语言处理的自回归模型类似的方法,重点在于如何将图像转换为类似于文本那样的特征。如附图1所示,主流方法是使用变分自编码器的特征提取部分,对图像进行卷积、池化等操作,最终得到V_size*N_h*N_w大小的向量矩阵,其中,V_size为特征的大小。
这部分工作的主要目的是为了将原图转换为类似于文本的特征进行表示,然后将图像的各个特征进行逐行拼接起来,如附图2所示,这样就取得了与文本特征类似的表示,可以将图像特征如同文本特征一样输入到变换器结构中,根据图像特征输出原图对应的文字。
上述方法,虽然经过encoder得到了图像的特征向量,但是上述方法将图像特征向量逐行拼接起来,单纯适用文本(一维特征)的自回归方法,因此,会使得图像在生成的过程中局部感受野发生了破坏。
发明内容
有鉴于此,本发明实施例提供了一种多模态模型训练以及图像识别方法、装置、电子设备,旨在解决现有技术会使得图像在生成的过程中局部感受野发生了破坏的问题。
根据第一方面,本发明实施例提供了一种多模态模型训练方法,该方法包括:
获取样本图像以及样本图像对应的文字特征向量;
将样本图像输入至初始多模态模型的特征提取网络,生成样本图像对应的图像特征向量,特征提取网络用于对样本图像进行编码,并根据待生成特征与已生成特征之间的关联关系生成图像特征向量;
将文字特征向量以及图像特征向量输入至初始多模态模型的变换器结构中,输出样本图像对应的候选文字;
根据文字特征向量对应的目标文字以及候选文字,更新初始多模态模型的参数,以确定目标多模态模型。
本申请实施方式提供的多模态模型训练方法,获取样本图像以及样本图像对应的文字特征向量,并将样本图像输入至初始多模态模型的特征提取网络,生成样本图像对应的图像特征向量。其中,特征提取网络用于对样本图像进行编码,并根据待生成特征与已生成特征之间的关联关系生成图像特征向量,从而可以保证在生成图像特征向量时,考虑了待生成特征与已生成特征之间的关联,而不是不考虑各个特征之间的关联直接将特征进行拼接,从而上述方法保证了生成的图像特征向量的准确性,进而使得图像在生成的过程中局部感受野不会发生破坏。然后,将文字特征向量以及图像特征向量输入至初始多模态模型的变换器结构中,输出样本图像对应的候选文字,保证了生成的候选文字的准确性。根据文字特征向量对应的目标文字以及候选文字,更新初始多模态模型的参数,以确定目标多模态模型。从而保证了确定的目标多模态模型的准确性。
结合第一方面,在第一方面第一实施方式中,将样本图像输入至初始多模态模型的特征提取网络,生成样本图像对应的图像特征向量,包括:
获取样本图像对应的特征生成顺序;
根据各待生成特征与已生成特征之间的关联关系以及特征生成顺序,生成图像特征向量。
本申请实施方式提供的多模态模型训练方法,获取样本图像对应的特征生成顺序,由于特征生成顺序决定了图像特征向量中各个特征生成的顺序,从而决定了各个待生成特征与已生成特征之间的关联关系,因此,获取样本图像对应的特征生成顺序,可以提高生成的图像特征向量的准确性。然后,根据各待生成特征与已生成特征之间的关联关系以及特征生成顺序,生成图像特征向量,从而保证了生成的图像特征向量的准确性。
结合第一方面第一实施方式,在第一方面第二实施方式中,根据各待生成特征与已生成特征之间的关联关系以及特征生成顺序,生成图像特征向量,包括:
获取与待生成特征在预设范围内的目标已生成特征;
根据待生成特征与对应的目标已生成特征之间的位置关系,确定各待生成特征与目标已生成特征之间的依赖关系;
根据各待生成特征与目标已生成特征之间的依赖关系,按照特征生成顺序,生成图像特征向量。
本申请实施方式提供的多模态模型训练方法,获取与待生成特征在预设范围内的目标已生成特征,从而保证了获取到的目标已生成特征的准确性。然后,根据待生成特征与对应的目标已生成特征之间的位置关系,确定各待生成特征与目标已生成特征之间的依赖关系,从而保证了确定的各待生成特征与目标已生成特征之间的依赖关系的准确性。根据各待生成特征与目标已生成特征之间的依赖关系,按照特征生成顺序,生成图像特征向量,保证了生成的图像特征向量中各个特征的准确性,进而保证了生成的图像特征向量的准确性。
结合第一方面第二实施方式,在第一方面第三实施方式中,根据待生成特征与对应的目标已生成特征之间的位置关系,确定各待生成特征与目标已生成特征之间的依赖关系,包括:
针对各待生成特征,根据待生成特征与对应的目标已生成特征之间的位置关系,确定待生成特征与对应的目标已生成特征之间的距离;
根据待生成特征与对应的目标已生成特征之间的距离,确定各目标已生成特征相对于待生成特征的依赖权重。
本申请实施方式提供的多模态模型训练方法,针对各待生成特征,根据待生成特征与对应的目标已生成特征之间的位置关系,确定待生成特征与对应的目标已生成特征之间的距离,从而保证了确定的待生成特征与对应的目标已生成特征之间的距离的准确性。然后,根据待生成特征与对应的目标已生成特征之间的距离,确定各目标已生成特征相对于待生成特征的依赖权重,从而保证了确定的各目标已生成特征相对于待生成特征的依赖权重的准确性,进而保证根据各目标已生成特征相对于待生成特征的依赖权重,确定的图像特征向量的准确性。
结合第一方面第三实施方式,在第一方面第四实施方式中,根据各待生成特征与目标已生成特征之间的依赖关系,按照特征生成顺序,生成图像特征向量,包括:
根据各目标已生成特征相对于待生成特征的依赖权重,确定各待生成特征;
根据各待生成特征,按照特征生成顺序,生成图像特征向量。
本申请实施方式提供的多模态模型训练方法,根据各目标已生成特征相对于待生成特征的依赖权重,确定各待生成特征,保证了生成的各待生成特征的准确性。然后,根据各待生成特征,按照特征生成顺序,生成图像特征向量,保证了生成的图像特征向量的准确性。
根据第二方面,本发明实施例还提供了一种图像识别方法,方法包括:
获取待识别的目标图像;
将目标图像输入至目标多模态模型,输出目标图像对应的文字;目标多模态模型根据第一方面或者第一方面的任意一种实施方式中的多模态模型训练方法训练得到。
本申请实施方式提供的图像识别方法,获取待识别的目标图像;将目标图像输入至目标多模态模型,输出目标图像对应的文字;从而可以完成根据目标图像生成目标图像对应的文字,且保证了生成的文字的准确性。
根据第三方面,本发明实施例还提供了一种多模态模型训练装置,该装置包括:
第一获取模块,用于获取样本图像以及样本图像对应的文字特征向量;
生成模块,用于将样本图像输入至初始多模态模型的特征提取网络,生成样本图像对应的图像特征向量,特征提取网络用于对样本图像进行编码,并根据待生成特征与已生成特征之间的关联关系生成图像特征向量;
第一输出模块,用于将文字特征向量以及图像特征向量输入至初始多模态模型的变换器结构中,输出样本图像对应的候选文字;
更新模块,用于根据文字特征向量对应的目标文字以及候选文字,更新初始多模态模型的参数,以确定目标多模态模型。
本申请实施方式提供的多模态模型训练装置,获取样本图像以及样本图像对应的文字特征向量,并将样本图像输入至初始多模态模型的特征提取网络,生成样本图像对应的图像特征向量。其中,特征提取网络用于对样本图像进行编码,并根据待生成特征与已生成特征之间的关联关系生成图像特征向量,从而可以保证在生成图像特征向量时,考虑了待生成特征与已生成特征之间的关联,而不是不考虑各个特征之间的关联直接将特征进行拼接,从而上述方法保证了生成的图像特征向量的准确性,进而使得图像在生成的过程中局部感受野不会发生破坏。然后,将文字特征向量以及图像特征向量输入至初始多模态模型的变换器结构中,输出样本图像对应的候选文字,保证了生成的候选文字的准确性。根据文字特征向量对应的目标文字以及候选文字,更新初始多模态模型的参数,以确定目标多模态模型。从而保证了确定的目标多模态模型的准确性。
根据第四方面,本发明实施例还提供了一种图像识别装置,该装置包括:
第二获取模块,用于获取待识别的目标图像;
第二输出模块,用于将目标图像输入至目标多模态模型,输出目标图像对应的文字;目标多模态模型根据第一方面或者第一方面的任意一种实施方式中的多模态模型训练方法训练得到。
本申请实施方式提供的图像识别装置,获取待识别的目标图像;将目标图像输入至目标多模态模型,输出目标图像对应的文字;从而可以完成根据目标图像生成目标图像对应的文字,且保证了生成的文字的准确性。
根据第五方面,本发明实施例提供了一种电子设备,包括存储器和处理器,存储器和处理器之间互相通信连接,存储器中存储有计算机指令,处理器通过执行计算机指令,从而执行第一方面或者第一方面的任意一种实施方式中的多模态模型训练方法以及第二方面中的图像识别方法。
根据第六方面,本发明实施例提供了一种计算机可读存储介质,计算机可读存储介质存储计算机指令,计算机指令用于使计算机执行第一方面或者第一方面的任意一种实施方式中的多模态模型训练方法以及第二方面中的图像识别方法。
附图说明
为了更清楚地说明本发明具体实施方式或现有技术中的技术方案,下面将对具体实施方式或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施方式,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1 是应用本发明实施例提供的现有技术中图像特征的编码与解码的流程图;
图2是应用本发明实施例提供的现有技术中图像特征的生成顺序流程图;
图3是应用本发明另一实施例提供的多模态模型训练方法的流程图;
图4是应用本发明另一实施例提供的目标多模态模型中图像与文本的自回归策略示意图;
图5是应用本发明另一实施例提供的多模态模型训练方法的流程图;
图6是应用本发明另一实施例提供的多模态模型训练方法中特征生成顺序的示意图;
图7是应用本发明另一实施例提供的多模态模型训练方法的流程图;
图8是应用本发明另一实施例提供的多模态模型训练方法中特征依赖框的示意图;
图11是应用本发明另一实施例提供的多模态模型训练方法的流程图;
图12是应用本发明另一实施例提供的多模态模型训练方法中待生成与对应的目标已生成特征之间的距离示意图;
图13是应用本发明另一实施例提供的多模态模型训练方法的流程图;
图14是应用本发明另一实施例提供的图像识别方法的流程图;
图15是应用本发明实施例提供的多模态模型训练装置的功能模块图;
图16是应用本发明实施例提供的图像识别装置的功能模块图;
图17是应用本发明实施例提供的电子设备的硬件结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
需要说明的是,本申请实施例提供的多模态模型训练的方法,其执行主体可以是多模态模型训练的装置,该多模态模型训练的装置可以通过软件、硬件或者软硬件结合的方式实现成为计算机设备的部分或者全部,其中,该计算机设备可以是服务器或者终端,其中,本申请实施例中的服务器可以为一台服务器,也可以为由多台服务器组成的服务器集群,本申请实施例中的终端可以是智能手机、个人电脑、平板电脑、可穿戴设备以及智能机器人等其他智能硬件设备。下述方法实施例中,均以执行主体是电子设备为例来进行说明。
在本申请一个实施例中,如图3所示,提供了一种多模态模型训练方法,以该方法应用于电子设备为例进行说明,包括以下步骤:
S11、获取样本图像以及样本图像对应的文字特征向量。
在本申请一种可选的实施方式中,电子设备可以通过与其他设备之间的连接,接收其他设备发送的样本图像以及样本图像对应的文字特征向量;电子设备也可以接收用户输入的样本图像以及样本图像对应的文字特征向量。
在本申请另一种可选的实施方式中,电子设备还可以通过与其他设备之间的连接,接收其他设备发送的样本图像以及样本图像对应的目标文字;电子设备也可以接收用户输入的样本图像以及样本图像对应的目标文字。
接收到样本图像以及样本图像对应的目标文字之后,电子设备对样本图像对应的目标文字进行特征提取,从而获取到目标文字对应的文字特征向量。
本申请实施例对电子设备获取样本图像以及样本图像对应的文字特征向量的方式不做具体限定。
S12、将样本图像输入至初始多模态模型的特征提取网络,生成样本图像对应的图像特征向量。
其中,特征提取网络用于对样本图像进行编码,并根据待生成特征与已生成特征之间的关联关系生成图像特征向量。
具体地,电子设备将样本图像输入至初始多模态模型的特征提取网络,特征提取网络对样本图像进行编码,并根据待生成特征与已生成特征之间的关联关系生成图像特征向量。
关于该步骤将在下文进行详细介绍。
S13、将文字特征向量以及图像特征向量输入至初始多模态模型的变换器结构中,输出样本图像对应的候选文字。
具体地,电子设备可以将文字特征向量以及图像特征向量输入至初始多模态模型的变换器结构中,初始多模态模型的变换器结构对文字特征向量以及图像特征向量进行转换,从而输出样本图像对应的候选文字。
示例性的,如图4所示,将文字特征向量以及图像特征向量输入至初始多模态模型的变换器结构中,输出样本图像对应的候选文字。
S14、根据文字特征向量对应的目标文字以及候选文字,更新初始多模态模型的参数,以确定目标多模态模型。
具体地,电子设备可以根据文字特征向量对应的目标文字以及候选文字计算损失值,然后根据计算得到的损失值,更新初始多模态模型的参数,以确定目标多模态模型。
本申请实施方式提供的多模态模型训练方法,获取样本图像以及样本图像对应的文字特征向量,并将样本图像输入至初始多模态模型的特征提取网络,生成样本图像对应的图像特征向量。其中,特征提取网络用于对样本图像进行编码,并根据待生成特征与已生成特征之间的关联关系生成图像特征向量,从而可以保证在生成图像特征向量时,考虑了待生成特征与已生成特征之间的关联,而不是不考虑各个特征之间的关联直接将特征进行拼接,从而上述方法保证了生成的图像特征向量的准确性,进而使得图像在生成的过程中局部感受野不会发生破坏。然后,将文字特征向量以及图像特征向量输入至初始多模态模型的变换器结构中,输出样本图像对应的候选文字,保证了生成的候选文字的准确性。根据文字特征向量对应的目标文字以及候选文字,更新初始多模态模型的参数,以确定目标多模态模型。从而保证了确定的目标多模态模型的准确性。
在本申请一个可选的实施例中,如图5所示,上述S12中的“将样本图像输入至初始多模态模型的特征提取网络,生成样本图像对应的图像特征向量”,可以包括以下步骤:
S21、获取样本图像对应的特征生成顺序。
具体地,电子设备可以接收用户输入的样本图像对应的特征生成顺序。
可选的,由于样本图像中越靠近中心位置的特征,其更依赖于周围的特征;而越是样本图像边缘位置的特征,其对周围特征的依赖性更小。因此,样本图像对应的特征生成顺序可以是以顺时针方向由外向内的顺序。示例性的,如图6所示,P1为生成的第一个特征,然后按照顺时针方向即先生成P1,然后再生成P2,最后生成P8,P9,然后按照顺时针方向继续向下生成各个特征,依次生成P10-P17,P18-P25,P26-P32,P33-P39,……。
可选的,样本图像对应的特征生成顺序可以是以逆时针方向由外向内的顺序,其中,第一个特征可以从样本图像的四个角中的任意一个角对应的特征开始。
基于上述内容可知,本申请实施例中,在生成样本图像对应的图像特征向量时,并不是逐行进行特征生成,而是先生成周围特征,然后根据待生成特征与周围已生成特征之间的关联关系,由外到内生成全部特征。
S22、根据各待生成特征与已生成特征之间的关联关系以及特征生成顺序,生成图像特征向量。
具体地,电子设备在获取到特征生成顺序之后,根据各待生成特征与已生成特征之间的关联关系以及特征生成顺序,生成图像特征向量。
关于该步骤将在下文进行详细介绍。
本申请实施方式提供的多模态模型训练方法,获取样本图像对应的特征生成顺序,由于特征生成顺序决定了图像特征向量中各个特征生成的顺序,从而决定了各个待生成特征与已生成特征之间的关联关系,因此,获取样本图像对应的特征生成顺序,可以提高生成的图像特征向量的准确性。然后,根据各待生成特征与已生成特征之间的关联关系以及特征生成顺序,生成图像特征向量,从而保证了生成的图像特征向量的准确性。
在本申请一个可选的实施例中,如图7所示,上述S22中的“根据各待生成特征与已生成特征之间的关联关系以及特征生成顺序,生成图像特征向量”,可以包括以下步骤:
S31、获取与待生成特征在预设范围内的目标已生成特征。
在一种可选的实施方式中,电子设备可以根据用户输出的指令,确定与待生成特征在预设范围内的目标已生成特征。
在一种可选的实施方式中,电子设备可以接收用户输入的与待生成特征在预设范围内的目标已生成特征。
在另一种可选的实施方式中,电子设备可以根据用户指令生成一个N*N的特征依赖框,其中N为奇数且大于3,然后电子设备根据特征依赖框确定预设范围,从而获取到待生成特征在预设范围内的目标已生成特征。
S32、根据待生成特征与对应的目标已生成特征之间的位置关系,确定各待生成特征与目标已生成特征之间的依赖关系。
具体地,电子设备可以根据待生成特征与对应的目标已生成特征之间的位置关系,确定各待生成特征与目标已生成特征之间的依赖关系。
关于该步骤将在下文进行详细说明。
S33、根据各待生成特征与目标已生成特征之间的依赖关系,按照特征生成顺序,生成图像特征向量。
在一种可选的实施方式中,在获取到各待生成特征与目标已生成特征之间的依赖关系之后,电子设备可以将与待生成特征具有依赖关系的目标已生成特征进行融合,从而生成待生成特征。然后,电子设备根据待生成特征,按照特征生成顺序,生成图像特征向量。
示例性的,如图9所示,在生成待生成特征P4时,根据上述实施方式提及到的5*5的特征依赖框以及图6所示的特征生成顺序,确定待生成特征P4只能依赖目标已成生特征P2和P3,因此,电子设备可以根据待生成特征P4与目标已成生特征P2和P3之间的依赖关系,将目标已成生特征P2和P3进行融合,生成待生成特征P4。然后,电子设备根据待生成特征P4,按照特征生成顺序,生成图像特征向量。
示例性的,如图10所示,在生成待生成特征时,根据上述实施方式提及到的5*
5的特征依赖框以及图6所示的特征生成顺序,待生成特征依赖的已生成特征中,不仅
包括行特征,还包括列特征。如图10所示,黑色区域为全部已生成特征,根据上述实施方式
提及到的5*5的特征依赖框以及图5所示的特征生成顺序,确定待生成特征依赖的目标
已成生特征为P1-P5、P39-P36、P54-P56。然后,电子设备根据待生成特征P57,按照特征生成顺
序,生成图像特征向量。
本申请实施方式提供的多模态模型训练方法,获取与待生成特征在预设范围内的目标已生成特征,从而保证了获取到的目标已生成特征的准确性。然后,根据待生成特征与对应的目标已生成特征之间的位置关系,确定各待生成特征与目标已生成特征之间的依赖关系,从而保证了确定的各待生成特征与目标已生成特征之间的依赖关系的准确性。根据各待生成特征与目标已生成特征之间的依赖关系,按照特征生成顺序,生成图像特征向量,保证了生成的图像特征向量中各个特征的准确性,进而保证了生成的图像特征向量的准确性。
在本申请一个可选的实施例中,如图11所示,上述S32中的“根据待生成特征与对应的目标已生成特征之间的位置关系,确定各待生成特征与目标已生成特征之间的依赖关系”,可以包括以下步骤:
S41、针对各待生成特征,根据待生成特征与对应的目标已生成特征之间的位置关系,确定待生成特征与对应的目标已生成特征之间的距离。
具体地,针对各待生成特征,电子设备可以获取待生成特征与对应的目标已生成特征的位置,然后根据待生成特征与对应的目标已生成特征的位置,确定待生成特征与对应的目标已生成特征之间的位置关系。电子设备根据待生成特征与对应的目标已生成特征之间的位置关系,确定待生成特征与对应的目标已生成特征之间的距离。
示例性的,如图12所示为待生成特征Pij与对应的目标已生成特征之间的距离。
S42、根据待生成特征与对应的目标已生成特征之间的距离,确定各目标已生成特征相对于待生成特征的依赖权重。
具体地,文本往往具有很长的上下文依赖关系,区别于文本,样本图像对一定空间范围内的依赖更强,对于更偏远的依赖更弱,因此,我们在进行自注意力权重计算时,需要添加一个依赖权重干预,为计算待生成特征(第i行,第j列位置的待生成特征)对目标已成生特征的依赖权重,设计公式如下:
本申请实施方式提供的多模态模型训练方法,针对各待生成特征,根据待生成特征与对应的目标已生成特征之间的位置关系,确定待生成特征与对应的目标已生成特征之间的距离,从而保证了确定的待生成特征与对应的目标已生成特征之间的距离的准确性。然后,根据待生成特征与对应的目标已生成特征之间的距离,确定各目标已生成特征相对于待生成特征的依赖权重,从而保证了确定的各目标已生成特征相对于待生成特征的依赖权重的准确性,进而保证根据各目标已生成特征相对于待生成特征的依赖权重,确定的图像特征向量的准确性。
在本申请一个可选的实施例中,如图13所示,上述S33中的“根据各待生成特征与目标已生成特征之间的依赖关系,按照特征生成顺序,生成图像特征向量”,可以包括以下步骤:
S51、根据各目标已生成特征相对于待生成特征的依赖权重,确定各待生成特征。
具体地,电子设备在计算得到各目标已生成特征相对于待生成特征的依赖权重之后,可以利用如下公式,根据各目标已生成特征相对于待生成特征的依赖权重,确定各待生成特征Tij。其计算方式可以以下述方式表达:
S52、根据各待生成特征,按照特征生成顺序,生成图像特征向量。
具体地,电子设备在生成待生成特征之后,根据各待生成特征,按照特征生成顺序,生成图像特征向量。
本申请实施方式提供的多模态模型训练方法,根据各目标已生成特征相对于待生成特征的依赖权重,确定各待生成特征,保证了生成的各待生成特征的准确性。然后,根据各待生成特征,按照特征生成顺序,生成图像特征向量,保证了生成的图像特征向量的准确性。
为了更好的介绍上述多模态模型训练方法训练得到的目标多模态模型,本申请实施例提供了一种图像识别方法。需要说明的是,本申请实施例提供的图像识别的方法,其执行主体可以是图像识别的装置,该图像识别的装置可以通过软件、硬件或者软硬件结合的方式实现成为计算机设备的部分或者全部,其中,该计算机设备可以是服务器或者终端,其中,本申请实施例中的服务器可以为一台服务器,也可以为由多台服务器组成的服务器集群,本申请实施例中的终端可以是智能手机、个人电脑、平板电脑、可穿戴设备以及智能机器人等其他智能硬件设备。下述方法实施例中,均以执行主体是电子设备为例来进行说明。
在本申请一个实施例中,如图14所示,提供了一种图像识别方法,以该方法应用于电子设备为例进行说明,包括以下步骤:
S61、获取待识别的目标图像。
具体地,电子设备可以接收其他设备发送的目标图像,也可以接收用户输入的目标图像。
S62、将目标图像输入至目标多模态模型,输出目标图像对应的文字。
其中,目标多模态模型根据上述实施方式中任一的多模态模型训练方法得到。
具体地,电子设备可以基于样本图像以及样本图像对应的目标文字训练得到目标多模态模型。然后,电子设备将目标图像输入至目标多模态模型,目标多模态模型中的特征提取网络对目标图像进行编码,并待生成特征与已生成特征之间的关联关系生成图像特征向量。
然后,将目标图像特征向量输入至目标多模态模型中的变换器结构中,输出目标图像对应的文字。
本申请实施方式提供的图像识别方法,获取待识别的目标图像;将目标图像输入至目标多模态模型,输出目标图像对应的文字;从而可以完成根据目标图像生成目标图像对应的文字,且保证了生成的文字的准确性。
应该理解的是,虽然图3、图5、图7、图11以及图13-14的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图3、图5、图7、图11以及图13-14中的至少一部分步骤可以包括多个步骤或者多个阶段,这些步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤中的步骤或者阶段的至少一部分轮流或者交替地执行。
如图15所示,本实施例提供一种多模态模型训练装置,装置包括:
第一获取模块71,用于获取样本图像以及样本图像对应的文字特征向量;
生成模块72,用于将样本图像输入至初始多模态模型的特征提取网络,生成样本图像对应的图像特征向量,特征提取网络用于对样本图像进行编码,并根据待生成特征与已生成特征之间的关联关系生成图像特征向量;
第一输出模块73,用于将文字特征向量以及图像特征向量输入至初始多模态模型的变换器结构中,输出样本图像对应的候选文字;
更新模块74,用于根据文字特征向量对应的目标文字以及候选文字,更新初始多模态模型的参数,以确定目标多模态模型。
在本申请一个实施例中,上述生成模块72,具体用于获取样本图像对应的特征生成顺序;根据各待生成特征与已生成特征之间的关联关系以及特征生成顺序,生成图像特征向量。
在本申请一个实施例中,上述生成模块72,具体用于获取与待生成特征在预设范围内的目标已生成特征;根据待生成特征与对应的目标已生成特征之间的位置关系,确定各待生成特征与目标已生成特征之间的依赖关系;根据各待生成特征与目标已生成特征之间的依赖关系,按照特征生成顺序,生成图像特征向量。
在本申请一个实施例中,上述生成模块72,具体用于针对各待生成特征,根据待生成特征与对应的目标已生成特征之间的位置关系,确定待生成特征与对应的目标已生成特征之间的距离;根据待生成特征与对应的目标已生成特征之间的距离,确定各目标已生成特征相对于待生成特征的依赖权重。
在本申请一个实施例中,上述生成模块72,具体用于根据各目标已生成特征相对于待生成特征的依赖权重,确定各待生成特征;根据各待生成特征,按照特征生成顺序,生成图像特征向量。
如图16所示,本实施例提供一种图像识别装置,装置包括:
第二获取模块81,用于获取待识别的目标图像;
第二输出模块82,用于将目标图像输入至目标多模态模型,输出目标图像对应的文字;目标多模态模型根据上述实施方式中任一的多模态模型训练方法得到。
关于多模态模型训练装置以及图像识别装置的具体限定以及有益效果可以参见上文中对于多模态模型训练方法以及图像识别方法的限定,在此不再赘述。上述多模态模型训练装置以及图像识别装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于电子设备中的处理器中,也可以以软件形式存储于电子设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
本发明实施例还提供一种电子设备,具有上述图15所示的多模态模型训练装置以及图16的图像识别装置。
如图17所示,图17是本发明可选实施例提供的一种电子设备的结构示意图,如图17所示,该电子设备可以包括:至少一个处理器91,例如CPU(Central Processing Unit,中央处理器),至少一个通信接口93,存储器94,至少一个通信总线92。其中,通信总线92用于实现这些组件之间的连接通信。其中,通信接口93可以包括显示屏(Display)、键盘(Keyboard),可选通信接口93还可以包括标准的有线接口、无线接口。存储器94可以是高速RAM存储器(Random Access Memory,易挥发性随机存取存储器),也可以是非不稳定的存储器(non-volatile memory),例如至少一个磁盘存储器。存储器94可选的还可以是至少一个位于远离前述处理器91的存储装置。其中处理器91可以结合图15或图16所描述的装置,存储器94中存储应用程序,且处理器91调用存储器94中存储的程序代码,以用于执行上述任一方法步骤。
其中,通信总线92可以是外设部件互连标准(peripheral componentinterconnect,简称PCI)总线或扩展工业标准结构(extended industry standardarchitecture,简称EISA)总线等。通信总线92可以分为地址总线、数据总线、控制总线等。为便于表示,图17中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
其中,存储器94可以包括易失性存储器(英文:volatile memory),例如随机存取存储器(英文:random-access memory,缩写:RAM);存储器也可以包括非易失性存储器(英文:non-volatile memory),例如快闪存储器(英文:flash memory),硬盘(英文:hard diskdrive,缩写:HDD)或固态硬盘(英文:solid-state drive,缩写:SSD);存储器94还可以包括上述种类的存储器的组合。
其中,处理器91可以是中央处理器(英文:central processing unit,缩写:CPU),网络处理器(英文:network processor,缩写:NP)或者CPU和NP的组合。
其中,处理器91还可以进一步包括硬件芯片。上述硬件芯片可以是专用集成电路(英文:application-specific integrated circuit,缩写:ASIC),可编程逻辑器件(英文:programmable logic device,缩写:PLD)或其组合。上述PLD可以是复杂可编程逻辑器件(英文:complex programmable logic device,缩写:CPLD),现场可编程逻辑门阵列(英文:field-programmable gate array,缩写:FPGA),通用阵列逻辑(英文:generic arraylogic, 缩写:GAL)或其任意组合。
可选地,存储器94还用于存储程序指令。处理器91可以调用程序指令,实现如本申请图3、图5、图7、图11以及图13实施例中所示的多模态模型训练方法以及图14实施例中所示的图像识别方法。
本发明实施例还提供了一种非暂态计算机存储介质,计算机存储介质存储有计算机可执行指令,该计算机可执行指令可执行上述任意方法实施例中的多模态模型训练方法以及图像识别方法。其中,存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)、随机存储记忆体(Random Access Memory,RAM)、快闪存储器(Flash Memory)、硬盘(Hard Disk Drive,缩写:HDD)或固态硬盘(Solid-State Drive,SSD)等;存储介质还可以包括上述种类的存储器的组合。
虽然结合附图描述了本发明的实施例,但是本领域技术人员可以在不脱离本发明的精神和范围的情况下做出各种修改和变型,这样的修改和变型均落入由所附权利要求所限定的范围之内。
Claims (9)
1.一种多模态模型训练方法,其特征在于,所述方法包括:
获取样本图像以及所述样本图像对应的文字特征向量;
将所述样本图像输入至初始多模态模型的特征提取网络,生成所述样本图像对应的图像特征向量,所述特征提取网络用于对所述样本图像进行编码,并根据待生成特征与已生成特征之间的关联关系生成所述图像特征向量,其中,所述根据待生成特征与已生成特征之间的关联关系生成所述图像特征向量,包括:获取与所述待生成特征在预设范围内的目标已生成特征;根据所述待生成特征与对应的所述目标已生成特征之间的位置关系,确定各所述待生成特征与所述目标已生成特征之间的依赖关系;根据各所述待生成特征与所述目标已生成特征之间的依赖关系,按照特征生成顺序,生成所述图像特征向量;
将所述文字特征向量以及所述图像特征向量输入至所述初始多模态模型的变换器结构中,输出所述样本图像对应的候选文字;
根据所述文字特征向量对应的目标文字以及所述候选文字,更新所述初始多模态模型的参数,以确定目标多模态模型。
2.根据权利要求1所述的方法,其特征在于,所述将所述样本图像输入至初始多模态模型的特征提取网络,生成所述样本图像对应的图像特征向量,包括:
获取所述样本图像对应的特征生成顺序;
根据各所述待生成特征与所述已生成特征之间的关联关系以及所述特征生成顺序,生成所述图像特征向量。
3.根据权利要求1所述的方法,其特征在于,所述根据所述待生成特征与对应的所述目标已生成特征之间的位置关系,确定各所述待生成特征与所述目标已生成特征之间的依赖关系,包括:
针对各所述待生成特征,根据所述待生成特征与对应的所述目标已生成特征之间的位置关系,确定所述待生成特征与对应的所述目标已生成特征之间的距离;
根据所述待生成特征与对应的所述目标已生成特征之间的距离,确定各所述目标已生成特征相对于所述待生成特征的依赖权重。
4.根据权利要求3所述的方法,其特征在于,所述根据各所述待生成特征与所述目标已生成特征之间的依赖关系,按照所述特征生成顺序,生成所述图像特征向量,包括:
根据各所述目标已生成特征相对于所述待生成特征的依赖权重,确定各所述待生成特征;
根据各所述待生成特征,按照所述特征生成顺序,生成所述图像特征向量。
5.一种图像识别方法,其特征在于,所述方法包括:
获取待识别的目标图像;
将所述目标图像输入至目标多模态模型,输出所述目标图像对应的文字;所述目标多模态模型根据权利要求1-4任一所述的多模态模型训练方法得到。
6.一种多模态模型训练装置,其特征在于,所述装置包括:
第一获取模块,用于获取样本图像以及所述样本图像对应的文字特征向量;
生成模块,用于将所述样本图像输入至初始多模态模型的特征提取网络,生成所述样本图像对应的图像特征向量,所述特征提取网络用于对所述样本图像进行编码,并根据待生成特征与已生成特征之间的关联关系生成所述图像特征向量,其中,所述根据待生成特征与已生成特征之间的关联关系生成所述图像特征向量,包括:获取与所述待生成特征在预设范围内的目标已生成特征;根据所述待生成特征与对应的所述目标已生成特征之间的位置关系,确定各所述待生成特征与所述目标已生成特征之间的依赖关系;根据各所述待生成特征与所述目标已生成特征之间的依赖关系,按照特征生成顺序,生成所述图像特征向量;
第一输出模块,用于将所述文字特征向量以及所述图像特征向量输入至所述初始多模态模型的变换器结构中,输出所述样本图像对应的候选文字;
更新模块,用于根据所述文字特征向量对应的目标文字以及所述候选文字,更新所述初始多模态模型的参数,以确定目标多模态模型。
7.一种图像识别装置,其特征在于,所述装置包括:
第二获取模块,用于获取待识别的目标图像;
第二输出模块,用于将所述目标图像输入至目标多模态模型,输出所述目标图像对应的文字;所述目标多模态模型根据权利要求1-4任一所述的多模态模型训练方法得到。
8.一种电子设备,其特征在于,包括存储器和处理器,所述存储器中存储有计算机指令,所述处理器通过执行所述计算机指令,从而执行权利要求1-4中任一项所述的多模态模型训练方法以及权利要求5中所述的图像识别方法。
9.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机指令,所述计算机指令用于使计算机执行权利要求1-4中任一项所述的多模态模型训练方法以及权利要求5中所述的图像识别方法。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210174577.9A CN114239760B (zh) | 2022-02-25 | 2022-02-25 | 多模态模型训练以及图像识别方法、装置、电子设备 |
US18/697,418 US20240331370A1 (en) | 2022-02-25 | 2022-09-28 | Multi-modal model training method and apparatus, image recognition method and apparatus, and electronic device |
PCT/CN2022/122303 WO2023159945A1 (zh) | 2022-02-25 | 2022-09-28 | 多模态模型训练以及图像识别方法、装置、电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210174577.9A CN114239760B (zh) | 2022-02-25 | 2022-02-25 | 多模态模型训练以及图像识别方法、装置、电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114239760A CN114239760A (zh) | 2022-03-25 |
CN114239760B true CN114239760B (zh) | 2022-05-20 |
Family
ID=80748161
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210174577.9A Active CN114239760B (zh) | 2022-02-25 | 2022-02-25 | 多模态模型训练以及图像识别方法、装置、电子设备 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20240331370A1 (zh) |
CN (1) | CN114239760B (zh) |
WO (1) | WO2023159945A1 (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114239760B (zh) * | 2022-02-25 | 2022-05-20 | 苏州浪潮智能科技有限公司 | 多模态模型训练以及图像识别方法、装置、电子设备 |
CN118410854B (zh) * | 2024-07-03 | 2024-09-13 | 浪潮电子信息产业股份有限公司 | 模型训练及文本处理方法、计算机程序产品、设备、介质 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DK3602409T3 (da) * | 2017-06-05 | 2024-01-29 | Deepmind Tech Ltd | Udvælgelse af handlinger ved hjælp af multimodale inputs |
US11410031B2 (en) * | 2018-11-29 | 2022-08-09 | International Business Machines Corporation | Dynamic updating of a word embedding model |
EP4004870A1 (en) * | 2019-07-22 | 2022-06-01 | Raytheon Company | Machine learned registration and multi-modal regression |
US20210297498A1 (en) * | 2020-03-19 | 2021-09-23 | Sri International | User targeted content generation using multimodal embeddings |
CN111461203A (zh) * | 2020-03-30 | 2020-07-28 | 北京百度网讯科技有限公司 | 跨模态处理方法、装置、电子设备和计算机存储介质 |
US11657230B2 (en) * | 2020-06-12 | 2023-05-23 | Adobe Inc. | Referring image segmentation |
US11574145B2 (en) * | 2020-06-30 | 2023-02-07 | Google Llc | Cross-modal weak supervision for media classification |
CN112464993B (zh) * | 2020-11-05 | 2022-12-09 | 苏州浪潮智能科技有限公司 | 一种多模态模型训练方法、装置、设备及存储介质 |
CN113920293A (zh) * | 2021-10-18 | 2022-01-11 | 北京达佳互联信息技术有限公司 | 信息识别方法、装置、电子设备及存储介质 |
CN114005012A (zh) * | 2021-11-05 | 2022-02-01 | 北京市商汤科技开发有限公司 | 多模态预训练模型的训练方法、装置、设备及存储介质 |
CN114239760B (zh) * | 2022-02-25 | 2022-05-20 | 苏州浪潮智能科技有限公司 | 多模态模型训练以及图像识别方法、装置、电子设备 |
-
2022
- 2022-02-25 CN CN202210174577.9A patent/CN114239760B/zh active Active
- 2022-09-28 WO PCT/CN2022/122303 patent/WO2023159945A1/zh active Application Filing
- 2022-09-28 US US18/697,418 patent/US20240331370A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
WO2023159945A1 (zh) | 2023-08-31 |
US20240331370A1 (en) | 2024-10-03 |
CN114239760A (zh) | 2022-03-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108681743B (zh) | 图像对象识别方法和装置、存储介质 | |
CN114239760B (zh) | 多模态模型训练以及图像识别方法、装置、电子设备 | |
WO2020078236A1 (zh) | 二维码生成方法、装置、存储介质及电子设备 | |
JP7425147B2 (ja) | 画像処理方法、テキスト認識方法及び装置 | |
CN113343982B (zh) | 多模态特征融合的实体关系提取方法、装置和设备 | |
CN110163205B (zh) | 图像处理方法、装置、介质和计算设备 | |
CN109816659B (zh) | 图像分割方法、装置及系统 | |
CN111476719A (zh) | 图像处理方法、装置、计算机设备及存储介质 | |
CN110544214A (zh) | 一种图像修复方法、装置及电子设备 | |
CN111598087B (zh) | 不规则文字的识别方法、装置、计算机设备及存储介质 | |
CN110619334B (zh) | 基于深度学习的人像分割方法、架构及相关装置 | |
WO2020151175A1 (zh) | 文本生成方法、装置、计算机设备及存储介质 | |
WO2024160186A1 (zh) | 一种模型训练方法及其相关设备 | |
CN112613541A (zh) | 目标检测方法及装置、存储介质及电子设备 | |
WO2024046144A1 (zh) | 一种视频处理方法及其相关设备 | |
CN117894038A (zh) | 一种图像中对象姿态生成方法和装置 | |
CN113516697A (zh) | 图像配准的方法、装置、电子设备及计算机可读存储介质 | |
CN113239693A (zh) | 意图识别模型的训练方法、装置、设备及存储介质 | |
CN117315758A (zh) | 面部表情的检测方法、装置、电子设备及存储介质 | |
CN110852102B (zh) | 一种中文的词性标注方法、装置、存储介质及电子设备 | |
CN114970666B (zh) | 一种口语处理方法、装置、电子设备及存储介质 | |
CN110163339A (zh) | 神经网络中网络表示生成、编码方法和装置 | |
CN114998668A (zh) | 特征提取方法、装置、存储介质及电子设备 | |
CN115374766A (zh) | 文本标点恢复方法及相关设备 | |
CN113283241B (zh) | 文本识别方法、装置、电子设备及计算机可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |