CN112989097A - 模型训练、图片检索方法及装置 - Google Patents
模型训练、图片检索方法及装置 Download PDFInfo
- Publication number
- CN112989097A CN112989097A CN202110311567.0A CN202110311567A CN112989097A CN 112989097 A CN112989097 A CN 112989097A CN 202110311567 A CN202110311567 A CN 202110311567A CN 112989097 A CN112989097 A CN 112989097A
- Authority
- CN
- China
- Prior art keywords
- picture
- text
- model
- information
- description information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 80
- 238000012549 training Methods 0.000 title claims abstract description 52
- 238000012512 characterization method Methods 0.000 claims description 48
- 239000013598 vector Substances 0.000 claims description 45
- 230000004927 fusion Effects 0.000 claims description 39
- 238000004590 computer program Methods 0.000 claims description 12
- 238000002372 labelling Methods 0.000 claims description 11
- 230000009466 transformation Effects 0.000 claims description 8
- 238000000605 extraction Methods 0.000 claims description 5
- 238000012545 processing Methods 0.000 abstract description 8
- 238000013473 artificial intelligence Methods 0.000 abstract description 4
- 238000013135 deep learning Methods 0.000 abstract description 3
- 238000010586 diagram Methods 0.000 description 13
- 238000012015 optical character recognition Methods 0.000 description 10
- 238000005065 mining Methods 0.000 description 9
- 238000004891 communication Methods 0.000 description 8
- 230000000694 effects Effects 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- 238000013527 convolutional neural network Methods 0.000 description 6
- 235000020068 maotai Nutrition 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 230000000007 visual effect Effects 0.000 description 5
- 238000004422 calculation algorithm Methods 0.000 description 4
- 238000013136 deep learning model Methods 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 238000010276 construction Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- FYYHWMGAXLPEAU-UHFFFAOYSA-N Magnesium Chemical compound [Mg] FYYHWMGAXLPEAU-UHFFFAOYSA-N 0.000 description 2
- 229910052749 magnesium Inorganic materials 0.000 description 2
- 239000011777 magnesium Substances 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/583—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/5846—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using extracted text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/40—Document-oriented image-based pattern recognition
- G06V30/41—Analysis of document content
- G06V30/413—Classification of content, e.g. text, photographs or tables
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Library & Information Science (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Evolutionary Biology (AREA)
- Databases & Information Systems (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本公开公开了模型训练方法,涉及人工智能领域以及图像处理,尤其涉及深度学习、NLP、计算机视觉、智能搜索等技术领域。具体实现方案为:获取样本图片以及每个样本图片的文本描述信息;以及利用样本图片和每个样本图片的文本描述信息训练第二多模态表征模型,得到第一多模态表征模型。
Description
技术领域
本公开涉及人工智能、图像处理等技术领域,尤其涉及深度学习、NLP、计算机视觉、智能搜索等技术领域。具体地,涉及一种模型训练方法、一种图片检索方法、一种模型训练装置、一种图片检索装置、一种电子设备、一种存储有计算机指令的非瞬时计算机可读存储介质及一种计算机程序产品。
背景技术
随着基础技术的不断进步,人类信息交互形式不断进化,从声音、文字、图片到视频,形式越来越生动、高效,但也越来越庞大、复杂。其中,图片媒体近来已经成为普遍的交互形式,对图片进行高效检索在搜索、推荐、广告等领域都有着广泛应用,也一直是业界研究的热点。
发明内容
本公开提供了一种模型训练方法、一种图片检索方法、一种模型训练装置、一种图片检索装置、一种电子设备、一种存储有计算机指令的非瞬时计算机可读存储介质及一种计算机程序产品。
根据本公开的一方面,提供了一种模型训练方法,包括:获取样本图片以及每个样本图片的文本描述信息;以及利用所述样本图片和所述每个样本图片的文本描述信息训练第二多模态表征模型,得到第一多模态表征模型。
根据本公开的另一方面,提供了一种图片检索方法,包括:获取目标图片以及所述目标图片的文本描述信息;针对所述目标图片提取图片特征;针对所述文本描述信息提取文本特征;将所述图片特征和所述文本特征输入第一多模态表征模型,得到所述第一多模态表征模型输出的融合特征向量;以及基于所述融合特征向量进行图片检索。
根据本公开的另一方面,提供了一种模型训练装置,包括:第一获取模块,用于获取样本图片以及每个样本图片的文本描述信息;以及训练模块,用于利用所述样本图片和所述每个样本图片的文本描述信息训练第二多模态表征模型,得到第一多模态表征模型。
根据本公开的另一方面,提供了一种图片检索装置,包括:第二获取模块,用于获取目标图片以及所述目标图片的文本描述信息;第一提取模块,用于针对所述目标图片提取图片特征;第二提取模块,用于针对所述文本描述信息提取文本特征;特征融合模块,用于将所述图片特征和所述文本特征输入第一多模态表征模型,得到所述第一多模态表征模型输出的融合特征向量;以及图片检索模块,用于基于所述融合特征向量进行图片检索。
根据本公开的另一方面,提供了一种电子设备,包括:至少一个处理器;以及与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行本公开实施例所述的方法。
根据本公开的另一方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行根据本公开实施例所述的方法。
根据本公开的另一方面,提供了一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现根据本公开实施例所述的方法。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本公开的限定。其中:
图1A示例性示出了适于本公开实施例的图片检索方法和装置的系统架构;
图1B示例性示出了可以实现本公开实施例的模型训练方法和装置的系统架构;
图2示例性示出了根据本公开实施例的模型训练方法的流程图;
图3示例性示出了根据本公开实施例的关于图片文本的来源的示意图;
图4A示例性示出了根据本公开实施例的双路多模态表征模型的示意图;
图4B示例性示出了根据本公开实施例的单路多模态表征模型的示意图;
图5示例性示出了根据本公开实施例的图片检索方法的流程图;
图6示例性示出了根据本公开实施例的全流程的示意图;
图7示例性示出了根据本公开实施例的模型训练装置的框图;
图8示例性示出了根据本公开实施例的图片检索装置的框图;以及
图9示例性示出了用来实现本公开实施例的模型训练方法和/或图片检索方法的电子设备的框图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
目前,图片检索采用的主要技术手段通常是先基于图片进行深度学习得到表征向量,然后再基于表征向量进行检索。这种技术方案可以较好地理解图片,但是其主要是对图片进行特征提取(如提取图片的颜色、纹理、形状等基础特征,以及通过深度学习模型提取图片的隐式特征),因而其对图片的理解主要围绕在图片像素本身,还只是停留在视觉语义上,检索结果不够精准。
本公开提供了一种基于与图片关联的周边文本的多模态模型训练方法和图片检索方法,可以通过对图片及与图片关联的周边文本进行深入理解,构建多模态的表征模型,以实现更精准的图片检索。
本公开可以作为搜索、推荐、广告等领域的核心功能组件,提供快速、高效、准确的图片检索。
应该理解,在本公开实施例中,多模态主要指与图片关联的周边文本(以下简称图片文本)和图片像素两个模态。
以下将结合附图和具体实施例详细阐述本公开。
适于本公开实施例的图片检索方法和装置的系统架构介绍如下。
图1A示例性示出了适于本公开实施例的图片检索方法和装置的系统架构。需要注意的是,图1A所示仅为可以应用本公开实施例的系统架构的示例,以帮助本领域技术人员理解本公开的技术内容,但并不意味着本公开实施例不可以用于其他环境或场景。
如图1A所示,系统架构100A可以包括客户端101、服务器102、103、104、105。
在本公开实施例中,在需要基于目标图片进行图片检索的情况下,可以从一个或者多个维度获取该目标图片的文本描述信息。
示例性的,服务器104可以从客户端101获取人工针对该目标图片标注的文本信息。服务器104还可以从服务器102获取机器针对该目标图片自动标注的文本信息。服务器104还可以根据该目标图片的来源,从云端如从服务器103获取该目标图片的文本信息。例如,对于来自百度百科某个词条下的目标图片,可以将百度百科中该词条下的文本信息作为该目标图片的文本信息。
服务器104在获取到目标图片以及该目标图片的文本描述信息后,可以从该目标图片中提取图片特征,并从该目标图片的文本描述信息中提取文本特征,然后将提取的图片特征和文本特征输入预先训练好的多模态表征模型,从而得到该多模态表征模型输出的基于该图片特征和该文本特征的融合特征向量。最后由服务器104基于该融合特征向量进行图片检索,可以获得较为精准的检索结果。
需要说明的是,服务器104在表征上述的融合特征向量时使用的多模态表征模型可以是由服务器104预先训练得到的,或者也可以是由其他服务器如服务器105预先训练得到的,本公开实施例在此不做限定。
应该理解,图1A中的客户端和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的客户端和服务器。
适于本公开实施例的图片检索方法和装置的应用场景介绍如下。
本公开实施例提供的图片检索方法可以作为搜索、推荐、广告等领域的核心功能,提供快速、高效、准确的图片检索。
图1B示例性示出了适于本公开实施例的模型训练方法和装置的系统架构。需要注意的是,图1B所示仅为可以应用本公开实施例的系统架构的示例,以帮助本领域技术人员理解本公开的技术内容,但并不意味着本公开实施例不可以用于其他环境或场景。
如图1B所示,系统架构100B可以包括服务器105和数据库106。
服务器105可以从数据库106获取训练样本,并基于获取的训练样本训练基于人工智能神经网络创建的多模态表征模型,最终得到本公开实施例用于图片检索领域的多模态表征模型。该训练样本包括样本图片以及与样本图片一一对应的关于各样本图片的文本描述信息。
应该理解,数据库106中的训练样本可以包括但不限于:从客户端获取的人工标注的图片文本,从服务器获取机器自动化标注的图片文本,以及根据图片的来源,从云端获取的图片文本,等等。
应该理解,图1B中的数据库和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的数据库和服务器。
根据本公开的实施例,本公开提供了一种模型训练方法。
图2示例性示出了根据本公开实施例的模型训练方法的流程图。
如图2所示,模型训练方法200可以包括:操作S210和操作S220。
在操作S210,获取样本图片以及每个样本图片的文本描述信息。
在操作S220,利用样本图片和每个样本图片的文本描述信息训练第二多模态表征模型,得到第一多模态表征模型。
在本公开的一个实施例中,在训练多模态表征模型的过程中,可以先获取多个样本图片,再对这多个样本图片进行文本信息挖掘,进而获取各个样本图片的文本描述信息。
或者,在本公开的另一个实施例中,在训练多模态表征模型之前,可以预先收集多个样本图片,并对这多个样本图片进行文本信息挖掘,进而获取各个样本图片的文本描述信息,最后将各样本图片及其文本描述信息一一对应地存储在指定的存储位置。待需要训练多模态表征模型时,再去该存储位置读取这些样本图片及其文本描述信息。
此外,在本公开的一个实施例中,利用样本图片及其文本描述信息训练第二多模态表征模型时,可以将样本图片及其文本描述信息作为一路输入信息输入第二多模态表征模型进行训练。或者,在本公开的一个实施例中,利用样本图片及其文本描述信息训练第二多模态表征模型时,可以将样本图片及其文本描述信息分别作为两路输入信息输入第二多模态表征模型进行训练。应该理解,对于前一实施例而言,样本图片及其文本描述信息在模型的输入层就开始融合了,而对于后一实施例而言,样本图片及其文本描述信息则是在模型的中间层开始融合的。但是,通过这两个实施例训练得到的多模态表征模型用于图片检索领域,都可以得到关于图片及其文本描述信息的融合特征信息。
在本公开实施例中,可以对各样本图片进行文本挖掘,如通过各种途径搜集各样本图片的周边文本,从而得到各样本图片的文本描述信息。示例性的,图片的文本描述信息可以包括以下中的一种或多种:人工标注的图片文本,机器自动化标注的图片文本,根据图片的来源获取的图片文本,对图片本身进行光学字符识别OCR获取的图片文本,等等。
例如,标注人员可以对每张图片进行贴合业务场景的图片描述。该方法最准确,但是人力消耗最大。
再例如,针对样本图片,可以通过大数据挖掘样本图片已有的文本描述信息,比如对于一个来自百度百科的图片,可以使用百科标题作为其周边文本。该方法效果较好,比较节省人力。
再例如,进行光学字符识别OCR,获取样本图片上自带的文本信息,比如有很多图片包含文字信息,如茅台酒上的“茅台”字样。该方法可以获得图片上的场景文字,丰富图片语义信息。
再例如,针对样本图片,可以进行基于深度学习模型的机器自动化图片描述,比如可以自动描述出“一瓶茅台酒放在镁光灯下”。该方法可以获得图片上的实体、及其属性和关系等信息,从而更进一步丰富图片的语义信息。
在本公开实施例中,通过图片和图片文本训练多模态表征模型,由此得到的多模态表征模型在对待检索的图片及其图片文本进行表征时,可以输出图片及其图片文本这两种信息相互融合得到的融合特征信息,即,后续的基于图片和图片文本进行图片检索实际上是基于这两种信息的融合信息进行图片检索的,因而检索结果更精准,效果更佳。
换言之,与相关技术中图片检索技术主要在对图片像素本身进行理解相比,本公开实施例通过挖掘图片的周边文本,可以给图片理解带来多模态(如图片及其图片文本)的特征融合,进而可以丰富其表达的含义,提高图片检索的精准度。
在图片精准检索的基础上,本公开实施例提供的图片检索方案还可以进一步集成到各种搜索、推荐、广告平台中,为平台提供高效的图片检索能力,帮助平台在进行图片相关业务时获取更好的效果。
作为一种可选的实施例,获取样本图片的文本描述信息可以包括以下至少之一。
获取样本图片的标注信息,并将获取的标注信息作为样本图片的文本描述信息。
获取与样本图片关联的文本信息,并将获取的文本信息作为样本图片的文本描述信息。
获取样本图片上自带的文本信息,并将获取的文本信息作为样本图片的文本描述信息。
应该理解,图片的标注信息可以包括人工标注的或者机器基于深度学习模型自动化标注的,本公开实施例在此不做限定。
还应该理解,与特定图片关联的文本信息,可以包括除针对图片标注的信息、图片上自带的文本信息之外的所有与该特定图片关联的其他类型的文本信息。
在本公开实施例中,可以对各样本图片进行文本挖掘,如通过各种途径搜集各样本图片的周边文本,从而得到各样本图片的文本描述信息。示例性的,如图3所示,图片310的图片文本320(即图片310的文本描述信息)可以包括以下中的一种或多种:人工标注的图片文本321,机器自动化标注的图片文本322,根据图片的来源挖掘的已有图片文本323,对图片本身进行光学字符识别OCR获取的图片文本324,……,等等。
通过本公开实施例,可以从多个维度挖掘图片的文本信息,并基于图片及其文本信息训练对应的多模态表征模型。这样得到的多模态表征模型在表征图片时,不仅可以从视觉层面上理解图片,还可以从文本层面上理解图片,因而得到的检索结果更加精准。
应该理解,在本公开实施例中,获取的图片文本越丰富,对应的图片检索结果可能越精准。
作为一种可选的实施例,第二多模态表征模型可以包括双路模型(又称双流模型)或单路模型(又称单流模型)。其中,如图4A所示,双路模型是指图片和文本分两路输入的模型。如图4B所示,单路模型是指图片和文本通过一路输入的模型。
即,在本公开的一个实施例中,利用样本图片及其文本描述信息训练第二多模态表征模型时,可以将样本图片及其文本描述信息作为一路输入信息输入第二多模态表征模型进行训练。
或者,在本公开的一个实施例中,利用样本图片及其文本描述信息训练第二多模态表征模型时,还可以将样本图片及其文本描述信息分别作为两路输入信息输入第二多模态表征模型进行训练。
应该理解,对于前一实施例而言,样本图片及其文本描述信息在模型的输入层就可以开始融合了,而对于后一实施例而言,样本图片及其文本描述信息在输入层并没有进行融合,而是在模型的中间层开始融合的。但是,通过这两个实施例训练得到的多模态表征模型用于图片检索领域,都可以得到关于图片及其文本描述信息的融合特征信息,因而都可以实现精准检索图片的目的。
作为一种可选的实施例,第二多模态表征模型可以是基于自注意力变换网络Transformer构建的模型。
作为另一种可选的实施例,第二多模态表征模型还可以是基于卷积神经网络CNN等构建的模型。
需要说明的是,基于Transformer构建的多模态表征模型经训练后用于表征图片及其图片文本,相比于基于CNN构建的多模态表征模型经训练后用于表征图片及其图片文本,前者得到的表征向量包含的信息更加丰富多元,即前者的表征能力更强。
此外,基于Transformer构建多模态表征模型,可以是文本、图片的双路模型或者单路模型。
根据本公开的实施例,本公开提供了一种图片检索方法。
图5示例性示出了根据本公开实施例的图片检索方法的流程图。
如图5所示,图片检索方法500可以包括:操作S510~操作S550。
在操作S510,获取目标图片以及目标图片的文本描述信息。
在操作S520,针对目标图片提取图片特征。
在操作S530,针对文本描述信息提取文本特征。
在操作S540,将图片特征和文本特征输入第一多模态表征模型,得到第一多模态表征模型输出的融合特征向量。
在操作S550,基于融合特征向量进行图片检索。
应该理解,本公开实施例中使用的第一多模态表征模型,可以是通过本公开前述实施例中的任一模型训练方法得到的多模态表征模型,本公开实施例在此不再赘述。
在本公开的一个实施例中,在进行图片检索的过程中,可以先获取一个或者多个需要进行图片检索的目标图片,再对这个/这些目标图片进行文本描述信息挖掘,进而获取各个目标图片的文本描述信息。
或者,在本公开的另一个实施例中,在进行图片检索之前,可以预先收集一个或者多个需要进行图片检索的目标图片,并对这个/这些目标图片进行文本描述信息挖掘,进而获取各个目标图片的文本描述信息,最后将各目标图片及其文本描述信息一一对应地存储在指定的存储位置。待需要进行图片检索时,再去该存储位置读取这个/这些目标图片及其文本描述信息。
进一步,在操作S510之后,可以执行操作S520和操作S530,从而提取目标图片的图片特征,以及提取其文本描述信息中涉及的文本特征。之后执行操作S540,得到关于该图片特征和该文本特征的融合特征向量。再之后执行操作S550,基于该融合特征向量进行图片检索,得到较精准的检索结果。
在本公开的一个实施例中,在操作S540,可以将图片特征和文本特征作为一路输入信息输入第一多模态表征模型进行特征表征。
或者,在本公开的一个实施例中,在操作S540,还可以将图片特征和文本特征分别作为两路输入信息输入第一多模态表征模型进行特征表征。
应该理解,对于前一实施例而言,目标图片的图片特征和文本特征在模型的输入层就可以开始融合了。而对于后一实施例而言,目标图片的图片特征和文本特征则需要在模型的中间层开始融合。但是,通过这两个实施例得到都是关于图片特征和文本特征的融合特征向量,因而其对目标图片的理解都不再局限于目标图片的视觉层面,因而基于该融合特征向量进行图片检索可以得到更精准的检索结果。
在本公开实施例中,可以对各目标图片进行文本挖掘,如通过各种途径搜集各目标图片的周边文本,从而得到各目标图片的文本描述信息。示例性的,图片的文本描述信息可以包括以下中的一种或多种:人工标注的图片文本,机器自动化标注的图片文本,根据图片的来源获取的图片文本,对图片本身进行光学字符识别OCR获取的图片文本,等等。
例如,标注人员可以对每张图片进行贴合业务场景的图片描述。该方法最准确,但是人力消耗最大。
再例如,针对目标图片,可以通过大数据挖掘目标图片已有的文本描述信息,比如对于一个来自百度百科的图片,可以使用百科标题作为其周边文本。该方法效果较好,比较节省人力。
再例如,进行光学字符识别OCR,获取目标图片上自带的文本信息,比如有很多图片包含文字信息,如茅台酒上的“茅台”字样。该方法可以获得图片上的场景文字,丰富图片语义信息。
再例如,针对目标图片,可以进行基于深度学习模型的机器自动化图片描述,比如可以自动描述出“一瓶茅台酒放在镁光灯下”。该方法可以获得图片上的实体、及其属性和关系等信息,从而更进一步丰富图片的语义信息。
通过本公开实施例,先将图片及其图片文本进行融合,再基于融合特征进行图片检索,因而检索结果更精准。即,在本公开实施例中,是基于图片及其图片文本的融合信息进行图片检索的,因而检索结果更精准,效果更佳。
换言之,与相关技术中,图片检索技术主要在对图片像素本身进行理解相比,本公开实施例通过挖掘图片的周边文本,可以给图片理解带来多模态(如图片及其图片文本)的特征融合,进而可以丰富其表达的含义,提高图片检索的精准度。
进一步,在图片精准检索的基础上,本公开实施例提供的图片检索方案还可以集成到各种搜索、推荐、广告平台中,为平台提供高效的图片检索能力,帮助平台在进行图片相关业务时获取更好的效果。
作为一种可选的实施例,获取目标图片的文本描述信息,可以包括以下至少之一。
获取目标图片的标注信息,并将该标注信息作为目标图片的文本描述信息。
获取与目标图片关联的文本信息,并将获取的该文本信息作为目标图片的文本描述信息。
获取目标图片上自带的文本信息,并将获取的该文本信息作为目标图片的文本描述信息。
应该理解,本公开实施例中获取图片的文本描述信息的方式与前述实施例中(模型训练方法中涉及的获取图片的文本描述信息的方式)相同或者类似,在此不再赘述。
通过本公开实施例,可以从多个维度挖掘图片的文本信息,这样对图片进行表征时得到的融合特征向量包含的信息更加丰富多元,因而对图片的理解更加深入,即不仅可以从视觉层面上理解图片,还可以从文本层面上理解图片,因而得到的检索结果更加精准。
应该理解,在本公开实施例中,获取的图片文本越丰富,对应的图片检索结果可能越精准。
作为一种可选的实施例,第一多模态表征模型是基于第二多模态表征模型训练得到的。
在本公开的一个实施例,第二多模态表征模型可以是基于自注意力变换网络构建的模型。
在本公开的另一个实施例,第二多模态表征模型还可以是基于卷积神经网络CNN等构建的模型。
需要说明的是,基于Transformer构建的多模态表征模型经训练后用于表征图片及其图片文本,相比于基于CNN构建的多模态表征模型经训练后用于表征图片及其图片文本,前者得到的表征向量包含的信息更加丰富多元,即前者的表征能力更强。
此外,基于Transformer构建多模态表征模型,可以是文本、图片的双路模型或者单路模型。
作为一种可选的实施例,基于融合特征向量进行图片检索,可以包括:基于融合特征向量,在预先设定的索引库中进行图片检索。例如,可以基于融合特征向量,并基于ANN算法,快速进行近似近邻检索。
其中,可以通过以下操作构建索引库。
获取多个图片以及多个图片中每个图片的文本描述信息。
基于每个图片以及该图片的文本描述信息,利用第一多模态表征模型,获取每个图片的融合特征向量。
基于每个图片的融合特征向量创建一个索引,从而构成索引库。
需要说明的是,本公开实施例中使用的第一多模态表征模型,可以是通过本公开前述实施例中的任一模型训练方法得到的多模态表征模型,在此不再赘述。
此外,本公开实施例中,获取图片的文本描述信息的方法,与前述实施例中描述的获取图片的文本描述信息的方法也相同或类似,在此也不再赘述。
此外,本公开实施例中,利用第一多模态表征模型,获取图片的融合特征向量的方法,与前述实施例中描述的利用第一多模态表征模型,获取图片的融合特征向量的方法也相同或类似,在此也不再赘述。
应该理解,在本公开实施例中,通过上述操作,可以构建涉及千万级图片,甚至更多图片的索引库。
以下将结合图6所示的具体实施例详细阐述本公开实施例的全流程。
如图6所示,在本公开实施例中,图片检索的全流程包括模型训练、索引库构建和图片检索三部分。
具体地,模型训练流程包括:操作S610~S630。
在操作S610,获取用于训练模型的样本图片及其周边文本。
在操作S620,基于Transformer构建多模态表征模型。
在操作S630,基于操作S610获取的样本数据(样本图片及其周边文本),训练基于操作S620构建的多模态表征模型。
具体地,索引库构建流程包括:操作S640~S670。
在操作S640,获取多个用于构建索引库的图片及其周边文本。
在操作S650,基于操作S640获取的图片及其周边文本,提取每个图片的图片特征及其周边文本的文本特征。
在操作S660,基于操作S650得到的每个图片的图片特征及其周边文本的文本特征,并利用基于操作S630训练得到的多模态表征模型,获取与每个图片一一对应融合特征向量。
在操作S670,基于操作S660得到的每个融合特征向量,创建一个索引,从而得到对应的索引库。
具体地,图片检索流程包括:操作S680~S6110。
在操作S680,获取一个或者多个需要检索的目标图片及其周边文本。
在操作S690,基于操作S680获取的图片及其周边文本,提取每个图片的图片特征及其周边文本的文本特征。
在操作S6100,基于操作S690得到的每个图片的图片特征及其周边文本的文本特征,并利用基于操作S630训练得到的多模态表征模型,获取与每个图片一一对应融合特征向量。
在操作S6110,针对操作S6100获得的每个融合特征向量,使用ANN算法,在基于操作S670得到的索引库中进行近似近邻检索。
需要说明的是,在本公开实施例中,使用ANN算法进行近似近邻图片检索时,具体可以使用lopq或者hnsw等技术快速进行近似近邻检索。
通过以上操作,可以实现图片的高效、精准检索。
应该理解,在图片检索中,为了能检到更准确的结果,本公开实施例采用多模态检索方案,即同时使用图片及其图片描述进行检索。
根据本公开的实施例,本公开还提供了一种模型训练装置。
图7示例性示出了根据本公开实施例的模型训练装置的框图。
如图7所示,模型训练装置700包括:第一获取模块710和训练模块720。
第一获取模块710,用于获取样本图片以及每个样本图片的文本描述信息。
训练模块720,用于利用该样本图片和该每个样本图片的文本描述信息训练第二多模态表征模型,得到第一多模态表征模型。
作为一种可选的实施例,第一获取模块包括以下至少之一:第一获取单元,用于获取样本图片的标注信息,并将获取的标注信息作为样本图片的文本描述信息;第二获取单元,用于获取与样本图片关联的文本信息,并将获取的文本信息作为样本图片的文本描述信息;第三获取单元,用于获取样本图片上自带的文本信息,并将获取的文本信息作为样本图片的文本描述信息。
作为一种可选的实施例,该第二多模态表征模型包括以下之一:双路模型,其中,该双路模型是图片和文本分两路输入的模型;单路模型,其中,该单路模型是图片和文本通过一路输入的模型。
作为一种可选的实施例,该第二多模态表征模型是基于自注意力变换网络构建的模型。
根据本公开的实施例,本公开还提供了一种图片检索装置。
图8示例性示出了根据本公开实施例的图片检索装置的框图。
如图8所示,图片检索装置800包括:第二获取模块810、第一提取模块820、第二提取模块830、特征融合模块840和图片检索模块850。
第二获取模块810,用于获取目标图片以及该目标图片的文本描述信息。
第一提取模块820,用于针对该目标图片提取图片特征。
第二提取模块830,用于针对该文本描述信息提取文本特征。
特征融合模块840,用于将该图片特征和该文本特征输入第一多模态表征模型,得到该第一多模态表征模型输出的融合特征向量。
图片检索模块850,用于基于该融合特征向量进行图片检索。
作为一种可选的实施例,该第二获取模块包括以下至少之一:第一获取单元,用于获取该目标图片的标注信息,并将该标注信息作为该目标图片的文本描述信息;第二获取单元,用于获取与该目标图片关联的文本信息,并将获取的该文本信息作为该目标图片的文本描述信息;第三获取单元,用于获取该目标图片上自带的文本信息,并将获取的该文本信息作为该目标图片的文本描述信息。
作为一种可选的实施例,该第一多模态表征模型是基于第二多模态表征模型训练得到的,该第二多模态表征模型是基于自注意力变换网络构建的模型。
作为一种可选的实施例,该图片检索模块还用于:基于该融合特征向量,在预先设定的索引库中进行图片检索。其中,可以通过以下操作构建该索引库:获取多个图片以及该多个图片中每个图片的文本描述信息;基于该每个图片以及该图片的文本描述信息,利用该第一多模态表征模型,获取该每个图片的融合特征向量;以及基于该每个图片的融合特征向量创建一个索引,从而构成该索引库。
应该理解,本公开装置部分的实施例与本公开方法部分的实施例对应相同或类似,实现的技术效果和功能也对应相同或类似,本公开实施例在此不再赘述。
根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
图9示出了可以用来实施本公开的实施例的示例电子设备900的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图9所示,电子设备900包括计算单元901,其可以根据存储在只读存储器(ROM)902中的计算机程序或者从存储单元908加载到随机访问存储器(RAM)903中的计算机程序,来执行各种适当的动作和处理。在RAM 903中,还可存储电子设备900操作所需的各种程序和数据。计算单元901、ROM 902以及RAM 903通过总线904彼此相连。输入/输出(I/O)接口905也连接至总线904。
电子设备900中的多个部件连接至I/O接口905,包括:输入单元906,例如键盘、鼠标等;输出单元907,例如各种类型的显示器、扬声器等;存储单元908,例如磁盘、光盘等;以及通信单元909,例如网卡、调制解调器、无线通信收发机等。通信单元909允许设备900通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元901可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元901的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元901执行上文所描述的各个方法和处理,例如方法XXX。例如,在一些实施例中,方法XXX可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元908。在一些实施例中,计算机程序的部分或者全部可以经由ROM 902和/或通信单元909而被载入和/或安装到设备900上。当计算机程序加载到RAM903并由计算单元901执行时,可以执行上文描述的方法XXX的一个或多个步骤。备选地,在其他实施例中,计算单元901可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行方法XXX。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。
Claims (19)
1.一种模型训练方法,包括:
获取样本图片以及每个样本图片的文本描述信息;以及
利用所述样本图片和所述每个样本图片的文本描述信息训练第二多模态表征模型,得到第一多模态表征模型。
2.根据权利要求1所述的方法,其中,获取样本图片的文本描述信息,包括以下至少之一:
获取样本图片的标注信息,并将获取的标注信息作为样本图片的文本描述信息;
获取与样本图片关联的文本信息,并将获取的文本信息作为样本图片的文本描述信息;
获取样本图片上自带的文本信息,并将获取的文本信息作为样本图片的文本描述信息。
3.根据权利要求1所述的方法,其中,所述第二多模态表征模型包括以下之一:
双路模型,其中,所述双路模型是图片和文本分两路输入的模型;
单路模型,其中,所述单路模型是图片和文本通过一路输入的模型。
4.根据权利要求1所述的方法,其中,所述第二多模态表征模型是基于自注意力变换网络构建的模型。
5.一种图片检索方法,包括:
获取目标图片以及所述目标图片的文本描述信息;
针对所述目标图片提取图片特征;
针对所述文本描述信息提取文本特征;
将所述图片特征和所述文本特征输入第一多模态表征模型,得到所述第一多模态表征模型输出的融合特征向量;以及
基于所述融合特征向量进行图片检索。
6.根据权利要求5所述的方法,其中,获取所述目标图片的文本描述信息,包括以下至少之一:
获取所述目标图片的标注信息,并将该标注信息作为所述目标图片的文本描述信息;
获取与所述目标图片关联的文本信息,并将获取的该文本信息作为所述目标图片的文本描述信息;
获取所述目标图片上自带的文本信息,并将获取的该文本信息作为所述目标图片的文本描述信息。
7.根据权利要求5所述的方法,其中,所述第一多模态表征模型是基于第二多模态表征模型训练得到的,所述第二多模态表征模型是基于自注意力变换网络构建的模型。
8.根据权利要求5所述的方法,其中,基于所述融合特征向量进行图片检索,包括:
基于所述融合特征向量,在预先设定的索引库中进行图片检索,
其中,通过以下操作构建所述索引库:
获取多个图片以及所述多个图片中每个图片的文本描述信息;
基于所述每个图片以及该图片的文本描述信息,利用所述第一多模态表征模型,获取所述每个图片的融合特征向量;以及
基于所述每个图片的融合特征向量创建一个索引,从而构成所述索引库。
9.一种模型训练装置,包括:
第一获取模块,用于获取样本图片以及每个样本图片的文本描述信息;以及
训练模块,用于利用所述样本图片和所述每个样本图片的文本描述信息训练第二多模态表征模型,得到第一多模态表征模型。
10.根据权利要求9所述的装置,其中,所述第一获取模块包括以下至少之一:
第一获取单元,用于获取样本图片的标注信息,并将获取的标注信息作为样本图片的文本描述信息;
第二获取单元,用于获取与样本图片关联的文本信息,并将获取的文本信息作为样本图片的文本描述信息;
第三获取单元,用于获取样本图片上自带的文本信息,并将获取的文本信息作为样本图片的文本描述信息。
11.根据权利要求9所述的装置,其中,所述第二多模态表征模型包括以下之一:
双路模型,其中,所述双路模型是图片和文本分两路输入的模型;
单路模型,其中,所述单路模型是图片和文本通过一路输入的模型。
12.根据权利要求9所述的装置,其中,所述第二多模态表征模型是基于自注意力变换网络构建的模型。
13.一种图片检索装置,包括:
第二获取模块,用于获取目标图片以及所述目标图片的文本描述信息;
第一提取模块,用于针对所述目标图片提取图片特征;
第二提取模块,用于针对所述文本描述信息提取文本特征;
特征融合模块,用于将所述图片特征和所述文本特征输入第一多模态表征模型,得到所述第一多模态表征模型输出的融合特征向量;以及
图片检索模块,用于基于所述融合特征向量进行图片检索。
14.根据权利要求13所述的装置,其中,所述第二获取模块包括以下至少之一:
第一获取单元,用于获取所述目标图片的标注信息,并将该标注信息作为所述目标图片的文本描述信息;
第二获取单元,用于获取与所述目标图片关联的文本信息,并将获取的该文本信息作为所述目标图片的文本描述信息;
第三获取单元,用于获取所述目标图片上自带的文本信息,并将获取的该文本信息作为所述目标图片的文本描述信息。
15.根据权利要求13所述的装置,其中,所述第一多模态表征模型是基于第二多模态表征模型训练得到的,所述第二多模态表征模型是基于自注意力变换网络构建的模型。
16.根据权利要求13所述的装置,其中,所述图片检索模块还用于:
基于所述融合特征向量,在预先设定的索引库中进行图片检索,
其中,通过以下操作构建所述索引库:
获取多个图片以及所述多个图片中每个图片的文本描述信息;
基于所述每个图片以及该图片的文本描述信息,利用所述第一多模态表征模型,获取所述每个图片的融合特征向量;以及
基于所述每个图片的融合特征向量创建一个索引,从而构成所述索引库。
17.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-8中任一项所述的方法。
18.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行根据权利要求1-8中任一项所述的方法。
19.一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现根据权利要求1-8中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110311567.0A CN112989097A (zh) | 2021-03-23 | 2021-03-23 | 模型训练、图片检索方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110311567.0A CN112989097A (zh) | 2021-03-23 | 2021-03-23 | 模型训练、图片检索方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112989097A true CN112989097A (zh) | 2021-06-18 |
Family
ID=76333250
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110311567.0A Pending CN112989097A (zh) | 2021-03-23 | 2021-03-23 | 模型训练、图片检索方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112989097A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113537487A (zh) * | 2021-06-25 | 2021-10-22 | 北京百度网讯科技有限公司 | 模型训练的方法、生成图片的方法及其装置 |
CN114494818A (zh) * | 2022-01-26 | 2022-05-13 | 北京百度网讯科技有限公司 | 图像处理方法、模型训练方法、相关装置及电子设备 |
CN114973294A (zh) * | 2022-07-28 | 2022-08-30 | 平安科技(深圳)有限公司 | 基于图文匹配方法、装置、设备及存储介质 |
EP4310695A4 (en) * | 2021-09-22 | 2024-10-16 | Tencent Tech Shenzhen Co Ltd | DATA PROCESSING METHOD AND APPARATUS, COMPUTER DEVICE AND STORAGE MEDIUM |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109299216A (zh) * | 2018-10-29 | 2019-02-01 | 山东师范大学 | 一种融合监督信息的跨模态哈希检索方法和系统 |
CN110851644A (zh) * | 2019-11-04 | 2020-02-28 | 泰康保险集团股份有限公司 | 图像检索方法及装置、计算机可读存储介质、电子设备 |
CN111339340A (zh) * | 2018-12-18 | 2020-06-26 | 顺丰科技有限公司 | 图像描述模型的训练方法、图像搜索方法及装置 |
WO2020155418A1 (zh) * | 2019-01-31 | 2020-08-06 | 深圳市商汤科技有限公司 | 一种跨模态信息检索方法、装置和存储介质 |
-
2021
- 2021-03-23 CN CN202110311567.0A patent/CN112989097A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109299216A (zh) * | 2018-10-29 | 2019-02-01 | 山东师范大学 | 一种融合监督信息的跨模态哈希检索方法和系统 |
CN111339340A (zh) * | 2018-12-18 | 2020-06-26 | 顺丰科技有限公司 | 图像描述模型的训练方法、图像搜索方法及装置 |
WO2020155418A1 (zh) * | 2019-01-31 | 2020-08-06 | 深圳市商汤科技有限公司 | 一种跨模态信息检索方法、装置和存储介质 |
CN110851644A (zh) * | 2019-11-04 | 2020-02-28 | 泰康保险集团股份有限公司 | 图像检索方法及装置、计算机可读存储介质、电子设备 |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113537487A (zh) * | 2021-06-25 | 2021-10-22 | 北京百度网讯科技有限公司 | 模型训练的方法、生成图片的方法及其装置 |
CN113537487B (zh) * | 2021-06-25 | 2023-08-04 | 北京百度网讯科技有限公司 | 模型训练的方法、生成图片的方法及其装置 |
EP4310695A4 (en) * | 2021-09-22 | 2024-10-16 | Tencent Tech Shenzhen Co Ltd | DATA PROCESSING METHOD AND APPARATUS, COMPUTER DEVICE AND STORAGE MEDIUM |
CN114494818A (zh) * | 2022-01-26 | 2022-05-13 | 北京百度网讯科技有限公司 | 图像处理方法、模型训练方法、相关装置及电子设备 |
CN114494818B (zh) * | 2022-01-26 | 2023-07-25 | 北京百度网讯科技有限公司 | 图像处理方法、模型训练方法、相关装置及电子设备 |
CN114973294A (zh) * | 2022-07-28 | 2022-08-30 | 平安科技(深圳)有限公司 | 基于图文匹配方法、装置、设备及存储介质 |
CN114973294B (zh) * | 2022-07-28 | 2022-10-21 | 平安科技(深圳)有限公司 | 基于图文匹配方法、装置、设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107679039B (zh) | 用于确定语句意图的方法和装置 | |
CN113159010B (zh) | 视频分类方法、装置、设备和存储介质 | |
CN112989097A (zh) | 模型训练、图片检索方法及装置 | |
CN111625635A (zh) | 问答处理、语言模型的训练方法、装置、设备及存储介质 | |
CN111191428B (zh) | 评论信息处理方法、装置、计算机设备和介质 | |
EP3872652B1 (en) | Method and apparatus for processing video, electronic device, medium and product | |
JP2023529939A (ja) | マルチモーダルpoi特徴の抽出方法及び装置 | |
CN112579727B (zh) | 文档内容的提取方法、装置、电子设备及存储介质 | |
US20240013558A1 (en) | Cross-modal feature extraction, retrieval, and model training method and apparatus, and medium | |
CN111782977A (zh) | 兴趣点处理方法、装置、设备及计算机可读存储介质 | |
CN115688920B (zh) | 知识抽取方法、模型的训练方法、装置、设备和介质 | |
CN112632227B (zh) | 简历匹配方法、装置、电子设备、存储介质和程序产品 | |
CN115269913A (zh) | 一种基于注意力片段提示的视频检索方法 | |
CN114861889A (zh) | 深度学习模型的训练方法、目标对象检测方法和装置 | |
CN115982376A (zh) | 基于文本、多模数据和知识训练模型的方法和装置 | |
CN114972910B (zh) | 图文识别模型的训练方法、装置、电子设备及存储介质 | |
CN116662495A (zh) | 问答处理方法、训练问答处理模型的方法及装置 | |
CN113408273B (zh) | 文本实体识别模型的训练与文本实体识别方法、装置 | |
CN114417878A (zh) | 语义识别方法、装置、电子设备及存储介质 | |
CN112528146B (zh) | 内容资源推荐方法、装置、电子设备及存储介质 | |
CN113360683A (zh) | 训练跨模态检索模型的方法以及跨模态检索方法和装置 | |
CN110807097A (zh) | 分析数据的方法和装置 | |
CN112580620A (zh) | 标志图片处理方法、装置、设备和介质 | |
CN114661904A (zh) | 文档处理模型的训练方法、装置、设备、存储介质及程序 | |
CN113657391A (zh) | 文字识别模型的训练方法、识别文字的方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20210618 |