CN113378781A - 视频特征提取模型的训练方法、装置和电子设备 - Google Patents
视频特征提取模型的训练方法、装置和电子设备 Download PDFInfo
- Publication number
- CN113378781A CN113378781A CN202110743852.XA CN202110743852A CN113378781A CN 113378781 A CN113378781 A CN 113378781A CN 202110743852 A CN202110743852 A CN 202110743852A CN 113378781 A CN113378781 A CN 113378781A
- Authority
- CN
- China
- Prior art keywords
- video
- loss function
- feature vector
- target
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/73—Querying
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/75—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/78—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/783—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Abstract
本公开提供了一种视频特征提取模型的训练方法、装置和电子设备,涉及计算机视觉和深度学习等人工智能技术领域,具体可用于视频理解场景下。具体实现方案为:在训练视频特征提取模型时,可以获取多个第一视频样本以及各第一视频样本的标题,并基于用户的多个搜索行为获取各搜索行为对应的视频样本,可用于辅助训练视频特征提取模型,这样在根据多个第一视频样本、各第一视频样本的标题以及各搜索行为对应的视频样本,共同对初始视频特征提取模型进行训练时,加快了初始视频特征提取模型的收敛速度,且整个训练过程中,不依赖人工标注的监督信息,实现了采用自监督的方式训练获取视频特征提取模型,提高了视频特征提取模型的训练效率。
Description
技术领域
本公开涉及图片处理技术领域,尤其涉及一种视频特征提取模型的训练方法、装置和电子设备,具体涉及计算机视觉和深度学习等人工智能技术领域。
背景技术
视频特征提取模型能够将一个视频图像序列映射成一个高维特征向量,并通过该高维特征向量表达视频画面内容。视频特征提取模型可以应用于较多场景,例如视频推荐场景或者视频搜索场景。
现有技术中,通常采用有监督的方式训练视频特征提取模型,即视频特征提取模型的训练需要依赖于标注的监督信息。这些监督信息通常需要人工标注,若要训练得到准确度较高的视频特征提取模型,则通常需要获取大量的视频样本进行训练,这会使得人工标注量较大,耗时较多,从而导致视频特征提取模型的训练效率较低。
因此,如何采用自监督的方式训练得到视频特征提取模型,以提高视频特征提取模型的训练效率是本领域技术人员亟待解决的问题。
发明内容
本公开提供了一种视频特征提取模型的训练方法、装置和电子设备,在训练视频特征提取模型时,实现了采用自监督的方式训练得到视频特征提取模型,提高了视频特征提取模型的训练效率。
根据本公开的第一方面,提供了一种视频特征提取模型的训练方法,该视频特征提取模型的训练方法可以包括:
获取多个第一视频样本以及各第一视频样本的标题。
基于用户的多个搜索行为获取各搜索行为对应的视频样本,所述各搜索行为对应的视频样本包括基于所述搜索行为展示的多个第二视频样本和所述用户对所述多个第二视频样本执行点击操作的多个第三视频样本。
根据所述多个第一视频样本、所述各第一视频样本的标题以及所述各搜索行为对应的视频样本,对初始视频特征提取模型进行训练,得到所述视频特征提取模型。
根据本公开的第二方面,提供了一种视频特征提取模型的训练装置,该视频特征提取模型的训练装置可以包括:
第一获取单元,用于获取多个第一视频样本以及各第一视频样本的标题。
第二获取单元,用于基于用户的多个搜索行为获取各搜索行为对应的视频样本,所述各搜索行为对应的视频样本包括基于所述搜索行为展示的多个第二视频样本和所述用户对所述多个第二视频样本执行点击操作的多个第三视频样本。
处理单元,用于根据所述多个第一视频样本、所述各第一视频样本的标题以及所述各搜索行为对应的视频样本,对初始视频特征提取模型进行训练,得到所述视频特征提取模型。
根据本公开的第三方面,提供了一种电子设备,该电子设备可以包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行上述第一方面所述的视频特征提取模型的训练方法。
根据本公开的第四方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行上述第一方面所述的视频特征提取模型的训练方法。
根据本公开的第五方面,提供了一种计算机程序产品,所述计算机程序产品包括:计算机程序,所述计算机程序存储在可读存储介质中,电子设备的至少一个处理器可以从所述可读存储介质读取所述计算机程序,所述至少一个处理器执行所述计算机程序使得电子设备执行上述第一方面所述的视频特征提取模型的训练方法。
根据本公开实施例提供的技术方案,在训练视频特征提取模型时,实现了采用自监督的方式训练得到视频特征提取模型,提高了视频特征提取模型的训练效率。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本公开的限定。其中:
图1是根据本公开第一实施例提供的视频特征提取模型的训练方法的流程示意图;
图2是本公开实施例提供的一种训练视频特征提取模型的框架示意图;
图3是根据本公开第二实施例提供的视频特征提取模型的训练方法的流程示意图;
图4是本公开实施例提供的另一种训练视频特征提取模型的框架示意图;
图5是根据本公开第三实施例提供的视频特征提取模型的训练方法的流程示意图;
图6是根据本公开第四实施例提供的视频特征提取模型的训练装置的结构示意图;
图7是本公开实施例提供的一种电子设备的示意性框图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
在本公开的实施例中,“至少一个”是指一个或者多个,“多个”是指两个或两个以上。“和/或”,描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况,其中A,B可以是单数或者复数。在本公开的文字描述中,字符“/”一般表示前后关联对象是一种“或”的关系。
本公开实施例提供的技术方案可以应用于视频理解的场景中。视频特征提取模型能够将一个视频图像序列映射成一个高维特征向量,并通过该高维特征向量表达视频画面内容,从而实现对视频内容的理解。
现有技术中,通常采用有监督的方式训练视频特征提取模型,这些监督信息通常需要人工标注,若要训练得到准确度较高的视频特征提取模型,则通常需要获取大量的视频样本进行训练,这会使得人工标注量较大,耗时较多,从而导致视频特征提取模型的训练效率较低。
为了降低对人工标注的监督信息的依赖,可以考虑采用自监督的方法对初始视频特征提取模型进行训练。其中,自监督又称为无监督。采用自监督的方法对初始视频特征提取模型进行训练时,通常需要构造代理任务,并通过学习代理任务对初始视频特征提取模型进行训练。例如,一种常用的代理任务是判断输入的两个视频片段属于同一个视频,还是属于两个不同的视频。但是学习代理任务的方案,仅从红绿蓝色(red green blue,RGB)模态对视频样本的内容进行对比学习,其监督信息较少,这样会使得初始视频特征提取模型在训练过程中,收敛速度较慢,仍会导致视频特征提取模型的训练效率较低。
为了提高视频特征提取模型的训练效率,在视频特征提取模型过程中,可以通过对视频样本和视频样本的标题等文本进行跨模态自监督训练,增加视频样本的语音信号,引入了跨模态信息,此外,鉴于用户搜索引擎的行为数据、例如视频搜索行为和相应的视频点击行为,这些行为数据可以在一定程度上描述视频的内容,且不依赖人工标注的监督信息,可用于辅助训练视频特征提取模型,加快了初始视频特征提取模型的收敛速度,实现了采用自监督的方式训练得到视频特征提取模型,提高了视频特征提取模型的训练效率。
基于上述技术构思,本公开实施例提供了一种视频特征提取模型的训练方法,下面,将通过具体的实施例对本公开提供的视频特征提取模型的训练方法进行详细地说明。可以理解的是,下面这几个具体的实施例可以相互结合,对于相同或相似的概念或过程可能在某些实施例不再赘述。
实施例一
图1是根据本公开第一实施例提供的视频特征提取模型的训练方法的流程示意图,该视频特征提取模型的训练方法可以由软件和/或硬件装置执行,例如,该硬件装置可以为终端或者服务器。示例的,请参见图1所示,该视频特征提取模型的训练方法可以包括:
S101、获取多个第一视频样本以及各第一视频样本的标题。
其中,每个第一视频样本对应有各自的标题,且第一视频样本与标题之间为一一对应关系。示例的,若第一视频样本为做紫薯蛋糕的视频,则其标题可以为紫薯蛋糕的做法。若第一视频样本为游泳的教学视频,则其标题可以为教你学游泳。
示例的,在获取多个第一视频样本时,可以从海量的视频集中获取多个视频,将其作为多个第一视频样本;也可以从特定场景下的视频集中获取多个视频,将其作为多个第一视频样本;具体可以根据实际需要进行设置,在此,对于多个第一视频样本的来源,本公开实施例不做具体限制。
通常情况下,鉴于每个第一视频样本均会对应有其标题,且标题可以在一定程度上描述该第一视频样本的内容,后续在对初始视频特征提取模型进行训练时,可以将第一视频样本的标题作为监督信息,一并对初始视频特征提取模型进行训练。基于此考虑,在本公开实施例中,可以在获取多个第一视频样本的同时,一并获取各第一视频样本的标题,这样后续就可以结合多个第一视频样本以及各第一视频样本的标题,共同对初始视频特征提取模型进行训练。
此外,鉴于用户搜索引擎的行为数据、例如视频搜索行为和相应的视频点击行为,这些行为数据可以在一定程度上描述视频的内容,且不依赖人工标注的监督信息,可用于辅助视频特征提取模型的训练,因此,可以进一步基于用户的多个搜索行为获取各搜索行为对应的视频样本,即执行下述S102,这样可以结合各搜索行为对应的视频样本,共同对初始视频特征提取模型进行训练。
S102、基于用户的多个搜索行为获取各搜索行为对应的视频样本,各搜索行为对应的视频样本包括基于搜索行为展示的多个第二视频样本和用户对多个第二视频样本执行点击操作的多个第三视频样本。
通常情况下,一个搜索行为可以对应多个展示的视频样本,该多个展示的视频样本可记为第二视频样本;并在展示多个第二视频样本后,用户通常会基于展示的多个第二视频样本,从多个第二视频样本中选择其感兴趣的多个视频样本执行点击操作,该多个被执行点击操作的视频样本可记为第三视频样本。其中,被执行点击操作的多个第三视频样本可以为展示的多个第二视频样本的子集。
以用户搜索行为为输入“警匪片”,则基于该搜索行为可以展示多个视频,假设展示的多个视频包括:视频1、视频2、视频3、…、视频n,则可以将该n个视频记为展示的多个第二视频样本,基于展示的n个第二视频样本,用户可以从n个第二视频样本中,选择其感兴趣的视频进行点击,若被执行点击操作的视频包括m个视频,则该m个视频即为被执行点击操作的多个第三视频样本。
需要说明的是,在本公开实施例中,上述S101中记载的“第一视频样本”、该S102中记载的“第二视频样本”以及“第三视频样本”,只是为了区分不同的视频样本,便于后续描述本公开的技术方案而已,并不对本公开的技术方案造成限定。
示例的,在获取多个搜索行各自对应的视频样本时,可以从预设的搜索行为库中获取多个搜索行各自对应的视频,将其记为多个搜索行各自对应的视频样本;其中,该预设的搜索行为库中包括预先获取的多个搜索行为、以及各个搜索行为对应的视频;也可以通过监测抓取的方式,获取多个搜索行各自对应的视频,将其记为多个搜索行各自对应的视频样本;也可以接收其它设备发送的多个搜索行各自对应的视频,将其记为多个搜索行各自对应的视频样本,具体可以根据实际需要进行设置,在此,本公开实施例只是以这三种方式为例进行说明,但并不代表本公开实施例仅局限于此。
需要说明的是,在本公开实施例中,上述S101和上述S102并无先后顺序,可以先执行S101,再执行S102;也可以先执行S102,再执行S101;也可以同时执行S101和S102,具体可以根据实际需要进行设置,在此,本公开实施例只是以先执行S101,再执行S102为例进行说明,但并不代表本公开实施例进局限于此。
在通过上述S101和S102分别获取到多个第一视频样本、各第一视频样本的标题以及各搜索行为对应的视频样本之后,就可以结合多个第一视频样本、各第一视频样本的标题以及各搜索行为对应的视频样本,共同对初始视频特征提取模型进行训练,即执行下述S103:
S103、根据多个第一视频样本、各第一视频样本的标题以及各搜索行为对应的视频样本,对初始视频特征提取模型进行训练,得到视频特征提取模型。
示例的,在本公开实施例中,初始视频特征提取模型可以为视频CNN模型,视频卷积神经网络(convolutional neural networks,CNN)模型,也可以其它深度神经网络模型,只要可用于视频特征建模即可。
可以看出,本公开实施例中,在训练视频特征提取模型时,可以获取多个第一视频样本以及各第一视频样本的标题,并基于用户的多个搜索行为获取各搜索行为对应的视频样本,可用于辅助训练视频特征提取模型,这样在根据多个第一视频样本、各第一视频样本的标题以及各搜索行为对应的视频样本,共同对初始视频特征提取模型进行训练时,加快了初始视频特征提取模型的收敛速度,且整个训练过程中,不依赖人工标注的监督信息,实现了采用自监督的方式训练获取视频特征提取模型,提高了视频特征提取模型的训练效率。
基于上述图1所示的实施例,在上述S103中,根据多个第一视频样本、各第一视频样本的标题以及各搜索行为对应的视频样本,训练得到视频特征提取模型时,示例的,可以设计3种预训练的任务,示例的,可参见图2所示,图2是本公开实施例提供的一种训练视频特征提取模型的框架示意图,该3种预训练任务分别为:基于各搜索行为对应的搜索文本对应的视频样本的点击预测任务,基于多个第一视频样本和各第一视频样本的标题的视频文本自监督比对任务,以及基于多个第一视频样本的视频表征自监督比对任务,训练视频特征提取模型,其中,设计的点击预测任务用于得到第一损失函数,设计的视频样本与标题之间的自监督对比任务用于确定第二损失函数,设计的视频表征自监督比对任务用于得到第三损失函数。
下面,将结合该3种预训练任务,对本公开实施例如何根据多个第一视频样本、各第一视频样本的标题以及各搜索行为对应的视频样本,训练得到视频特征提取模型进行详细地描述。
实施例二
图3是根据本公开第二实施例提供的视频特征提取模型的训练方法的流程示意图,该视频特征提取模型的训练方法同样可以由软件和/或硬件装置执行,例如,该硬件装置可以为终端或者服务器。示例的,请参见图3所示,该视频特征提取模型的训练方法可以包括:
S301、分别将各搜索行为对应的第二视频样本和第三视频样本输入初始视频特征提取模型中,得到各搜索行为对应的多个第一特征向量和多个第二特征向量,并根据各搜索行为对应的多个第一特征向量和多个第二特征向量,确定第一损失函数。
可以理解的是,点击预测任务的主要目的是给视频特征学习提供有帮助的信号,可用于确定用于训练视频特征提取模型的第一损失函数。
其中,针对各第二视频样本,将其输入至初始视频特征提取模型中,可以得到该第二视频样本对应的第一特征向量,且第二视频样本与第一特征向量为一对一映射关系。同理,针对各第三视频样本,将其输入至初始视频特征提取模型中,可以得到该第三视频样本对应的第二特征向量,且第三视频样本与第二特征向量为一对一映射关系。
示例的,在根据各搜索行为对应的多个第一特征向量和多个第二特征向量,确定第一损失函数时,可以先确定各搜索行为对应的损失函数,再根据各搜索行为对应的损失函数,确定第一损失函数。
可以理解的是,本公开实施例中,在确定各搜索行为对应的损失函数时,鉴于每一个搜索行为对应的损失函数的确定方法类似,因此,为了避免赘述,将以确定任一个搜索行为,第i个搜索行为对应的损失函数为例,对如何确定各搜索行为对应的损失函数进行描述。为了便于后续描述,可将该第i个搜索行为记为目标搜索行为。
示例的,在确定目标搜索行为对应的损失函数时,可以考虑两个因素,一个因素为:目标搜索行为下被执行点击操作的第三视频样本与目标搜索行为对应的搜索文本的相关性,高于目标搜索行为下被展示的第二视频样本与目标搜索行为对应的搜索文本的相关性;另一个因素为:目标搜索行为下被执行点击操作的第三视频样本与目标搜索行为对应的搜索文本的相关性,高于另外一个其它搜索行为下被执行点击操作的第三视频样本与目标搜索行为对应的搜索文本的相关性。结合这两个因素,可以构造目标搜索行为对应的损失函数,具体过程为:
先确定该目标搜索行为对应的搜索文本的第七特征向量;再根据目标搜索行为对应的多个第一特征向量和多个第二特征向量、第七特征向量以及其它搜索行为对应的多个第二特征向量,共同确定目标搜索行为对应的损失函数。其中,其它搜索行为为除多个搜索行为中除目标搜索行为之外的任意一个搜索行为。
示例的,在获取目标搜索行为对应的搜索文本的第七特征向量时,通过预训练的文本特征描述模型ERNIE获取搜索文本的第七特征向量,也可以用其它的文本预训练模型,例如BERT-CHINESE等,只要可以获取搜索文本的第七特征向量即可,具体可以根据实际需要进行设置,在此,本公开实施例不做具体限制。其中,ERNIE是一种大规模文本预训练模型,其作用是将一个文本序列通过神经网络编码到一个语义特征空间,将文本映射为一个特征向量,该特征向量即为搜索文本的第七特征向量,其具体细节本公开实施例不做描述。
在得到目标搜索行为对应的搜索文本的第七特征向量后,不是直接根据目标搜索行为对应的多个第一特征向量和多个第二特征向量、第七特征向量以及其它搜索行为对应的多个第二特征向量,确定目标搜索行为对应的损失函数,而是在此基础上,引入一个多头注意力(multi-head attention)模块,用于提取视频样本及其对应的标题的联合特征,并基于该联合特征与目标搜索行为的特征进行点击预测任务的训练,共同确定目标搜索行为对应的损失函数。
针对目标搜索行为对应的多个第一特征向量和多个第二特征向量、以及其它搜索行为对应的多个第二特征向量中的任一特征向量,可以结合上述多头注意力模块,先对特征向量和特征向量所属的视频样本的标题对应的第四特征向量进行融合处理,得到融合处理后的特征向量,该融合处理后的特征向量可记为第八特征向量。
示例的,在对特征向量和特征向量所属的视频样本的标题对应的第四特征向量进行融合处理时,针对目标搜索行为,其为多个搜索行为中的第i个搜索行为,且该目标搜索行为对应的搜索文本为qi,其它搜索行为为多个搜索行为中的第j个搜索行为,且该目标搜索行为对应的搜索文本为qj,j≠i。基于第i个搜索行为展示的多个第二视频样本集合可以记为即基于第i个搜索行为展示了n个第二视频样本,为基于目标搜索行为展示的多个第二视频样本集合中的任一第二视频样本,其中被用户执行点击操作多个第三视频样本集合可以记为即用户点击了n个第二视频样本中的m个视频样本,为基于目标搜索行为执行点击操作的多个第三视频样本集合中的任一第三视频样本。将第二视频样本集合中的第二视频样本分别输入至初始视频特征提取模型中,可以得到第二视频样本集合对应的第一特征向量集合 为第一特征向量集合的任一第一特征向量;将第三视频样本集合中的第三视频样本分别输入至初始视频特征提取模型中,可以得到第三视频样本集合对应的第二特征向量集合 为第二特征向量集合的任一第二特征向量。
基于第j个搜索行为展示的多个第二视频样本集合可以记为即基于第j个搜索行为展示了p个第二视频样本,为基于第j个搜索行为展示的多个第二视频样本集合中的任一第二视频样本,其中被用户执行点击操作多个第三视频样本集合可以记为 即用户点击了p个第二视频样本中的q个视频样本,为基于第j个搜索行为执行点击操作的多个第三视频样本集合中的任一第三视频样本。将第二视频样本集合中的第二视频样本分别输入至初始视频特征提取模型中,可以得到第二视频样本集合对应的第一特征向量集合 为第一特征向量集合的任一第一特征向量;将第三视频样本集合中的第三视频样本分别输入至初始视频特征提取模型中,可以得到第三视频样本集合对应的第二特征向量集合 为第二特征向量集合的任一第二特征向量。
在对目标搜索行为对应的多个第一特征向量和多个第二特征向量以及其它搜索行为对应的多个第二特征向量进行融合处理时,为了便于描述,以其中任一特征向量为例,该任一特征向量可记为可以先确定该特征向量所属的视频样本的标题ti对应的第四特征向量并可以对特征向量和标题对应的第四特征向量进行融合处理,可参见下述公式1:
其中,FT是一个featuretoken,即特征口令,FT∈RD,用来当作多头注意力模块中的文本信号,它是一个可以学习的token,用来从中抽取相关的特征并融合,得到最终的特征向量和标题对应的第四特征向量融合后的特征向量即第八特征向量。其中,其中D为特征的维度。可以看出,本公开实施例中的第八特征向量,是特指融合处理后得到的特征向量。具体地,多头注意力模块中的计算可参见下述公式2:
其中,Hl为第l个attention的输出,*为矩阵乘法运算符,为的转置,为第l个attention模块的线性层,WOut∈RMD×D是一个线性变换矩阵,它把MD维特征MSA映射到一个D维的特征空间。
基于上述融合处理,可以得到目标搜索行为对应的各第一特征向量对应的第八特征向量、目标搜索行为对应的各第二特征向量对应的第八特征向量、以及其它搜索行为对应的各第二特征向量对应的第八特征向量,在此基础上,可以结合目标搜索行为对应的标题的第七特征向量,确定目标搜索行为对应的损失函数。
示例的,在结合目标搜索行为对应的标题的第七特征向量,确定目标搜索行为对应的损失函数时,可以分别计算各第一特征向量对应的第八特征向量与第七特征向量之间的距离,得到多个第一距离;并分别计算目标搜索行为对应的各第二特征向量对应的第八特征向量与第七特征向量之间的距离,得到多个第二距离;分别计算其它搜索行为对应的各第二特征向量对应的第八特征向量与第七特征向量之间的距离,得到多个第三距离;根据多个第一距离、多个第二距离以及多个第三距离,确定目标搜索行为对应的损失函数,结合上述描述的构建损失函数需要考虑的两个因素,可以将损失函数设计为两个带margin的ranking loss之和,可参见下述公式3:
其中,lqvt(qi)表示目标搜索行为对应的损失函数,Z1与Z2为常数归一化因子,表示基于目标搜索行为展示的多个第二视频样本集合中的任一第二视频样本,表示基于目标搜索行为被用户执行点击操作的多个第三视频样本集合中的任一第三视频样本,∈为margin超参数,表示第二视频样本对应的第八特征向量,表示目标搜索行为对应的标题qi的第七特征向量,表示第二视频样本对应的第八特征向量与第七特征向量之间的距离,表示第三视频样本对应的第八特征向量,表示第三视频样本对应的第八特征向量与第七特征向量之间的距离,表示基于第j个搜索行为被用户执行点击操作的多个第三视频样本集合中的任一第三视频样本,表示第三视频样本对应的第八特征向量,表示第三视频样本对应的第八特征向量与第七特征向量之间的距离。
基于上述公式3可以得到目标搜索行为对应的损失函数,类似的,就可以得到多个搜索行为中,每一个搜索行为对应的损失函数;在分别得到每一个搜索行为对应的损失函数后,鉴于该多个搜索行为对应的视频样本为视频特征提取模型训练过程中的一批视频样本,用于完成一次训练,因此,可以基于各搜索行为对应的损失函数,求解该多个搜索行为对应的总损失函数,并将该总损失函数确定为多个搜索行为对应的第一损失函数,这样就可以基于各搜索行为对应的视频样本的点击预测任务,获取到该点击预测任务下的第一损失函数,这样就可以通过该第一损失函数,辅助加强对初始视频特征提取模型的训练,加快了初始视频特征提取模型的收敛速度。
S302、分别将各第一视频样本输入初始视频特征提取模型中,得到各第一视频样本对应的第三特征向量,并根据各第一视频样本对应的第三特征向量和各第一视频样本的标题对应的第四特征向量,确定第二损失函数。
可以理解的是,视频样本与标题之间的自监督对比任务的主要目的是给视频特征学习提供一个监督信号,该任务的目地就是区分视频样本与给定的标题信息之间是否匹配,可用于确定用于训练视频特征提取模型的第二损失函数。
其中,针对各第一视频样本,将其输入至初始视频特征提取模型中,可以得到该第一视频样本对应的第三特征向量,且第一视频样本与第三特征向量为一对一映射关系。
示例的,在根据多个第一视频样本中,各第一视频样本对应的第三特征向量和各第一视频样本的标题对应的第四特征向量,确定第二损失函数时,可以先根据各第一视频样本对应的第三特征向量和各第一视频样本的标题对应的第四特征向量,确定各第一视频样本对应的损失函数,再根据各第一视频样本对应的损失函数确定第一损失函数。
可以理解的是,本公开实施例中,在确定各第一视频样本对应的损失函数时,鉴于每一个第一视频样本对应的损失函数的确定方法类似,因此,为了避免赘述,将以确定第i个第一视频样本对应的损失函数为例,对如何确定各第一视频样本对应的损失函数进行描述。为了便于后续描述,可将该第i个第一视频样本记为目标第一视频样本。
示例的,在确定目标第一视频样本对应的损失函数时,可以考虑一个因素:在特征空间中,目标第一视频样本的第三特征向量与目标第一视频样本的标题对应的第四特征向量之间距离要近,而与其它第一视频样本,例如第j个第一视频样本的标题对应的第四特征向量之间的距离要远,且j≠i。其中,其它第一视频样本为除多个第一视频样本中除目标第一视频样本之外的任意一个第一视频样本。结合这个因素,可以构造目标第一视频样本对应的损失函数,具体过程为:
先确定目标第一视频样本对应的第三特征向量与目标第一视频样本的标题对应的第四特征向量之间的第四距离;并分别确定目标第一视频样本对应的第三特征向量与其它第一视频样本的标题对应的第四特征向量之间的距离,得到多个第五距离;再根据第四距离和多个第五距离,确定目标第一视频样本对应的损失函数,结合上述描述的构建损失函数需要考虑的因素,可以将损失函数设计为带margin的ranking loss函数,可参见下述公式4:
其中,表示多个第一视频样本中的第i个第一视频样本,即目标第一视频样本对应的第三特征向量,且其中D为特征的维度,表示第i个第一视频样本的标题ti对应的第四特征向量,且 表示目标第一视频样本对应的损失函数,δ为一个常数超参,表示其它第j个第一视频样本的标题对应的第四特征向量,表示目标第一视频样本对应的第三特征向量与第i个第一视频样本的标题ti对应的第四特征向量之间的第四距离,表示目标第一视频样本对应的第三特征向量与其它第j个第一视频样本的标题ti对应的第四特征向量之间的第五距离。d(x,y)为两个向量的cos距离,N表示多个第一视频样本中除第i个第一视频样本之外的其它第一视频样本的数量。
示例的,在该步骤中,在确定第一视频样本的标题对应的特征向量时,可以通过预训练的文本特征描述模型ERNIE,获取第一视频样本的标题对应的特征向量,也可以用其它的文本预训练模型,例如BERT-CHINESE等,只要可以获取第一视频样本的标题对应的特征向量即可,具体可以根据实际需要进行设置,在此,本公开实施例不做具体限制。
基于上述公式4可以得到目标第一视频样本对应的损失函数,类似的,就可以得到多个第一视频样本中,每一个第一视频样本对应的损失函数;在分别得到每一个第一视频样本对应的损失函数后,鉴于该多个第一视频样本为视频特征提取模型训练过程中的一批视频样本,用于完成一次训练,因此,可以基于各第一视频样本对应的损失函数,求解该多个第一视频样本对应的总损失函数,并将该总损失函数确定为多个第一视频样本对应的第一损失函数,这样就可以基于多个第一视频样本和各第一视频样本的标题的视频文本自监督比对任务,获取到该自监督对比任务下的第二损失函数,这样就可以通过该第二损失函数,辅助加强对初始视频特征提取模型的训练,加快了初始视频特征提取模型的收敛速度。
S303、分别提取各第一视频样本中的两个视频片段,并将两个视频片段输入初始视频特征提取模型中,得到各第一视频样本中两个视频片段各自对应的第五特征向量和第六特征向量,并根据各第一视频样本中两个视频片段各自对应的第五特征向量和第六特征向量、及各第一视频样本对应的第三特征向量,确定第三损失函数。
可以理解的是,视频表征自监督比对任务的主要目的是通过对比学习,对视频的画面内容进行特征学习,可用于确定用于训练视频特征提取模型的第三损失函数。
示例的,可以通过随机采样的方式,提取各第一视频样本中的两个视频片段,针对各第一视频样本中的两个视频片段,将其输入至初始视频特征提取模型中,可以得到该两个视频片段各自对应的第五特征向量和第六特征向量。其中,第一视频样本中一个视频片段对应的特征向量为第五特征向量,另一个视频片段对应的特征向量为第六特征向量,且视频片段与特征向量为一对一映射关系。
示例的,在各第一视频样本中两个视频片段各自对应的第五特征向量和第六特征向量、及各第一视频样本对应的第三特征向量,确定第三损失函数时,可以先根据各第一视频样本中两个视频片段各自对应的第五特征向量和第六特征向量、及各第一视频样本对应的第三特征向量,确定各第一视频样本对应的损失函数,再根据各第一视频样本对应的损失函数确定第三损失函数。
可以理解的是,本公开实施例中,在确定各第一视频样本对应的损失函数时,鉴于每一个第一视频样本对应的损失函数的确定方法类似,因此,为了避免赘述,将以确定第i个第一视频样本对应的损失函数为例,对如何确定各第一视频样本对应的损失函数进行描述。为了便于后续描述,可将该第i个第一视频样本记为目标第一视频样本。
示例的,在确定目标第一视频样本对应的损失函数时,可以考虑一个因素:在特征空间中,目标第一视频样本中两个视频片段各自对应的第五特征向量和第六向量之间距离要近,其中一个特征向量与其它第一视频样本,例如第j个第一视频样本对应的第三特征向量之间的距离要远,且j≠i。其中,其它第一视频样本为除多个第一视频样本中除目标第一视频样本之外的任意一个第一视频样本。结合这个因素,可以构造目标第一视频样本对应的损失函数,具体过程为:
可以先确定目标第一视频样本中两个视频片段各自对应的第五特征向量和第六向量之间的第一相似度,并确定第五特征向量或第六特征向量分别与其它第一视频样本对应的第三特征向量之间的相似度,得到多个第二相似度;根据第一相似度和多个第二相似度,确定目标第一视频样本对应的损失函数,结合上述描述的构建损失函数需要考虑的因素,可以采用经典的对比损失函数,可参见下述公式5:
其中,vi表示第i个第一视频样本,即目标第一视频样本,lva(vi)表示第一视频样本对应的损失函数,表示第i个第一视频样本中一个视频片段对应的第五特征向量,表示第i个第一视频样本中另一个视频片段对应的第六特征向量,表示第i个第一视频样本中一个视频片段对应的第五特征向量和第i个第一视频样本中另一个视频片段之间的相似度度量函数,τ为一个超参数,为其它第j个第一视频样本对应的第三特征向量 表示第i个第一视频样本中一个视频片段对应的第五特征向量和第j个第一视频样本对应的第三特征向量之间的相似度度量函数。其中,s(x,y)是两个特征向量x跟特征向量y之间的相似度度量函数,可以采用cos相似度,即s(x,y)=1/2-1/2cos(x,y)。
基于上述公式5可以得到目标第一视频样本对应的损失函数,类似的,就可以得到多个第一视频样本中,每一个第一视频样本对应的损失函数;在分别得到每一个第一视频样本对应的损失函数后,鉴于该多个第一视频样本为视频特征提取模型训练过程中的一批视频样本,用于完成一次训练,因此,可以基于各第一视频样本对应的损失函数,求解该多个第一视频样本对应的总损失函数,并将该总损失函数确定为多个第一视频样本对应的第三损失函数,这样就可以基于多个第一视频样本的视频表征自监督比对任务,获取到该自监督对比任务下的第三损失函数,这样就可以通过该第三损失函数,辅助加强对初始视频特征提取模型的训练,加快了初始视频特征提取模型的收敛速度。
需要说明的是,在本公开实施例中,上述S301、S302和S303之间并无顺序,可以先执行S301,再执行S302、最后再执行S303;也可以先执行S302,再执行S303、最后再执行S301;也可以先执行S303,再执行S301、最后再执行S302等,具体可以根据实际需要进行设置,在此,本公开实施例只是以先执行S301,再执行S302、最后再执行S303为例进行说明,但并不代表本公开实施例仅局限于此。
在分别获取到第一损失函数、第二损失函数以及第三损失函数后,就可以执行下述S304:
S304、根据第一损失函数、第二损失函数和第三损失函数,对初始视频特征提取模型进行训练,得到视频特征提取模型。
示例的,在根据第一损失函数、第二损失函数和第三损失函数,对初始视频特征提取模型进行训练时,在一种可能的实现方式中,可以直接计算该第一损失函数、第二损失函数和第三损失函数之间的总损失,并根据总损失,对初始视频特征提取模型进行训练,得到视频特征提取模型,可参见下述公式6:
L=Lqvt+Lvt+Lva 公式6
其中,L表示总损失,Lqvt表示第一损失函数,Lvt表示第二损失函数,Lva表示第三损失函数。
在另一种可能的实现方式中,还可以先分别确定第一损失函数、第二损失函数和第三损失函数各自的权重,并结合各自的权重确定总损失,根据总损失,对初始视频特征提取模型进行训练,得到视频特征提取模型,可参见下述公式7:
L=α1Lqvt+α2Lvt+α3Lva 公式7
其中,α1表示第一损失函数Lqvt的权重,α2表示第二损失函数Lvt的权重,α3表示第三损失函数Lva的权重。
可以看出,本公开实施例中,在训练视频特征提取模型时,可以基于各搜索行为对应的视频样本的点击预测任务,获取到该点击预测任务下的第一损失函数;并基于多个第一视频样本和各第一视频样本的标题的视频文本自监督比对任务,获取到该自监督对比任务下的第二损失函数;再基于多个第一视频样本的视频表征自监督比对任务,获取到该自监督对比任务下的第三损失函数,这样通过构造三种损失函数,并结合三种损失函数共同对初始视频特征提取模型进行训练,加快了初始视频特征提取模型的收敛速度,且整个训练过程中,不依赖人工标注的监督信息,实现了采用自监督的方式训练获取视频特征提取模型,提高了视频特征提取模型的训练效率。
基于上述图3所示的实施例,在根据第一损失函数、第二损失函数和第三损失函数,对初始视频特征提取模型进行训练时,为了进一步加快初始视频特征提取模型的收敛速度,还可以设计视频标题自监督对比任务,示例的,请参见图4所示,图4是本公开实施例提供的另一种训练视频特征提取模型的框架示意图,该视频标题自监督对比任务用于得到第四损失函数,使得可以在第一损失函数、第二损失函数和第三损失函数的基础上,结合第四损失函数对初始视频特征提取模型进行训练。下面,将详细地描述如何结合第四损失函数对初始视频特征提取模型进行训练。
实施例三
图5是根据本公开第三实施例提供的视频特征提取模型的训练方法的流程示意图,该视频特征提取模型的训练方法同样可以由软件和/或硬件装置执行,例如,该硬件装置可以为终端或者服务器。示例的,请参见图5所示,该视频特征提取模型的训练方法可以包括:
实施例三:
图5是根据本公开第三实施例提供的视频特征提取模型的训练方法的流程示意图,该视频特征提取模型的训练方法同样可以由软件和/或硬件装置执行,例如,该硬件装置可以为终端或者服务器。示例的,请参见图5所示,该视频特征提取模型的训练方法可以包括:
S501、对多个第一视频样本的标题进行聚类,得到多个分簇。
需要说明的是,该步骤中多个第一视频样本可以为上述图3所示的实施例中的多个第一视频样本,也可以为其它多个视频样本,具体可以根据实际需要进行设置。在此,本公开实施例只是以该步骤中多个第一视频样本为上述图3所示的实施例中的多个第一视频样本为例进行说明,但并不代表本公开实施例仅局限于此。
示例的,在获取到多个第一视频样本对应的标题后,可以根据各标题的语义特征,对该多个第一视频样本进行聚类,得到多个分簇。示例的,可以对多个第一视频样本进行K类聚类,K足够大可以达到几万级别,这样针对多个第一视频样本中的各第一视频样本,可以将其标题所属的分簇中心的标识作为其标签信息,后续用于确定第四损失函数。
可以理解的是,在对多个第一视频样本进行聚类时,聚类算法可以不受特别大限制,可以为常用的KMeans等聚类方法,具体可以根据实际需要进行设置,在此,本公开实施例不做进一步地限制。
S502、分别将各第一视频样本对应的第三特征向量输入分类器中,得到各第一视频样本属于多个分簇中各分簇的概率,并根据各第一视频样本属于多个分簇中各分簇的概率,确定第四损失函数。
其中,针对各第一视频样本,将其输入至初始视频特征提取模型中,可以得到该第一视频样本对应的第三特征向量,且第一视频样本与第三特征向量为一对一映射关系。
结合上述S501中的描述,在将各第一视频样本的标题所属的分簇中心的标识作为其标签信息,后续用于确定第四损失函数时,可以在现有的初始视频特征提取模型后面加上一个全链接层FC和一个softmax层,该全链接层FC和softmax层可作为一个分类器,并结合分类器的输出,确定第四损失函数。其中,该分类器的输入为各第一视频样本对应的第三特征向量,输出为各第一视频样本属于多个分簇中各分簇的概率。
示例的,在根据各第一视频样本属于多个分簇中各分簇的概率,确定第四损失函数时,针对各第一视频样本,可以先确定第一视频样本的标题所属的目标分簇,并根据多个概率中,目标分簇对应的概率确定第一视频样本对应的损失函数;再根据各第一视频样本对应的损失函数,确定第四损失函数。
可以理解的是,本公开实施例中,在确定各第一视频样本对应的损失函数时,鉴于每一个第一视频样本对应的损失函数的确定方法类似,因此,为了避免赘述,将以确定任一个第一视频样本,第i个第一视频样本对应的损失函数为例,对如何确定各第一视频样本对应的损失函数进行描述。
假设第i个第一视频样本可记为vi,且该第一视频样本的标题记为ti,且经过聚类后,其该第一视频样本vi的标题记ti所属的目标分簇为K个分簇中的第yi个分簇。将第i个第一视频样本vi输入至初始视频特征提取模型中,可以得到第i个第一视频样本vi对应的第三特征向量并将第i个第一视频样本vi对应的第三特征向量输入至增加的分类器中,可以得到第三特征向量属于K个分簇中各分簇的概率,可参见下述公式8:
其中,lce(vi)表示第i个第一视频样本vi对应的损失函数。
基于上述公式8和公式9可以得到第i个第一视频样本对应的损失函数,类似的,就可以得到多个第一视频样本中,每一个第一视频样本对应的损失函数;在分别得到每一个第一视频样本对应的损失函数后,鉴于该多个第一视频样本为视频特征提取模型训练过程中的一批视频样本,用于完成一次训练,因此,可以基于各第一视频样本对应的损失函数,求解该多个第一视频样本对应的总损失函数,并将该总损失函数确定为多个第一视频样本对应的第四损失函数,这样就可以基于视频标题自监督对比任务,获取到该自监督对比任务下的第四损失函数。
S504、根据第一损失函数、第二损失函数、第三损失函数以及第四损失函数,对初始视频特征提取模型进行训练,得到视频特征提取模型。
示例的,在根据第一损失函数、第二损失函数、第三损失函数以及第四损失函数,对初始视频特征提取模型进行训练时,与上述S304中描述的类似,在一种可能的实现方式中,可以直接计算第一损失函数、第二损失函数、第三损失函数以及第四损失函数之间的总损失,并根据总损失,对初始视频特征提取模型进行训练,得到视频特征提取模型,可参见下述公式10:
L=Lqvt+Lvt+Lva+Lce 公式10
其中,L表示总损失,Lqvt表示第一损失函数,Lvt表示第二损失函数,Lva表示第三损失函数,Lce表示第四损失函数。
在另一种可能的实现方式中,还可以先分别确定第一损失函数、第二损失函数、第三损失函数以及第四损失函数各自的权重,并结合各自的权重确定总损失,根据总损失,对初始视频特征提取模型进行训练,得到视频特征提取模型,可参见下述公式11:
L=α1Lqvt+α2Lvt+α3Lva+α4Lce 公式11
其中,α1表示第一损失函数Lqvt的权重,α2表示第二损失函数Lvt的权重,α3表示第三损失函数Lva的权重,α4表示第四损失函数Lce的权重。
可以看出,本公开实施例中,在训练视频特征提取模型时,可以先基于视频标题自监督对比任务,获取到该自监督对比任务下的第四损失函数,这样通过构造第四损失函数,使得在第一损失函数、第二损失函数以及第三损失函数的基础上,再结合构造的第四损失函数共同对初始视频特征提取模型进行训练,加快了初始视频特征提取模型的收敛速度,且整个训练过程中,不依赖人工标注的监督信息,实现了采用自监督的方式训练获取视频特征提取模型,提高了视频特征提取模型的训练效率。
实施例四
图6是根据本公开第四实施例提供的视频特征提取模型的训练装置60的结构示意图,示例的,请参见图6所示,该视频特征提取模型的训练装置60可以包括:
第一获取单元601,用于获取多个第一视频样本以及各第一视频样本的标题。
第二获取单元602,用于基于用户的多个搜索行为获取各搜索行为对应的视频样本,各搜索行为对应的视频样本包括基于搜索行为展示的多个第二视频样本和用户对多个第二视频样本执行点击操作的多个第三视频样本。
处理单元603,用于根据多个第一视频样本、各第一视频样本的标题以及各搜索行为对应的视频样本,对初始视频特征提取模型进行训练,得到视频特征提取模型。
可选的,处理单元603包括第一处理模块、第二处理模块、第三处理模块以及第四处理模块。
第一处理模块,用于分别将各搜索行为对应的第二视频样本和第三视频样本输入初始视频特征提取模型中,得到各搜索行为对应的多个第一特征向量和多个第二特征向量,并根据各搜索行为对应的多个第一特征向量和多个第二特征向量,确定第一损失函数。
第二处理模块,用于分别将各第一视频样本输入初始视频特征提取模型中,得到各第一视频样本对应的第三特征向量,并根据各第一视频样本对应的第三特征向量和各第一视频样本的标题对应的第四特征向量,确定第二损失函数。
第三处理模块,用于分别提取各第一视频样本中的两个视频片段,并将两个视频片段输入初始视频特征提取模型中,得到各第一视频样本中两个视频片段各自对应的第五特征向量和第六特征向量,并根据各第一视频样本中两个视频片段各自对应的第五特征向量和第六特征向量、及各第一视频样本对应的第三特征向量,确定第三损失函数。
第四处理模块,用于根据第一损失函数、第二损失函数和第三损失函数,对初始视频特征提取模型进行训练,得到视频特征提取模型。
可选的,第一处理模块包括第一处理子模块、第二处理子模块以及第三处理子模块。
第一处理子模块,用于针对目标搜索行为,确定目标搜索行为对应的搜索文本的第七特征向量,目标搜索行为为多个搜索行为中的任意一个。
第二处理子模块,用于根据目标搜索行为对应的多个第一特征向量和多个第二特征向量、第七特征向量以及其它搜索行为对应的多个第二特征向量,确定目标搜索行为对应的损失函数;其中,其它搜索行为为除多个搜索行为中除目标搜索行为之外的任意一个搜索行为。
第三处理子模块,用于根据各搜索行为对应的损失函数,确定第一损失函数。
可选的,第二处理子模块,具体用于针对任一特征向量,对特征向量和特征向量所属的视频样本的标题对应的第四特征向量进行融合处理,得到特征向量对应的第八特征向量;其中,特征向量为目标搜索行为对应的多个第一特征向量和多个第二特征向量、以及其它搜索行为对应的多个第二特征向量中的任一特征向量;根据目标搜索行为对应的各第一特征向量对应的第八特征向量、目标搜索行为对应的各第二特征向量对应的第八特征向量、第七特征向量、以及其它搜索行为对应的各第二特征向量对应的第八特征向量,确定目标搜索行为对应的损失函数。
可选的,第二处理子模块,具体用于分别计算各第一特征向量对应的第八特征向量与第七特征向量之间的距离,得到多个第一距离;并分别计算目标搜索行为对应的各第二特征向量对应的第八特征向量与第七特征向量之间的距离,得到多个第二距离;分别计算其它搜索行为对应的各第二特征向量对应的第八特征向量与第七特征向量之间的距离,得到多个第三距离;根据多个第一距离、多个第二距离以及多个第三距离,确定目标搜索行为对应的损失函数。
可选的,第二处理模块包括第四处理子模块、第五处理子模块以及第六处理子模块。
第四处理子模块,用于针对目标第一视频样本,确定目标第一视频样本对应的第三特征向量与目标第一视频样本的标题对应的第四特征向量之间的第四距离;并分别确定目标第一视频样本对应的第三特征向量与其它第一视频样本的标题对应的第四特征向量之间的距离,得到多个第五距离;其中,目标第一视频样本为多个第一视频样本中的任意一个,其它第一视频样本为除多个第一视频样本中除目标第一视频样本之外的任意一个第一视频样本。
第五处理子模块,用于根据第四距离和多个第五距离,确定目标第一视频样本对应的损失函数。
第六处理子模块,用于根据各第一视频样本对应的损失函数,确定第二损失函数。
可选的,第三处理模块包括第七处理子模块、第八处理子模块以及第九处理子模块。
第七处理子模块,用于针对目标第一视频样本,确定目标第一视频样本中两个视频片段各自对应的第五特征向量和第六向量之间的第一相似度,并确定第五特征向量或第六特征向量分别与其它第一视频样本对应的第三特征向量之间的相似度,得到多个第二相似度。
第八处理子模块,用于根据第一相似度和多个第二相似度,确定目标第一视频样本对应的损失函数。
第九处理子模块,用于根据各第一视频样本对应的损失函数,确定第三损失函数。
可选的,第四处理模块包括第十处理子模块、第十一处理子模块以及第十二处理子模块。
第十处理子模块,用于对多个第一视频样本的标题进行聚类,得到多个分簇。
第十一处理子模块,用于分别将各第一视频样本对应的第三特征向量输入分类器中,得到各第一视频样本属于多个分簇中各分簇的概率,并根据各第一视频样本属于多个分簇中各分簇的概率,确定第四损失函数。
第十二处理子模块,用于根据第一损失函数、第二损失函数、第三损失函数以及第四损失函数,对初始视频特征提取模型进行训练,得到视频特征提取模型。
可选的,第十一处理子模块,具体用于针对各第一视频样本,确定第一视频样本的标题所属的目标分簇,并根据多个概率中,目标分簇对应的概率确定第一视频样本对应的损失函数;根据各第一视频样本对应的损失函数,确定第四损失函数。
本公开实施例提供的视频特征提取模型的训练装置60,可以执行上述任一实施例所示的视频特征提取模型的训练方法的技术方案,其实现原理以及有益效果与视频特征提取模型的训练方法的实现原理及有益效果类似,可参见视频特征提取模型的训练方法的实现原理及有益效果,此处不再进行赘述。
本公开的技术方案中,所涉及的用户个人信息的获取,存储和应用等,均符合相关法律法规的规定,且不违背公序良俗。
根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
根据本公开的实施例,本公开还提供了一种计算机程序产品,计算机程序产品包括:计算机程序,计算机程序存储在可读存储介质中,电子设备的至少一个处理器可以从可读存储介质读取计算机程序,至少一个处理器执行计算机程序使得电子设备执行上述任一实施例提供的方案。
图7是本公开实施例提供的一种电子设备70的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图7所示,设备70包括计算单元701,其可以根据存储在只读存储器(ROM)702中的计算机程序或者从存储单元708加载到随机访问存储器(RAM)703中的计算机程序,来执行各种适当的动作和处理。在RAM 703中,还可存储设备70操作所需的各种程序和数据。计算单元701、ROM 702以及RAM 703通过总线704彼此相连。输入/输出(I/O)接口705也连接至总线704。
设备70中的多个部件连接至I/O接口705,包括:输入单元706,例如键盘、鼠标等;输出单元707,例如各种类型的显示器、扬声器等;存储单元708,例如磁盘、光盘等;以及通信单元709,例如网卡、调制解调器、无线通信收发机等。通信单元709允许设备70通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元701可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元701的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元701执行上文所描述的各个方法和处理,例如视频特征提取模型的训练方法。例如,在一些实施例中,视频特征提取模型的训练方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元708。在一些实施例中,计算机程序的部分或者全部可以经由ROM702和/或通信单元709而被载入和/或安装到设备70上。当计算机程序加载到RAM 703并由计算单元701执行时,可以执行上文描述的视频特征提取模型的训练方法的一个或多个步骤。备选地,在其他实施例中,计算单元701可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行视频特征提取模型的训练方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,以解决了传统物理主机与VPS服务("Virtual Private Server",或简称"VPS")中,存在的管理难度大,业务扩展性弱的缺陷。服务器也可以为分布式系统的服务器,或者是结合了区块链的服务器。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。
Claims (21)
1.一种视频特征提取模型的训练方法,包括:
获取多个第一视频样本以及各第一视频样本的标题;
基于用户的多个搜索行为获取各搜索行为对应的视频样本,所述各搜索行为对应的视频样本包括基于所述搜索行为展示的多个第二视频样本和所述用户对所述多个第二视频样本执行点击操作的多个第三视频样本;
根据所述多个第一视频样本、所述各第一视频样本的标题以及所述各搜索行为对应的视频样本,对初始视频特征提取模型进行训练,得到所述视频特征提取模型。
2.根据权利要求1所述的方法,其中,所述根据所述多个第一视频样本、所述各第一视频样本的标题以及所述各搜索行为对应的视频样本,对初始视频特征提取模型进行训练,得到所述视频特征提取模型,包括:
分别将所述各搜索行为对应的第二视频样本和第三视频样本输入所述初始视频特征提取模型中,得到所述各搜索行为对应的多个第一特征向量和多个第二特征向量,并根据所述各搜索行为对应的多个第一特征向量和多个第二特征向量,确定第一损失函数;
分别将所述各第一视频样本输入所述初始视频特征提取模型中,得到所述各第一视频样本对应的第三特征向量,并根据所述各第一视频样本对应的第三特征向量和所述各第一视频样本的标题对应的第四特征向量,确定第二损失函数;
分别提取所述各第一视频样本中的两个视频片段,并将所述两个视频片段输入所述初始视频特征提取模型中,得到所述各第一视频样本中两个视频片段各自对应的第五特征向量和第六特征向量,并根据所述各第一视频样本中两个视频片段各自对应的第五特征向量和第六特征向量、及所述各第一视频样本对应的第三特征向量,确定第三损失函数;
根据所述第一损失函数、所述第二损失函数和所述第三损失函数,对所述初始视频特征提取模型进行训练,得到所述视频特征提取模型。
3.根据权利要求2所述的方法,其中,所述根据所述各搜索行为对应的多个第一特征向量和多个第二特征向量,确定第一损失函数,包括:
针对目标搜索行为,确定所述目标搜索行为对应的搜索文本的第七特征向量,所述目标搜索行为为多个搜索行为中的任意一个;
根据所述目标搜索行为对应的多个第一特征向量和多个第二特征向量、所述第七特征向量以及其它搜索行为对应的多个第二特征向量,确定所述目标搜索行为对应的损失函数;其中,所述其它搜索行为为除所述多个搜索行为中除所述目标搜索行为之外的任意一个搜索行为;
根据所述各搜索行为对应的损失函数,确定所述第一损失函数。
4.根据权利要求3所述的方法,其中,所述根据所述目标搜索行为对应的多个第一特征向量和多个第二特征向量、所述第七特征向量以及其它搜索行为对应的多个第二特征向量,确定所述目标搜索行为对应的损失函数,包括:
针对任一特征向量,对所述特征向量和所述特征向量所属的视频样本的标题对应的第四特征向量进行融合处理,得到所述特征向量对应的第八特征向量;其中,所述特征向量为所述目标搜索行为对应的多个第一特征向量和多个第二特征向量、以及所述其它搜索行为对应的多个第二特征向量中的任一特征向量;
根据所述目标搜索行为对应的各第一特征向量对应的第八特征向量、所述目标搜索行为对应的各第二特征向量对应的第八特征向量、所述第七特征向量、以及所述其它搜索行为对应的各第二特征向量对应的第八特征向量,确定所述目标搜索行为对应的损失函数。
5.根据权利要求4所述的方法,其特征在于,所述根据所述目标搜索行为对应的各第一特征向量对应的第八特征向量、所述目标搜索行为对应的各第二特征向量对应的第八特征向量、所述第七特征向量、以及所述其它搜索行为对应的各第二特征向量对应的第八特征向量,确定所述目标搜索行为对应的损失函数,包括:
分别计算所述各第一特征向量对应的第八特征向量与所述第七特征向量之间的距离,得到多个第一距离;并分别计算所述目标搜索行为对应的各第二特征向量对应的第八特征向量与所述第七特征向量之间的距离,得到多个第二距离;
分别计算所述其它搜索行为对应的各第二特征向量对应的第八特征向量与所述第七特征向量之间的距离,得到多个第三距离;
根据所述多个第一距离、所述多个第二距离以及所述多个第三距离,确定所述目标搜索行为对应的损失函数。
6.根据权利要求2-5任一项所述的方法,其中,所述根据所述各第一视频样本对应的第三特征向量和所述各第一视频样本的标题对应的第四特征向量,确定第二损失函数,包括:
针对目标第一视频样本,确定所述目标第一视频样本对应的第三特征向量与所述目标第一视频样本的标题对应的第四特征向量之间的第四距离;并分别确定所述目标第一视频样本对应的第三特征向量与其它第一视频样本的标题对应的第四特征向量之间的距离,得到多个第五距离;其中,所述目标第一视频样本为多个第一视频样本中的任意一个,所述其它第一视频样本为除所述多个第一视频样本中除所述目标第一视频样本之外的任意一个第一视频样本;
根据所述第四距离和所述多个第五距离,确定所述目标第一视频样本对应的损失函数;
根据各所述第一视频样本对应的损失函数,确定所述第二损失函数。
7.根据权利要求2-6任一项所述的方法,其中,所述根据所述各第一视频样本中两个视频片段各自对应的第五特征向量和第六特征向量、及所述各第一视频样本对应的第三特征向量,确定第三损失函数,包括:
针对目标第一视频样本,确定所述目标第一视频样本中两个视频片段各自对应的第五特征向量和第六向量之间的第一相似度,并确定所述第五特征向量或第六特征向量分别与其它第一视频样本对应的第三特征向量之间的相似度,得到多个第二相似度;
根据所述第一相似度和所述多个第二相似度,确定所述目标第一视频样本对应的损失函数;
根据各所述第一视频样本对应的损失函数,确定所述第三损失函数。
8.根据权利要求2-7任一项所述的方法,其中,所述根据所述第一损失函数、所述第二损失函数和所述第三损失函数,对所述初始视频特征提取模型进行训练,得到所述视频特征提取模型,包括:
对所述多个第一视频样本的标题进行聚类,得到多个分簇;
分别将所述各第一视频样本对应的第三特征向量输入分类器中,得到所述各第一视频样本属于所述多个分簇中各分簇的概率,并根据所述各第一视频样本属于所述多个分簇中各分簇的概率,确定第四损失函数;
根据所述第一损失函数、所述第二损失函数、所述第三损失函数以及所述第四损失函数,对所述初始视频特征提取模型进行训练,得到所述视频特征提取模型。
9.根据权利要求8所述的方法,其中,所述根据所述各第一视频样本属于所述多个分簇中各分簇的概率,确定第四损失函数,包括:
针对所述各第一视频样本,确定所述第一视频样本的标题所属的目标分簇,并根据多个概率中,所述目标分簇对应的概率确定所述第一视频样本对应的损失函数;
根据各所述第一视频样本对应的损失函数,确定所述第四损失函数。
10.一种视频特征提取模型的训练装置,包括:
第一获取单元,用于获取多个第一视频样本以及各第一视频样本的标题;
第二获取单元,用于基于用户的多个搜索行为获取各搜索行为对应的视频样本,所述各搜索行为对应的视频样本包括基于所述搜索行为展示的多个第二视频样本和所述用户对所述多个第二视频样本执行点击操作的多个第三视频样本;
处理单元,用于根据所述多个第一视频样本、所述各第一视频样本的标题以及所述各搜索行为对应的视频样本,对初始视频特征提取模型进行训练,得到所述视频特征提取模型。
11.根据权利要求10所述的装置,其中,所述处理单元包括第一处理模块、第二处理模块、第三处理模块以及第四处理模块;
所述第一处理模块,用于分别将所述各搜索行为对应的第二视频样本和第三视频样本输入所述初始视频特征提取模型中,得到所述各搜索行为对应的多个第一特征向量和多个第二特征向量,并根据所述各搜索行为对应的多个第一特征向量和多个第二特征向量,确定第一损失函数;
所述第二处理模块,用于分别将所述各第一视频样本输入所述初始视频特征提取模型中,得到所述各第一视频样本对应的第三特征向量,并根据所述各第一视频样本对应的第三特征向量和所述各第一视频样本的标题对应的第四特征向量,确定第二损失函数;
所述第三处理模块,用于分别提取所述各第一视频样本中的两个视频片段,并将所述两个视频片段输入所述初始视频特征提取模型中,得到所述各第一视频样本中两个视频片段各自对应的第五特征向量和第六特征向量,并根据所述各第一视频样本中两个视频片段各自对应的第五特征向量和第六特征向量、及所述各第一视频样本对应的第三特征向量,确定第三损失函数;
所述第四处理模块,用于根据所述第一损失函数、所述第二损失函数和所述第三损失函数,对所述初始视频特征提取模型进行训练,得到所述视频特征提取模型。
12.根据权利要求11所述的装置,其中,所述第一处理模块包括第一处理子模块、第二处理子模块以及第三处理子模块;
所述第一处理子模块,用于针对目标搜索行为,确定所述目标搜索行为对应的搜索文本的第七特征向量,所述目标搜索行为为多个搜索行为中的任意一个;
所述第二处理子模块,用于根据所述目标搜索行为对应的多个第一特征向量和多个第二特征向量、所述第七特征向量以及其它搜索行为对应的多个第二特征向量,确定所述目标搜索行为对应的损失函数;其中,所述其它搜索行为为除所述多个搜索行为中除所述目标搜索行为之外的任意一个搜索行为;
所述第三处理子模块,用于根据所述各搜索行为对应的损失函数,确定所述第一损失函数。
13.根据权利要求12所述的装置,其中,
所述第二处理子模块,具体用于针对任一特征向量,对所述特征向量和所述特征向量所属的视频样本的标题对应的第四特征向量进行融合处理,得到所述特征向量对应的第八特征向量;其中,所述特征向量为所述目标搜索行为对应的多个第一特征向量和多个第二特征向量、以及所述其它搜索行为对应的多个第二特征向量中的任一特征向量;根据所述目标搜索行为对应的各第一特征向量对应的第八特征向量、所述目标搜索行为对应的各第二特征向量对应的第八特征向量、所述第七特征向量、以及所述其它搜索行为对应的各第二特征向量对应的第八特征向量,确定所述目标搜索行为对应的损失函数。
14.根据权利要求13所述的装置,其特征在于,
所述第二处理子模块,具体用于分别计算所述各第一特征向量对应的第八特征向量与所述第七特征向量之间的距离,得到多个第一距离;并分别计算所述目标搜索行为对应的各第二特征向量对应的第八特征向量与所述第七特征向量之间的距离,得到多个第二距离;分别计算所述其它搜索行为对应的各第二特征向量对应的第八特征向量与所述第七特征向量之间的距离,得到多个第三距离;根据所述多个第一距离、所述多个第二距离以及所述多个第三距离,确定所述目标搜索行为对应的损失函数。
15.根据权利要求11-14任一项所述的装置,其中,所述第二处理模块包括第四处理子模块、第五处理子模块以及第六处理子模块;
所述第四处理子模块,用于针对目标第一视频样本,确定所述目标第一视频样本对应的第三特征向量与所述目标第一视频样本的标题对应的第四特征向量之间的第四距离;并分别确定所述目标第一视频样本对应的第三特征向量与其它第一视频样本的标题对应的第四特征向量之间的距离,得到多个第五距离;其中,所述目标第一视频样本为多个第一视频样本中的任意一个,所述其它第一视频样本为除所述多个第一视频样本中除所述目标第一视频样本之外的任意一个第一视频样本;
所述第五处理子模块,用于根据所述第四距离和所述多个第五距离,确定所述目标第一视频样本对应的损失函数;
所述第六处理子模块,用于根据各所述第一视频样本对应的损失函数,确定所述第二损失函数。
16.根据权利要求11-15任一项所述的装置,其中,所述第三处理模块包括第七处理子模块、第八处理子模块以及第九处理子模块;
所述第七处理子模块,用于针对目标第一视频样本,确定所述目标第一视频样本中两个视频片段各自对应的第五特征向量和第六向量之间的第一相似度,并确定所述第五特征向量或第六特征向量分别与其它第一视频样本对应的第三特征向量之间的相似度,得到多个第二相似度;
所述第八处理子模块,用于根据所述第一相似度和所述多个第二相似度,确定所述目标第一视频样本对应的损失函数;
所述第九处理子模块,用于根据各所述第一视频样本对应的损失函数,确定所述第三损失函数。
17.根据权利要求11-16任一项所述的装置,其中,所述第四处理模块包括第十处理子模块、第十一处理子模块以及第十二处理子模块;
所述第十处理子模块,用于对所述多个第一视频样本的标题进行聚类,得到多个分簇;
所述第十一处理子模块,用于分别将所述各第一视频样本对应的第三特征向量输入分类器中,得到所述各第一视频样本属于所述多个分簇中各分簇的概率,并根据所述各第一视频样本属于所述多个分簇中各分簇的概率,确定第四损失函数;
所述第十二处理子模块,用于根据所述第一损失函数、所述第二损失函数、所述第三损失函数以及所述第四损失函数,对所述初始视频特征提取模型进行训练,得到所述视频特征提取模型。
18.根据权利要求17所述的装置,其中,
所述第十一处理子模块,具体用于针对所述各第一视频样本,确定所述第一视频样本的标题所属的目标分簇,并根据多个概率中,所述目标分簇对应的概率确定所述第一视频样本对应的损失函数;根据各所述第一视频样本对应的损失函数,确定所述第四损失函数。
19.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-9中任一项所述的视频特征提取模型的训练方法。
20.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行根据权利要求1-9中任一项所述的视频特征提取模型的训练方法。
21.一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现根据权利要求1-9中任一项所述的视频特征提取模型的训练方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110743852.XA CN113378781B (zh) | 2021-06-30 | 2021-06-30 | 视频特征提取模型的训练方法、装置和电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110743852.XA CN113378781B (zh) | 2021-06-30 | 2021-06-30 | 视频特征提取模型的训练方法、装置和电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113378781A true CN113378781A (zh) | 2021-09-10 |
CN113378781B CN113378781B (zh) | 2022-08-05 |
Family
ID=77580502
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110743852.XA Active CN113378781B (zh) | 2021-06-30 | 2021-06-30 | 视频特征提取模型的训练方法、装置和电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113378781B (zh) |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110047163A1 (en) * | 2009-08-24 | 2011-02-24 | Google Inc. | Relevance-Based Image Selection |
CN102629279A (zh) * | 2012-03-23 | 2012-08-08 | 天津大学 | 一种用于图像或视频搜索重排序的方法 |
CN107832476A (zh) * | 2017-12-01 | 2018-03-23 | 北京百度网讯科技有限公司 | 一种搜索序列的理解方法、装置、设备和存储介质 |
CN108460085A (zh) * | 2018-01-19 | 2018-08-28 | 北京奇艺世纪科技有限公司 | 一种基于用户日志的视频搜索排序训练集构建方法及装置 |
US20190179796A1 (en) * | 2017-12-07 | 2019-06-13 | Yandex Europe Ag | Method of and system for generating a training set for a machine learning algorithm |
CN111242033A (zh) * | 2020-01-13 | 2020-06-05 | 南京大学 | 一种基于视频和文字对判别分析的视频特征学习方法 |
US20200334307A1 (en) * | 2019-04-19 | 2020-10-22 | Microsoft Technology Licensing, Llc | Unsupervised entity and intent identification for improved search query relevance |
CN112182292A (zh) * | 2020-09-30 | 2021-01-05 | 百度(中国)有限公司 | 视频检索模型的训练方法、装置、电子设备及存储介质 |
CN112905840A (zh) * | 2021-02-09 | 2021-06-04 | 北京有竹居网络技术有限公司 | 视频处理方法、装置、存储介质及设备 |
-
2021
- 2021-06-30 CN CN202110743852.XA patent/CN113378781B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110047163A1 (en) * | 2009-08-24 | 2011-02-24 | Google Inc. | Relevance-Based Image Selection |
CN102629279A (zh) * | 2012-03-23 | 2012-08-08 | 天津大学 | 一种用于图像或视频搜索重排序的方法 |
CN107832476A (zh) * | 2017-12-01 | 2018-03-23 | 北京百度网讯科技有限公司 | 一种搜索序列的理解方法、装置、设备和存储介质 |
US20190179796A1 (en) * | 2017-12-07 | 2019-06-13 | Yandex Europe Ag | Method of and system for generating a training set for a machine learning algorithm |
CN108460085A (zh) * | 2018-01-19 | 2018-08-28 | 北京奇艺世纪科技有限公司 | 一种基于用户日志的视频搜索排序训练集构建方法及装置 |
US20200334307A1 (en) * | 2019-04-19 | 2020-10-22 | Microsoft Technology Licensing, Llc | Unsupervised entity and intent identification for improved search query relevance |
CN111242033A (zh) * | 2020-01-13 | 2020-06-05 | 南京大学 | 一种基于视频和文字对判别分析的视频特征学习方法 |
CN112182292A (zh) * | 2020-09-30 | 2021-01-05 | 百度(中国)有限公司 | 视频检索模型的训练方法、装置、电子设备及存储介质 |
CN112905840A (zh) * | 2021-02-09 | 2021-06-04 | 北京有竹居网络技术有限公司 | 视频处理方法、装置、存储介质及设备 |
Non-Patent Citations (2)
Title |
---|
LINCHAO ZHU ET AL: "ActBERT: Learning Global-Local Video-Text Representations", 《2020 IEEE/CVF CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION (CVPR)》 * |
PEIHAO CHEN ET AL: "RSPNet: Relative Speed Perception for Unsupervised Video Representation Learning", 《ARXIV》 * |
Also Published As
Publication number | Publication date |
---|---|
CN113378781B (zh) | 2022-08-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112560912B (zh) | 分类模型的训练方法、装置、电子设备和存储介质 | |
US11804069B2 (en) | Image clustering method and apparatus, and storage medium | |
CN111444340A (zh) | 文本分类和推荐方法、装置、设备及存储介质 | |
CN111967302B (zh) | 视频标签的生成方法、装置及电子设备 | |
KR102576344B1 (ko) | 비디오를 처리하기 위한 방법, 장치, 전자기기, 매체 및 컴퓨터 프로그램 | |
CN113033622A (zh) | 跨模态检索模型的训练方法、装置、设备和存储介质 | |
CN112541122A (zh) | 推荐模型的训练方法、装置、电子设备及存储介质 | |
CN115688920B (zh) | 知识抽取方法、模型的训练方法、装置、设备和介质 | |
CN114494784A (zh) | 深度学习模型的训练方法、图像处理方法和对象识别方法 | |
CN114092759A (zh) | 图像识别模型的训练方法、装置、电子设备及存储介质 | |
CN114444619B (zh) | 样本生成方法、训练方法、数据处理方法以及电子设备 | |
CN112528658B (zh) | 层次化分类方法、装置、电子设备和存储介质 | |
CN112395487A (zh) | 信息推荐方法、装置、计算机可读存储介质及电子设备 | |
CN112380104A (zh) | 用户属性识别方法、装置、电子设备及存储介质 | |
CN114741517A (zh) | 文本分类模型的训练及文本分类方法、装置、设备和介质 | |
CN112560461A (zh) | 新闻线索的生成方法、装置、电子设备及存储介质 | |
CN114445826A (zh) | 视觉问答方法、装置、电子设备以及存储介质 | |
CN113360683A (zh) | 训练跨模态检索模型的方法以及跨模态检索方法和装置 | |
CN114037059A (zh) | 预训练模型、模型的生成方法、数据处理方法及装置 | |
US11847599B1 (en) | Computing system for automated evaluation of process workflows | |
CN113378781B (zh) | 视频特征提取模型的训练方法、装置和电子设备 | |
CN114281990A (zh) | 文档分类方法及装置、电子设备和介质 | |
CN113806541A (zh) | 情感分类的方法和情感分类模型的训练方法、装置 | |
CN113963234B (zh) | 数据标注处理方法、装置、电子设备和介质 | |
CN115131709B (zh) | 视频类别预测方法、视频类别预测模型的训练方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |