CN111309969A - 一种匹配文字信息的视频检索方法 - Google Patents

一种匹配文字信息的视频检索方法 Download PDF

Info

Publication number
CN111309969A
CN111309969A CN202010046793.6A CN202010046793A CN111309969A CN 111309969 A CN111309969 A CN 111309969A CN 202010046793 A CN202010046793 A CN 202010046793A CN 111309969 A CN111309969 A CN 111309969A
Authority
CN
China
Prior art keywords
video
information
vector matrix
model
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010046793.6A
Other languages
English (en)
Inventor
邓清勇
钱利智
谭智辉
向懿
房海鹏
徐康宇
曾艳
欧阳艳
关屋大雄
胡怡玮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xiangtan University
Original Assignee
Xiangtan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xiangtan University filed Critical Xiangtan University
Priority to CN202010046793.6A priority Critical patent/CN111309969A/zh
Publication of CN111309969A publication Critical patent/CN111309969A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/7867Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, title and artist information, manually generated time, location and usage information, user ratings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/36Creation of semantic tools, e.g. ontology or thesauri
    • G06F16/367Ontology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Library & Information Science (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明提出一种匹配文字信息的视频检索方法。首先使用知识图谱对文字信息进行信息扩充并建立文字特征向量矩阵,其次参考文字特征向量矩阵训练FCN模型,建立视频与文字信息的关系,使用单向LSTM神经网络将视频生成特征描述并建立视频特征向量矩阵,再将两个向量矩阵导入RNN循环神经网络模型进行训练,最后将生成文字特征向量矩阵和视频特征向量矩阵的方法加入到已训练好的模型作为处理文字和视频的接口,实现匹配文字信息的视频检索。本发明能通过输入的文字信息检索出视频库中内容高契合度的视频,而且由于筛选和检索在RNN内部完成,并不需要储存视频的特征描述信息,减少了关键数据储存量,提升了视频检索的效率,实现了基于视频内容的视频检索。

Description

一种匹配文字信息的视频检索方法
技术领域
本发明涉及视频检索技术领域,特别是涉及一种匹配文字信息的视频检索方法。
背景技术
随着互联网技术的飞速发展、各种视频拍摄,剪辑和采集设备不断的更新换代,网络视频的数量呈爆炸式增长。人们能够更加便利的查看视频的同时,也要求更加高效更加精准的视频检索。传统的基于文本的视频检索方法需要先人工对视频信息进行注解,再使用基于文本的数据库管理系统进行视频检索,因此,在视频检索过程需要大量的时间和存储索引空间。随着视频数据数量上的飞速增长,基于文本的视频检索已无法满足人们的检索需求,难以通过少量简要的文字信息检索出视频,同时在处理基于视频内容的检索时效率很低甚至无效。
综上可知,解决视频检索问题的关键在于文字信息如何扩充来降低检索复杂度以及如何实现基于视频内容的检索。随着人工智能技术的发展,深度学习技术为解决这些问题提供了新的思路。神经网络是一种模拟人脑的神经网络以期能够实现类人工智能的机器学习技术,其中的知识图谱技术可以将复杂的知识领域通过数据挖掘、信息处理、知识计量和图形绘制显示出来,并加以处理和使用,可以对文字信息进行扩充。视频描述(videocaptioning)技术能将视频生成文字描述,即视频图像领域到文本领域的转化。循环神经网络(Recurrent Neural Network,RNN)可以用于实现视频检索系统整体的功能。基于此,设计一种匹配文字信息的视频检索方法。
发明内容
本发明公开了一种匹配文字信息的视频检索方法,主要应用知识图谱和videocaptioning技术处理文字信息和视频,实现基于视频内容的视频检索,提升视频检索的效率,降低了数据存储量。
根据本发明应用背景,提供一种匹配文字信息的视频检索方法,本方法包括以下步骤:
步骤1、使用知识图谱对文字信息进行信息扩充并建立文字特征向量矩阵,并参考文字特征向量矩阵训练全卷积神经网络FCN模型,建立视频与文字信息的关系,使用单向LSTM神经网络对视频生成特征描述并建立视频特征向量矩阵,记录对文字信息进行信息扩充并生成文字特征向量矩阵和用video captioning技术对待检测视频生成描述并通过word2vec模型建立视频特征向量矩阵的方法及参数:
1)使用知识图谱对输入用于检索的文字信息进行信息扩充,拆分输入的文字信息为一组词,利用word2vec模型和知识图谱嵌入模型得到词和知识库实体的向量表示,将这些向量通过非线性变换映射到同一个向量空间,并使用这些向量架构一个KCNN神经网络,给定词汇数据库,进一步得到词汇检索关于输入的文字信息的向量表达,再使用一个DNN神经网络模型预测文字与拓展信息的关联概率,建立文字特征向量矩阵,取关联度最高的特征信息向量加入矩阵,对输入的文字进行信息扩充,记录对文字信息进行信息扩充并生成文字特征向量矩阵的方法和参数;
2)参照文字特征矩阵里的信息词汇,建立相对应的特征词汇库,用videocaptioning技术对待检测视频生成描述,建立词汇全卷积神经网络Lexical-FCN模型,将视频的每一帧通过FCN神经网络生成数据,通过模型训练建立数据与从文字特征向量矩阵中汇聚的词库的弱映射联系,在FCN神经网络输出的最后一层,使用目标检测方法中的anchor方法来粗略的划分出16个区域,确认区域序列的种类,选择部分序列使用单向LSTM神经网络生成基于文字特征向量矩阵的描述,再利用word2vec模型建立视频特征向量矩阵,记录使用video captioning技术对待检测视频生成描述并通过word2vec模型建立视频特征向量矩阵的方法和参数。
步骤2、将文字特征向量矩阵和视频特征向量矩阵导入RNN循环神经网络模型进行训练,再将用知识图谱对文字信息进行信息扩充并生成文字特征向量的方法作为处理输入的文字信息的接口,将用video captioning技术对待检测视频生成描述并通过word2vec模型建立视频特征向量矩阵的方法作为处理视频的接口,将整个模型载入视频检索引擎,处理并判断模型可用性是否达成目标:
1)对导入RNN循环神经网络模型的文字特征向量矩阵和视频特征向量矩阵进行匹配和建立联系,多次输入生成不同类型不同内容的激活函数,以此来提升筛选和匹配的精度,不断调整和传递参数,生成多层网络,迭代此训练过程不断调整参数直至完成训练,将保存的生成文字特征向量矩阵和视频特征向量矩阵的方法作为模型的输入接口,最后把模型载入视频检索引擎;
2)输入描述视频显著性特征的文字信息,连接到视频资源库,经过视频搜索引擎,文字信息扩充,作为输入进入到引擎内部,参与筛选和匹配过程,同时视频库的视频进入引擎,提取相应特征后,进行此时引擎的自处理式的匹配和筛选,最后引擎将经处理的最优结果作为检索结果返回。
与现有技术相比,本方法的优点在于:
1、使用的数据来自于输入的文字信息和视频本身的特征描述,实现了基于视频内容的视频检索。
2、优化了检索流程,提供了使用文字信息检索视频的方法,提高了识别率和视频检索率。
3、使用文字信息与视频的特征匹配,减少了人工建立视频索引方法中由经验给出的各项对视频特征的存储,减轻关键数据存储量,减轻检索数据操作执行量。
4、使用了深度学习的算法,将建立的文字特征向量矩阵和视频特征向量矩阵作为训练样本进行训练,获得每个维度特征对应的联系,克服了现有的索引式方法中由经验给出的各项特征联系的人为主观性,使视频本身的信息元素对检索结果影响中的权重达到更优,进而视频搜索引擎筛选效果更优,搜索结果更符合用户需求,改善用户体验,提升视频检索的效率。
附图说明
图1是本发明的流程图;
图2是本发明的文字信息扩充示意图;
图3是本发明的文字特征向量矩阵示意图;
图4是本发明的视频特征生成示意图;
图5是本发明的视频特征向量矩阵示意图;
图6是本发明的RNN模型训练示意图
具体实施方式
如图1所示,本发明技术方案的具体步骤为:
步骤1、使用知识图谱对文字信息进行信息扩充并建立文字特征向量矩阵,并参考文字特征向量矩阵训练全卷积神经网络FCN模型,建立视频与文字信息的关系,使用单向LSTM神经网络对视频生成特征描述并建立视频特征向量矩阵,记录对文字信息进行信息扩充并生成文字特征向量矩阵和用video captioning技术对待检测视频生成描述并通过word2vec模型建立视频特征向量矩阵的方法及参数:
1)如图2所示,使用知识图谱对输入用于检索的文字信息进行信息扩充,拆分输入的文字信息为一组词,利用word2vec模型和知识图谱嵌入模型得到词和知识库实体的向量表示,将这些向量通过非线性变换映射到同一个向量空间,并使用这些向量架构一个KCNN神经网络,给定词汇数据库,进一步得到词汇检索关于输入的文字信息的向量表达,再使用另一个DNN神经网络模型预测文字与拓展信息的关联概率,建立如图3所示的文字特征向量矩阵,取关联度最高的特征信息向量加入矩阵,对输入的文字进行信息扩充,记录对文字信息进行信息扩充并生成文字特征向量矩阵的方法和参数:
将输入的文字拆成一组词,并将其与知识库的实体进行链接,再接着找出距离链接实体一跳之内的所有邻接实体,利用word2vec模型可以得到词的向量表示,利用知识图谱嵌入模型可以得到知识库实体的向量表示;
把输入的文字、链接实体、上下文实体的向量表示通过一个非线性变换映射到同一个向量空间
g(e1:n)=[g(e1)g(e2)…g(en)]
Figure BDA0002369709150000034
然后类似于图像中RGB的三通道,将词、链接实体、上下文实体的向量表示作为CNN神经网络多通道的输入,架构一个KCNN神经网络,这样KCNN神经网络模型的输入就可以表示为:
Figure BDA0002369709150000031
Figure BDA0002369709150000032
Figure BDA0002369709150000033
给定词汇数据库,通过KCNN神经网络得到文字信息的向量表示:采用DNN神经网络模型作为注意力网络和一个归一化函数softmax计算归一化影响力权重:
Figure BDA0002369709150000041
得到数据库关于输入文字的向量表示:
Figure BDA0002369709150000042
再使用另一个DNN模型预测文字与拓展信息的关联概率,通过两个模型的结果,从语义和知识两个层面对输入进行表示,而且实体和单词的对齐机制融合了异构的信息源,能更好地捕捉文字之间的隐含关系,使其能通过隐含关系对输入文字进行信息扩充,记录对文字信息进行信息扩充并生成文字特征向量矩阵的方法和参数。
2)如图4所示,参照文字特征矩阵里的信息词汇,建立相对应的特征词汇库,使用video captioning技术对待检测视频生成描述,建立全卷积神经网络Lexical-FCN模型,将视频的每一帧通过FCN网络生成数据,通过模型训练建立数据与从文字特征向量矩阵中汇聚的词库的弱映射联系,在FCN神经网络输出的最后一层,使用目标检测方法中的anchor方法来粗略的划分出16个区域,确认区域序列的种类,选择部分序列使用单向LSTM神经网络生成基于文字特征向量矩阵的描述,再利用word2vec模型建立如图5所示的视频特征向量矩阵,记录用video captioning技术对待检测视频生成描述并通过word2vec模型建立视频特征向量矩阵的方法和参数:
建立Lexical-FCN模型,将视频的每一帧通过FCN网络生成数据,通过模型训练建立数据与从文字特征向量矩阵中汇聚的词库的弱映射联系,在FCN输出的最后一层,使用目标检测方法中的anchor方法来粗略的划分出16个区域,为区域序列生成服务;
区域序列生成使用submodular maximization数学方法,提取视频为30帧,确认区域序列的种类,选择部分序列生成描述,选择标准为
Figure BDA0002369709150000043
所以在序列中选择A*,使其和特征关联最大,R具体为
Figure BDA0002369709150000044
是对每个序列A的函数的线性组合,f要求三方面:informativeness(信息)、coherence(连贯性)和diversity(多样性),其公式为
Figure BDA0002369709150000045
Figure BDA0002369709150000046
Figure BDA0002369709150000047
逐步贪心得出区域序列,在每个时间加入区域r的收益为
Figure BDA0002369709150000048
于是在每步选择使其增量最大的r,对于参数权重w有:
Figure BDA0002369709150000051
使用逐步贪心的方法提取了既包含信息又连贯,同时区域序列之间的差异较大(多样性)的区域序列;
使用加了类型信息c的单向LSTM神经网络:S*=argmaxsP(c|v),针对不同类型的序列生成描述词汇并通过word2vec模型建立结构对称的特征向量矩阵,记录用videocaptioning技术对待检测视频生成描述并通过word2vec模型建立视频特征向量矩阵的方法和参数。
步骤2、将文字特征向量矩阵和视频特征向量矩阵导入RNN循环神经网络模型进行训练,再将用知识图谱对文字信息进行信息扩充并生成文字特征向量矩阵的方法作为处理输入的文字信息的接口,将用video captioning技术对待检测视频生成描述并通过word2vec模型建立视频特征向量矩阵的方法作为处理视频的接口,将整个模型载入视频检索引擎,处理并判断模型可用性是否达成目标:
1)如图6所示,对导入RNN循环神经网络模型的文字特征向量矩阵和视频特征向量矩阵进行匹配和建立联系,多次输入生成不同类型不同内容的激活函数,以此来提升筛选和匹配的精度,不断调整和传递参数,生成多层网络,迭代此训练过程不断调整参数直至完成训练,将保存的生成文字特征向量矩阵和视频特征向量矩阵的方法作为模型的输入接口,将模型载入视频检索引擎:
这个网络在t时刻接受到输入的两个特征向量Xt和Yt之后,隐藏层的值是St,输出是Ot,关键的一点St的值不仅仅取决于Xt,还取决于St-1,我们可以用以下的公式:
Figure BDA0002369709150000052
St=f(U·Xt+T·Yt+W·St-1)
2)输入描述视频显著性特征的文字信息,连接到视频资源库,经过视频搜索引擎,文字信息扩充,作为输入进入到引擎内部,参与筛选和匹配过程,同时视频库的视频进入引擎,提取相应特征后,进行此时引擎的自处理式的匹配和筛选,最后引擎将经处理的最优结果作为检索结果返回。

Claims (4)

1.一种匹配文字信息的视频检索方法,其特征在于所述方法至少包括以下步骤:
步骤1、使用知识图谱对文字信息进行信息扩充并建立文字特征向量矩阵,再参考文字特征向量矩阵训练全卷积神经网络FCN模型,建立视频与文字信息的关系,使用单向LSTM神经网络对视频生成特征描述并建立视频特征向量矩阵,记录对文字信息进行信息扩充并生成文字特征向量矩阵和用video captioning技术对待检测视频生成描述并通过word2vec模型建立视频特征向量矩阵的方法及参数;
步骤2、将文字特征向量矩阵和视频特征向量矩阵导入RNN循环神经网络模型进行训练,再将用知识图谱对文字信息进行信息扩充并生成文字特征向量矩阵的方法作为处理文字信息的接口,将用video captioning技术对待检测视频生成描述并通过word2vec模型建立视频特征向量矩阵的方法作为处理视频的接口,最后把整个模型载入视频检索引擎,处理并判断模型可用性是否达成目标。
2.根据权利要求1所述的匹配文字信息的视频检索方法,其特征在于所述的使用知识图谱对文字信息进行信息扩充并建立文字特征向量矩阵至少还包括:
1)将输入的文字信息拆成一组词,并将其与知识库的实体进行链接,再接着找出距离链接实体一跳之内的所有邻接实体,利用word2vec模型可以得到词的向量表示,利用知识图谱嵌入模型可以得到知识库实体的向量表示;
2)把输入的文字、链接实体、上下文实体的向量表示通过一个非线性变换映射到同一个向量空间:
g(e1:n)=[g(e1)g(e2)…g(en)]
Figure FDA0002369709140000011
3)然后类似于图像中RGB的三通道,将词、链接实体、上下文实体的向量表示作为CNN神经网络多通道的输入,架构一个KCNN神经网络,这样KCNN神经网络模型的输入就可以表示为:
Figure FDA0002369709140000012
Figure FDA0002369709140000013
Figure FDA0002369709140000014
4)给定词汇数据库,通过KCNN神经网络得到文字信息的向量表示:采用一个DNN神经网络模型作为注意力网络和一个归一化函数softmax计算归一化影响力权重:
Figure FDA0002369709140000021
得到词汇数据库关于输入文字的向量表示:
Figure FDA0002369709140000022
再使用另一个DNN神经网络模型预测文字与拓展信息的关联概率,通过两个模型的结果,从语义和知识两个层面对输入进行表示,而且实体和单词的对齐机制融合了异构的信息源,能更好地捕捉文字之间的隐含关系,使其能通过隐含关系对输入的文字信息进行信息扩充。
3.根据权利要求1所述的匹配文字信息的视频检索方法,其特征在于参考文字特征向量矩阵训练全卷积神经网络FCN模型,建立视频与文字信息的关系,使用单向LSTM神经网络对视频生成特征描述并建立视频特征向量矩阵至少还包括以下步骤:
1)建立Lexical-FCN模型,将视频的每一帧通过FCN网络生成数据,通过模型训练建立数据与从文字特征向量矩阵中汇聚的词库的弱映射联系,在FCN神经网络输出的最后一层,使用目标检测方法中的anchor方法来粗略的划分出16个区域,为区域序列生成服务;
2)区域序列生成使用submodular maximization数学方法,提取30帧的视频,确认区域序列的种类,选择部分序列生成描述,选择标准为
Figure FDA0002369709140000023
所以在序列中选择A*,使其特征关联最大,R具体为
Figure FDA0002369709140000028
是对每个序列A的函数的线性组合,f要求三方面:informativeness(信息)、coherence(连贯性)和diversity(多样性),其公式为
Figure FDA0002369709140000024
Figure FDA0002369709140000025
Figure FDA0002369709140000026
逐步贪心得出区域序列,在每个时间加入区域r的收益为
Figure FDA0002369709140000027
于是在每步选择使其增量最大的r,对于参数权重w有:
Figure FDA0002369709140000031
使用逐步贪心的方法提取既包含信息又连贯,同时区域序列之间的差异较大的区域序列;
3)使用加了类型信息c的单向LSTM神经网络:S*=arg maxsP(c|v),针对不同类型的序列生成描述词汇并通过word2vec模型建立结构对称的特征向量矩阵,记录用videocaptioning技术对待检测视频生成描述并通过word2vec模型建立视频特征向量矩阵的方法和参数。
4.根据权利要求1所述的匹配文字信息的视频检索方法,其特征在于将文字特征向量矩阵和视频特征向量矩阵导入RNN循环神经网络模型进行训练至少还包括:
1)对导入RNN循环神经网络模型的文字特征向量矩阵和视频特征向量矩阵进行匹配和建立联系,多次输入生成不同类型不同内容的激活函数,以此来提升筛选和匹配的精度,不断调整和传递参数,生成多层网络,迭代此训练过程不断调整参数直至完成训练,将保存的生成文字特征向量矩阵和视频特征向量矩阵的方法作为模型的输入接口,最后把模型载入视频检索引擎;
2)输入描述视频显著性特征的文字信息,连接到视频资源库,经过视频搜索引擎,文字信息扩充,作为输入进入到引擎内部,参与筛选和匹配过程,同时视频库的视频进入引擎,提取相应特征后,进行引擎的自处理式的匹配和筛选,最后引擎将经处理的最优结果作为检索结果返回。
CN202010046793.6A 2020-01-16 2020-01-16 一种匹配文字信息的视频检索方法 Pending CN111309969A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010046793.6A CN111309969A (zh) 2020-01-16 2020-01-16 一种匹配文字信息的视频检索方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010046793.6A CN111309969A (zh) 2020-01-16 2020-01-16 一种匹配文字信息的视频检索方法

Publications (1)

Publication Number Publication Date
CN111309969A true CN111309969A (zh) 2020-06-19

Family

ID=71145139

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010046793.6A Pending CN111309969A (zh) 2020-01-16 2020-01-16 一种匹配文字信息的视频检索方法

Country Status (1)

Country Link
CN (1) CN111309969A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113643588A (zh) * 2021-08-17 2021-11-12 国匠堂(郑州)教育科技有限公司 一种汉字书法教学系统及使用方法
CN113641854A (zh) * 2021-07-28 2021-11-12 上海影谱科技有限公司 一种将文字转化为视频的方法及系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107291825A (zh) * 2017-05-26 2017-10-24 北京奇艺世纪科技有限公司 一种视频中同款商品的检索方法和系统
CN109992676A (zh) * 2019-04-01 2019-07-09 中国传媒大学 一种跨媒体资源检索方法及检索系统
CN110598048A (zh) * 2018-05-25 2019-12-20 北京中科寒武纪科技有限公司 视频检索方法及视频检索映射关系生成方法、装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107291825A (zh) * 2017-05-26 2017-10-24 北京奇艺世纪科技有限公司 一种视频中同款商品的检索方法和系统
CN110598048A (zh) * 2018-05-25 2019-12-20 北京中科寒武纪科技有限公司 视频检索方法及视频检索映射关系生成方法、装置
CN109992676A (zh) * 2019-04-01 2019-07-09 中国传媒大学 一种跨媒体资源检索方法及检索系统

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113641854A (zh) * 2021-07-28 2021-11-12 上海影谱科技有限公司 一种将文字转化为视频的方法及系统
CN113641854B (zh) * 2021-07-28 2023-09-26 上海影谱科技有限公司 一种将文字转化为视频的方法及系统
CN113643588A (zh) * 2021-08-17 2021-11-12 国匠堂(郑州)教育科技有限公司 一种汉字书法教学系统及使用方法

Similar Documents

Publication Publication Date Title
US11875267B2 (en) Systems and methods for unifying statistical models for different data modalities
CN112015868B (zh) 基于知识图谱补全的问答方法
CN109344266B (zh) 一种基于双语义空间的对抗性跨媒体检索方法
CN110362660A (zh) 一种基于知识图谱的电子产品质量自动检测方法
CN108932342A (zh) 一种语义匹配的方法、模型的学习方法及服务器
CN108446334B (zh) 一种无监督对抗训练的基于内容的图像检索方法
CN113177141B (zh) 基于语义嵌入软相似性的多标签视频哈希检索方法及设备
CN111242033B (zh) 一种基于视频和文字对判别分析的视频特征学习方法
CN113626589B (zh) 一种基于混合注意力机制的多标签文本分类方法
CN110795527B (zh) 候选实体排序方法、训练方法及相关装置
KR102361616B1 (ko) 문맥 정보를 고려한 개체명 인식 방법 및 장치
CN109960722B (zh) 一种信息处理方法及装置
CN113268609A (zh) 基于知识图谱的对话内容推荐方法、装置、设备及介质
CN111930894A (zh) 长文本匹配方法及装置、存储介质、电子设备
CN111737432A (zh) 一种基于联合训练模型的自动对话方法和系统
CN113806554B (zh) 面向海量会议文本的知识图谱构建方法
CN111309969A (zh) 一种匹配文字信息的视频检索方法
CN113468891A (zh) 文本处理方法以及装置
CN111512299A (zh) 用于内容搜索的方法及其电子设备
CN114386424B (zh) 行业专业文本自动标注方法、装置、终端及存储介质
CN113392265A (zh) 多媒体处理方法、装置及设备
CN114239730A (zh) 一种基于近邻排序关系的跨模态检索方法
CN112884087A (zh) 一种生物增强子及其类型的识别方法
CN110990630B (zh) 一种基于图建模视觉信息的利用问题指导的视频问答方法
CN116452353A (zh) 一种财务数据管理方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20200619