CN104700410A - 基于协同过滤的教学视频标注方法 - Google Patents

基于协同过滤的教学视频标注方法 Download PDF

Info

Publication number
CN104700410A
CN104700410A CN201510112309.4A CN201510112309A CN104700410A CN 104700410 A CN104700410 A CN 104700410A CN 201510112309 A CN201510112309 A CN 201510112309A CN 104700410 A CN104700410 A CN 104700410A
Authority
CN
China
Prior art keywords
camera lens
marked
document
text
word
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201510112309.4A
Other languages
English (en)
Other versions
CN104700410B (zh
Inventor
王斌
丁海刚
关钦
高新波
牛振兴
王敏
宗汝
牛丽军
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanxi Hengyi Xinyuan Technology Co ltd
Original Assignee
Xidian University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xidian University filed Critical Xidian University
Priority to CN201510112309.4A priority Critical patent/CN104700410B/zh
Publication of CN104700410A publication Critical patent/CN104700410A/zh
Application granted granted Critical
Publication of CN104700410B publication Critical patent/CN104700410B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)
  • Character Discrimination (AREA)

Abstract

本发明公开了一种基于协同过滤的教学视频标注方法,主要解决现有技术对教学视频标注准确率低的缺点。其实现步骤为:输入教学视频,并根据字幕对教学视频进行字幕关键帧提取,得到D个关键帧;使用光学字符软件对D个关键帧进行字幕提取,并对获得的字幕进行文本修改和删除,得到D个文本文档;使用D个文本文档结合Gibbs采样器对教学视频进行镜头分割,把教学视频分成M个镜头;在M个镜头中,标记部分镜头,再利用协同过滤法计算已标注镜头和未标注镜头间的余弦相似度,选取余弦相似度高的前5个单词对未标注镜头进行标注。本发明由于考虑了教学视频中的字幕信息,能更有效的描述教学视频,提高了教学视频的标注准确率,可用于视频教学。

Description

基于协同过滤的教学视频标注方法
技术领域
本发明属于图像处理技术领域,更进一步涉及模式识别技术领域中的一种视频标注方法,可用于网络教学。
背景技术
随着互联网技术和多媒体技术的高速发展,基于在线学习平台的学习方式逐渐成为一种可以有效补充传统课堂学习的重要途径。然而,每天每时都会有成千上万的教学视频上传到网络上,如何在这些海量的教学视频中高效快速搜索到学习者所需要的视频,是一个迫切的研究课题。最常用的方法是对视频进行标注,标注的视频能够有效地帮助在线学习的用户快速高效地找到所需视频。
现有的视频标注方法一般分为:人工标注、基于规则的标注、基于机器学习的标注这三类。其中:
人工标注的方法,虽然有很好的标注效果,但是费时费力,不适用于海量的视频标注;
基于规则的标注方法,是根据相关领域里的专家知识建立专门类别的规则,为专门类别视频所使用,而专门领域的规则对于视频语义的刻画能力有限,没办法满足视频的实时性和通用性;
基于机器学习的标注方法,是目前视频标注研究中最为流行的标注方法。但是目前这种基于机器学习的视频标注方法都是根据视频的视觉特征,如颜色、形状、纹理等进行标注,而教学视频的场景均匀,视觉特征差异不明显,所以基于机器学习的视频标注方法对教学视频进行标注时,标注准确率不高。
发明内容
本发明的目的在于针对上述已有技术的不足,提出一种基于协同过滤的教学视频标注方法,以全面的描述教学视频,提高教学视频标注的准确率。
为实现上述目的,本发明的技术方案包括如下步骤:
(1)输入教学视频,并根据字幕对教学视频进行字幕关键帧提取,得到D个关键帧;
(2)使用开源的光学字符Tesseract-OCR软件对关键帧进行字幕提取,并对获得的字幕进行文本修改和删除,得到D个文本文档,D>0;
(3)使用文本文档结合Gibbs采样器对教学视频进行语义镜头分割,把教学视频分成M个镜头:
(3a)把D个文本文档组成集合E={d1,d2,…,di,…,dD},i为文本文档数,i=1,2,...,D;
(3b)对每个文档下的单词分别进行统计,获取所有单词在对应文档下的概率分布x为单词数,x>0;
(3c)把概率分布及文本文档di作为Gibbs采样器的输入,得到文本文档下的单词概率分布Bi
(3d)设定阈值TN为视频时间的1/50,再计算第i个文本文档di和第j个文本文档dj之间的距离DSi,j,并将该距离DSi,j与阈值TN做比较,如果DSi,j超过阈值,则不再对之后的文本文档进行比较,而把这两个文本文档看成是两个镜头的内容,反之,则为一个镜头的内容,i,j=1,2,...,D;
(3e)在各镜头内,计算第i个单词概率分布Bi与第j个单词概率分布Bj之间的差值Fi,j,i≠j:
F i , j = Σ i , j = 1 D ( B i - B j )
若差值Fi,j∈[-1,1],则判定第i个文本文档di和第j个文本文档dj为同一个镜头的内容,反之,则为两个镜头的内容,由此把教学视频细分为M个镜头,0<M<D;
(4)利用协同过滤方法,对M个镜头进行标注:
(4a)用每个镜头的字幕信息组成一个文档,得到M个文档,统计每个文档中每个单词出现的概率Rab,a=1,2,...,M;b=1,2,...,N,N≥20;
(4b)根据单词出现概率Rab抽取出每个镜头的文本信息中出现排名的前20个单词,组成实验所需要的词典库T,再将M个镜头以及其前Top20重要单词出现的概率表示成包含字幕信息的镜头-关键词矩阵R(M,l):
R ( M , l ) = R 11 , R 12 , . . . , R 1 l R 21 , R 22 , . . . , R 2 l . . . , R uv , . . . , . . . R M 1 , R M 2 , . . . , R Ml , l = 20 , u = 1,2 , . . . , M , v = 1,2 , . . . , l ;
(4c)对部分镜头s进行标注,未标注镜头为w,并用从R(M,l)中选择已标注镜头子矩阵α和未标注镜头子矩阵β,计算已标注镜头s和未标注镜头w的余弦相似度Fsw,通过相似度的大小排序,得到相似度集合H,s+w=M且s,w=1,2,...,M;
(4d)对相似度集合H中的相似度结果进行从高到低的排序,选择出前5个候选关键词,作为未标注镜头的关键词,完成对教学视频的标注。
与现有技术相比,本发明的优点在于:
1)本发明由于在选取关键帧时增加了合并关键帧的步骤,克服了现有技术中因关键帧过多造成算法计算量大的缺点,使得本发明计算量降低;
2)本发明由于在镜头分割时增加了细分镜头的步骤,克服了现有技术中因镜头分割不细致造成标注精确度低的缺点,使得本发明精确度高;
3)本发明由于在计算镜头相似度时,考虑了教学视频中的字幕信息,克服了现有技术中因未考虑字幕信息造成标注准确率低的问题,使得本发明保持了较高的标注准确率。
附图说明
图1为本发明的实现流程图;
图2为待处理教育视频的截图;
图3为本发明从关键帧中提取到的字幕文档。
具体实施方式
以下结合附图实例,对本发明作进一步的详细描述。
参照图1,本发明的实现步骤如下:
步骤1:输入教学视频,并根据字幕对教学视频进行字幕关键帧提取,得到D个关键帧。
本步骤输入的教学视频如图2所示,图2中包括有2a-2l共12帧截图,通过如下步骤实现对图2关键帧的提取:
1.1)每隔20帧获取一副教育视频中的图像,得到Q帧图像,Q>0;
1.2)选取各图像帧下方1/4处的子区域,计算该子区域各自对应位置上与其他图像帧之间像素差的绝对值之和Ya
1.3)设定阈值Pa为像素个数的1/10,并与绝对值之和Ya作比较,如果Ya≤Pa,则合并图像帧;如果Ya>Pa,则保留,最终筛选得到D个关键帧,0<D<Q。
步骤2:使用开源的光学字符Tesseract-OCR软件对关键帧进行字幕提取,并对获得的字幕进行文本修改和删除,得到D个文本文档。
2.1)对文档进行拼写检查,确保所有的单词正确;
2.2)把文本文档中相同或者相似单词抽取成为同一个语义单词;
2.3)将文本文档中出现频率较高但对文本表示无关的单词滤除,得到校正后的D个文本文档,如图3所示,D>0。
步骤3:使用D个文本文档结合Gibbs采样器,对教学视频进行语义镜头分割。
3.1)把所有文本文档组成集合E={d1,d2,…,di,…,dD},i为文本文档数,i=1,2,...,D;
3.2)对每个文档下的单词分别进行统计,获取所有单词在对应文档下的概率分布x为单词数,x>0;
3.3)把概率分布及文本文档di作为Gibbs采样器的输入,得到文本文档下的单词概率分布Bi
3.4)设定阈值TN为视频时间的1/50,再计算文本文档di与dj之间的距离DSi,j,并将该距离DSi,j与阈值TN做比较,如果DSi,j超过阈值,则不再对之后的文本文档进行比较,而把这两个文本文档看成是两个镜头的内容,反之,则为一个镜头的内容,i,j=1,2,...,D;
3.5)在各镜头内,计算第i个单词概率分布Bi与第j个单词概率分布Bj之间的差值Fi,j,i≠j:
F i , j = &Sigma; i , j = 1 D ( B i - B j )
3.6)对差值Fi,j进行判断:若差值Fi,j∈[-1,1],则判定第i个文本文档di和第j个文本文档dj为同一个镜头的内容,反之,则为两个镜头的内容,由此把教学视频细分为M个镜头,0<M<D。
步骤4利用协同过滤方法,对M个镜头进行标注。
4.1)用每个镜头的字幕文本组成一个文档,得到M个文档,统计每个文档中每个单词出现的概率Rab,a=1,2,...,M;b=1,2,...,N,N≥20;
4.2)根据单词出现概率Rab抽取出每个镜头的文本信息中出现排名在前的20个单词,组成实验所需要的词典库T,再将M个镜头以及其前Top20重要单词出现的概率表示成包含字幕信息的镜头-关键词矩阵R(M,l):
R ( M , l ) = R 11 , R 12 , . . . , R 1 l R 21 , R 22 , . . . , R 2 l . . . , R uv , . . . , . . . R M 1 , R M 2 , . . . , R Ml , l = 20 , u = 1,2 , . . . , M , v = 1,2 , . . . , l ;
4.3)对部分镜头s进行标注,未标注镜头为w,并用从镜头-关键词矩阵R(M,l)中选择已标注镜头子矩阵α和未标注镜头子矩阵β:
&alpha; = R ( s , c ) = R 11 , R 12 , . . . , R 1 c R 21 , R 22 , . . . , R 2 c . . . , R eg , . . . , . . . R s 1 , R s 2 , . . . , R sc ,
&beta; = R ( w , c ) = R 11 , R 12 , . . . , R 1 c R 21 , R 22 , . . . , R 2 c . . . , R fg , . . . , . . . R w 1 , R w 2 , . . . , R wc
其中,c为已标注镜头s和未标注镜头w中相同的单词,0<c<l,e=1,2,...,s,f=1,2,...,w,g=1,2,...,c;
4.4)根据已标注镜头子矩阵α和未标注镜头子矩阵β,计算已标注镜头s和未标注镜头w的余弦相似度Fsw
F sw = cos ( s &RightArrow; , w &RightArrow; ) = s &RightArrow; w &RightArrow; | | s &RightArrow; | | * | | w &RightArrow; | | = &Sigma; c &Element; I sw &alpha;&beta; T &Sigma; c &Element; I sw &alpha; 2 * &Sigma; c &Element; I sw &beta; 2
其中,*为卷积运算,s为已标记镜头,w为未标记镜头,向量为s,w的矢量形式,Isw为已标注镜头s与未标注镜头w内单词的交集,c∈Isw,通过相似度的大小排序,得到相似度集合H,s+w=M且s,w=1,2,...,M;
4.5)对相似度集合H中的相似度结果进行从高到低的排序,选择出前5个候选关键词,作为未标注镜头的关键词,完成对教学视频的标注。
本发明的标注效果可以通过以下仿真实验作进一步的说明。
1.仿真条件
本发明是在中央处理器为Intel(R)Core i3-530 2.93GHZ、内存4G、WINDOWS 7操作系统上,
2.仿真内容与结果
运用MATLAB软件对教育视频Video进行镜头标注,结果如表一。
表一 本发明标注结果的定量指标评价
从表1中可以看出,本发明进行关键帧合并处理后,减少了大量部分的无用关键帧,降低了算法的计算量;镜头进行细分处理后,分割镜头更细致,提高了算法的精确度;标注准确率比较理想。

Claims (5)

1.一种基于协同过滤的教学视频标注方法,其特征在于,包括如下步骤:
(1)输入教学视频,并根据字幕对教学视频进行字幕关键帧提取,得到D个关键帧;
(2)使用开源的光学字符Tesseract-OCR软件对关键帧进行字幕提取,并对获得的字幕进行文本修改和删除,得到D个文本文档,D>0;
(3)使用文本文档结合Gibbs采样器对教学视频进行语义镜头分割,把教学视频分成M个镜头:
(3a)把D个文本文档组成集合E={d1,d2,…,di,…,dD},i为文本文档数,i=1,2,...,D;
(3b)对每个文档下的单词分别进行统计,获取所有单词在对应文档下的概率分布x为单词数,x>0;
(3c)把概率分布及文本文档di作为Gibbs采样器的输入,得到文本文档下的单词概率分布Bi
(3d)设定阈值TN为视频时间的1/50,再计算文本文档di与dj之间的距离DSi,j,并将该距离DSi,j与阈值TN做比较,如果DSi,j超过阈值,则不再对之后的文本文档进行比较,而把这两个文本文档看成是两个镜头的内容,反之,则为一个镜头的内容,i,j=1,2,...,D;
(3e)在各镜头内,计算第i个单词概率分布Bi与第j个单词概率分布Bj之间的差值Fi,j,i≠j:
F i , j = &Sigma; i , j = 1 D ( B i - B j )
若差值Fi,j∈[-1,1],则判定第i个文本文档di和第j个文本文档dj为同一个镜头的内容,反之,则为两个镜头的内容,由此把教学视频细分为M个镜头,0<M<D;
(4)利用协同过滤方法,对M个镜头进行标注:
(4a)用每个镜头的字幕文本组成一个文档,得到M个文档,统计每个文档中每个单词出现的概率Rab,a=1,2,...,M;b=1,2,...,N,N≥20;
(4b)根据单词出现概率Rab抽取出每个镜头的文本信息中出现排名的前20个单词,组成实验所需要的词典库T,再将M个镜头以及其前Top20重要单词出现的概率表示成镜头-关键词矩阵R(M,l):
R ( M , l ) = R 11 , R 12 , . . . , R 1 l R 21 , R 22 , . . . , R 2 l . . . , R uv , . . . , . . . R M 1 , R M 2 , . . . , R Ml , l = 20 , u = 1,2 , . . . , M , v = 1,2 , . . . , l ;
(4c)对部分镜头s进行标注,未标注镜头为w,并用从R(M,l)中选择已标注镜头子矩阵α和未标注镜头子矩阵β;
(4d)根据已标注镜头子矩阵α和未标注镜头子矩阵β,计算已标注镜头s和未标注镜头w的余弦相似度Fsw,通过相似度的大小排序,得到相似度集合H,s+w=M且s,w=1,2,...,M;
(4e)对相似度集合H中的相似度结果进行从高到低的排序,选择出前5个候选关键词,作为未标注镜头的关键词,完成对教学视频的标注。
2.根据权利要求1所述的教学视频标注方法,其特征在于,步骤(1)所述的根据字幕提取关键帧,按如下步骤进行:
(1a)每隔20帧获取一副教育视频中的图像,得到Q帧图像,Q>0;
(1b)选取各图像帧下方1/4处的子区域,计算该子区域各自对应位置上与其他图像帧之间像素差的绝对值之和Ya
(1c)设定阈值Pa为像素个数的1/10,并与绝对值之和Ya作比较,如果Ya≤Pa,则合并图像帧;如果Ya>Pa,则保留,最终筛选得到D个关键帧,0<D<Q。
3.根据权利要求1所述的教学视频标注方法,其特征在于,所述步骤(2)中对文本进行修改和删除,,按如下步骤进行:
(2a)对文档进行拼写检查,确保所有的单词正确;
(2b)把文本文档中相同或者相似单词抽取成为同一个语义单词;
(2c)将文本文档中出现频率较高但对文本表示无关的单词滤除,得到校正后的D个文本文档。
4.根据权利要求1所述的教学视频标注方法,其特征在于,所述步骤(4)中的选择已标注镜头子矩阵α和未标注镜头子矩阵β,其表示如下:
&alpha; = R ( s , c ) = R 11 , R 12 , . . . , R 1 c R 21 , R 22 , . . . , R 2 c . . . , R eg , . . . , . . . R s 1 , R s 2 , . . . , R sc ,
&beta; = R ( w , c ) = R 11 , R 12 , . . . , R 1 c R 21 , R 22 , . . . , R 2 c . . . , R fg , . . . , . . . R w 1 , R w 2 , . . . , R wc
其中,c为已标注镜头s和未标注镜头w中相同的单词,0<c<l,e=1,2,...,s,f=1,2,...,w,g=1,2,...,c。
5.根据权利要求1所述的教学视频标注方法,其特征在于,步骤(4)中所述的根据已标注镜头子矩阵α和未标注镜头子矩阵β,计算已标注镜头s和未标注镜头w的余弦相似度Fsw,其计算公式为:
F sw = cos ( s &RightArrow; , w &RightArrow; ) = s &RightArrow; w &RightArrow; | | s &RightArrow; | | * | | w &RightArrow; | | = &Sigma; c &Element; I sw &alpha;&beta; T &Sigma; c &Element; I sw &alpha; 2 * &Sigma; c &Element; I sw &beta; 2 ,
其中,*为卷积运算,s为已标记镜头,w为未标记镜头,向量为s,w的矢量形式,Isw为已标注镜头s与未标注镜头w内单词的交集,c∈Isw
CN201510112309.4A 2015-03-14 2015-03-14 基于协同过滤的教学视频标注方法 Expired - Fee Related CN104700410B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510112309.4A CN104700410B (zh) 2015-03-14 2015-03-14 基于协同过滤的教学视频标注方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510112309.4A CN104700410B (zh) 2015-03-14 2015-03-14 基于协同过滤的教学视频标注方法

Publications (2)

Publication Number Publication Date
CN104700410A true CN104700410A (zh) 2015-06-10
CN104700410B CN104700410B (zh) 2017-09-22

Family

ID=53347492

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510112309.4A Expired - Fee Related CN104700410B (zh) 2015-03-14 2015-03-14 基于协同过滤的教学视频标注方法

Country Status (1)

Country Link
CN (1) CN104700410B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105656578A (zh) * 2016-04-07 2016-06-08 北京邮电大学 信道仿真仪的输入数据矢量计算方法、装置及信道仿真仪
CN107273859A (zh) * 2017-06-20 2017-10-20 南京末梢信息技术有限公司 一种照片自动标记方法及其系统
CN109275046A (zh) * 2018-08-21 2019-01-25 华中师范大学 一种基于双视频采集的教学数据标注方法
CN109657096A (zh) * 2019-01-11 2019-04-19 杭州师范大学 一种基于低学龄教学音视频的辅助统计报告生成方法
CN111225235A (zh) * 2020-01-16 2020-06-02 北京合众美华教育投资有限公司 一种网络教学视频的播放方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7685232B2 (en) * 2008-06-04 2010-03-23 Samsung Electronics Co., Ltd. Method for anonymous collaborative filtering using matrix factorization
CN103559196A (zh) * 2013-09-23 2014-02-05 浙江大学 一种基于多核典型相关分析的视频检索方法
CN104038792A (zh) * 2014-06-04 2014-09-10 紫光软件系统有限公司 用于iptv监管的视频内容分析方法及设备

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7685232B2 (en) * 2008-06-04 2010-03-23 Samsung Electronics Co., Ltd. Method for anonymous collaborative filtering using matrix factorization
CN103559196A (zh) * 2013-09-23 2014-02-05 浙江大学 一种基于多核典型相关分析的视频检索方法
CN104038792A (zh) * 2014-06-04 2014-09-10 紫光软件系统有限公司 用于iptv监管的视频内容分析方法及设备

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
ALI SHARIQ IMRAN 等: "Semantic Keyword Selection for Automatic Video Annotation", 《2013 INTERNATIONAL CONFERENCE ON SIGNAL-IMAGE TECHNOLOGY & INTERNET-BASED SYSTEMS》 *
HAOJIN YANG 等: "Content Based Lecture Video Retrieval Using", 《IEEE TRANSACTIONS ON LEARNING TECHNOLOGIES》 *
张建明 等: "基于自适应SVM的半监督主动学习视频标注", 《计算机工程》 *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105656578A (zh) * 2016-04-07 2016-06-08 北京邮电大学 信道仿真仪的输入数据矢量计算方法、装置及信道仿真仪
CN105656578B (zh) * 2016-04-07 2017-12-15 北京邮电大学 信道仿真仪的输入数据矢量计算方法、装置及信道仿真仪
CN107273859A (zh) * 2017-06-20 2017-10-20 南京末梢信息技术有限公司 一种照片自动标记方法及其系统
CN107273859B (zh) * 2017-06-20 2020-10-02 南京末梢信息技术有限公司 一种照片自动标记方法及其系统
CN109275046A (zh) * 2018-08-21 2019-01-25 华中师范大学 一种基于双视频采集的教学数据标注方法
CN109275046B (zh) * 2018-08-21 2021-06-18 华中师范大学 一种基于双视频采集的教学数据标注方法
CN109657096A (zh) * 2019-01-11 2019-04-19 杭州师范大学 一种基于低学龄教学音视频的辅助统计报告生成方法
CN109657096B (zh) * 2019-01-11 2021-06-08 杭州师范大学 一种基于低学龄教学音视频的辅助统计报告生成方法
CN111225235A (zh) * 2020-01-16 2020-06-02 北京合众美华教育投资有限公司 一种网络教学视频的播放方法

Also Published As

Publication number Publication date
CN104700410B (zh) 2017-09-22

Similar Documents

Publication Publication Date Title
CN106250915B (zh) 一种融合深度特征和语义邻域的自动图像标注方法
CN110020437B (zh) 一种视频和弹幕相结合的情感分析及可视化方法
CN110750959A (zh) 文本信息处理的方法、模型训练的方法以及相关装置
CN110134954B (zh) 一种基于Attention机制的命名实体识别方法
CN108664474B (zh) 一种基于深度学习的简历解析方法
CN111767732B (zh) 基于图注意力模型的文档内容理解方法及系统
CN104700410A (zh) 基于协同过滤的教学视频标注方法
CN110390363A (zh) 一种图像描述方法
CN111291566B (zh) 一种事件主体识别方法、装置、存储介质
CN112633431B (zh) 一种基于crnn和ctc的藏汉双语场景文字识别方法
CN108513176B (zh) 一种基于话题模型的社会化视频主题提取系统的提取方法
CN110188762B (zh) 中英文混合商户门店名称识别方法、系统、设备及介质
CN110175246A (zh) 一种从视频字幕中提取概念词的方法
CN105760472A (zh) 视频检索方法及系统
CN112966525B (zh) 一种基于预训练模型和卷积神经网络算法的法律领域事件抽取方法
Chen et al. Extractive text-image summarization using multi-modal RNN
CN112329767A (zh) 基于联合预训练的合同文本图像关键信息提取系统和方法
CN112231522A (zh) 一种在线课程知识树的生成关联方法
CN111860237A (zh) 一种视频情感片段的识别方法及装置
CN109800435A (zh) 一种语言模型的训练方法及装置
CN110750669B (zh) 一种图像字幕生成的方法及系统
CN110321568B (zh) 基于融合词性和位置信息的汉-越卷积神经机器翻译方法
CN110929013A (zh) 一种基于bottom-up attention和定位信息融合的图片问答实现方法
CN111783697A (zh) 一种基于卷积神经网络的错题检测及靶向推荐系统和方法
CN112084788A (zh) 一种影像字幕隐式情感倾向自动标注方法及系统

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20220930

Address after: 030032 Room 1504-1507, Floor 15, Block A, No. 6, West Second Lane, Dongqu Road, Taiyuan Xuefu Park, Comprehensive Reform Demonstration Zone, Taiyuan City, Shanxi Province

Patentee after: Shanxi Hengyi Xinyuan Technology Co.,Ltd.

Address before: 710071 No. 2 Taibai South Road, Shaanxi, Xi'an

Patentee before: XIDIAN University

TR01 Transfer of patent right
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20170922

CF01 Termination of patent right due to non-payment of annual fee