CN104700410A - 基于协同过滤的教学视频标注方法 - Google Patents
基于协同过滤的教学视频标注方法 Download PDFInfo
- Publication number
- CN104700410A CN104700410A CN201510112309.4A CN201510112309A CN104700410A CN 104700410 A CN104700410 A CN 104700410A CN 201510112309 A CN201510112309 A CN 201510112309A CN 104700410 A CN104700410 A CN 104700410A
- Authority
- CN
- China
- Prior art keywords
- camera lens
- marked
- document
- text
- word
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001914 filtration Methods 0.000 title claims abstract description 13
- 238000002372 labelling Methods 0.000 title abstract description 13
- 238000000034 method Methods 0.000 claims abstract description 17
- 238000000605 extraction Methods 0.000 claims abstract description 8
- 230000011218 segmentation Effects 0.000 claims abstract description 8
- 230000003287 optical effect Effects 0.000 claims abstract description 4
- 239000008186 active pharmaceutical agent Substances 0.000 claims description 9
- 239000000203 mixture Substances 0.000 claims description 6
- 238000005070 sampling Methods 0.000 claims description 6
- 238000002474 experimental method Methods 0.000 claims description 4
- 239000000284 extract Substances 0.000 claims description 4
- 239000011159 matrix material Substances 0.000 claims description 4
- 238000012217 deletion Methods 0.000 claims description 3
- 230000037430 deletion Effects 0.000 claims description 3
- 238000012986 modification Methods 0.000 claims description 3
- 230000004048 modification Effects 0.000 claims description 3
- 238000012216 screening Methods 0.000 claims description 2
- 238000012360 testing method Methods 0.000 claims description 2
- 238000010801 machine learning Methods 0.000 description 4
- 238000012545 processing Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000007812 deficiency Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
Landscapes
- Character Discrimination (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于协同过滤的教学视频标注方法,主要解决现有技术对教学视频标注准确率低的缺点。其实现步骤为:输入教学视频,并根据字幕对教学视频进行字幕关键帧提取,得到D个关键帧;使用光学字符软件对D个关键帧进行字幕提取,并对获得的字幕进行文本修改和删除,得到D个文本文档;使用D个文本文档结合Gibbs采样器对教学视频进行镜头分割,把教学视频分成M个镜头;在M个镜头中,标记部分镜头,再利用协同过滤法计算已标注镜头和未标注镜头间的余弦相似度,选取余弦相似度高的前5个单词对未标注镜头进行标注。本发明由于考虑了教学视频中的字幕信息,能更有效的描述教学视频,提高了教学视频的标注准确率,可用于视频教学。
Description
技术领域
本发明属于图像处理技术领域,更进一步涉及模式识别技术领域中的一种视频标注方法,可用于网络教学。
背景技术
随着互联网技术和多媒体技术的高速发展,基于在线学习平台的学习方式逐渐成为一种可以有效补充传统课堂学习的重要途径。然而,每天每时都会有成千上万的教学视频上传到网络上,如何在这些海量的教学视频中高效快速搜索到学习者所需要的视频,是一个迫切的研究课题。最常用的方法是对视频进行标注,标注的视频能够有效地帮助在线学习的用户快速高效地找到所需视频。
现有的视频标注方法一般分为:人工标注、基于规则的标注、基于机器学习的标注这三类。其中:
人工标注的方法,虽然有很好的标注效果,但是费时费力,不适用于海量的视频标注;
基于规则的标注方法,是根据相关领域里的专家知识建立专门类别的规则,为专门类别视频所使用,而专门领域的规则对于视频语义的刻画能力有限,没办法满足视频的实时性和通用性;
基于机器学习的标注方法,是目前视频标注研究中最为流行的标注方法。但是目前这种基于机器学习的视频标注方法都是根据视频的视觉特征,如颜色、形状、纹理等进行标注,而教学视频的场景均匀,视觉特征差异不明显,所以基于机器学习的视频标注方法对教学视频进行标注时,标注准确率不高。
发明内容
本发明的目的在于针对上述已有技术的不足,提出一种基于协同过滤的教学视频标注方法,以全面的描述教学视频,提高教学视频标注的准确率。
为实现上述目的,本发明的技术方案包括如下步骤:
(1)输入教学视频,并根据字幕对教学视频进行字幕关键帧提取,得到D个关键帧;
(2)使用开源的光学字符Tesseract-OCR软件对关键帧进行字幕提取,并对获得的字幕进行文本修改和删除,得到D个文本文档,D>0;
(3)使用文本文档结合Gibbs采样器对教学视频进行语义镜头分割,把教学视频分成M个镜头:
(3a)把D个文本文档组成集合E={d1,d2,…,di,…,dD},i为文本文档数,i=1,2,...,D;
(3b)对每个文档下的单词分别进行统计,获取所有单词在对应文档下的概率分布x为单词数,x>0;
(3c)把概率分布及文本文档di作为Gibbs采样器的输入,得到文本文档下的单词概率分布Bi;
(3d)设定阈值TN为视频时间的1/50,再计算第i个文本文档di和第j个文本文档dj之间的距离DSi,j,并将该距离DSi,j与阈值TN做比较,如果DSi,j超过阈值,则不再对之后的文本文档进行比较,而把这两个文本文档看成是两个镜头的内容,反之,则为一个镜头的内容,i,j=1,2,...,D;
(3e)在各镜头内,计算第i个单词概率分布Bi与第j个单词概率分布Bj之间的差值Fi,j,i≠j:
若差值Fi,j∈[-1,1],则判定第i个文本文档di和第j个文本文档dj为同一个镜头的内容,反之,则为两个镜头的内容,由此把教学视频细分为M个镜头,0<M<D;
(4)利用协同过滤方法,对M个镜头进行标注:
(4a)用每个镜头的字幕信息组成一个文档,得到M个文档,统计每个文档中每个单词出现的概率Rab,a=1,2,...,M;b=1,2,...,N,N≥20;
(4b)根据单词出现概率Rab抽取出每个镜头的文本信息中出现排名的前20个单词,组成实验所需要的词典库T,再将M个镜头以及其前Top20重要单词出现的概率表示成包含字幕信息的镜头-关键词矩阵R(M,l):
(4c)对部分镜头s进行标注,未标注镜头为w,并用从R(M,l)中选择已标注镜头子矩阵α和未标注镜头子矩阵β,计算已标注镜头s和未标注镜头w的余弦相似度Fsw,通过相似度的大小排序,得到相似度集合H,s+w=M且s,w=1,2,...,M;
(4d)对相似度集合H中的相似度结果进行从高到低的排序,选择出前5个候选关键词,作为未标注镜头的关键词,完成对教学视频的标注。
与现有技术相比,本发明的优点在于:
1)本发明由于在选取关键帧时增加了合并关键帧的步骤,克服了现有技术中因关键帧过多造成算法计算量大的缺点,使得本发明计算量降低;
2)本发明由于在镜头分割时增加了细分镜头的步骤,克服了现有技术中因镜头分割不细致造成标注精确度低的缺点,使得本发明精确度高;
3)本发明由于在计算镜头相似度时,考虑了教学视频中的字幕信息,克服了现有技术中因未考虑字幕信息造成标注准确率低的问题,使得本发明保持了较高的标注准确率。
附图说明
图1为本发明的实现流程图;
图2为待处理教育视频的截图;
图3为本发明从关键帧中提取到的字幕文档。
具体实施方式
以下结合附图实例,对本发明作进一步的详细描述。
参照图1,本发明的实现步骤如下:
步骤1:输入教学视频,并根据字幕对教学视频进行字幕关键帧提取,得到D个关键帧。
本步骤输入的教学视频如图2所示,图2中包括有2a-2l共12帧截图,通过如下步骤实现对图2关键帧的提取:
1.1)每隔20帧获取一副教育视频中的图像,得到Q帧图像,Q>0;
1.2)选取各图像帧下方1/4处的子区域,计算该子区域各自对应位置上与其他图像帧之间像素差的绝对值之和Ya;
1.3)设定阈值Pa为像素个数的1/10,并与绝对值之和Ya作比较,如果Ya≤Pa,则合并图像帧;如果Ya>Pa,则保留,最终筛选得到D个关键帧,0<D<Q。
步骤2:使用开源的光学字符Tesseract-OCR软件对关键帧进行字幕提取,并对获得的字幕进行文本修改和删除,得到D个文本文档。
2.1)对文档进行拼写检查,确保所有的单词正确;
2.2)把文本文档中相同或者相似单词抽取成为同一个语义单词;
2.3)将文本文档中出现频率较高但对文本表示无关的单词滤除,得到校正后的D个文本文档,如图3所示,D>0。
步骤3:使用D个文本文档结合Gibbs采样器,对教学视频进行语义镜头分割。
3.1)把所有文本文档组成集合E={d1,d2,…,di,…,dD},i为文本文档数,i=1,2,...,D;
3.2)对每个文档下的单词分别进行统计,获取所有单词在对应文档下的概率分布x为单词数,x>0;
3.3)把概率分布及文本文档di作为Gibbs采样器的输入,得到文本文档下的单词概率分布Bi;
3.4)设定阈值TN为视频时间的1/50,再计算文本文档di与dj之间的距离DSi,j,并将该距离DSi,j与阈值TN做比较,如果DSi,j超过阈值,则不再对之后的文本文档进行比较,而把这两个文本文档看成是两个镜头的内容,反之,则为一个镜头的内容,i,j=1,2,...,D;
3.5)在各镜头内,计算第i个单词概率分布Bi与第j个单词概率分布Bj之间的差值Fi,j,i≠j:
3.6)对差值Fi,j进行判断:若差值Fi,j∈[-1,1],则判定第i个文本文档di和第j个文本文档dj为同一个镜头的内容,反之,则为两个镜头的内容,由此把教学视频细分为M个镜头,0<M<D。
步骤4利用协同过滤方法,对M个镜头进行标注。
4.1)用每个镜头的字幕文本组成一个文档,得到M个文档,统计每个文档中每个单词出现的概率Rab,a=1,2,...,M;b=1,2,...,N,N≥20;
4.2)根据单词出现概率Rab抽取出每个镜头的文本信息中出现排名在前的20个单词,组成实验所需要的词典库T,再将M个镜头以及其前Top20重要单词出现的概率表示成包含字幕信息的镜头-关键词矩阵R(M,l):
4.3)对部分镜头s进行标注,未标注镜头为w,并用从镜头-关键词矩阵R(M,l)中选择已标注镜头子矩阵α和未标注镜头子矩阵β:
其中,c为已标注镜头s和未标注镜头w中相同的单词,0<c<l,e=1,2,...,s,f=1,2,...,w,g=1,2,...,c;
4.4)根据已标注镜头子矩阵α和未标注镜头子矩阵β,计算已标注镜头s和未标注镜头w的余弦相似度Fsw:
其中,*为卷积运算,s为已标记镜头,w为未标记镜头,向量为s,w的矢量形式,Isw为已标注镜头s与未标注镜头w内单词的交集,c∈Isw,通过相似度的大小排序,得到相似度集合H,s+w=M且s,w=1,2,...,M;
4.5)对相似度集合H中的相似度结果进行从高到低的排序,选择出前5个候选关键词,作为未标注镜头的关键词,完成对教学视频的标注。
本发明的标注效果可以通过以下仿真实验作进一步的说明。
1.仿真条件
本发明是在中央处理器为Intel(R)Core i3-530 2.93GHZ、内存4G、WINDOWS 7操作系统上,
2.仿真内容与结果
运用MATLAB软件对教育视频Video进行镜头标注,结果如表一。
表一 本发明标注结果的定量指标评价
从表1中可以看出,本发明进行关键帧合并处理后,减少了大量部分的无用关键帧,降低了算法的计算量;镜头进行细分处理后,分割镜头更细致,提高了算法的精确度;标注准确率比较理想。
Claims (5)
1.一种基于协同过滤的教学视频标注方法,其特征在于,包括如下步骤:
(1)输入教学视频,并根据字幕对教学视频进行字幕关键帧提取,得到D个关键帧;
(2)使用开源的光学字符Tesseract-OCR软件对关键帧进行字幕提取,并对获得的字幕进行文本修改和删除,得到D个文本文档,D>0;
(3)使用文本文档结合Gibbs采样器对教学视频进行语义镜头分割,把教学视频分成M个镜头:
(3a)把D个文本文档组成集合E={d1,d2,…,di,…,dD},i为文本文档数,i=1,2,...,D;
(3b)对每个文档下的单词分别进行统计,获取所有单词在对应文档下的概率分布x为单词数,x>0;
(3c)把概率分布及文本文档di作为Gibbs采样器的输入,得到文本文档下的单词概率分布Bi;
(3d)设定阈值TN为视频时间的1/50,再计算文本文档di与dj之间的距离DSi,j,并将该距离DSi,j与阈值TN做比较,如果DSi,j超过阈值,则不再对之后的文本文档进行比较,而把这两个文本文档看成是两个镜头的内容,反之,则为一个镜头的内容,i,j=1,2,...,D;
(3e)在各镜头内,计算第i个单词概率分布Bi与第j个单词概率分布Bj之间的差值Fi,j,i≠j:
若差值Fi,j∈[-1,1],则判定第i个文本文档di和第j个文本文档dj为同一个镜头的内容,反之,则为两个镜头的内容,由此把教学视频细分为M个镜头,0<M<D;
(4)利用协同过滤方法,对M个镜头进行标注:
(4a)用每个镜头的字幕文本组成一个文档,得到M个文档,统计每个文档中每个单词出现的概率Rab,a=1,2,...,M;b=1,2,...,N,N≥20;
(4b)根据单词出现概率Rab抽取出每个镜头的文本信息中出现排名的前20个单词,组成实验所需要的词典库T,再将M个镜头以及其前Top20重要单词出现的概率表示成镜头-关键词矩阵R(M,l):
(4c)对部分镜头s进行标注,未标注镜头为w,并用从R(M,l)中选择已标注镜头子矩阵α和未标注镜头子矩阵β;
(4d)根据已标注镜头子矩阵α和未标注镜头子矩阵β,计算已标注镜头s和未标注镜头w的余弦相似度Fsw,通过相似度的大小排序,得到相似度集合H,s+w=M且s,w=1,2,...,M;
(4e)对相似度集合H中的相似度结果进行从高到低的排序,选择出前5个候选关键词,作为未标注镜头的关键词,完成对教学视频的标注。
2.根据权利要求1所述的教学视频标注方法,其特征在于,步骤(1)所述的根据字幕提取关键帧,按如下步骤进行:
(1a)每隔20帧获取一副教育视频中的图像,得到Q帧图像,Q>0;
(1b)选取各图像帧下方1/4处的子区域,计算该子区域各自对应位置上与其他图像帧之间像素差的绝对值之和Ya;
(1c)设定阈值Pa为像素个数的1/10,并与绝对值之和Ya作比较,如果Ya≤Pa,则合并图像帧;如果Ya>Pa,则保留,最终筛选得到D个关键帧,0<D<Q。
3.根据权利要求1所述的教学视频标注方法,其特征在于,所述步骤(2)中对文本进行修改和删除,,按如下步骤进行:
(2a)对文档进行拼写检查,确保所有的单词正确;
(2b)把文本文档中相同或者相似单词抽取成为同一个语义单词;
(2c)将文本文档中出现频率较高但对文本表示无关的单词滤除,得到校正后的D个文本文档。
4.根据权利要求1所述的教学视频标注方法,其特征在于,所述步骤(4)中的选择已标注镜头子矩阵α和未标注镜头子矩阵β,其表示如下:
其中,c为已标注镜头s和未标注镜头w中相同的单词,0<c<l,e=1,2,...,s,f=1,2,...,w,g=1,2,...,c。
5.根据权利要求1所述的教学视频标注方法,其特征在于,步骤(4)中所述的根据已标注镜头子矩阵α和未标注镜头子矩阵β,计算已标注镜头s和未标注镜头w的余弦相似度Fsw,其计算公式为:
其中,*为卷积运算,s为已标记镜头,w为未标记镜头,向量为s,w的矢量形式,Isw为已标注镜头s与未标注镜头w内单词的交集,c∈Isw。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510112309.4A CN104700410B (zh) | 2015-03-14 | 2015-03-14 | 基于协同过滤的教学视频标注方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510112309.4A CN104700410B (zh) | 2015-03-14 | 2015-03-14 | 基于协同过滤的教学视频标注方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104700410A true CN104700410A (zh) | 2015-06-10 |
CN104700410B CN104700410B (zh) | 2017-09-22 |
Family
ID=53347492
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510112309.4A Expired - Fee Related CN104700410B (zh) | 2015-03-14 | 2015-03-14 | 基于协同过滤的教学视频标注方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104700410B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105656578A (zh) * | 2016-04-07 | 2016-06-08 | 北京邮电大学 | 信道仿真仪的输入数据矢量计算方法、装置及信道仿真仪 |
CN107273859A (zh) * | 2017-06-20 | 2017-10-20 | 南京末梢信息技术有限公司 | 一种照片自动标记方法及其系统 |
CN109275046A (zh) * | 2018-08-21 | 2019-01-25 | 华中师范大学 | 一种基于双视频采集的教学数据标注方法 |
CN109657096A (zh) * | 2019-01-11 | 2019-04-19 | 杭州师范大学 | 一种基于低学龄教学音视频的辅助统计报告生成方法 |
CN111225235A (zh) * | 2020-01-16 | 2020-06-02 | 北京合众美华教育投资有限公司 | 一种网络教学视频的播放方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7685232B2 (en) * | 2008-06-04 | 2010-03-23 | Samsung Electronics Co., Ltd. | Method for anonymous collaborative filtering using matrix factorization |
CN103559196A (zh) * | 2013-09-23 | 2014-02-05 | 浙江大学 | 一种基于多核典型相关分析的视频检索方法 |
CN104038792A (zh) * | 2014-06-04 | 2014-09-10 | 紫光软件系统有限公司 | 用于iptv监管的视频内容分析方法及设备 |
-
2015
- 2015-03-14 CN CN201510112309.4A patent/CN104700410B/zh not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7685232B2 (en) * | 2008-06-04 | 2010-03-23 | Samsung Electronics Co., Ltd. | Method for anonymous collaborative filtering using matrix factorization |
CN103559196A (zh) * | 2013-09-23 | 2014-02-05 | 浙江大学 | 一种基于多核典型相关分析的视频检索方法 |
CN104038792A (zh) * | 2014-06-04 | 2014-09-10 | 紫光软件系统有限公司 | 用于iptv监管的视频内容分析方法及设备 |
Non-Patent Citations (3)
Title |
---|
ALI SHARIQ IMRAN 等: "Semantic Keyword Selection for Automatic Video Annotation", 《2013 INTERNATIONAL CONFERENCE ON SIGNAL-IMAGE TECHNOLOGY & INTERNET-BASED SYSTEMS》 * |
HAOJIN YANG 等: "Content Based Lecture Video Retrieval Using", 《IEEE TRANSACTIONS ON LEARNING TECHNOLOGIES》 * |
张建明 等: "基于自适应SVM的半监督主动学习视频标注", 《计算机工程》 * |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105656578A (zh) * | 2016-04-07 | 2016-06-08 | 北京邮电大学 | 信道仿真仪的输入数据矢量计算方法、装置及信道仿真仪 |
CN105656578B (zh) * | 2016-04-07 | 2017-12-15 | 北京邮电大学 | 信道仿真仪的输入数据矢量计算方法、装置及信道仿真仪 |
CN107273859A (zh) * | 2017-06-20 | 2017-10-20 | 南京末梢信息技术有限公司 | 一种照片自动标记方法及其系统 |
CN107273859B (zh) * | 2017-06-20 | 2020-10-02 | 南京末梢信息技术有限公司 | 一种照片自动标记方法及其系统 |
CN109275046A (zh) * | 2018-08-21 | 2019-01-25 | 华中师范大学 | 一种基于双视频采集的教学数据标注方法 |
CN109275046B (zh) * | 2018-08-21 | 2021-06-18 | 华中师范大学 | 一种基于双视频采集的教学数据标注方法 |
CN109657096A (zh) * | 2019-01-11 | 2019-04-19 | 杭州师范大学 | 一种基于低学龄教学音视频的辅助统计报告生成方法 |
CN109657096B (zh) * | 2019-01-11 | 2021-06-08 | 杭州师范大学 | 一种基于低学龄教学音视频的辅助统计报告生成方法 |
CN111225235A (zh) * | 2020-01-16 | 2020-06-02 | 北京合众美华教育投资有限公司 | 一种网络教学视频的播放方法 |
Also Published As
Publication number | Publication date |
---|---|
CN104700410B (zh) | 2017-09-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106250915B (zh) | 一种融合深度特征和语义邻域的自动图像标注方法 | |
CN110750959A (zh) | 文本信息处理的方法、模型训练的方法以及相关装置 | |
CN110134954B (zh) | 一种基于Attention机制的命名实体识别方法 | |
CN111767732B (zh) | 基于图注意力模型的文档内容理解方法及系统 | |
CN111291566B (zh) | 一种事件主体识别方法、装置、存储介质 | |
CN104700410A (zh) | 基于协同过滤的教学视频标注方法 | |
CN110390363A (zh) | 一种图像描述方法 | |
CN112633431B (zh) | 一种基于crnn和ctc的藏汉双语场景文字识别方法 | |
CN108513176B (zh) | 一种基于话题模型的社会化视频主题提取系统的提取方法 | |
CN110188762B (zh) | 中英文混合商户门店名称识别方法、系统、设备及介质 | |
CN110175246A (zh) | 一种从视频字幕中提取概念词的方法 | |
CN105760472A (zh) | 视频检索方法及系统 | |
CN112966525B (zh) | 一种基于预训练模型和卷积神经网络算法的法律领域事件抽取方法 | |
Chen et al. | Extractive text-image summarization using multi-modal RNN | |
CN112329767A (zh) | 基于联合预训练的合同文本图像关键信息提取系统和方法 | |
CN112231522A (zh) | 一种在线课程知识树的生成关联方法 | |
CN109800435A (zh) | 一种语言模型的训练方法及装置 | |
CN115311465A (zh) | 一种基于双注意力模型的图像描述方法 | |
CN110750669B (zh) | 一种图像字幕生成的方法及系统 | |
CN117473971A (zh) | 一种基于采购文本库的招标文件自动生成方法及系统 | |
CN110929013A (zh) | 一种基于bottom-up attention和定位信息融合的图片问答实现方法 | |
CN111783697A (zh) | 一种基于卷积神经网络的错题检测及靶向推荐系统和方法 | |
CN112084788A (zh) | 一种影像字幕隐式情感倾向自动标注方法及系统 | |
CN111222000A (zh) | 一种基于图卷积神经网络的图像分类方法及系统 | |
CN116306506A (zh) | 一种基于内容识别的智能邮件模板方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right |
Effective date of registration: 20220930 Address after: 030032 Room 1504-1507, Floor 15, Block A, No. 6, West Second Lane, Dongqu Road, Taiyuan Xuefu Park, Comprehensive Reform Demonstration Zone, Taiyuan City, Shanxi Province Patentee after: Shanxi Hengyi Xinyuan Technology Co.,Ltd. Address before: 710071 No. 2 Taibai South Road, Shaanxi, Xi'an Patentee before: XIDIAN University |
|
TR01 | Transfer of patent right | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20170922 |
|
CF01 | Termination of patent right due to non-payment of annual fee |