CN112052344B - 一种基于知识图谱与ScSIFT的融媒体信息获取方法 - Google Patents

一种基于知识图谱与ScSIFT的融媒体信息获取方法 Download PDF

Info

Publication number
CN112052344B
CN112052344B CN202011054992.8A CN202011054992A CN112052344B CN 112052344 B CN112052344 B CN 112052344B CN 202011054992 A CN202011054992 A CN 202011054992A CN 112052344 B CN112052344 B CN 112052344B
Authority
CN
China
Prior art keywords
matrix
alpha
vector
obtaining
representing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011054992.8A
Other languages
English (en)
Other versions
CN112052344A (zh
Inventor
胡燕祝
王松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing University of Posts and Telecommunications
Original Assignee
Beijing University of Posts and Telecommunications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing University of Posts and Telecommunications filed Critical Beijing University of Posts and Telecommunications
Priority to CN202011054992.8A priority Critical patent/CN112052344B/zh
Publication of CN112052344A publication Critical patent/CN112052344A/zh
Application granted granted Critical
Publication of CN112052344B publication Critical patent/CN112052344B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/36Creation of semantic tools, e.g. ontology or thesauri
    • G06F16/367Ontology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/24Querying
    • G06F16/245Query processing
    • G06F16/2458Special types of queries, e.g. statistical queries, fuzzy queries or distributed queries
    • G06F16/2465Query processing support for facilitating data mining operations in structured databases
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/26Visual data mining; Browsing structured data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/31Indexing; Data structures therefor; Storage structures
    • G06F16/316Indexing structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Abstract

本发明涉及一种基于知识图谱与ScSIFT的融媒体信息获取方法,特别是一种对安全生产中危化品事故的融媒体信息获取方法,属于智能安全领域,其特征在于采用如下步骤:(1)获取子图顶点权重与各边权重;(2)顶点的约简处理;(3)获得子图融合矩阵;(4)确定标准化SIFT特征向量组;(5)确定稀疏编码;(6)确定ScSIFT特征距离;(7)获取二值向量;(8)建立一级索引;(9)获取重组图像矩阵;(10)子矩阵分块;(11)确定子矩阵的最大特征值;(12)样本降维;(13)文本向量与视频关键帧融合。本发明克服了传统单一获取文本局限性问题,利用知识图谱与ScSIFT结合的优势取得了较完备的检索结果。为融媒体信息获取领域提供了一种全面信息获取的方法。

Description

一种基于知识图谱与ScSIFT的融媒体信息获取方法
技术领域
本发明涉及智能安全领域,特别是一种对安全生产中危化品事故的融媒体信息获取方法。
背景技术
目前,在安全生产危化品事故领域,对关键信息的查找,主要采取的方式还是通过人工大量查询相关的文献材料,或观看相关视频的方法实现,基于这些做法不仅费时费力,而且查询的方式较为单一性。在关键信息获取过程中仅从文本中获取的信息关联性低,结构松散,不容易得出相关的结论,同时找出信息之间的联系。而仅视频中获取数据的方法,当数据量小时,得到的信息数量较少,获得的信息对之后的应用没有很好地泛化能力,数据量过大时,由于数据量大,维度高,因此,系统处理的速度不能满足要求。所以这种仅通过单一途径进行关键信息查找的方式很难满足高效准确的需求,并且信息来源的单一性也有可能出现信息的缺漏和判断错误的情况。
对于融媒体信息获取方法,主要是通过文本资料和视频资料途径获取。因此要想高效及时的获取关键信息,需要同时对视频和文本进行关键信息的获取,在此提出了一种基于知识图谱与ScSIFT的融媒体信息获取方法,我们利用知识图谱这种语义网络和ScSIFT的视频关键帧提取相结合的方法,将传统的生产安全事故信息的查找只注重文献资料或者仅参考视频信息的单一模式信息获取,整合为从这两个方面同时进行关键信息的提取。安全事故信息的获取要求精准和效率,基于知识图谱与ScSIFT的融媒体信息获取方法在一定程度上提高了我们检索信息的快速性与准确性,以便于工作人员多方面发现问题,立体总结问题,做好各种事故的预防与解决策略。
发明内容
针对上述现有技术中存在的问题,本发明要解决的技术问题是提供一种基于知识图谱与ScSIFT的融媒体信息获取方法,其具体流程如图1所示。
实现本发明目的的技术方案的具体步骤为:
步骤一:获取知识子图的顶点权重Wv(Gk,Vi)与各边权重WE(Gk,Vi,Vj):
利用知识图谱提取文本信息以及文本信息间的关系,获取知识子图,对获取的知识子图进行降噪处理:
Figure BDA0002709461270000011
式中,Wv(Gk,Vi)表示子图中顶点权重,WVi表示每个顶点的权重,VG为顶点个数,EG为边个数,WE(Gk,Vi,Vj)为子图中边权重,得到顶点权重值与边权重值,vi,vj分别表示图像量的横纵分量,Vi,Vj分别表示vi,vj的集合,Gk表示有向关联中的方向指标,利用基于加权策略的子图降噪算法对子图进行降噪处理;
步骤二:对降噪后的子图进行顶点的约简处理:
V′={v1,v2,…,vn};
式中,V′表示高效率信息集合,通过对顶点的频率进行统计,运用阈值剔除方法得到高效率信息集合,v1,v2,…,vn是分别代表1…n每个顶点;
步骤三:获得子图融合矩阵Yb={c1,c2,…,cd}:
对二次简约后的子图计算文本相似度:
G**={s|d(s,si)≤t,s∈S};
式中,G**表示新知识子图集,S表示若干子图集,s表示目标图集,si表示第i个图集,t表示距离阈值,d(s,si)表示两集合间的距离,基于双邻接矩阵融合方法子图融合,得到矩阵Yb={c1,c2,…,cd},c1,c2,…,cd分别为矩阵Yb中的1…d的列向量;
步骤四:获得视频图像标准化SIFT特征向量组Xs
提取图像中SIFT特征向量X={X1,X2,....Xn},对其进行标准化:
Figure BDA0002709461270000021
式中,X是n个SIFT特征向量组,维度为128×n,Xjmeans是特征向量组X列均值张成的128×n维矩阵,|X′|jmod是X′按列取模张成的128×n为矩阵,Xs是X标准化特征向量组;
步骤五:对特征向量进行稀疏编码:
X=D·α,sparse;
式中,D为训练得到的超完备字典,α为相应的权重,sparse表示稀疏化处理;
步骤六:获取ScSIFT特征距离L:
Figure BDA0002709461270000031
其中,L是特征X的稀疏向量αXαX与特征Y的稀疏向量αY的欧式距离;αXi指在向量αX中非0,而在αY中为0的元素序数,αYj指向量αY中非0,而在αY中非0的元素序数;αXk、αYk指在αX与αY中都非0的元素序数;
步骤七:获取特征向量的二值向量αbool
Figure BDA0002709461270000032
其中,二值向量αbool为ScSIFT特征的二级索引,αi1表示第i行第1列的元素,αik表示第i行第k列的元素,1i1表示第i行第1列的元素为1,1ik表示第i行第k列的元素为1,且
Figure BDA0002709461270000033
步骤八:在二级索引上建立一级索引:
Figure BDA0002709461270000034
式中,num作为ScSIFT特征的一级索引,统计二级索引αbool中非0元素的个数,i为二级索引αbool中元素的个数。
根据索引进行特征向量的匹配,寻找待检测特征向量的邻近点。因此,判断视频的相似性,进而摘选出视频中的关键帧;
步骤九:获取重组图像矩阵X′p
对关键帧集合进行分块处理,得到重组图像矩阵X′p
Figure BDA0002709461270000035
式中,Xp为第p(p=1,2,...,N)个训练样本,X′p是组成新的图像矩阵,
Figure BDA0002709461270000036
(原始图像大小m×m、滑动窗口大小n×n,以步长为S进行滑动截取),Xp,q1为Xp中第q行第1列元素,Xp,qq为Xp中第q行第q列元素,其它以此类推;
步骤十:新的重组图像矩阵的每一个子矩阵分块:
Figure BDA0002709461270000041
其中,1≤r≤q,1≤s≤q,x(n,n)指Xp,rs矩阵中的第n行第n列的元素;
步骤十一:计算出每个子矩阵X′r,s的最大特征值Br,s
Br,s=max{λ12,…,λn};
式中,Br,s为子矩阵X′r,s的最大特征值,λ12,...,λn为n阶矩阵在复数范围内的n个特征值;
步骤十二:获取样本降维后的
Figure BDA0002709461270000042
Figure BDA0002709461270000043
式中,
Figure BDA0002709461270000044
为第p(p=1,2,...,N)个样本降维后的向量,用子矩阵的最大特征值表示子矩阵的主要特征,然后按行排列成新的向量,bqq
Figure BDA0002709461270000045
矩阵中第q行第q列的元素;
步骤十三:文本向量与提取的关键帧进行融合:
Figure BDA0002709461270000046
式中,
Figure BDA0002709461270000047
为视频第p个样本降维后的向量,Yb为文本子图融合后的矩阵,Zp为文本矩阵与视频向量融合的结果。
本发明比现有技术所具有的优点:
(1)通过知识图谱对文本信息进行挖掘检索,一定程度上解决了现有技术只能单一检索文本,不能进行文本间关系的实现的缺陷。
(2)基于ScSIFT视频的提取关键帧的方法,在一定程度上解决现有视频数据量大、维度高的问题,提高提取关键帧的效率。
(3)二者技术的融合,双方面进行信息获取,提高信息的立体性,增强信息的准确性。
附图说明
为了更好地理解本发明,下面结合附图作进一步的说明。
图1是建立基于知识图谱与ScSIFT的融媒体信息提取算法的步骤流程图;
图2是建立基于知识图谱与ScSIFT的融媒体信息提取算法流程图;
图3是基于知识图谱的知识子图融合结果示意图;
图4是利用本发明两组文本信息以及一组视频信息检索实验的结果对比图;
具体实施方案
下面通过实施案例对本发明作进一步详细说明。
本实施案例选用的文本数据集是通过运用知识图谱获取到的两个不同的知识子图,视频数据集为随机从安全生产危化品事故视频数据库中抽取。
本发明所提供的一种基于知识图谱与ScSIFT的融媒体信息获取方法整体流程如图1所示,具体步骤如下:
(1)获取知识子图的顶点权重Wv(Gk,Vi)与中边权重WE(Gk,Vi,Vj):
利用知识图谱提取文本信息以及文本信息间的关系,获取知识子图,对获取的知识子图进行降噪处理:
Figure BDA0002709461270000051
Figure BDA0002709461270000052
式中,Wv(Gk,Vi)表示子图中顶点权重,|VG|为顶点个数,|EG|为边个数,WE(Gk,Vi,Vj)为子图中边权重。得到顶点权重值与边权重值,利用基于加权策略的子图降噪算法对子图进行降噪处理。得到的WE(Gk,Vi,Vj)和Wv(Gk,Vi)分别为:
Figure BDA0002709461270000053
Figure BDA0002709461270000061
(1)对降噪后的子图进行顶点的约简处理:
V′={v1,v2,…,vn}
式中,V′表示高效率信息集合。通过对顶点的频率进行统计,运用阈值剔除方法得到高效率信息集合。
(2)获得子图融合矩阵Yb={c1,c2,…,cd}:
对二次简约后的子图计算文本相似度:
G**={s|d(s,si)≤t,s∈S}
式中,G**表示新知识子图集,S表示若干子图集,si表示第i个图集,t表示距离阈值,d(s,si)表示两集合间的距离。基于双邻接矩阵融合方法子图融合,得到矩阵Yb={c1,c2,…,cd}。经过计算文本的相似度后,求得最后子图融合后的矩阵Yb为:
Figure BDA0002709461270000062
(3)获得视频图像标准化SIFT特征向量组Xs
提取图像中SIFT特征向量X={X1,X2,…,Xn},对其进行标准化:
X′=X-Xjmeans
Xs=X′/|X′|jmod
式中,X是n个SIFT特征向量组,维度为128×n,Xjmeans是特征向量组X列均值张成的128×n维矩阵,|X′|jmod是X′按列取模张成的128×n为矩阵,Xs是标准化SIFT特征向量组。
(4)对特征向量进行稀疏编码:
X=D·α,sparse
式中,D为训练得到的超完备字典。
(5)获取ScSIFT特征距离L:
Figure BDA0002709461270000071
其中,L是特征X的稀疏向量αX与特征Y的稀疏向量αY的欧式距离;i指在向量αX中非0,而在αY中为0的元素序数,j指向量αY中非0,而在αY中非0的元素序数;k指在αX与αY中都非0的元素序数。
(6)获取特征向量的二值向量αbool
αbool=bool(α)=bool((0,…,0,αi1,0,…,αik,0,…,0,)n)=(0,…,0,1i1,0,…,0,1ik,0,…,0,)n
其中,二值向量αbool为ScSIFT特征的二级索引,且
Figure BDA0002709461270000072
(7)在二级索引上建立一级索引:
Figure BDA0002709461270000073
式中,num作为ScSIFT特征的一级索引,统计二级索引αbool中非0元素的个数。其中,我们计算得到num的值为15。
根据索引进行特征向量的匹配,寻找待检测特征向量的邻近点。因此,判断视频的相似性,进而摘选出视频中的关键帧。
(8)获取重组图像矩阵X′10
对关键帧集合进行分块处理,得到重组图像矩阵X′10
Figure BDA0002709461270000081
式中,X10为第10个训练样本,X′10是组成新的图像矩阵,(q=178,原始图像大小900×900、滑动窗口大小q=10×10,以步长为5进行滑动截取)。
(1)新的重组图像矩阵的每一个子矩阵分块:
Figure BDA0002709461270000082
其中,1≤r≤178,1≤s≤178。
(2)计算出每个子矩阵X′r,s的最大特征值Br,s
Br,s=max{λ12,…,λn}
式中,Br,s为子矩阵X′r,s的最大特征值,λ12,...,λn为n阶矩阵在复数范围内的n个特征值。
(3)获取样本降维后的
Figure BDA0002709461270000083
Figure BDA0002709461270000084
式中,
Figure BDA0002709461270000085
为第10个样本降维后的向量。用子矩阵的最大特征值表示子矩阵的主要特征,然后按行排列成新的向量。
(4)文本向量与提取的关键帧进行融合:
Figure BDA0002709461270000086
Z10={b11,b12,…,b178178,c1,c2,…,cd}
式中,
Figure BDA0002709461270000087
为视频第10个样本降维后的向量,Yp为文本子图融合后的矩阵,Z10为文本矩阵与视频向量融合的结果。
为了验证本发明对融媒体信息获取的准确性,对本发明进行了两组文本信息检索实验以及一组视频信息检索实验,实验结果如图4所示。由图4可知,本发明所建立的知识图谱与ScSIFT的融媒体信息获取方法,能够在保证稳定性的基础上达到较高的信息获取准确率。这表明本发明建立的知识图谱与ScSIFT的融媒体信息获取方法是有效的,为获取精确的信息提供了更好的方法,具有一定的实用性。

Claims (1)

1.一种基于知识图谱与ScSIFT的融媒体信息获取方法,其特征在于:(1)获取知识子图顶点权重与各边权重;(2)进行顶点的约简处理;(3)获得子图融合矩阵;(4)获得标准化SIFT特征向量组;(5)确定稀疏编码;(6)确定ScSIFT特征距离;(7)获取二值向量;(8)建立一级索引;(9)获取重组图像矩阵;(10)子矩阵分块;(11)确定子矩阵的最大特征值;(12)进行样本降维;(13)进行文本向量与提取的关键帧融合;具体包括以下十三个步骤:
步骤一:获取知识子图的顶点权重Wv(Gk,Vi)与各边权重WE(Gk,Vi,Vj):
利用知识图谱提取文本信息以及文本信息间的关系,获取知识子图,对获取的知识子图进行降噪处理:
Figure FDA0003778253610000011
式中,Wv(Gk,Vi)表示子图中顶点权重,
Figure FDA0003778253610000012
表示每个顶点的权重,VG为顶点个数,EG为边个数,WE(Gk,Vi,Vj)为子图中边权重,得到顶点权重值与边权重值,vi,vj分别表示图像量的横纵分量,Vi,Vj分别表示vi,vj的集合,Gk表示有向关联中的方向指标,利用基于加权策略的子图降噪算法对子图进行降噪处理;
步骤二:对降噪后的子图进行顶点的约简处理:
V'={v1,v2,…,ve};
式中,V'表示高效率信息集合,通过对顶点的频率进行统计,运用阈值剔除方法得到高效率信息集合,v1,v2,…,ve是分别代表1...e每个顶点;
步骤三:获得子图融合矩阵Yb={c1,c2,…,cd}:
对二次简约后的子图计算文本相似度:
G**={s|d(s,si)≤t,s∈S};
式中,G**表示新知识子图集,S表示若干子图集,s表示目标图集,si表示第i个图集,t表示距离阈值,d(s,si)表示两集合间的距离,基于双邻接矩阵融合方法子图融合,得到矩阵Yb={c1,c2,…,cd},c1,c2,…,cd分别为矩阵Yb中的1…d的列向量;
步骤四:获得视频图像标准化SIFT特征向量组Xs
提取图像中SIFT特征向量X={X1,X2,....,Xn},对其进行标准化:
Figure FDA0003778253610000021
式中,X是n个SIFT特征向量组,维度为128×n,Xjmeans是特征向量组X列均值张成的128×n维矩阵,|X'|jmod是X'按列取模张成的128×n维矩阵,Xs是X标准化特征向量组;
步骤五:对特征向量进行稀疏编码:
X=D·α,sparse;
式中,D为训练得到的超完备字典,α为相应的权重,sparse表示稀疏化处理;
步骤六:获取ScSIFT特征距离L:
Figure FDA0003778253610000022
其中,L是特征X的稀疏向量αX与特征Y的稀疏向量αY的欧式距离;αXi指在向量αX中非0,而在αY中为0的元素序数,αYj指在向量αY中非0,而在αX中非0的元素序数;αXk、αYk指在αX与αY中都非0的元素序数;
步骤七:获取特征向量的二值向量αbool
Figure FDA0003778253610000023
其中,二值向量αbool为ScSIFT特征的二级索引,αi1表示第i行第1列的元素,αik表示第i行第k列的元素,1i1表示第i行第1列的元素为1,1ik表示第i行第k列的元素为1,且
Figure FDA0003778253610000024
其中,n表示组成X的SIFT特征向量组的个数;
步骤八:在二级索引上建立一级索引:
Figure FDA0003778253610000025
式中,num作为ScSIFT特征的一级索引,统计二级索引αbool中非0元素的个数,β为二级索引αbool中元素的个数;
根据索引进行特征向量的匹配,寻找待检测特征向量的邻近点;判断视频的相似性,进而摘选出视频中的关键帧;
步骤九:获取重组图像矩阵X'p
对关键帧集合进行分块处理,得到重组图像矩阵X′p
Figure FDA0003778253610000031
式中,Xp为第p(p=1,2,...,N)个训练样本,X'p是组成新的图像矩阵,
Figure FDA0003778253610000032
原始图像大小m×m、滑动窗口大小h×h,以步长为S进行滑动截取,Xp,q1为Xp中第q行第1列元素,Xp,qq为Xp中第q行第q列元素,其它以此类推;
步骤十:新的重组图像矩阵的每一个子矩阵分块:
Figure FDA0003778253610000033
其中,1≤r≤q,1≤s≤q,x(f,f)指Xp,rs矩阵中的第f行第f列的元素;
步骤十一:计算出每个子矩阵X′r,s的最大特征值Br,s
Br,s=max{λ12,…,λτ};
式中,Br,s为子矩阵X′r,s的最大特征值,λ12,...,λτ为τ阶矩阵在复数范围内的τ个特征值;
步骤十二:获取样本降维后的
Figure FDA0003778253610000034
Figure FDA0003778253610000035
式中,
Figure FDA0003778253610000036
为第p(p=1,2,...,N)个样本降维后的向量,用子矩阵的最大特征值表示子矩阵的主要特征,然后按行排列成新的向量,bqq
Figure FDA0003778253610000037
矩阵中第q行第q列的元素;
步骤十三:文本向量与提取的关键帧进行融合:
Figure FDA0003778253610000041
式中,
Figure FDA0003778253610000042
为视频第p个样本降维后的向量,Yb为文本子图融合后的矩阵,Zp为文本矩阵与视频向量融合的结果。
CN202011054992.8A 2020-09-29 2020-09-29 一种基于知识图谱与ScSIFT的融媒体信息获取方法 Active CN112052344B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011054992.8A CN112052344B (zh) 2020-09-29 2020-09-29 一种基于知识图谱与ScSIFT的融媒体信息获取方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011054992.8A CN112052344B (zh) 2020-09-29 2020-09-29 一种基于知识图谱与ScSIFT的融媒体信息获取方法

Publications (2)

Publication Number Publication Date
CN112052344A CN112052344A (zh) 2020-12-08
CN112052344B true CN112052344B (zh) 2022-09-09

Family

ID=73606213

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011054992.8A Active CN112052344B (zh) 2020-09-29 2020-09-29 一种基于知识图谱与ScSIFT的融媒体信息获取方法

Country Status (1)

Country Link
CN (1) CN112052344B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114124859B (zh) * 2021-08-17 2023-04-07 北京邮电大学 一种网络维护平台智能客户服务机器人及维护方法
CN114781642B (zh) * 2022-06-17 2022-09-23 之江实验室 一种跨媒体对应知识的生成方法和装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104063701A (zh) * 2014-07-14 2014-09-24 电子科技大学 基于surf词汇树和模板匹配的快速电视台台标识别系统及其实现方法
CN109376680A (zh) * 2018-11-06 2019-02-22 大连理工大学 一种基于近红外人脸图像的Hog和Gabor特征高效融合快速人脸识别方法
CN110472061A (zh) * 2019-07-08 2019-11-19 郑州大学 一种基于短文本相似度计算的知识图谱融合方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
BR102016007265B1 (pt) * 2016-04-01 2022-11-16 Samsung Eletrônica da Amazônia Ltda. Método multimodal e em tempo real para filtragem de conteúdo sensível

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104063701A (zh) * 2014-07-14 2014-09-24 电子科技大学 基于surf词汇树和模板匹配的快速电视台台标识别系统及其实现方法
CN109376680A (zh) * 2018-11-06 2019-02-22 大连理工大学 一种基于近红外人脸图像的Hog和Gabor特征高效融合快速人脸识别方法
CN110472061A (zh) * 2019-07-08 2019-11-19 郑州大学 一种基于短文本相似度计算的知识图谱融合方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
浅析跨媒体智能感知与分析技术在广电监测台的应用;胡芳;《电脑知识与技术》;20200305(第07期);全文 *

Also Published As

Publication number Publication date
CN112052344A (zh) 2020-12-08

Similar Documents

Publication Publication Date Title
CN107577990B (zh) 一种基于gpu加速检索的大规模人脸识别方法
Lu et al. Object detection based on SSD-ResNet
Yuan et al. Dual-clustering-based hyperspectral band selection by contextual analysis
CN104008174B (zh) 一种海量图像检索的隐私保护索引生成方法
Mua’ad Abu-Faraj et al. Deep Machine Learning to Enhance ANN Performance: Fingerprint Classifier Case Study
CN103336957B (zh) 一种基于时空特征的网络同源视频检测方法
Abou-Moustafa et al. A note on metric properties for some divergence measures: The Gaussian case
CN112052344B (zh) 一种基于知识图谱与ScSIFT的融媒体信息获取方法
He et al. A dual global–local attention network for hyperspectral band selection
CN110738146A (zh) 一种目标重识别神经网络及其构建方法和应用
Duta et al. Histograms of motion gradients for real-time video classification
CN109086830B (zh) 基于样本惩罚的典型关联分析近重复视频检测方法
CN108763295A (zh) 一种基于深度学习的视频近似拷贝检索算法
Zhou et al. Video face clustering via constrained sparse representation
Zhong et al. Improved localization accuracy by locnet for faster r-cnn based text detection
Wang et al. DCN-T: Dual context network with transformer for hyperspectral image classification
CN111444390A (zh) 一种基于Spark和深度哈希的视频并行检索方法
CN109886160A (zh) 一种非限定条件下的人脸识别方法
Wang et al. Dense-scale feature learning in person re-identification
Niaz et al. EURECOM at TrecVid 2012: The Light Semantic Indexing Task.
CN106101732B (zh) 快速压缩高光谱信号的矢量量化方案
CN116861022A (zh) 一种基于深度卷积神经网络和局部敏感哈希算法相结合的图像检索方法
CN106951501A (zh) 一种基于多图匹配的三维模型检索方法
CN104537377B (zh) 一种基于二维核熵成分分析的图像数据降维方法
CN107563260A (zh) 一种基于主成分分析和最近邻图的密度峰值聚类方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant