CN112052344B - 一种基于知识图谱与ScSIFT的融媒体信息获取方法 - Google Patents
一种基于知识图谱与ScSIFT的融媒体信息获取方法 Download PDFInfo
- Publication number
- CN112052344B CN112052344B CN202011054992.8A CN202011054992A CN112052344B CN 112052344 B CN112052344 B CN 112052344B CN 202011054992 A CN202011054992 A CN 202011054992A CN 112052344 B CN112052344 B CN 112052344B
- Authority
- CN
- China
- Prior art keywords
- matrix
- alpha
- vector
- obtaining
- representing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/36—Creation of semantic tools, e.g. ontology or thesauri
- G06F16/367—Ontology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/24—Querying
- G06F16/245—Query processing
- G06F16/2458—Special types of queries, e.g. statistical queries, fuzzy queries or distributed queries
- G06F16/2465—Query processing support for facilitating data mining operations in structured databases
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/26—Visual data mining; Browsing structured data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/31—Indexing; Data structures therefor; Storage structures
- G06F16/316—Indexing structures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/20—Ensemble learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/30—Computing systems specially adapted for manufacturing
Abstract
本发明涉及一种基于知识图谱与ScSIFT的融媒体信息获取方法,特别是一种对安全生产中危化品事故的融媒体信息获取方法,属于智能安全领域,其特征在于采用如下步骤:(1)获取子图顶点权重与各边权重;(2)顶点的约简处理;(3)获得子图融合矩阵;(4)确定标准化SIFT特征向量组;(5)确定稀疏编码;(6)确定ScSIFT特征距离;(7)获取二值向量;(8)建立一级索引;(9)获取重组图像矩阵;(10)子矩阵分块;(11)确定子矩阵的最大特征值;(12)样本降维;(13)文本向量与视频关键帧融合。本发明克服了传统单一获取文本局限性问题,利用知识图谱与ScSIFT结合的优势取得了较完备的检索结果。为融媒体信息获取领域提供了一种全面信息获取的方法。
Description
技术领域
本发明涉及智能安全领域,特别是一种对安全生产中危化品事故的融媒体信息获取方法。
背景技术
目前,在安全生产危化品事故领域,对关键信息的查找,主要采取的方式还是通过人工大量查询相关的文献材料,或观看相关视频的方法实现,基于这些做法不仅费时费力,而且查询的方式较为单一性。在关键信息获取过程中仅从文本中获取的信息关联性低,结构松散,不容易得出相关的结论,同时找出信息之间的联系。而仅视频中获取数据的方法,当数据量小时,得到的信息数量较少,获得的信息对之后的应用没有很好地泛化能力,数据量过大时,由于数据量大,维度高,因此,系统处理的速度不能满足要求。所以这种仅通过单一途径进行关键信息查找的方式很难满足高效准确的需求,并且信息来源的单一性也有可能出现信息的缺漏和判断错误的情况。
对于融媒体信息获取方法,主要是通过文本资料和视频资料途径获取。因此要想高效及时的获取关键信息,需要同时对视频和文本进行关键信息的获取,在此提出了一种基于知识图谱与ScSIFT的融媒体信息获取方法,我们利用知识图谱这种语义网络和ScSIFT的视频关键帧提取相结合的方法,将传统的生产安全事故信息的查找只注重文献资料或者仅参考视频信息的单一模式信息获取,整合为从这两个方面同时进行关键信息的提取。安全事故信息的获取要求精准和效率,基于知识图谱与ScSIFT的融媒体信息获取方法在一定程度上提高了我们检索信息的快速性与准确性,以便于工作人员多方面发现问题,立体总结问题,做好各种事故的预防与解决策略。
发明内容
针对上述现有技术中存在的问题,本发明要解决的技术问题是提供一种基于知识图谱与ScSIFT的融媒体信息获取方法,其具体流程如图1所示。
实现本发明目的的技术方案的具体步骤为:
步骤一:获取知识子图的顶点权重Wv(Gk,Vi)与各边权重WE(Gk,Vi,Vj):
利用知识图谱提取文本信息以及文本信息间的关系,获取知识子图,对获取的知识子图进行降噪处理:
式中,Wv(Gk,Vi)表示子图中顶点权重,WVi表示每个顶点的权重,VG为顶点个数,EG为边个数,WE(Gk,Vi,Vj)为子图中边权重,得到顶点权重值与边权重值,vi,vj分别表示图像量的横纵分量,Vi,Vj分别表示vi,vj的集合,Gk表示有向关联中的方向指标,利用基于加权策略的子图降噪算法对子图进行降噪处理;
步骤二:对降噪后的子图进行顶点的约简处理:
V′={v1,v2,…,vn};
式中,V′表示高效率信息集合,通过对顶点的频率进行统计,运用阈值剔除方法得到高效率信息集合,v1,v2,…,vn是分别代表1…n每个顶点;
步骤三:获得子图融合矩阵Yb={c1,c2,…,cd}:
对二次简约后的子图计算文本相似度:
G**={s|d(s,si)≤t,s∈S};
式中,G**表示新知识子图集,S表示若干子图集,s表示目标图集,si表示第i个图集,t表示距离阈值,d(s,si)表示两集合间的距离,基于双邻接矩阵融合方法子图融合,得到矩阵Yb={c1,c2,…,cd},c1,c2,…,cd分别为矩阵Yb中的1…d的列向量;
步骤四:获得视频图像标准化SIFT特征向量组Xs:
提取图像中SIFT特征向量X={X1,X2,....Xn},对其进行标准化:
式中,X是n个SIFT特征向量组,维度为128×n,Xjmeans是特征向量组X列均值张成的128×n维矩阵,|X′|jmod是X′按列取模张成的128×n为矩阵,Xs是X标准化特征向量组;
步骤五:对特征向量进行稀疏编码:
X=D·α,sparse;
式中,D为训练得到的超完备字典,α为相应的权重,sparse表示稀疏化处理;
步骤六:获取ScSIFT特征距离L:
其中,L是特征X的稀疏向量αXαX与特征Y的稀疏向量αY的欧式距离;αXi指在向量αX中非0,而在αY中为0的元素序数,αYj指向量αY中非0,而在αY中非0的元素序数;αXk、αYk指在αX与αY中都非0的元素序数;
步骤七:获取特征向量的二值向量αbool:
其中,二值向量αbool为ScSIFT特征的二级索引,αi1表示第i行第1列的元素,αik表示第i行第k列的元素,1i1表示第i行第1列的元素为1,1ik表示第i行第k列的元素为1,且
步骤八:在二级索引上建立一级索引:
式中,num作为ScSIFT特征的一级索引,统计二级索引αbool中非0元素的个数,i为二级索引αbool中元素的个数。
根据索引进行特征向量的匹配,寻找待检测特征向量的邻近点。因此,判断视频的相似性,进而摘选出视频中的关键帧;
步骤九:获取重组图像矩阵X′p:
对关键帧集合进行分块处理,得到重组图像矩阵X′p:
式中,Xp为第p(p=1,2,...,N)个训练样本,X′p是组成新的图像矩阵,(原始图像大小m×m、滑动窗口大小n×n,以步长为S进行滑动截取),Xp,q1为Xp中第q行第1列元素,Xp,qq为Xp中第q行第q列元素,其它以此类推;
步骤十:新的重组图像矩阵的每一个子矩阵分块:
其中,1≤r≤q,1≤s≤q,x(n,n)指Xp,rs矩阵中的第n行第n列的元素;
步骤十一:计算出每个子矩阵X′r,s的最大特征值Br,s:
Br,s=max{λ1,λ2,…,λn};
式中,Br,s为子矩阵X′r,s的最大特征值,λ1,λ2,...,λn为n阶矩阵在复数范围内的n个特征值;
步骤十三:文本向量与提取的关键帧进行融合:
本发明比现有技术所具有的优点:
(1)通过知识图谱对文本信息进行挖掘检索,一定程度上解决了现有技术只能单一检索文本,不能进行文本间关系的实现的缺陷。
(2)基于ScSIFT视频的提取关键帧的方法,在一定程度上解决现有视频数据量大、维度高的问题,提高提取关键帧的效率。
(3)二者技术的融合,双方面进行信息获取,提高信息的立体性,增强信息的准确性。
附图说明
为了更好地理解本发明,下面结合附图作进一步的说明。
图1是建立基于知识图谱与ScSIFT的融媒体信息提取算法的步骤流程图;
图2是建立基于知识图谱与ScSIFT的融媒体信息提取算法流程图;
图3是基于知识图谱的知识子图融合结果示意图;
图4是利用本发明两组文本信息以及一组视频信息检索实验的结果对比图;
具体实施方案
下面通过实施案例对本发明作进一步详细说明。
本实施案例选用的文本数据集是通过运用知识图谱获取到的两个不同的知识子图,视频数据集为随机从安全生产危化品事故视频数据库中抽取。
本发明所提供的一种基于知识图谱与ScSIFT的融媒体信息获取方法整体流程如图1所示,具体步骤如下:
(1)获取知识子图的顶点权重Wv(Gk,Vi)与中边权重WE(Gk,Vi,Vj):
利用知识图谱提取文本信息以及文本信息间的关系,获取知识子图,对获取的知识子图进行降噪处理:
式中,Wv(Gk,Vi)表示子图中顶点权重,|VG|为顶点个数,|EG|为边个数,WE(Gk,Vi,Vj)为子图中边权重。得到顶点权重值与边权重值,利用基于加权策略的子图降噪算法对子图进行降噪处理。得到的WE(Gk,Vi,Vj)和Wv(Gk,Vi)分别为:
(1)对降噪后的子图进行顶点的约简处理:
V′={v1,v2,…,vn}
式中,V′表示高效率信息集合。通过对顶点的频率进行统计,运用阈值剔除方法得到高效率信息集合。
(2)获得子图融合矩阵Yb={c1,c2,…,cd}:
对二次简约后的子图计算文本相似度:
G**={s|d(s,si)≤t,s∈S}
式中,G**表示新知识子图集,S表示若干子图集,si表示第i个图集,t表示距离阈值,d(s,si)表示两集合间的距离。基于双邻接矩阵融合方法子图融合,得到矩阵Yb={c1,c2,…,cd}。经过计算文本的相似度后,求得最后子图融合后的矩阵Yb为:
(3)获得视频图像标准化SIFT特征向量组Xs:
提取图像中SIFT特征向量X={X1,X2,…,Xn},对其进行标准化:
X′=X-Xjmeans
Xs=X′/|X′|jmod
式中,X是n个SIFT特征向量组,维度为128×n,Xjmeans是特征向量组X列均值张成的128×n维矩阵,|X′|jmod是X′按列取模张成的128×n为矩阵,Xs是标准化SIFT特征向量组。
(4)对特征向量进行稀疏编码:
X=D·α,sparse
式中,D为训练得到的超完备字典。
(5)获取ScSIFT特征距离L:
其中,L是特征X的稀疏向量αX与特征Y的稀疏向量αY的欧式距离;i指在向量αX中非0,而在αY中为0的元素序数,j指向量αY中非0,而在αY中非0的元素序数;k指在αX与αY中都非0的元素序数。
(6)获取特征向量的二值向量αbool:
αbool=bool(α)=bool((0,…,0,αi1,0,…,αik,0,…,0,)n)=(0,…,0,1i1,0,…,0,1ik,0,…,0,)n
其中,二值向量αbool为ScSIFT特征的二级索引,且
(7)在二级索引上建立一级索引:
式中,num作为ScSIFT特征的一级索引,统计二级索引αbool中非0元素的个数。其中,我们计算得到num的值为15。
根据索引进行特征向量的匹配,寻找待检测特征向量的邻近点。因此,判断视频的相似性,进而摘选出视频中的关键帧。
(8)获取重组图像矩阵X′10:
对关键帧集合进行分块处理,得到重组图像矩阵X′10:
式中,X10为第10个训练样本,X′10是组成新的图像矩阵,(q=178,原始图像大小900×900、滑动窗口大小q=10×10,以步长为5进行滑动截取)。
(1)新的重组图像矩阵的每一个子矩阵分块:
其中,1≤r≤178,1≤s≤178。
(2)计算出每个子矩阵X′r,s的最大特征值Br,s:
Br,s=max{λ1,λ2,…,λn}
式中,Br,s为子矩阵X′r,s的最大特征值,λ1,λ2,...,λn为n阶矩阵在复数范围内的n个特征值。
(4)文本向量与提取的关键帧进行融合:
Z10={b11,b12,…,b178178,c1,c2,…,cd}
为了验证本发明对融媒体信息获取的准确性,对本发明进行了两组文本信息检索实验以及一组视频信息检索实验,实验结果如图4所示。由图4可知,本发明所建立的知识图谱与ScSIFT的融媒体信息获取方法,能够在保证稳定性的基础上达到较高的信息获取准确率。这表明本发明建立的知识图谱与ScSIFT的融媒体信息获取方法是有效的,为获取精确的信息提供了更好的方法,具有一定的实用性。
Claims (1)
1.一种基于知识图谱与ScSIFT的融媒体信息获取方法,其特征在于:(1)获取知识子图顶点权重与各边权重;(2)进行顶点的约简处理;(3)获得子图融合矩阵;(4)获得标准化SIFT特征向量组;(5)确定稀疏编码;(6)确定ScSIFT特征距离;(7)获取二值向量;(8)建立一级索引;(9)获取重组图像矩阵;(10)子矩阵分块;(11)确定子矩阵的最大特征值;(12)进行样本降维;(13)进行文本向量与提取的关键帧融合;具体包括以下十三个步骤:
步骤一:获取知识子图的顶点权重Wv(Gk,Vi)与各边权重WE(Gk,Vi,Vj):
利用知识图谱提取文本信息以及文本信息间的关系,获取知识子图,对获取的知识子图进行降噪处理:
式中,Wv(Gk,Vi)表示子图中顶点权重,表示每个顶点的权重,VG为顶点个数,EG为边个数,WE(Gk,Vi,Vj)为子图中边权重,得到顶点权重值与边权重值,vi,vj分别表示图像量的横纵分量,Vi,Vj分别表示vi,vj的集合,Gk表示有向关联中的方向指标,利用基于加权策略的子图降噪算法对子图进行降噪处理;
步骤二:对降噪后的子图进行顶点的约简处理:
V'={v1,v2,…,ve};
式中,V'表示高效率信息集合,通过对顶点的频率进行统计,运用阈值剔除方法得到高效率信息集合,v1,v2,…,ve是分别代表1...e每个顶点;
步骤三:获得子图融合矩阵Yb={c1,c2,…,cd}:
对二次简约后的子图计算文本相似度:
G**={s|d(s,si)≤t,s∈S};
式中,G**表示新知识子图集,S表示若干子图集,s表示目标图集,si表示第i个图集,t表示距离阈值,d(s,si)表示两集合间的距离,基于双邻接矩阵融合方法子图融合,得到矩阵Yb={c1,c2,…,cd},c1,c2,…,cd分别为矩阵Yb中的1…d的列向量;
步骤四:获得视频图像标准化SIFT特征向量组Xs:
提取图像中SIFT特征向量X={X1,X2,....,Xn},对其进行标准化:
式中,X是n个SIFT特征向量组,维度为128×n,Xjmeans是特征向量组X列均值张成的128×n维矩阵,|X'|jmod是X'按列取模张成的128×n维矩阵,Xs是X标准化特征向量组;
步骤五:对特征向量进行稀疏编码:
X=D·α,sparse;
式中,D为训练得到的超完备字典,α为相应的权重,sparse表示稀疏化处理;
步骤六:获取ScSIFT特征距离L:
其中,L是特征X的稀疏向量αX与特征Y的稀疏向量αY的欧式距离;αXi指在向量αX中非0,而在αY中为0的元素序数,αYj指在向量αY中非0,而在αX中非0的元素序数;αXk、αYk指在αX与αY中都非0的元素序数;
步骤七:获取特征向量的二值向量αbool:
其中,二值向量αbool为ScSIFT特征的二级索引,αi1表示第i行第1列的元素,αik表示第i行第k列的元素,1i1表示第i行第1列的元素为1,1ik表示第i行第k列的元素为1,且
其中,n表示组成X的SIFT特征向量组的个数;
步骤八:在二级索引上建立一级索引:
式中,num作为ScSIFT特征的一级索引,统计二级索引αbool中非0元素的个数,β为二级索引αbool中元素的个数;
根据索引进行特征向量的匹配,寻找待检测特征向量的邻近点;判断视频的相似性,进而摘选出视频中的关键帧;
步骤九:获取重组图像矩阵X'p:
对关键帧集合进行分块处理,得到重组图像矩阵X′p:
式中,Xp为第p(p=1,2,...,N)个训练样本,X'p是组成新的图像矩阵,原始图像大小m×m、滑动窗口大小h×h,以步长为S进行滑动截取,Xp,q1为Xp中第q行第1列元素,Xp,qq为Xp中第q行第q列元素,其它以此类推;
步骤十:新的重组图像矩阵的每一个子矩阵分块:
其中,1≤r≤q,1≤s≤q,x(f,f)指Xp,rs矩阵中的第f行第f列的元素;
步骤十一:计算出每个子矩阵X′r,s的最大特征值Br,s:
Br,s=max{λ1,λ2,…,λτ};
式中,Br,s为子矩阵X′r,s的最大特征值,λ1,λ2,...,λτ为τ阶矩阵在复数范围内的τ个特征值;
步骤十三:文本向量与提取的关键帧进行融合:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011054992.8A CN112052344B (zh) | 2020-09-29 | 2020-09-29 | 一种基于知识图谱与ScSIFT的融媒体信息获取方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011054992.8A CN112052344B (zh) | 2020-09-29 | 2020-09-29 | 一种基于知识图谱与ScSIFT的融媒体信息获取方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112052344A CN112052344A (zh) | 2020-12-08 |
CN112052344B true CN112052344B (zh) | 2022-09-09 |
Family
ID=73606213
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011054992.8A Active CN112052344B (zh) | 2020-09-29 | 2020-09-29 | 一种基于知识图谱与ScSIFT的融媒体信息获取方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112052344B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114124859B (zh) * | 2021-08-17 | 2023-04-07 | 北京邮电大学 | 一种网络维护平台智能客户服务机器人及维护方法 |
CN114781642B (zh) * | 2022-06-17 | 2022-09-23 | 之江实验室 | 一种跨媒体对应知识的生成方法和装置 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104063701A (zh) * | 2014-07-14 | 2014-09-24 | 电子科技大学 | 基于surf词汇树和模板匹配的快速电视台台标识别系统及其实现方法 |
CN109376680A (zh) * | 2018-11-06 | 2019-02-22 | 大连理工大学 | 一种基于近红外人脸图像的Hog和Gabor特征高效融合快速人脸识别方法 |
CN110472061A (zh) * | 2019-07-08 | 2019-11-19 | 郑州大学 | 一种基于短文本相似度计算的知识图谱融合方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
BR102016007265B1 (pt) * | 2016-04-01 | 2022-11-16 | Samsung Eletrônica da Amazônia Ltda. | Método multimodal e em tempo real para filtragem de conteúdo sensível |
-
2020
- 2020-09-29 CN CN202011054992.8A patent/CN112052344B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104063701A (zh) * | 2014-07-14 | 2014-09-24 | 电子科技大学 | 基于surf词汇树和模板匹配的快速电视台台标识别系统及其实现方法 |
CN109376680A (zh) * | 2018-11-06 | 2019-02-22 | 大连理工大学 | 一种基于近红外人脸图像的Hog和Gabor特征高效融合快速人脸识别方法 |
CN110472061A (zh) * | 2019-07-08 | 2019-11-19 | 郑州大学 | 一种基于短文本相似度计算的知识图谱融合方法 |
Non-Patent Citations (1)
Title |
---|
浅析跨媒体智能感知与分析技术在广电监测台的应用;胡芳;《电脑知识与技术》;20200305(第07期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN112052344A (zh) | 2020-12-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107577990B (zh) | 一种基于gpu加速检索的大规模人脸识别方法 | |
Lu et al. | Object detection based on SSD-ResNet | |
Yuan et al. | Dual-clustering-based hyperspectral band selection by contextual analysis | |
CN104008174B (zh) | 一种海量图像检索的隐私保护索引生成方法 | |
Mua’ad Abu-Faraj et al. | Deep Machine Learning to Enhance ANN Performance: Fingerprint Classifier Case Study | |
CN103336957B (zh) | 一种基于时空特征的网络同源视频检测方法 | |
Abou-Moustafa et al. | A note on metric properties for some divergence measures: The Gaussian case | |
CN112052344B (zh) | 一种基于知识图谱与ScSIFT的融媒体信息获取方法 | |
He et al. | A dual global–local attention network for hyperspectral band selection | |
CN110738146A (zh) | 一种目标重识别神经网络及其构建方法和应用 | |
Duta et al. | Histograms of motion gradients for real-time video classification | |
CN109086830B (zh) | 基于样本惩罚的典型关联分析近重复视频检测方法 | |
CN108763295A (zh) | 一种基于深度学习的视频近似拷贝检索算法 | |
Zhou et al. | Video face clustering via constrained sparse representation | |
Zhong et al. | Improved localization accuracy by locnet for faster r-cnn based text detection | |
Wang et al. | DCN-T: Dual context network with transformer for hyperspectral image classification | |
CN111444390A (zh) | 一种基于Spark和深度哈希的视频并行检索方法 | |
CN109886160A (zh) | 一种非限定条件下的人脸识别方法 | |
Wang et al. | Dense-scale feature learning in person re-identification | |
Niaz et al. | EURECOM at TrecVid 2012: The Light Semantic Indexing Task. | |
CN106101732B (zh) | 快速压缩高光谱信号的矢量量化方案 | |
CN116861022A (zh) | 一种基于深度卷积神经网络和局部敏感哈希算法相结合的图像检索方法 | |
CN106951501A (zh) | 一种基于多图匹配的三维模型检索方法 | |
CN104537377B (zh) | 一种基于二维核熵成分分析的图像数据降维方法 | |
CN107563260A (zh) | 一种基于主成分分析和最近邻图的密度峰值聚类方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |