CN102855352A - 利用脑成像空间特征和底层视觉特征进行视频聚类的方法 - Google Patents

利用脑成像空间特征和底层视觉特征进行视频聚类的方法 Download PDF

Info

Publication number
CN102855352A
CN102855352A CN2012102931719A CN201210293171A CN102855352A CN 102855352 A CN102855352 A CN 102855352A CN 2012102931719 A CN2012102931719 A CN 2012102931719A CN 201210293171 A CN201210293171 A CN 201210293171A CN 102855352 A CN102855352 A CN 102855352A
Authority
CN
China
Prior art keywords
video
matrix
vector
fvweight
cweight
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2012102931719A
Other languages
English (en)
Other versions
CN102855352B (zh
Inventor
韩军伟
吉祥
郭雷
胡新韬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northwestern Polytechnical University
Original Assignee
Northwestern Polytechnical University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northwestern Polytechnical University filed Critical Northwestern Polytechnical University
Priority to CN201210293171.9A priority Critical patent/CN102855352B/zh
Publication of CN102855352A publication Critical patent/CN102855352A/zh
Application granted granted Critical
Publication of CN102855352B publication Critical patent/CN102855352B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Magnetic Resonance Imaging Apparatus (AREA)

Abstract

本发明涉及一种利用脑功能成像空间特征和底层视觉特征进行视频聚类的方法,其特征在于:提取功能磁共振图像序列中的大脑信号向量,计算信号向量的皮尔森相关系数矩阵,利用单因素方差分析和相关特征选择方法从皮尔森相关系数矩阵中提取脑功能成像空间特征,利用部分视频的底层视觉特征和对应的脑功能成像空间特征建立高斯过程回归模型,将剩余视频的底层视觉特征映射到脑功能成像空间特征上,将所有视频的脑功能成像空间特征和底层视觉特征进行多模态谱聚类。利用本发明方法,可以实现脑功能成像空间特征和底层视觉特征的融合聚类,与基于底层视觉特征如颜色、形状等视频聚类方法及单独使用脑功能特征空间聚类相比,大大提高了聚类准确性。

Description

利用脑成像空间特征和底层视觉特征进行视频聚类的方法
技术领域
本发明属于图像处理和应用技术,具体涉及一种利用脑成像空间特征和底层视觉特征进行视频聚类的方法, 
背景技术
随着数字多媒体数据的爆炸式增长,网络上的视频数量与日俱增,用什么样的特征来表示视频变的越来越重要,目前较流行的是提取视频的颜色、纹理和形状等方面的特征,这些特征统称为底层视觉特征。然而,这些传统的视频特征难以精准地描述视频,从而给后续的视频处理带来困难,相比之下,人类却可以瞥一眼正在播放的视频就知道其具体内容,这一现象给了科学家很大的启发,目前,有些学者已经从测试者观看视频时采集的大脑信号中提取相关特征来作为视频的特征,并将这些特征用于视频分类中,这些从大脑信号中提取的特征称之为高层特征,其中利用功能磁共振成像技术采集大脑信号并从这些信号中提取的特征称之为脑功能成像空间特征,与之相关的研究只关注如何提取脑功能成像空间特征,并利用该特征进行视频分类和检索,这些研究目前还处于探索阶段。如何更好地提取大脑信号中的脑功能成像空间特征,并且将脑功能成像空间特征与底层视觉特征相结合,来提高视频聚类的准确率在国内外还属于空白领域,因此,找到更好的脑功能成像空间特征提取方法,并将其与底层视觉特征结合起来提高视频聚类的准确率是一个非常有价值的研究课题,对于视频聚类研究具有非常重要的意义。 
发明内容
要解决的技术问题 
为了避免现有技术的不足之处,本发明提出一种利用脑成像空间特征和底层视觉特征进行视频聚类的方法,将人脑认知信息中的脑功能成像空间特征与视频底层视觉 特征结合起来用于视频聚类中,提高视频聚类技术的准确性。 
技术方案 
一种利用脑成像空间特征和底层视觉特征进行视频聚类的方法,其特征在于步骤如下: 
步骤1提取脑功能成像空间特征,具体步骤如下: 
步骤a1:利用公式 p i , j , k = Σ s i , j , r s i , k , r - Σ s i , j , r Σ s i , k , r n ( Σ s i , j , r 2 - ( Σ s i , j , r ) 2 n ) ( Σ s i , k , r 2 - ( Σ s i , k , r ) 2 n ) 提取N个功能磁共振图像序列中的,第i个功能磁共振图像序列上大脑M个区域的信号向量Si,j和Si,k的皮0。。。。尔森相关系数pi,j,k,得到第i个功能磁共振图像序列的皮尔森相关系数矩阵: 
P i = p i , 1,1 , p i , 1,2 , . . . , p i , 1 , k , . . . , p i , 1 , M p i , 2,1 , p i , 2,2 , . . . , p i , 2 , k , . . . , p i , 2 , M . . . p i , j , 1 , p i , j , 2 , . . . , p i , j , k , . . . , p i , j , M . . . p i , M , 1 , p i , M , 2 , . . . p i , M , k , . . . p i , M , M
其中:信号向量Si,j=[Si,j,1,si,j,2,...,Si,j,r,...Si,j,n],信号向量Si,k=[Si,k,1,Si,k,2,...,Si,k,r,...Si,k,n],i表示N个功能磁共振图像序列中的第i个功能磁共振图像序列的序号,i=1,2,...,N,j,k=1,2,...,M,j表示第i个功能磁共振图像序列中大脑的第j个区域的序号,k表示第i个功能磁共振图像序列中大脑的第k个区域的序号,r表示信号向量Si,j和Si,k中第r个元素的序号,N∈[1,1000],M∈[1,1000],N表示功能磁共振图像序列的总数,M表示功能磁共振图像序列中大脑区域的总数;Si,j,r表示信号向量Si,j的第r个元素;si,k,r表示信号向量Si,k的第r个元素;n表示信号向量Si,j和Si,k的长度; 
所述N个功能磁共振图像序列,是利用功能磁共振技术,在测试者观看N个视频时测得的功能磁共振图像; 
步骤b1:取皮尔森相关系数矩阵Pi上三角部分,拉伸成向量Qi=[qi,1,qi,2,...,qi,d], d=(M×M)/2-M/2,然后将N个Qi向量按行排列构成矩阵D: 
D = Q 1 Q 2 . . . Q i . . . Q N = q 1,1 , q 1,2 , . . . , q 1 , d q 2,1 , q 2,2 , . . . , q 2 , d . . . q i , 1 , q i , 2 , . . . q i , d . . . q N , 1 , q N , 2 , . . . q N , d
其中,qi,1,qi,2,...,qi,d表示Qi的第1,2,…,d个元素; 
步骤c1:计算矩阵D每一列元素的均值,将矩阵D的每一列元素减去该列元素的均值,得到矩阵U: 
U = U 1 U 2 . . . U i . . . U N = u 1,1 , u 1,2 , . . . , u 1 , d u 2,1 , u 2,2 , . . . , u 2 , d . . . u i , 1 , u i , 2 , . . . u i , d . . . u N , 1 , u N , 2 , . . . u N , d
在矩阵U的第v列Uv=[u1,v,u2,v,...,uN,v]T中找出属于第K类视频的元素,并计算属于第K类视频的元素均值 
Figure BDA00002023938400033
得到类内均值向量 
Figure BDA00002023938400034
其中,U1,U2,...,Ui,...,UN表示N个视频对应的功能磁共振图像序列中提取的N个向量,N个视频可分为C类;u1,v,u2,v,..,uN,v表示Uv=[u1,v,u2,v,...,uN,v]T中的第1,2,...,N个元素,这N个元素按照对应的C类视频分为C类;K=1,2,...,C,K表示C类视频中的第K类;C表示N个视频的总类别个数; 
再利用公式 F = ( | L | | u C ‾ | cos θ ) × ( N - C ) ( C - 1 ) × ( TSS - ( | L | | u C ‾ | ) cos θ ) 计算累计分布函数参数F; 
利用公式 g = 1 - 1 exp ( gam ( C - 1 ) + gam ( N - C ) - gam ( N - 1 ) ) 计算参数g; 
当g<T时,T∈(0,10000],保留矩阵U中的第v列;否则,从矩阵U中删除该列,得到经过单因素方差分析选择后的矩阵B: 
B = B 1 B 2 . . . B i . . . B N = b 1,1 , b 1,2 , . . . , b 1 , x b 2,1 , b 2,2 , . . . , b 2 , x . . . b i , 1 , b i , 2 , . . . , b i , x . . . b N , 1 , b N , 2 , . . . b N , x
其中,C表示视频的类别总数;||表示取绝对值;L=[l1,l2,..,lK,..lC,]T;lK表示Uv中属于第K类视频的元素个数;θ为向量 
Figure BDA00002023938400042
和L间的夹角; 
Figure BDA00002023938400043
Figure BDA00002023938400044
表示Uv的均值;上标T表示转置;exp表示指数函数; g<T中的T表示阈值,T∈(0,10000];下标x表示从U中选取的列向量的个数; 
步骤d1:遍历矩阵B的每一列,利用相关特征选择方法将参数 
Figure BDA00002023938400046
的数值最高的y列构成脑功能成像空间特征矩阵C: 
C = C 1 C 2 . . . C i . . . C N = c 1,1 , c 1,2 , . . . , c 1 , y c 2,1 , c 2,2 , . . . , c 2 , y . . . c i , 1 , c i , 2 , . . . , c i , y . . . c N , 1 , c N , 2 , . . . cb N , y
其中:下标y表示从B中选取的列向量的个数; 
Figure BDA00002023938400048
表示向量[r1,w,r2,w,…,rs,w,…,ry,w]的均值;rs,w表示矩阵C的第s个列向量Cs与类别标签向量W=[1,1,1,...2,2,2,..,K,K,K,..C,C,C]T的相关性参数;上标T表示取向量转置;  r s , w = 2.0 × [ Σ w h ∈ C s p ( w h ) Σ c sh ∈ C s p ( c s , h | w h ) log 2 ( c s , h | w h ) - Σ c s , h ∈ C s p ( c s , h ) log 2 p ( c s , h ) - Σ c s , h ∈ C s p ( c s , h ) log 2 p ( c s , h ) - Σ w h ∈ W p ( w h ) log 2 p ( w h ) ] ; p(wh)表示wh在W中的概率分布;wh表示向量W中的第h个元素;p(cs,h|wh)表示cs,h在Cs中的条件概率分布;p(cs,h)表示cs,h在Cs中的概率分布;cs,h表示向量Cs中的第h个元素;log2表示以2为底数的对数函数; 
Figure BDA000020239384000410
表示矩阵: 
r 1,1 , r 1,2 , . . . , r 1 , o , . . . , r 1 , y r 2,1 , r 2,2 , . . . , r 2 , o , . . . , r 2 , y . . . r s , 1 , r s , 2 , . . . , r s , o , . . . , r s , y . . . r y , 1 , r y , 2 , . . . , r y , o , . . . , r y , y
中所有元素的均值;rs,o表示矩阵C的第s个列向量Cs与第o个列向量Co的相关性参数; r s , o = 2.0 × [ Σ c o , h ∈ C o p ( c o , h ) Σ c s , h ∈ C s p ( c s , h | c o , h ) log 2 p ( c s , h | c o , h ) - Σ c s , h ∈ C s p ( c s , h ) log 2 p ( c s , h ) - Σ c s , h ∈ C s p ( c s , h ) log 2 p ( c s , h ) - Σ c o , h ∈ C o p ( c o , h ) log 2 p ( c o , h ) ] ; co,h表示向量Co中的第h个元素;p(co,h)表示co,h在Co中的概率分布;p(cs,h|co,h)表示cs,h在Cs中的条件概率分布; 
步骤2提取视频库中所有Na个视频数据的底层视觉特征向量Fvid,具体步骤如下: 
步骤a2:利用尺度不变特征变换算法提取第id个视频第一帧的Nsi个描述向量集合FSid={Fsiid,1,Fsiid,2,...,Fsiid,sh,...,Fsiid,Nsi},sh=1,2,...,Nsi,id=1,2,..,Na,Na∈(0,100000],Nsi∈[0,10000],对Na个视频都提取描述向量集合,得到  [ FS 1 , F S 2 , . . . FS id , . . . , FS N a ] ;
步骤b2:利用k均值算法对 
Figure BDA00002023938400054
进行聚类,聚类个数为G; 
步骤c2:计算FSid={Fsiid,1,Fsiid,2,...,Fsiid,sh,...,Fsiid,Nsi}中分别属于G类的向量个数[Numid,1,Numid,2,...,Numid,G],得到第id个视频的底层视觉特征向量:Fvid=[Numid,1,Numid,2,...,Numid,G]; 
步骤3利用高斯过程回归算法预测Na-N个视频数据的脑功能成像空间特征向量: 
利用脑功能成像空间特征矩阵C和其对应N个视频的底层视觉特征[Fv1,Fv2,...,Fvidp,...,FvN],idp=1,2,...,N,建立高斯过程回归模型GPM,利用高斯过程回归模型GPM预测得到Na-N个视频的脑功能成像空间特征向量: 
C N + 1 C N + 2 . . . C N a = c N + 1,1 , c N + 1,2 , . . . , c N + 1 , y c N + 2,1 , c N + 2,2 , . . . , c N + 2 , y . . . c N a , 1 , c N a , 2 , . . . , c N a , y ;
步骤4利用Na个脑功能成像空间特征向量[C1,C2,...,Cid,...,CNa]和底层视觉特征[Fv1,Fv2,...,Fvid,...,FvNa]进行多模态谱聚类,具体步骤如下: 
步骤a3:计算[C1,C2,...,Cid,...,CNa]中与空间中的一个点Cid=(cid,1,cid,2,...,cid,y)欧氏距离最近的k个点,并定义为近邻关系,k=[1,10000];再计算[Fv1,Fv2,...,Fvid,...,FvNa]中与空间中的一个点Fvid=(fvid,1,fvid,2,...,fvid,y)欧氏距离最近的k个点,并定义为近邻关系;其中: 
Figure BDA00002023938400062
表示脑功能成像空间特征Cid中第1、2和y个元素;fvid,1,fvid,2,...,fvid,y表示底层视觉特征Fvid中第1、2和y个元素; 
步骤b3:利用 计算属于近邻关系的Cid和Cjd两点间的权重CWeightid,jd,得到权重矩阵; 
CWeight = CWeight 1,1 , CWeight 1,2 , . . . , CWeight 1 , jd , . . . , CWeight 1 , N a CWeight 2,1 , CWeight 2,2 , . . . , CWeight 2 , jd , . . . , CWeight 2 , N a . . . CWeight id , 1 , CWeight id , 2 , . . . , CWeight id , jd , . . . , CWeight id , N a . . . CWeight N a , 1 , CWeight N a , 2 , . . . , CWeigh t N a , jd , . . . , CWeight N a , N a
同理,利用 
Figure BDA00002023938400065
计算属于近邻关系Fvi和Fvj之间的权重FvWeightid,jd,得到权重矩阵: 
FvWeight = FvWeight 1,1 , FvWeight 1,2 , . . . , FvWeight 1 , jd , . . . , FvWeight 1 , N a FvWeight 2,1 , FvWeight 2,2 , . . . , FvWeight 2 , jd , . . . , FvWeight 2 , N a . . . FvWeight id , 1 , FvWeight id , 2 , . . . , FvWeight id , jd , . . . , FvWeight id , N a . . . FvWeight N a , 1 , FvWeight N a , 2 , . . . , FvWeigh t N a , jd , . . . , FvWeight N a , N a
其中:Cid和Cjd表示第id个视频和第jd个视频的脑功能成像空间特征向量;Π表示连乘积;cid,l和cjd,l表示Cid和Cjd的第l个元素;l=1,2,...,y;σl表示一个常数,σl∈(0,1];Fvid和Fvjd表示第id个视频和第jd个视频的底层视觉特征向量;Fvid,l和Fvjd,l表示Fvid和Fvjd的第l个元素; 
步骤c3:在矩阵CWeight中令CWeightid,id=0;在矩阵FvWeight中令FvWeightid,id=0;再利用公式 LC = DC - CWeight LFv = DFv - FvWeight 计算CWeight和FvWeight的拉普拉斯矩阵;利用公式Lmulti-modal=LC+αI+LFv+αI计算多模态拉普拉斯矩阵Lmulti-modal,大小为Na×Na;其中:LC和LFv表示矩阵CWeight和FvWeight的拉普拉斯矩阵;DC表示[C1,C2,...,Cid,...,CNa]中两两脑功能成像空间特征向量之间的欧式距离所构成的矩阵;DFv表示[Fv1,Fv2,...,Fvid,...,FvNa]中两两底视觉层特征向量之间的欧式距离所构成的矩阵;I表示单位矩阵,大小为Na×Na;α表示常数; 
步骤d3:计算多模态拉普拉斯矩阵Lmulti-modal的特征值和特征向量,将特征值从大到小排列,选取前C个特征值对应的特征向量Vector1,Vector2,...,Vectorc,构成矩阵VecMatrix=[Vector1,Vector2,...,Vectorc],大小为Na×C,计算矩阵VecMatrix每一行的和,然后用该行元素分别除以该行元素的和,得到矩阵VecMatrixNew,大小为Na×C;其中:C表示视频库中视频类别个数; 
步骤e3:将VecMatrixNew每行中值最大的元素置为1,其余元素置为0,得到VecMatrixNew1; 
步骤f3:将VecMatrixNew1的每一行视为高维空间中的一个点,用光谱旋转算法对VecMatrixNew1矩阵中的Na个点进行聚类,得到类别矩阵Index,大小为Na×C; 
步骤g3:利用公式Index0=Index+0.2得到初始类别矩阵Index0,计算Indexnew=Index0×diag[[diag(Index0T×I×Index0)]-1]-1/2,将Indexnew赋给Index0,再次 计算Indexnew=Index0×diag[[diag(Index0T×I×Index0)]-1]1-/2,将Indexnew赋给Index0,重复Ne次,Ne∈[1,10000],得到最终的Indexnew,大小为Na×C,计算Indexnew每行最大值所在的第cg列,将最终标签Indexfinal对应行置为cg,cg∈[1,2,..,C],Indexfinal大小为Na×1;其中,diag表示提取矩阵的对角线元素;I表示单位向量; 
步骤h3:计算Indexfinal与视频真实类别标签IndexTrue的相同元素个数,除以Na得到视频聚类准确率。 
所述个数聚类G∈[20,10000]。 
所述常数α∈[10-2,102]。 
所述步骤4的步骤h采用归一化互信息NMI方法或者精度Purity方法计算聚类准确率。 
有益效果 
本发明提出的一种利用脑成像空间特征和底层视觉特征进行视频聚类的方法,首先,提取功能磁共振图像序列中的信号向量,其次,计算信号向量的皮尔森相关系数矩阵,利用单因素方差分析和相关特征选择方法从皮尔森相关系数矩阵中提取脑功能成像空间特征,第三,利用视频的底层视觉特征和脑功能成像空间特征建立高斯过程回归模型,用该模型计算出视频库中没有进行功能磁共振成像的视频的脑功能成像空间特征,最后,利用多模态谱聚类算法对底层视觉特征和脑功能成像空间特征进行聚类,得到更高的视频聚类准确率。 
本发明提出的利用脑功能成像空间特征和底层视觉特征进行视频聚类的方法,用功能磁共振图像序列中提取的脑功能成像空间特征和传统的底层视觉特征融合聚类来提高视频的聚类准确性,将人脑认知信息应用到视频聚类中,与传统视频聚类只利用底层视觉特征或者只利用脑功能成像空间特征相比,大大提高了视频聚类的准确率。 
附图说明
图1:本发明方法的基本流程图 
具体实施方式
现结合实施例、附图对本发明作进一步描述: 
用于实施的硬件环境是:Intel(R)Core(TM)2Duo CPU2.93GHz、2GB内存、256M显卡,运行的软件环境是:Matlab2009a和Windows7。我们用Matlab软件实现了本发明提出的方法。 
本发明具体实施如下: 
1提取脑功能成像空间特征: 
对N个的功能磁共振图像序列提取脑功能成像空间特征,N=51,功能磁共振图像序列由测试者观看N个视频时利用功能磁共振成像技术测得,视频来自TRECVID2005媒体库。 
该功能磁共振图像序列采集在3T GE信号采集器上完成,测试参数为:功能磁共振扫描:64×64矩阵;层厚为4mm;视场为220mm;30层;TR为1.5s;TE为25ms;ASSET为2。 
选取功能磁共振图像序列中大脑M个区域的功能磁共振成像信号,M=358。这些区域包括工作记忆区域、视觉网络区域、听力和语言区域等,对第i个功能磁共振图像序列,提取功能磁共振图像序列上大脑M个区域信号向量Si,j=[si,j,1,Si,j,2,...,si,j,r,...Si,j,n],i=1,2,..,N,j=1,2,...,M,计算Si,j的皮尔森相关系数矩阵Pi,利用单因素方差分析和相关特征选择方法从N个皮尔森相关系数矩阵Pi中提取脑功能成像空间特征Ci。具体步骤如下: 
(1)利用公式 p i , j , k = Σ s i , j , r s i , k , r - Σ s i , j , r Σ s i , k , r n ( Σ s i , j , r 2 - ( Σ s i , j , r ) 2 n ) ( Σ s i , k , r 2 - ( Σ s i , k , r ) 2 n ) 计算信号向量Si,j=[Si,j,1,Si,j,2,...,Si,j,r,...Si,j,n]和Si,k=[Si,k,1,Si,k,2,...,Si,k,r,...Si,k,n]的皮尔森相关系数pi,j,k,得到第i个功能磁共振图像序列的皮尔森相关系数矩阵: 
P i = p i , 1,1 , p i , 1,2 , . . . , p i , 1 , k , . . . , p i , 1 , M p i , 2,1 , p i , 2,2 , . . . , p i , 2 , k , . . . , p i , 2 , M . . . p i , j , 1 , p i , j , 2 , . . . , p i , j , k , . . . , p i , j , M . . . p i , M , 1 , p i , M , 2 , . . . p i , M , k , . . . p i , M , M
其中,si,j,r表示信号向量Si,j的第r个元素;si,k,r表示信号向量Si,k的第r个元素;n表示信号向量Si,j和Si,k的长度; 
(2)取皮尔森相关系数矩阵Pi上三角部分,拉伸成向量Qi=[qi,1,qi,2,...,qi,d],d=(M×M)/2-M/2=63903,将N=51个视频的Qi向量按行排列构成矩阵: 
D = Q 1 Q 2 . . . Q i . . . Q N = q 1,1 , q 1,2 , . . . , q 1 , d q 2,1 , q 2,2 , . . . , q 2 , d . . . q i , 1 , q i , 2 , . . . q i , d . . . q N , 1 , q N , 2 , . . . q N , d
其中,qi,1,qi,2,...,qi,d表示Qi中的第1,2,…,d个元素; 
(3)对矩阵D按列进行单因素方差分析,步骤为: 
计算矩阵D每一列元素的均值,将矩阵D的每一列元素减去该列元素均值,得到矩阵: 
U = U 1 U 2 . . . U i . . . U N = u 1,1 , u 1,2 , . . . , u 1 , d u 2,1 , u 2,2 , . . . , u 2 , d . . . u i , 1 , u i , 2 , . . . u i , d . . . u N , 1 , u N , 2 , . . . u N , d
对矩阵U的第v列Uv,找出属于第K类视频的元素,并计算属于第K类视频的元素均值 对C=3类视频的元素都计算元素均值,构成类内均值向量  u C ‾ = [ u v , 1 ‾ , u v , 2 ‾ , . . . , u v , K ‾ , . . . , u v , C ‾ ] ; 利用公式 F = ( | L | | u C ‾ | cos θ ) × ( N - C ) ( C - 1 ) × ( TSS - ( | L | | u C ‾ | ) cos θ ) 计累计分布函数参数F,利用公式 g = 1 - 1 exp ( gam ( C - 1 ) + gam ( N - C ) - gam ( N - 1 ) ) 计算参数g,如果g<T,T=0.0005,保留该第v列;否则,从矩阵U中删除该列,得到经过单因素方差分析选择后的矩阵: 
B = B 1 B 2 . . . B i . . . B N = b 1,1 , b 1,2 , . . . , b 1 , x b 2,1 , b 2,2 , . . . , b 2 , x . . . b i , 1 , b i , 2 , . . . , b i , x . . . b N , 1 , b N , 2 , . . . b N , x
其中,C表示视频的类别总数,C=3;L=[l1,l2,..,lK,..lC,]T;lK表示Uv中属于第K类视频的元素个数;θ为两向量 
Figure BDA00002023938400117
和L间的夹角; 
Figure BDA00002023938400119
表示Uv的均值;上标T表示转置;exp表示指数函数; 
Figure BDA000020239384001110
g<T中的T表示阈值,T∈(0,10000];下标x表示从U中选取的列向量的个数; 
(4)遍历矩阵B的每一列,利用相关特征选择方法寻找参数 
Figure BDA000020239384001111
值最高的y列构成的脑功能成像空间特征矩阵: 
C = C 1 C 2 . . . C i . . . C N = c 1,1 , c 1,2 , . . . , c 1 , y c 2,1 , c 2,2 , . . . , c 2 , y . . . c i , 1 , c i , 2 , . . . , c i , y . . . c N , 1 , c N , 2 , . . . cb N , y
其中:下标y表示从B中选取的列向量的个数; 
Figure BDA00002023938400122
表示相关性向量[r1,w,r2,w,...,rs,w,...,ry,w]的均值;rs,w表示矩阵C的第s个列向量Cs与类别标签向量W=[1,1,1,...2,2,2,...,K,K,K,...C,C,C]T的相关性参数;上标T表示取向量转置;  r s , w = 2.0 × [ Σ w h ∈ C s p ( w h ) Σ c sh ∈ C s p ( c s , h | w h ) log 2 ( c s , h | w h ) - Σ c s , h ∈ C s p ( c s , h ) log 2 p ( c s , h ) - Σ c s , h ∈ C s p ( c s , h ) log 2 p ( c s , h ) - Σ w h ∈ W p ( w h ) log 2 p ( w h ) ] ; p(wh)表示wh在W中的概率分布;wh表示向量W中的第h个元素;p(cs,h|wh)表示cs,h在Cs中的条件概率分布;p(cs,h)表示cs,h在Cs中的概率分布;cs,h表示向量Cs中的第h个元素;log2表示以2为底数的对数函数; 
Figure BDA00002023938400124
表示相关性矩阵: 
r 1,1 , r 1,2 , . . . , r 1 , o , . . . , r 1 , y r 2,1 , r 2,2 , . . . , r 2 , o , . . . , r 2 , y . . . r s , 1 , r s , 2 , . . . , r s , o , . . . , r s , y . . . r y , 1 , r y , 2 , . . . , r y , o , . . . , r y , y
中所有元素的均值;rs,o表示子矩阵C的第s个列向量Cs与第o个列向量Co的相关性参数; r s , o = 2.0 × [ Σ c o , h ∈ C o p ( c o , h ) Σ c s , h ∈ C s p ( c s , h | c o , h ) log 2 p ( c s , h | c o , h ) - Σ c s , h ∈ C s p ( c s , h ) log 2 p ( c s , h ) - Σ c s , h ∈ C s p ( c s , h ) log 2 p ( c s , h ) - Σ c o , h ∈ C o p ( c o , h ) log 2 p ( c o , h ) ] ; co,h表示向量Co中的第h个元素;p(co,h)表示co,h在Co中的概率分布;p(cs,h|co,h)表示cs,h在Cs中的条件概率分布; 
2提取视频库中所有Na=1307个视频数据的底层视觉特征向量Fvid: 
具体步骤为: 
(1)利用尺度不变特征变换匹配算法提取第id个视频第一帧的Nsi个描述向量集合 FSid={Fsiid,1,Fsiid,2,...,Fsiid,sh,...,Fsiid,Nsi},sh=1,2,...,Nsi,id=1,2,...,Na,Na∈(0,100000],Nsi∈[0,10000],对Na个视频都提取描述向量集合,得到 
Figure BDA00002023938400131
提取FSid={Fsiid,1,Fsiid,2,...,Fsiid,sh,...,Fsiid,Nsi}的具体方法为:提取视频库中第id个视频数据的第一帧作为第id个视频的关键帧图像Iid,每个关键帧为代表该视频片段主要内容的一幅图像,对关键帧进行高斯平滑处理,得到图像 
Figure BDA00002023938400132
其中选取σn=0.5,其中σn为平滑参数,表示平滑程度。对平滑后的图像利用尺度不变特征变换匹配算法提取SIFT特征,特征维数为128,具体方法为:选取不同的σ=σ02o+s/S与 
Figure BDA00002023938400133
做卷积形成了一个图像金字塔GSSσ,其中s=0,..S-,o=0,...O-1,S=3,O=min(log2 row,log2 col),σ0=1.5,row表示图像的垂直方向上像素点的个数,col表示图像的水平方向上像素点的个数。然后对相邻的GSSσ求差分得到DOGσ,对于DOGσ的每个像素点分别与上一尺度对应像素点及周围的八邻域像素点,当前尺度周围的八邻域像素点,以及下一尺度对应像素点及周围的八邻域像素点作比较,如果该像素点为极小值或者极大值点,则该像素点为图像显著点,其周围以σ为半径的区域为显著区域,由此可以得到一系列的图像显著点X,其相应的σ为其对应的尺度大小λ。对于每个图像显著点X,使 
Figure BDA00002023938400134
的梯度图像与高斯核做卷积得到梯度图像 
Figure BDA00002023938400135
其中σG=1.5σ,并计算梯度图像 中以显著点X的显著区域中的方向直方图,其中每个方向直方图区间的幅值计算是对该方向区域内梯度进行累加,取方向直方图的区间个数L=36,从方向直方图选取幅度超过其最大值80%的方向区域,确定为该特征区域主方向θ,如有多个方向区域,则该特征区域存在多个主方向θ。最后取图像显著点X的显著区域,按主方向及其垂直方向等分成16个区域,在每个小区域中分别统计方向直方图,其中每个方向直方图区间的幅值计算是对该方向区域内梯度赋值进行累加,取方向直方图的区间个数L=8,并将每个方向直方图的幅值量化到[0,255]之间,得到一个16×8=128的描述向量Fsiid,sh。对每个关键帧图像进行计算得到满足上述条件的Nsi个显著点的描述向量集合FSid={Fsiid,1,Fsiid,2,...,Fsiid,sh,...,Fsiid,Nsi},sh=1,2,...,Nsi。对Na个视频都提取描述向量集合,得到 
Figure BDA00002023938400137
(2)利用k均值算法对 
Figure BDA00002023938400138
进行聚类,聚类个数为G=65;k均值 算法具体步骤为: 
1)从 中随机选取65个描述向量作为初始中心点,记为F[1],F[2],...F[65],计算65个初始中心点之外的描述向量F={f1,f2,...,f65}与65个初始中心点F[i]={f[i]1,f[i]2,...,f[i]65}的欧式距离,公式如下: 
L = ( f 1 - f [ i ] 1 ) 2 + ( f 2 - f [ i ] 2 ) 2 + . . . + ( f 120 - f [ i ] 120 ) 2
其中,L表示两个描述向量之间的欧式距离,f1,f2,...,f65表示描述向量F的65维上的数值,f[i]1,f[i]2,...,f[i]65表示初始中心点F[i]65维上的数值。 
2)如果F={f1,f2,...,f65}与F[i]={f[i]1,f[i]2,...,f[i]65}距离最接近,则将此描述向量归到第i类,重新计算每一类中描述向量的平均值,即对该类中所有描述向量的每一维取平均,得到新的中心点F[i]′。 
3)将F[i]′赋给F[i],作为新的初始中心点重复计算65个初始中心点之外的描述向量F={f1,f2,...,f65}与65个初始中心点F[i]={f[i]1,f[i]2,...,f[i]65}的欧式距离,直到F[i]′与F[i]的欧式距离小于0.00000l为止。 
计算 
Figure BDA00002023938400143
中分别属于G类的向量个数 
Figure BDA00002023938400144
得到第id个视频的底层视觉特征向量:FVid=[Numid,1,Numid,2,...,Numid,G]; 
3 用高斯过程回归预测Na-N个视频数据的脑功能成像空间特征向量: 
利用脑功能成像空间特征矩阵: 
C = C 1 C 2 . . . C i . . . C N = c 1,1 , c 1,2 , . . . , c 1 , y c 2,1 , c 2,2 , . . . , c 2 , y . . . c i , 1 , c i , 2 , . . . , c i , y . . . c N , 1 , c N , 2 , . . . cb N , y
和其对应N个视频数据的底层视觉特征[FV1,Fv2,...,FVidp,...,FvN],idp=1,2,...,N,建立高斯过程回归模型GPM,利用高斯过程回归模型GPM预测Na-N个视频数据的脑功能成像空间特征向量: 
C N + 1 C N + 2 . . . C N a = c N + 1,1 , c N + 1,2 , . . . , c N + 1 , y c N + 2,1 , c N + 2,2 , . . . , c N + 2 , y . . . c N a , 1 , c N a , 2 , . . . , c N a , y
具体步骤如下: 
(1)选取高斯核函数: 
k ng , mg = k ( Fv ng , Fv mg ) = θ 0 exp { - 1 2 Σ ug = 1 G η ug ( fv ng , ug - fv mg , ug ) 2 } + θ 1
选取相关系数计算公式: 
cfng,mg=cf(Fvng,Fvmg)=kng,mg-1δng,mg
其中,Fvng、Fvmg表示N个视频数据中任意两个视频数据的底层视觉特征向量,ng=1,2,...N,mg=1,2,...N;θ0、ηu,θ1表示高斯核函数中的超参数;fvng,ug、fvmg,ug表示Fvng、Fvmg中第ug维上的数值,ug=1,2,...,G;c(Fvng,Fvmg)表示向量Fvng和Fvmg之间的相关系数;β表示随机噪声; δ ng , mg = 1 ng = mg 0 ng ≠ mg ;
(2)对脑功能成像空间特征 
C = C 1 C 2 . . . C i . . . C N = c 1,1 , c 1,2 , . . . , c 1 , y c 2,1 , c 2,2 , . . . , c 2 , y . . . c i , 1 , c i , 2 , . . . , c i , y . . . c N , 1 , c N , 2 , . . . cb N , y
第cb=1,2,...,y维构建方程组: 
c 1 , cb = K 1 C 1 - 1 t 1 , cb c 2 , cb = K 2 C 2 - 1 t 2 , cb . . . c i , cb = K i C i - 1 t i , cb . . . c N , cb = K N c N - 1 t N , cb
计算第cb维脑功能成像空间特征对应的超参数θ0、ηu和θ1。其中,ci,cb表示第i个 视频数据的脑功能成像空间特征的第cb个元素,cb=1,2,;Ki=[ki,1,ki,2,...,ki,i-1,ki,i+1,...,ki,N]; 
其中, 
Figure BDA00002023938400161
Ci=[cf(FVng,FVmg)],ng=1,2,...,i-1,i+1,...N,mg=1,2,...,i-1,i+1,...N,ti,cb=(fv1,cb,fv2,cb...,fvi-1,cb,fvi+1,cb,...,fvN,cb)T;vb1,cb,fv2,cb,fvi-1,cb,fvi+1,cb和fvN,cb分别表示第1、2、i-1、i+1和N个视频的底层视觉特征向量中的第cb个元素; 
(3)利用超参数对Na-N个脑功能成像空间特征未知的视频数据第cb=1,2,...,y维脑功能成像空间特征向量进行预测,计算公式如下: 
c N + 1 , cb = K N + 1 C N + 1 - 1 t N + 1 , cb c N + 2 , cb = K N + 2 C N + 2 - 1 t N + 2 , cb . . . c s , cb = K s C s - 1 t s , cb . . . c N a , cb = K N a C N a - 1 t N a , cb
其中,Ks=[ks,1,ks,2,...,ks,N],ks,1=k(FVs,Fvl),s=N+1,...,Na,Cs=[cf(FVnge,FVmge)],nge=N+1,...,Na,mge=N+1,...,Na, 
Figure BDA00002023938400163
fvN+1,cb,fvN+2,cb和 
Figure BDA00002023938400164
分别表示第N+1、N+2和Na个视频的底层视觉特征向量中的第cb维特征; 
4 利用Na个脑功能成像空间特征[C1,C2,...,Cid,...,CNa]和底层视觉特征[FV1,Fv2,...,FVid,...,FVNa]进行多模态谱聚类,得到l到Na个视频的类别标签向量Indexfinal,并计算Indexfinal的聚类准确率: 
具体步骤如下: 
(1)将Cid=(cid,1,cid,2,...,cid,y)视为空间中的一个点, 
Figure BDA00002023938400165
找到[C1,C2,...,Cid,...,CNa,]中与cid欧氏距离最近的k个点,k=[1,10000],定义Cid与其欧氏距离最近的k个点之间的关系为近邻关系;同理,将脑功能成像空间特征Fvid=(fvid,1,fvid,2,...,fvid,y)视为空间中的一个点,找到[Fv1,Fv2,...,Fvid,...,FvNa]中与Fvid欧氏距离最近的k个点,定义Fvid与其欧氏距离最近的k个点之间的关系为近邻关系; 
其中:cid,1,Cid,2,...,cid,表示脑功能成像空间特征Cid中的第l、2和y个元素;fvid,1,fvid,2,...,fvid,y表示底层视觉特征Fvid中的第1、2和y个元素; 
(2)如果Cid和Cjd是近邻关系, 
Figure BDA00002023938400171
jd=1,2,...,Na利用 
Figure BDA00002023938400172
计算Cid和Cjd之间的权重CWeightid,jd,得到权重矩阵: 
CWeight = CWeight 1,1 , CWeight 1,2 , . . . , CWeight 1 , jd , . . . , CWeight 1 , N a CWeight 2,1 , CWeight 2,2 , . . . , CWeight 2 , jd , . . . , CWeight 2 , N a . . . CWeight id , 1 , CWeight id , 2 , . . . , CWeight id , jd , . . . , CWeight id , N a . . . CWeight N a , 1 , CWeight N a , 2 , . . . , CWeigh t N a , jd , . . . , CWeight N a , N a
在矩阵CWeight中令CWeightid,id=0;同理,如果特征Fvi和Fvj是近邻关系,利用 计算Fvi和Fvj之间的权重FvWeightid,jd,得到权重矩阵: 
FvWeight = FvWeight 1,1 , FvWeight 1,2 , . . . , FvWeight 1 , jd , . . . , FvWeight 1 , N a FvWeight 2,1 , FvWeight 2,2 , . . . , FvWeight 2 , jd , . . . , FvWeight 2 , N a . . . FvWeight id , 1 , FvWeight id , 2 , . . . , FvWeight id , jd , . . . , FvWeight id , N a . . . FvWeight N a , 1 , FvWeight N a , 2 , . . . , FvWeigh t N a , jd , . . . , FvWeight N a , N a
在矩阵FvWeight中令FvWeightid,id=0; 
其中:Cid和Cjd表示第id个视频和第jd个视频的脑功能成像空间特征向量;∏表示连乘积;cid,l和cjd,l表示Cid和Cjd的第l个元素;l=1,2,...,y;σl表示一个常数,σl=0.05;Fvid和Fvjd表示第id个视频和第jd个视频的底层视觉特征向量;Fvid,l和Fvjd,l表示Fvid和Fvjd的第l个元素; 
(3)利用公式 LC = DC - CWeight LFv = DFv - FvWeight 计算CWeight和FvWeight的拉普拉斯矩阵;利用公式Lmulti-modal=LC+αI+LFv+αI计算多模态拉普拉斯矩阵Lmulti-modal,大小为Na×Na; 
其中:LC和LFv表示矩阵CWeigh和FvWeight的拉普拉斯矩阵;DC表示 [C1,C2,...,Cid,...,CNa]中两两脑功能成像空间特征向量之间的欧式距离所构成的矩阵;DFv表示[Fv1,Fv2,...,Fvid,...,FvNa]中两两底视觉层特征向量之间的欧式距离所构成的矩阵;I表示单位矩阵,大小为Na×Na;α表示常数,α∈[10-2,102]; 
(4)计算多模态拉普拉斯矩阵Lmulti-modal的特征值和特征向量,将特征值从大到小排列,选取前C个特征值对应的特征向量Vecto1,Vector2,...,VectorC,构造矩阵VecMatrix=[Vector1,Vector2,...,VectorC],大小为Na×C,计算矩阵VecMatrix每一行的和,然后用该行元素分别除以该行元素的和,得到矩阵VecMatrixNew,大小为Na×C;其中:C表示视频库中视频类别个数; 
(5)将VecMatrixNew每行中值最大的元素置为1,其余元素置为0,得到 
Figure BDA00002023938400181
(6)将VecMatrixNew1的每一行视为高维空间中的一个点,用光谱旋转算法对VecMatrixNew1矩阵中的Na个点进行聚类,得到类别矩阵Index,大小为Na×C;光谱旋转算法步骤为:计算VecMatrixNew2=VecMatrixNew×VecMatrixNewT;对 中每个元素求-1/2方,得到VecMatrixNew3;将VecMatrixNew3中除对角线元素外都置为0,得到VecMatrixNew4; 
计算VecMatrixNew5=VecMatrixNew4×VecMatrixNew; 
计算VecMatrixNew6=VecMatrixNew5T×VecMatrixNew1; 
对VecMatrixNew6进行SVD分解,得到矩阵USVD,dSVD,VSVD;计算QSvD=USVD×VSVD T;计算MSVD=VecMatrixNew5×QSVD;将MSVD每行中最大元素置为1,其余置为0,得到M1SVD;将M1S V赋给VecMatr1;重新计算VecMatrixNew6=VecMatrixNew5T×VecMatrixNew1;重复计算30次,得到M1SVD,将其赋给Index; 
(7)利用公式Index0=Index+0.2得到初始类别矩阵Index0,计算Indexnew=Index0×diag[[diag(Index0T×I×Index0)]-1]-1/2,将Indexnew赋给Index0,重复Ne次,Ne∈[1,10000],得到最终的Indexnew,大小为Na×C,求出Indexnew每行最大 值所在的第cg列,将最终标签Indexfinal对应行置为cg,cg∈[1,2,..,C],Indexfinal大小为Na×1;其中,diag表示取矩阵的对角线元素;I表示单位向量; 
(8)比较Indexfinal与视频真实类别标签IndexTrue,计算准确率,采用三种方法来计算准确率,分别是:聚类准确率ACC、归一化互信息NMI和精度。 
聚类准确率ACC:对比Indexfinal与视频真实类别标签IndexTrue的对应元素,找出两者相同的个数,除以Na=1307得到聚类准确率; 
归一化互信息NMI: 
1)计算 Indexfina ln ew = Indexfinal - min ( Indexfinal ) + 1 IndexTruenew = IndexTrue - min ( IndexTrue ) 1 , 其中,min(Indexfinal)表示取Indexfinal的最小值;min(IndexTrue)表示取IndexTrue的最小值; 
2)找出Indexfinalnew和IndexTruenew中属于3类视频的个数,构成矩阵: 
IndexG = I ndexG 1,1 , IndexG 1,2 IndexG 1,13 IndexG 2,1 IndexG 2,2 IndexG 2,3 IndexG 3,1 IndexG 3,2 IndexG 3,3
其中,IndexG1,1表示Indexfinalnew中属于第一类、并且IndexTruenew中属于第一类的视频的个数,其余元素同理。 
3)计算向量Pm和Pn,公式如下: 
Pm = Pm 1 Pm 2 Pm 3 = IndexG 1,1 + IndexG 1,2 + IndexG 1 , 3 IndexG 2,1 + IndexG 2,2 + IndexG 2,3 IndexG 3,1 + IndexG 3,2 + IndexG 3,3
Pn = Pn 1 Pn 2 Pn 3 = IndexG 1,1 + IndexG 2 , 1 + IndexG 3 , 1 IndexG 1 , 2 + IndexG 2,2 + IndexG 3,2 IndexG 3 , 1 + IndexG 2 , 3 + IndexG 3,3
4)计算 
H1=∑-Pm/sumIndex×log2(-Pm/sumIndex) 
H2=∑-Pn/sumIndex×log2(-Pn/sumIndex) 
其中,sumIndex表示IndexG中元素之和; 
5)计算Pmn=IndexG/sumIndex; 
6)计算 PPP = Pmn / Pn 1 , Pn 2 , Pn 3 Pn 1 , Pn 2 , Pn 3 Pn 1 , Pn 2 , Pn 3 / Pm 1 , Pm 1 , Pm 1 Pm 2 , Pm 2 , Pm 2 Pm 3 , Pm 3 , Pm 3 , 将PPP中绝对值小于10-12的元素值置为1; 
7)计算MI=sum(Pmn×log2PPP),其中sum(Pmn×log2PPP)表示对Pmn×log2PPP求和; 
8)计算MIhat=MI/max(H1,H2),其中,max(H1,H2)表示取H1,H2中的最大值;MIhat即为归一化互信息; 
精度Purity: 
找出Indexfinal中属于第一类视频的标签序号,在IndexTrue对应序号位置提取其元素,统计这些元素中个数最多的标签数目Index1;同理,对第二类视频、第三类视频进行同样的计算,得到Index2,Index3,计算精度Purity=(Index1+Index2+Index3)/Na; 
表1 
    聚类准确率   归一化互信息   精度
  底层视觉特征   0.4429   0.0921   0.4736
  脑功能成像空间特征   0.5151   0.1141   0.5151
  两者融合   0.5495   0.1167   0.5495
利用本文算法进行视频聚类,并利用三种方法计算聚类准确率,如表1所示,结果显示脑功能成像空间特征和底层视觉特征融合进行视频聚类能大大提高视频聚类的准确率,为视频聚类问题提供了新的解决思路。 

Claims (4)

1.一种利用脑成像空间特征和底层视觉特征进行视频聚类的方法,其特征在于步骤如下:
步骤1提取脑功能成像空间特征,具体步骤如下:
步骤a1:利用公式 p i , j , k = Σ s i , j , r s i , k , r - Σ s i , j , r Σ s i , k , r n ( Σ s i , j , r 2 - ( Σ s i , j , r ) 2 n ) ( Σ s i , k , r 2 - ( Σ s i , k , r ) 2 n ) 提取N个功能磁振图像序列中的,第i个功能磁共振图像序列上大脑M个区域的信号向量Si,j和Si,k的皮0。。。。尔森相关系数pi,j,k,得到第i个功能磁共振图像序列的皮尔森相关系数矩阵:
P i = p i , 1,1 , p i , 1,2 , . . . , p i , 1 , k , . . . , p i , 1 , M p i , 2,1 , p i , 2,2 , . . . , p i , 2 , k , . . . , p i , 2 , M . . . p i , j , 1 , p i , j , 2 , . . . , p i , j , k , . . . , p i , j , M . . . p i , M , 1 , p i , M , 2 , . . . p i , M , k , . . . , p i , M , M
其中:信号向量Si,j=[si,j,1,Si,j,2,...,si,j,r,...Si,j,n],信号向量Si,k=[si,k,1,si,k,2,...,si,k,r,...Si,k,n],i表示N个功能磁共振图像序列中的第i个功能磁共振图像序列的序号,i=1,2,...,N,j,k=1,2,...,M,j表示第i个功能磁共振图像序列中大脑的第j个区域的序号,k表示第i个功能磁共振图像序列中大脑的第k个区域的序号,r表示信号向量Si,j和Si,k中第r个元素的序号,N∈[1,1000],M∈[1,1000],N表示功能磁共振图像序列的总数,M表示功能磁共振图像序列中大脑区域的总数;Si,j,r表示信号向量Si,j的第r个元素;si,k,r表示信号向量Si,k的第r个元素;n表示信号向量Si,j和Si,k的长度;
所述N个功能磁共振图像序列,是利用功能磁共振技术,在测试者观看N个视频时测得的功能磁共振图像;
步骤b1:取皮尔森相关系数矩阵Pi上三角部分,拉伸成向量Qi=[qi,1,qi,2,...,qi,d],d=(M×M)/2-M/2,然后将N个Qi向量按行排列构成矩阵D:
D = Q 1 Q 2 . . . Q i . . . Q N = q 1,1 , q 1,2 , . . . , q 1 , d q 2,1 , q 2,2 , . . . , q 2 , d . . . q i , 1 , q i , 2 , . . . , q i , d . . . q N , 1 , q N , 2 , . . . q N , d
其中,qi,1,qi,2,...,qi,d表示Qi的第1,2,…,d个元素;
步骤c1:计算矩阵D每一列元素的均值,将矩阵D的每一列元素减去该列元素的均值,得到矩阵U:
U = U 1 U 2 . . . U i . . . U N = u 1,1 , u 1,2 , . . . , u 1 , d u 2,1 , u 2,2 , . . . , u 2 , d . . . u i , 1 , u i , 2 , . . . , u i , d . . . u N , 1 , u N , 2 , . . . u N , d
在矩阵U的第v列Uv=[u1,v,u2,v,...,uN,v]T中找出属于第K类视频的元素,并计算属于第K类视频的元素均值
Figure FDA00002023938300023
得到类内均值向量
Figure FDA00002023938300024
其中,U1,U2,...,Ui,...,UN表示N个视频对应的功能磁共振图像序列中提取的N个向量,N个视频可分为C类;u1,v,u2,v,...,uN,v表示Uv=[u1,v,u2,v,...,uN,v]T中的第1,2,...,N个元素,这N个元素按照对应的C类视频分为C类;K=1,2,...,C,K表示C类视频中的第K类;C表示N个视频的总类别个数;
再利用公式
Figure FDA00002023938300025
计算累计分布函数参数F;
利用公式 g = 1 - 1 exp ( gam ( C - 1 ) + gam ( N - C ) - gam ( N - 1 ) ) 计算参数g;
当g<T时,T∈(0,10000],保留矩阵U中的第v列;否则,从矩阵U中删除该列,得到经过单因素方差分析选择后的矩阵B:
B = B 1 B 2 . . . B i . . . B N = b 1,1 , b 1,2 , . . . , b 1 , x b 2,1 , b 2,2 , . . . , b 2 , x . . . b i , 1 , b i , 2 , . . . , b i , x . . . b N , 1 , b N , 2 , . . . b N , x
其中,C表示视频的类别总数;||表示取绝对值;L=[l1,l2,...,lK,...,lC]T;lK表示Uv中属于第K类视频的元素个数;θ为向量
Figure FDA00002023938300032
和L间的夹角;
Figure FDA00002023938300033
Figure FDA00002023938300034
表示Uv的均值;上标T表示转置;exp表示指数函数;g<T中的T表示阈值,T∈(0,10000];下标x表示从U中选取的列向量的个数;
步骤d1:遍历矩阵B的每一列,利用相关特征选择方法将参数
Figure FDA00002023938300036
的数值最高的y列构成脑功能成像空间特征矩阵C:
C = C 1 C 2 . . . C i . . . C N = c 1,1 , c 1,2 , . . . , c 1 , y c 2,1 , c 2,2 , . . . , c 2 , y . . . c i , 1 , c i , 2 , . . . , c i , y . . . c N , 1 , c N , 2 , . . . c N , y
其中:下标y表示从B中选取的列向量的个数;
Figure FDA00002023938300038
表示向量[r1,w,r2,w,…,rs,w,…,ry,w]的均值;rs,w表示矩阵C的第s个列向量Cs与类别标签向量W=[1,1,1,...2,2,2,...,K,K,K,...C,C,C]T的相关性参数;上标T表示取向量转置; r s , w = 2.0 × [ Σ w h ∈ C s p ( w h ) Σ c sh ∈ C s p ( c s , h | w h ) log 2 p ( c s , h | w h ) - Σ c s , h ∈ C s p ( c s , h ) log 2 p ( c s , h ) - Σ c s , h ∈ C s p ( c s , h ) log 2 p ( c s , h ) - Σ w h ∈ W p ( w h ) log 2 p ( w h ) ] ; p(wh)表示wh在W中的概率分布;wh表示向量W中的第h个元素;p(cs,h|wh)表示cs,h在Cs中的条件概率分布;p(cs,h)表示cs,h在Cs中的概率分布;cs,h表示向量Cs中的第h个元素;log2表示以2为底数的对数函数;
Figure FDA000020239383000310
表示矩阵:
r 1,1 , r 1,2 , . . . , r 1 , o , . . . , r 1 , y r 2,1 , r 2,2 , . . . , r 2 , o , . . . , r 2 , y . . . r s , 1 , r s , 2 , . . . , r s , o , . . . , r s , y . . . r y , 1 , r y , 2 , . . . , r y , o , . . . , r y , y
中所有元素的均值;rs,o表示矩阵C的第s个列向量Cs与第o个列向量Co的相关性参数; r s , o = 2.0 × [ Σ c o , h ∈ C o p ( c o , h ) Σ c s , h ∈ C s p ( c s , h | c o , h ) log 2 p ( c s , h | c o , h ) - Σ c s , h ∈ C s p ( c s , h ) log 2 p ( c s , h ) - Σ c s , h ∈ C s p ( c s , h ) log 2 p ( c s , h ) - Σ c o , h ∈ C o p ( c o , h ) log 2 p ( c o , h ) ] ; co,h表示向量Co中的第h个元素;p(co,h)表示co,h在Co中的概率分布;p(cs,h|co,h)表示cs,h在Cs中的条件概率分布;
步骤2提取视频库中所有Na个视频数据的底层视觉特征向量Fvid,具体步骤如下:
步骤a2:利用尺度不变特征变换算法提取第id个视频第一帧的Nsi个描述向量集合FSid={Fsiid,1,Fsiid,2,...,Fsiid,sh,...,Fsiid,Nsi},sh=1,2,...,Nsi,id=1,2,...,Na,Na∈(0,100000],Nsi∈[0,10000],对Na个视频都提取描述向量集合,得到 [ FS 1 FS 2 , . . . , FS id , . . . , FS N a ] ;
步骤b2:利用k均值算法对
Figure FDA00002023938300044
进行聚类,聚类个数为G;
步骤c2:计算FSid={Fsiid,1,Fsiid,2,...,Fsiid,sh,...,Fsiid,Nsi}中分别属于G类的向量个数[Numid,1,Numid,2,...,Numid,G],得到第id个视频的底层视觉特征向量:Fvid=[Numid,1,Numid,2,...,Numid,G];
步骤3利用高斯过程回归算法预测Na-N个视频数据的脑功能成像空间特征向量:
利用脑功能成像空间特征矩阵C和其对应N个视频的底层视觉特征[Fv1,Fv2,...,Fvidp,...,FvN],idp=1,2,...,N,建立高斯过程回归模型GPM,利用高斯过程回归模型GPM预测得到Na-N个视频的脑功能成像空间特征向量:
C N + 1 C N + 2 . . . C N a = c N + 1,1 , c N + 1,2 , . . . , c N + 1 , y c N + 2,1 , c N + 2,2 , . . . , c N + 2 , y . . . c N a , 1 , c N a , 2 , . . . , c N a , y ;
步骤4利用Na个脑功能成像空间特征向量[C1,C2,...,Cid,...,CNa]和底层视觉特征[Fv1,Fv2,...,Fvid,...,FvNa]进行多模态谱聚类,具体步骤如下:
步骤a3:计算[C1,C2,...,Cid,...,CNa]中与空间中的一个点Cid=(cid,1,cid,2,...,cid,y)欧氏距离最近的k个点,并定义为近邻关系,k=[1,10000];再计算[Fv1,Fv2,...,Fvid,...,FvNa]中与空间中的一个点Fvid=(fvid,1,fvid,2,...,fvid,y)欧氏距离最近的k个点,并定义为近邻关系;其中:cid,1,cid,2,...ci,d表示脑功能成像空间特征Cid中第1、2和y个元素;fvid,1,fvid,2,...,fvid,y表示底层视觉特征Fvid中第1、2和y个元素;
步骤b3:利用
Figure FDA00002023938300052
计算属于近邻关系的Cid和Cjd两点间的权重CWeightid,jd,得到权重矩阵;
CWeight = CWeight 1,1 , CWeight 1,2 , . . . , CWeight 1 , jd , . . . , CWeight 1 , N a CWeight 2,1 , CWeight 2,2 , . . . , CWeight 2 , jd , . . . , CWeight 2 , N a . . . CWeight id , 1 , CWeight id , 2 , . . . , CWeight id , jd , . . . , CWeight id , N a . . . CWeight N a , 1 , CWeight N a , 2 , . . . , CWeight N a , jd , . . . , CWeight N a , N a
同理,利用
Figure FDA00002023938300054
计算属于近邻关系Fvi和Fvj之间的权重FvWeightid,jd,得到权重矩阵:
FvWeight = FvWeight 1,1 , FvWeight 1,2 , . . . , FvWeight 1 , jd , . . . , FvWeight 1 , N a FvWeight 2,1 , FvWeight 2,2 , . . . , FvWeight 2 , jd , . . . , FvWeight 2 , N a . . . FvWeight id , 1 , FvWeight id , 2 , . . . , FvWeight id , jd , . . . , FvWeight id , N a . . . FvWeight N a , 1 , FvWeight N a , 2 , . . . , FvWeight N a , jd , . . . , FvWeight N a , N a
其中:Cid和Cjd表示第id个视频和第jd个视频的脑功能成像空间特征向量;∏表示连乘积;cid,l和cjd,l表示Cid和Cjd的第l个元素;l=1,2,...,y;σl表示一个常数,σl∈(0,1];Fvid和Fvjd表示第id个视频和第jd个视频的底层视觉特征向量;Fvid,l和Fvjd,l表示Fvid和Fvjd的第l个元素;
步骤c3:在矩阵CWeight中令CWeightid,id=0;在矩阵FvWeight中令FvWeightid,id=0;再利用公式 LC = DC - CWeight LFv = DFv - FvWeight 计00000000算CWeight和FvWeight的拉普拉斯矩阵;利用公式Lmulti-modal=LC+αI+LFv+αI计算多模态拉普拉斯矩阵Lmulti-modal,大小为Na×Na
其中:LC和LFv表示矩阵CWeight和FvWeight的拉普拉斯矩阵;DC表示[C1,C2,...,Cid,...,CNa]中两两脑功能成像空间特征向量之间的欧式距离所构成的矩阵;DFv表示[Fv1,Fv2,...,Fvid,...,FvNa]中两两底视觉层特征向量之间的欧式距离所构成的矩阵;I表示单位矩阵,大小为Na×Na;α表示常数;
步骤d3:计算多模态拉普拉斯矩阵Lmulti-modal的特征值和特征向量,将特征值从大到小排列,选取前C个特征值对应的特征向量Vector1,Vector2,...,VectorC,构成矩阵VecMatrix=[Vector1,Vector2,...,VectorC],大小为Na×C,计算矩阵VecMatrix每一行的和,然后用该行元素分别除以该行元素的和,得到矩阵VecMatrixNew,大小为Na×C;其中:C表示视频库中视频类别个数;
步骤e3:将VecMatrixNew每行中值最大的元素置为1,其余元素置为0,得到VecMatrixNew1;
步骤f3:将VecMatrixNew1的每一行视为高维空间中的一个点,用光谱旋转算法对VecMatrixNew1矩阵中的Na个点进行聚类,得到类别矩阵Index,大小为Na×C;
步骤g3:利用公式Index0=Index+0.2得到初始类别矩阵Index0,计算Indexnew=Index0×diag[[diag(Index0T×I×Index0)]-1]-1/2,将Indexnew赋给Index0,再次计算Indexnew=Index0×diag[[diag(Index0T×I×Index0)]-1]-1/2,将Indexnew赋给Index0,重复Ne次,Ne∈[1,10000],得到最终的Indexnew,大小为Na×C,计算Indexnew每行最大值所在的第cg列,将最终标签Indexfinal对应行置为cg,cg∈[1,2,..,C],Indexfinal大小为Na×1;其中,diag表示提取矩阵的对角线元素;I表示单位向量;
步骤h3:计算Indexfinal与视频真实类别标签IndexTrue的相同元素个数,除以Na得到视频聚类准确率。
2.根据权利要求1所述利用脑成像空间特征和底层视觉特征进行视频聚类的方法,其特征在于:所述个数聚类G∈[20,10000]。
3.根据权利要求1所述利用脑成像空间特征和底层视觉特征进行视频聚类的方法,其特征在于:所述常数α∈[10-2,102]。
4.根据权利要求1所述利用脑成像空间特征和底层视觉特征进行视频聚类的方法,其特征在于:所述步骤4的步骤h采用归一化互信息NMI方法或者精度Purity方法计算聚类准确率。
CN201210293171.9A 2012-08-17 2012-08-17 利用脑成像空间特征和底层视觉特征进行视频聚类的方法 Expired - Fee Related CN102855352B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201210293171.9A CN102855352B (zh) 2012-08-17 2012-08-17 利用脑成像空间特征和底层视觉特征进行视频聚类的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201210293171.9A CN102855352B (zh) 2012-08-17 2012-08-17 利用脑成像空间特征和底层视觉特征进行视频聚类的方法

Publications (2)

Publication Number Publication Date
CN102855352A true CN102855352A (zh) 2013-01-02
CN102855352B CN102855352B (zh) 2014-08-06

Family

ID=47401938

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201210293171.9A Expired - Fee Related CN102855352B (zh) 2012-08-17 2012-08-17 利用脑成像空间特征和底层视觉特征进行视频聚类的方法

Country Status (1)

Country Link
CN (1) CN102855352B (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103500184A (zh) * 2013-09-13 2014-01-08 西北工业大学 一种基于视频数据的底层视听觉特征的视频记忆性判定方法
CN105760700A (zh) * 2016-03-18 2016-07-13 大连理工大学 一种适于多被试复数fMRI数据分析的自适应定点IVA算法
CN106023194A (zh) * 2016-05-18 2016-10-12 西安交通大学 基于静息态功能连接的杏仁核谱聚类分割方法
CN106682127A (zh) * 2016-12-13 2017-05-17 上海联影医疗科技有限公司 图像搜索系统及方法
CN108921358A (zh) * 2018-07-16 2018-11-30 广东工业大学 一种电力负荷特征的预测方法、预测系统及相关装置
CN114241534A (zh) * 2021-12-01 2022-03-25 佛山市红狐物联网科技有限公司 一种全掌脉络数据的快速匹配方法及系统
WO2022153120A1 (en) * 2021-01-14 2022-07-21 Brainvivo Ltd. Classifying discipline-specific content using a general-content brain-response model

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101620638A (zh) * 2009-08-06 2010-01-06 华中科技大学 一种基于高斯混合模型的图像检索方法
CN102142037A (zh) * 2011-05-05 2011-08-03 西北工业大学 一种基于功能磁共振成像的视频数据检索方法
CN102521601A (zh) * 2011-11-17 2012-06-27 西安电子科技大学 基于半监督条件随机场的超光谱图像分类方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101620638A (zh) * 2009-08-06 2010-01-06 华中科技大学 一种基于高斯混合模型的图像检索方法
CN102142037A (zh) * 2011-05-05 2011-08-03 西北工业大学 一种基于功能磁共振成像的视频数据检索方法
CN102521601A (zh) * 2011-11-17 2012-06-27 西安电子科技大学 基于半监督条件随机场的超光谱图像分类方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
WEI FENG,ET AL.: "Self-Validated Labeling of Markov Random Fields for Image Segmentation", 《IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE》 *
XIANG JI, ET AL.: "RETRIEVING VIDEO SHOTS IN SEMANTIC BRAIN IMAGING SPACE USING MANIFOLD-RANKING", 《18TH IEEE INTERNATIONAL CONFERENCE ON IMAGE PROCESSING(ICIP)》 *
胡新韬,李刚,郭雷: "STAPLE大脑皮层表面沟回分割算法", 《计算机科学》 *
黄庆明,等: "基于用户关注空间与注意力分析的视频精彩摘要与排序", 《计算机学报》 *

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103500184A (zh) * 2013-09-13 2014-01-08 西北工业大学 一种基于视频数据的底层视听觉特征的视频记忆性判定方法
CN103500184B (zh) * 2013-09-13 2017-05-24 西北工业大学 一种基于视频数据的底层视听觉特征的视频记忆性判定方法
CN105760700A (zh) * 2016-03-18 2016-07-13 大连理工大学 一种适于多被试复数fMRI数据分析的自适应定点IVA算法
CN105760700B (zh) * 2016-03-18 2018-06-08 大连理工大学 一种适于多被试复数fMRI数据分析的自适应定点IVA算法
CN106023194A (zh) * 2016-05-18 2016-10-12 西安交通大学 基于静息态功能连接的杏仁核谱聚类分割方法
CN106023194B (zh) * 2016-05-18 2019-04-09 西安交通大学 基于静息态功能连接的杏仁核谱聚类分割方法
CN106682127A (zh) * 2016-12-13 2017-05-17 上海联影医疗科技有限公司 图像搜索系统及方法
CN108921358A (zh) * 2018-07-16 2018-11-30 广东工业大学 一种电力负荷特征的预测方法、预测系统及相关装置
CN108921358B (zh) * 2018-07-16 2021-10-01 广东工业大学 一种电力负荷特征的预测方法、预测系统及相关装置
WO2022153120A1 (en) * 2021-01-14 2022-07-21 Brainvivo Ltd. Classifying discipline-specific content using a general-content brain-response model
CN114241534A (zh) * 2021-12-01 2022-03-25 佛山市红狐物联网科技有限公司 一种全掌脉络数据的快速匹配方法及系统

Also Published As

Publication number Publication date
CN102855352B (zh) 2014-08-06

Similar Documents

Publication Publication Date Title
CN102855352B (zh) 利用脑成像空间特征和底层视觉特征进行视频聚类的方法
Aziz et al. Exploring deep learning-based architecture, strategies, applications and current trends in generic object detection: A comprehensive review
Park et al. Fingerprint classification using fast Fourier transform and nonlinear discriminant analysis
CN110399909A (zh) 一种基于标签约束弹性网图模型的高光谱图像分类方法
CN105808752B (zh) 一种基于cca和2pknn的自动图像标注方法
Yuan et al. Action recognition using spatial-optical data organization and sequential learning framework
CN106257496B (zh) 海量网络文本与非文本图像分类方法
CN106156798B (zh) 基于环形空间金字塔和多核学习的场景图像分类方法
CN103034860A (zh) 基于sift特征的违章建筑检测方法
CN105228033A (zh) 一种视频处理方法及电子设备
CN102117337B (zh) 一种融合空间信息的Bag of Words图像检索方法
CN111126459A (zh) 一种车辆细粒度识别的方法及装置
CN113239983A (zh) 基于高阶关联保持的缺失多视图子空间聚类方法及系统
CN104598889A (zh) 人体行为识别的方法和装置
Cai A dimension reduction algorithm preserving both global and local clustering structure
CN105654122A (zh) 基于核函数匹配的空间金字塔物体识别方法
CN111460966B (zh) 基于度量学习和近邻增强的高光谱遥感图像分类方法
Tu et al. Feature extraction via 3-D block characteristics sharing for hyperspectral image classification
CN112990264A (zh) 一种基于一致图学习的多视图聚类方法
CN115170961A (zh) 一种基于深度跨域少样本学习的高光谱图像分类方法及系统
CN102142037B (zh) 一种基于功能磁共振成像的视频数据检索方法
CN111540467A (zh) 精神分裂症分类识别方法、运行控制装置及医疗设备
CN113505856B (zh) 一种高光谱影像无监督自适应分类方法
CN107203779A (zh) 基于空谱信息保持的高光谱降维方法
Ahmad et al. Embedded deep vision in smart cameras for multi-view objects representation and retrieval

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20140806

Termination date: 20190817