CN104156693A - 一种基于多模态序列融合的动作识别方法 - Google Patents
一种基于多模态序列融合的动作识别方法 Download PDFInfo
- Publication number
- CN104156693A CN104156693A CN201410337744.2A CN201410337744A CN104156693A CN 104156693 A CN104156693 A CN 104156693A CN 201410337744 A CN201410337744 A CN 201410337744A CN 104156693 A CN104156693 A CN 104156693A
- Authority
- CN
- China
- Prior art keywords
- sequence
- lbp
- theta
- visual angles
- various visual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Image Analysis (AREA)
Abstract
本发明公开了一种基于多模态序列融合的动作识别方法,包括以下步骤:获得原始视频多种模态下的信息,并进行预处理获取初始RGB图像序列及初始深度图像序列,以及获取骨架特征序列;对初始RGB图像序列进行背景建模,通过得到的背景建模结果来提取第一人体区域外接矩形,同时提取初始深度图像序列上相应位置的第二人体区域外接矩形;在第一、第二人体区域外接矩形上分别提取人体动作特征,得到RGB模态和深度模态下的特征向量;根据得到的RGB-LBP、D-LBP特征向量序列,以及骨架特征序列,通过多视角判别模型来进行动作识别。本发明能够将多种模态的序列信息进行互补融合,能够有效提高动作识别准确率。
Description
技术领域
本发明涉及计算机视觉、人体动作识别领域,尤其涉及一种基于多模态序列融合的动作识别方法。
背景技术
人体动作识别在智能视频监控、人机交互、视频检索等领域中具有广阔的应用前景,已逐渐成为计算机视觉领域的研究热点。现有技术中的很多研究工作主要是利用普通RGB摄像机获得的图像序列来进行动作识别,并在一些经典的数据库上验证了其有效性。然而,由于光照变化、人体外形的多样性、遮挡等因素的干扰,人体动作识别仍然是一项具有挑战性的工作。
近年来,将深度图像序列引入人体动作识别领域成为了一个新兴的热点问题。这主要是由于深度摄像机的成本大大降低,尤其是微软推出的3D体感摄影机Kinect,其成本低廉、所摄取的图像分辨率高。与彩色图像相比,深度图像能直接反映物体表面的三维特征,且不受光照变化、阴影、环境变化等因素的干扰。此外,深度图像表示物体在3D空间中的坐标,可以很好的克服遮挡或重叠问题。人体骨架可以用来有效地表征人体区域及轮廓信息,它能反映出人体运动的轨迹,包含很多运动信息,骨架信息能够直接反映人体的位置信息,且不会受到光照、阴影、遮挡等因素的干扰。
RGB信息、深度信息、骨架信息、热传感信息等分别代表着同一个场景的不同形式,通过将这些不同模态的信息融合进行序列建模,可以提升动作识别的准确率。但是由于不同模态的信息于不同的流形空间且值域不同,直接将其融合并不能得到最佳效果。所以,如何进一步多模态序列进行互补融合,是人体动作识别中亟待解决的问题。
发明内容
本发明提供了一种基于多模态序列融合的动作识别方法,本发明实现了RGB信息与深度信息的互补,显著地提高了动作识别的准确率,详见下文描述:
一种基于多模态序列融合的动作识别方法,所述方法包括以下步骤:获得原始视频多种模态下的信息,并进行预处理。包括对原始视频的RGB图像序列和深度图像序列进行预处理,获取初始RGB图像序列及初始深度图像序列,以及获取骨架特征序列;
对初始RGB图像序列进行背景建模,通过得到的背景建模结果来提取第一人体区域外接矩形,同时提取初始深度图像序列上相应位置的第二人体区域外接矩形;
在第一、第二人体区域外接矩形上分别提取人体动作特征,得到RGB模态和深度模态下的特征向量;
根据步骤103中得到的RGB-LBP、D-LBP特征向量序列,以及步骤101中得到的骨架特征序列,通过多视角判别模型来进行动作识别。。
所述根据RGB-LBP、D-LBP特征向量,以及骨架特征序列,通过多视角判别模型来进行动作识别的步骤具体为:
(1)多视角判别模型的表示:
多视角判别模型的条件概率模型可以表示为:
其中,X是观测序列,Y是序列标记,H是隐状态变量,θ是权重向量且θ={θ1,θ2},θ1和θ2表示权重,T表示转置,φ(Y,X,H)是特征函数,表示由图模型中节点位置以及节点之间的关联而决定的序列特征,Z是归一化的分配函数,用来进行概率归一化。
(2)多视角判别模型的学习:
目标函数为:
其中,Xi表示观测样例,Yi表示观测样例真实的标注,使得上式取得最小值的θ值,即是最优参数θ。
(3)多视角判别模型的判断:在多视角判别模型参数已经确定之后,判断观测序列X的分类最优标记Y*,确定动作类别,
本发明提供的技术方案的有益效果是:本方法根据得到的RGB-LBP、D-LBP特征向量,以及骨架特征序列,通过多视角判别模型的学习和判断来进行动作识别。本发明能够将RGB信息、深度信息和骨架信息进行互补,可以显著的提高动作识别的准确率。
附图说明
图1为基于多模态序列融合的动作识别方法的流程图;
图2为LBP特征算法示意图;
图3为多视角判别模型的示意图;
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面对本发明实施方式作进一步地详细描述。
为了将多模态序列进行互补融合,提高动作识别的准确率,本发明实施例提供了一种基于多模态序列融合的动作识别方法,参见图1,详见下文描述:
101:获得原始视频多种模态下的信息,并进行预处理。包括对原始视频的RGB图像序列和深度图像序列进行预处理,获取初始RGB图像序列及初始深度图像序列,以及获取骨架特征序列;
对于同一动作序列,可以用不同模态进行表示,如RGB信息、深度信息、骨架信息、热传感信息等模态。本实验中选用RGB信息、深度信息和骨架信息三种模态。具体实现时,本发明实施例对此不做限制。
本发明实施例首先采用参考文献[1]中的高斯滤波方法,对原始视频的RGB图像序列和深度图像序列进行预处理。为了减小背景对目标的干扰,再对深度图像序列进行进一步处理,若深度像素值大于阈值T1或小于阈值T2时,认为此像素值不是有效值,将其标记为0。
其中,Dk(x,y)代表第k帧时,深度图像中像素(x,y)点处的深度值。阈值T1和阈值T2满足关系T1>T2,其具体数值可以根据实际情况来设定,在本实验中设置T1=3500,T2=2000。具体实现时,本发明实施例对此不做限制。至此,得到初始RGB图像序列及初始深度图像序列。
本发明实施例采用Kinect SDK工具[2]获取人体20个骨架点所对应的位置坐标,将其串联得到骨架特征序列,作为骨架信息模态。具体实现时,本发明实例对获取骨架特征的方式不做限制。
102:对初始RGB图像序列进行背景建模,通过得到的背景建模结果来提取第一人体区域外接矩形,同时提取初始深度图像序列上相应位置的第二人体区域外接矩形;
由于特征检测是在每帧图像上遍历进行的,为此首先从初始RGB图像序列的每一帧中提取前景区域。由于本方法研究对象所处的环境比较理想,背景几乎无变化,因此可以采用最常用的背景差法来提取前景目标。背景差法实现简单、运算速度快,适用于摄像机静止的场景,并需要得到当前场景的静止背景图像。具体步骤为:
1)获得当前场景中不包含目标对象的静止背景图像B;
2)将当前帧(即第k帧)图像fk(x,y)与背景图像B进行差值运算,得到差分图像Ck(x,y),
Ck(x,y)=|fk(x,y)-B|。
3)对上述差分图像Ck(x,y)进行二值化,得到二值化图像Rk(x,y),其中阈值T3可以根据实际情况来设定,在本实验中设置T3=30。具体实现时,本发明实施例对此不做限制。
4)对二值化图像Rk(x,y)进行形态学滤波方法,并通过连通性分析,最终检测和分割出第一人体区域外接矩形,同时提取深度图像序列上相应位置的第二人体区域外接矩形。
其中,提取出的二值化图像Rk(x,y)可能会出现空洞、毛刺等现象,采用参考文献[3]中提出的形态学滤波方法,可以消除孤立噪声点并修复目标区域的空洞。再经过连通性分析,最终检测和分割出人体区域外接矩形,同时提取深度图像序列上相应位置的人体区域外接矩形。
103:在第一、第二人体区域外接矩形上分别提取人体动作特征,得到RGB模态和深度模态下的特征向量;
人体动作特征有多种提取和表示方法,常见的有梯度方向直方图特征(Histograms ofOriented Gradients,HOG)、光流直方图特征(Histogram of Optical Flows,HOF)、局部二值模式(Local Binary Patterns,LBP)等。不失一般性的,本方法使用参考文献[4]中提出的LBP特征来描述人体动作视觉特征。具体提取方法如下:
LBP是一种用来描述图像局部纹理特征的算子。LBP算子定义如下,在3*3像素的窗口内,以窗口中心像素为阈值,将相邻的8个像素的灰度值与其进行比较,若相邻的8个像素的像素值大于中心像素值,则该像素点的位置被标记为1,否则为0。用公式可以表示为:
其中,I(X0)表示X0点处的像素灰度值,I(Xi),i=1,2,...,8表示Xi点处的像素灰度值。其中阈值T4可以根据实际情况来设定,在本实验中设置T4=0。具体实现时,本发明实施例对此不做限制。
按照一定的顺序将上述得到的二值化结果组成一个8位的二进制数,再转化为一个十进制整数,即为此中心像素点的LBP值,如图2所示。将整个图像逐行扫描后,可以得到LBP响应图像,这个图像的直方图即为LBP特征。将第一、第二人体区域外接矩形分别执行上述操作,最终分别得到图像的RGB-LBP(RGB图像的局部二值模式)和D-LBP(深度图像的局部二值模式)特征向量。
104:根据步骤103中得到的RGB-LBP、D-LBP特征向量序列,以及步骤101中得到的骨架特征序列,通过多视角判别模型来进行动作识别。
传统的特征级融合和决策级融合[5]并不能很好的解决多模态时序信息融合的问题,这是由于以下两个原因:第一,尽管RGB图像和深度图像有同样的时间标记,但是并不完全同步;第二,决策级融合没有考虑到每个序列的上下文信息。为了解决这个问题,本方法采用参考文献[6]提出的耦合的多视角判别模型进行多模态序列融合问题的研究,其图模型结构如图3所示。
多视角判别模型是一种视角融合和动作识别的时序模型,在本实验中,将多种模态的特征向量序列分别输入到此模型中,进行多模态融合和模型学习,进行动作识别。
(1)多视角判别模型的表示:
设每个训练样本或测试样本含有M个模态的序列:X={x1,x2,...,xm,...,xM},其中,是第m个模态的观测序列,m=1,2,...,M,T是观测序列的长度。M可以取任意整数,代表着M种模态(例如:RGB信息、深度信息、骨架信息等)。
不失一般性的,选取RGB信息、深度信息和骨架信息三种模态进行实验,即M=3。即为步骤103中所提取的RGB-LBP和D-LBP特征序列、以及步骤101中得到的骨架特征序列。
每个X都与一个标签Y对应,其中 代表着所有动作的种类。
为了得到观测序列xm的特征,使用一个隐状态变量H={h1,h2,...,hm,hm+1...,hM},其中, 是与xm相对应的隐状态, 是第m个模态的有限离散集。同理,
令G={γ,εp,εs}表示一个无向图,多视角判别模型可看作是其因式分解的条件概率分布。其中γ表示图的顶点,εp,εs表示图的两条边,其中εp代表着每个视角的时间上下文关系,εs代表着不同视角之间的联系。
多视角判别模型的条件概率模型可以表示为:
其中,X是观测序列,Y是序列标记,H是隐状态变量,θ是权重向量且θ={θ1,θ2},θ1和θ2表示权重,T表示转置,φ(Y,X,H)是特征函数,表示由图模型中节点位置以及节点之间的关联而决定的序列特征,Z是归一化的分配函数,用来进行概率归一化。
引入两个特征函数fk(·)及gk(·),特征函数φ(Y,X,H)可表示为:
其中,ε=εp∪εs是观测序列,θ1kfk(·)表示由一个隐状态变量决定的特征函数,θ2kgk(·)代表由一对隐状态变量决定的特征函数。k是序列标记集合的任意元素,表示待比较的标记。θ1,k是模型参数向量θ1的一维,下标表示该θ1,k对应序列类别标记为Y时的权重。θ2,k是模型参数向量θ2的一维,下标表示该θ2,k对应序列类别标记为Y时的权重。
(2)多视角判别模型的学习:
为了寻找最优参数θ,根据条件似然准则,目标函数可以定义为:
其中,Xi表示观测样例,Yi表示观测样例真实的标注。使得上式取得最小值的θ值,即是最优参数θ。
该问题可以参考非凸正则束方法[7]进行求解。
(3)多视角判别模型的判断:
在多视角判别模型参数已经确定之后,可以判断观测序列X的分类最优标记Y*,确定动作类别。具体实现公式如下:
即Y*是能使函数p(Y|X;θ*)取得最大值的参数值,具体可参考文献[8]中的动态规划算法。
通过将多视角判别模型应用于多种模态序列融合的动作识别问题中,可以有效提高动作识别的准确率。
参考文献
[1]Lin,H.C.,Wang,L.L.,&Yang,S.N.Automatic determination of the spread parameter inGaussian smoothing,Pattern Recognition Letters,17(12),pp:1247-1252,1996.
[2]Webb J,Ashley J.Beginning Kinect Programming with the Microsoft Kinect SDK[M].Apress,2012.
[3]Comer,Mary L.,and Edward J.Delp,Morphological operations for color image processing,Journal of electronic imaging,8(3),pp:279-289,1999.
[4]Ojala T,Pietikainen M,Maenpaa T.Multiresolution gray-scale and rotation invariant textureclassification with local binary patterns[J].Pattern Analysis and Machine Intelligence,IEEETransactions on,2002,24(7):971-987.
[5]L.Wu,S.L.Oviatt and P.R.Cohen,Multimodal integration-a statistical view,IEEETransactions on Multimedia,1999.
[6]Song Y,Morency L,Davis R.Multi-view latent variable discriminative models for actionrecognition[C].Computer Vision and Pattern Recognition(CVPR),2012IEEE Conference on.IEEE,2012:2120-2127.
[7]Do T M T,Artières T.Large margin training for hidden markov models with partiallyobserved states[C].Proceedings of the26th Annual International Conference on MachineLearning.ACM,
[8]R Bellman,Dynamic Programming,Princeton,NJ,Princeton University Press,1957.
本领域技术人员可以理解附图只是一个优选实施例的示意图,上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (2)
1.一种基于多模态序列融合的动作识别方法,其特征在于,所述方法包括以下步骤:
获得原始视频多种模态下的信息,并进行预处理,获取初始RGB图像序列、初始深度图像序列,以及获取骨架特征序列;
对所述初始RGB图像序列进行背景建模,通过得到的背景建模结果来提取第一人体区域外接矩形,同时提取所述初始深度图像序列上相应位置的第二人体区域外接矩形;
在第一、第二人体区域外接矩形上分别提取人体动作特征,得到RGB模态和深度模态下的RGB-LBP、D-LBP特征向量序列;
根据所述RGB-LBP、D-LBP特征向量序列,以及所述骨架特征序列,通过多视角判别模型来进行动作识别。
2.根据权利要求1所述的一种基于多模态序列融合的动作识别方法,其特征在于,所述根据所述RGB-LBP、D-LBP特征向量序列,以及所述骨架特征序列,通过多视角判别模型来进行动作识别的步骤具体为:
(1)所述多视角判别模型的表示:
多视角判别模型的条件概率模型可以表示为:
其中,X是观测序列,Y是序列标记,H是隐状态变量,θ是权重向量,且θ={θ1,θ2},θ1和θ2表示权重,T表示转置,φ(Y,X,H)是特征函数,表示由图模型中节点位置以及节点之间的关联而决定的序列特征,Z是归一化的分配函数,用来进行概率归一化;
(2)所述多视角判别模型的学习:
目标函数为:
其中,Xi表示观测样例,Yi表示观测样例真实的标注,使得上式取得最小值的θ值,即是最优参数θ;
(3)所述多视角判别模型的判断:在所述多视角判别模型参数已经确定之后,判断观测序列X的分类最优标记Y*,确定动作类别,
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410337744.2A CN104156693B (zh) | 2014-07-15 | 2014-07-15 | 一种基于多模态序列融合的动作识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410337744.2A CN104156693B (zh) | 2014-07-15 | 2014-07-15 | 一种基于多模态序列融合的动作识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104156693A true CN104156693A (zh) | 2014-11-19 |
CN104156693B CN104156693B (zh) | 2017-06-06 |
Family
ID=51882190
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410337744.2A Active CN104156693B (zh) | 2014-07-15 | 2014-07-15 | 一种基于多模态序列融合的动作识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104156693B (zh) |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107067843A (zh) * | 2017-02-10 | 2017-08-18 | 广州动创信息科技有限公司 | 体感触控电子白板教学系统 |
CN109086801A (zh) * | 2018-07-06 | 2018-12-25 | 湖北工业大学 | 一种基于改进lbp特征提取的图像分类方法 |
CN109460707A (zh) * | 2018-10-08 | 2019-03-12 | 华南理工大学 | 一种基于深度神经网络的多模态动作识别方法 |
CN109858540A (zh) * | 2019-01-24 | 2019-06-07 | 青岛中科智康医疗科技有限公司 | 一种基于多模态融合的医学图像识别系统及方法 |
CN110619285A (zh) * | 2019-08-29 | 2019-12-27 | 福建天晴数码有限公司 | 人体骨骼关键点提取方法及计算机可读存储介质 |
CN110795973A (zh) * | 2018-08-03 | 2020-02-14 | 北京大学 | 多模态融合的动作识别方法、装置及计算机可读存储介质 |
CN111027586A (zh) * | 2019-11-04 | 2020-04-17 | 天津大学 | 一种基于新型响应图融合的目标跟踪方法 |
CN111949884A (zh) * | 2020-08-26 | 2020-11-17 | 桂林电子科技大学 | 一种基于多模态特征交互深度融合推荐方法 |
CN112131908A (zh) * | 2019-06-24 | 2020-12-25 | 北京眼神智能科技有限公司 | 基于双流网络的动作识别方法、装置、存储介质及设备 |
CN113196289A (zh) * | 2020-07-02 | 2021-07-30 | 浙江大学 | 人体动作识别方法、人体动作识别系统及设备 |
CN113207124A (zh) * | 2021-03-17 | 2021-08-03 | 北京邮电大学 | 一种车载自组网络数据包传送方法及装置 |
CN113761975A (zh) * | 2020-06-04 | 2021-12-07 | 南京大学 | 一种基于多模态特征融合的人体骨架动作识别方法 |
CN114973028A (zh) * | 2022-05-17 | 2022-08-30 | 中国电子科技集团公司第十研究所 | 一种航拍视频图像实时变化检测方法及系统 |
CN112131908B (zh) * | 2019-06-24 | 2024-06-11 | 北京眼神智能科技有限公司 | 基于双流网络的动作识别方法、装置、存储介质及设备 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110084123A (zh) * | 2019-03-28 | 2019-08-02 | 上海拍拍贷金融信息服务有限公司 | 人体行为检测方法及系统、计算机可读存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7447334B1 (en) * | 2005-03-30 | 2008-11-04 | Hrl Laboratories, Llc | Motion recognition system |
CN102521579A (zh) * | 2011-12-21 | 2012-06-27 | Tcl集团股份有限公司 | 一种基于二维平面摄像头推的动作识别方法及系统 |
CN103116397A (zh) * | 2011-09-26 | 2013-05-22 | 索尼公司 | 运动识别装置、运动识别方法、操作装置、电子装置和程序 |
CN103208006A (zh) * | 2012-01-17 | 2013-07-17 | 株式会社理光 | 基于深度图像序列的对象运动模式识别方法和设备 |
CN103473530A (zh) * | 2013-08-30 | 2013-12-25 | 天津理工大学 | 基于多视图和多模态特征的自适应动作识别方法 |
-
2014
- 2014-07-15 CN CN201410337744.2A patent/CN104156693B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7447334B1 (en) * | 2005-03-30 | 2008-11-04 | Hrl Laboratories, Llc | Motion recognition system |
CN103116397A (zh) * | 2011-09-26 | 2013-05-22 | 索尼公司 | 运动识别装置、运动识别方法、操作装置、电子装置和程序 |
CN102521579A (zh) * | 2011-12-21 | 2012-06-27 | Tcl集团股份有限公司 | 一种基于二维平面摄像头推的动作识别方法及系统 |
CN103208006A (zh) * | 2012-01-17 | 2013-07-17 | 株式会社理光 | 基于深度图像序列的对象运动模式识别方法和设备 |
CN103473530A (zh) * | 2013-08-30 | 2013-12-25 | 天津理工大学 | 基于多视图和多模态特征的自适应动作识别方法 |
Non-Patent Citations (1)
Title |
---|
陈聪: ""基于人体姿态序列提取和分析的行为识别"", 《中国博士学位论文全文数据库 信息科技辑》 * |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107067843A (zh) * | 2017-02-10 | 2017-08-18 | 广州动创信息科技有限公司 | 体感触控电子白板教学系统 |
CN109086801A (zh) * | 2018-07-06 | 2018-12-25 | 湖北工业大学 | 一种基于改进lbp特征提取的图像分类方法 |
CN110795973A (zh) * | 2018-08-03 | 2020-02-14 | 北京大学 | 多模态融合的动作识别方法、装置及计算机可读存储介质 |
CN109460707A (zh) * | 2018-10-08 | 2019-03-12 | 华南理工大学 | 一种基于深度神经网络的多模态动作识别方法 |
CN109858540A (zh) * | 2019-01-24 | 2019-06-07 | 青岛中科智康医疗科技有限公司 | 一种基于多模态融合的医学图像识别系统及方法 |
CN112131908A (zh) * | 2019-06-24 | 2020-12-25 | 北京眼神智能科技有限公司 | 基于双流网络的动作识别方法、装置、存储介质及设备 |
CN112131908B (zh) * | 2019-06-24 | 2024-06-11 | 北京眼神智能科技有限公司 | 基于双流网络的动作识别方法、装置、存储介质及设备 |
CN110619285A (zh) * | 2019-08-29 | 2019-12-27 | 福建天晴数码有限公司 | 人体骨骼关键点提取方法及计算机可读存储介质 |
CN110619285B (zh) * | 2019-08-29 | 2022-02-11 | 福建天晴数码有限公司 | 人体骨骼关键点提取方法及计算机可读存储介质 |
CN111027586A (zh) * | 2019-11-04 | 2020-04-17 | 天津大学 | 一种基于新型响应图融合的目标跟踪方法 |
CN113761975A (zh) * | 2020-06-04 | 2021-12-07 | 南京大学 | 一种基于多模态特征融合的人体骨架动作识别方法 |
CN113761975B (zh) * | 2020-06-04 | 2023-12-15 | 南京大学 | 一种基于多模态特征融合的人体骨架动作识别方法 |
CN113196289A (zh) * | 2020-07-02 | 2021-07-30 | 浙江大学 | 人体动作识别方法、人体动作识别系统及设备 |
CN111949884A (zh) * | 2020-08-26 | 2020-11-17 | 桂林电子科技大学 | 一种基于多模态特征交互深度融合推荐方法 |
CN113207124A (zh) * | 2021-03-17 | 2021-08-03 | 北京邮电大学 | 一种车载自组网络数据包传送方法及装置 |
CN113207124B (zh) * | 2021-03-17 | 2022-11-01 | 北京邮电大学 | 一种车载自组网络数据包传送方法及装置 |
CN114973028A (zh) * | 2022-05-17 | 2022-08-30 | 中国电子科技集团公司第十研究所 | 一种航拍视频图像实时变化检测方法及系统 |
CN114973028B (zh) * | 2022-05-17 | 2023-02-03 | 中国电子科技集团公司第十研究所 | 一种航拍视频图像实时变化检测方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN104156693B (zh) | 2017-06-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104156693A (zh) | 一种基于多模态序列融合的动作识别方法 | |
Yang et al. | Learning object bounding boxes for 3d instance segmentation on point clouds | |
Danescu et al. | Detection and classification of painted road objects for intersection assistance applications | |
Rangel et al. | Semi-supervised 3D object recognition through CNN labeling | |
Zang et al. | Traffic sign detection based on cascaded convolutional neural networks | |
Alvarez et al. | Hierarchical camera auto-calibration for traffic surveillance systems | |
Campos et al. | Discrimination of abandoned and stolen object based on active contours | |
CN105740751A (zh) | 一种目标检测与识别的方法和系统 | |
Troncoso-Pastoriza et al. | Generation of BIM data based on the automatic detection, identification and localization of lamps in buildings | |
Jelača et al. | Vehicle matching in smart camera networks using image projection profiles at multiple instances | |
Liang et al. | Methods of moving target detection and behavior recognition in intelligent vision monitoring. | |
Li et al. | Robust stereo visual slam for dynamic environments with moving object | |
Huang et al. | Measuring the absolute distance of a front vehicle from an in-car camera based on monocular vision and instance segmentation | |
Xiao et al. | A multi-cue mean-shift target tracking approach based on fuzzified region dynamic image fusion | |
CN110516527B (zh) | 一种基于实例分割的视觉slam回环检测改进方法 | |
Asif et al. | Unsupervised segmentation of unknown objects in complex environments | |
Bao et al. | Context modeling combined with motion analysis for moving ship detection in port surveillance | |
Caron et al. | Neural network fusion of color, depth and location for object instance recognition on a mobile robot | |
Karim et al. | Vehicle detection in satellite imagery using maximally stable extremal regions | |
Hou et al. | Multi-modal feature fusion for 3D object detection in the production workshop | |
Huang et al. | Multi‐class obstacle detection and classification using stereovision and improved active contour models | |
Chen et al. | Rapid and precise object detection based on color histograms and adaptive bandwidth mean shift | |
Okyere et al. | Traffic sign recognition using sparse representations and active contour models | |
CN107122714B (zh) | 一种基于边缘约束的实时行人检测方法 | |
Liu et al. | Background priors based saliency object detection |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |