CN103295016A - 基于深度与rgb信息和多尺度多方向等级层次特征的行为识别方法 - Google Patents
基于深度与rgb信息和多尺度多方向等级层次特征的行为识别方法 Download PDFInfo
- Publication number
- CN103295016A CN103295016A CN2013102591919A CN201310259191A CN103295016A CN 103295016 A CN103295016 A CN 103295016A CN 2013102591919 A CN2013102591919 A CN 2013102591919A CN 201310259191 A CN201310259191 A CN 201310259191A CN 103295016 A CN103295016 A CN 103295016A
- Authority
- CN
- China
- Prior art keywords
- depth
- rgb
- degree
- behavior
- level characteristics
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
一种基于深度与RGB信息和多尺度多方向等级层次特征的行为识别方法。具体包含以下步骤:视频预处理;目标运动变化过程描述;多尺度多方向等级层次特征提取;模型构建;模型选择和推断。本发明首先利用深度图像进行行为识别能够克服可见光图像行为识别常遇到的困难,如光照变化、阴影、物体遮挡等因素的干扰;其次本发明提出的深度差值运动历史图像和深度限制RGB图差值运动历史图像能很好捕获深度图像序列和RGB图像序列中人体行为的变化过程;再次本发明公开的多尺度多方向等级层次特征既有空间分辨能力也有细节描述能力,且具有很好的鲁棒性和区分性;最后、根据光线的亮暗,可自主选择模型,进一步提高了行为识别算法的适应性。
Description
技术领域
本发明属于计算机视觉和模式识别技术领域,涉及一种基于深度与RGB信息和多尺度多方向等级层次特征的行为识别方法,解决利用可见光图像进行行为识别的困难,并提高行为识别的准确性和鲁棒性,可以用于对监控视频中人体目标的行为识别,实现对监控视频的智能化管理。
背景技术
随着计算机技术和信息技术的发展,对基于视频的人体行为分析的需求越来越迫切,在诸如智能监控、家居安全、智能机器人、运动员辅助训练等系统中,行为分析起到了越来越重要的作用。然而早期的人体行为识别大多是利用普通的RGB图像序列进行行为分析,这样会受到光照、阴影、色度、环境变化等因素的干扰。
利用深度图像进行人体行为识别是近年来兴起的技术。这主要得益于深度图摄像机的成本降低,特别是微软推出 Kinect设备。与可见光图像不同,深度图像像素值仅与物体空间位置有关,不会受光照、阴影、色度、环境变化等因素的干扰,能够有效地突破可见光图像识别遇到的问题和瓶颈。在一定的空间范围内,深度图像可以用来进行 3D 空间中的行为识别,代替可见光摄像机的双目视觉。因为人体运动分析在高级人机交互、视频会议、安全监控、医疗诊断、基于内容的图像存储和检索等方面,具有潜在的经济价值和广泛的应用前景,因此利用深度图像进行行为分析得到国内外广大机器视觉研究者们的关注。
在计算机视觉和模式识别相关研究领域中,提高人体行为识别的准确性和稳定性一直是最活跃的研究问题之一,并且能够设计出一种鲁棒的行为描述法也是一个重点和难点。由于利用可见光图像会受到光照、阴影、色度、环境变化等因素的干扰,在识别目标的行为时,基于可见光的方法常常失败,当光线发生较大变化时,例如,夜晚,其性能将急剧下降。因此,近些年利用深度图像进行行为识别成为该领域主流方法,但是由于目标差异较大,同时,即使相同目标的行为也存在差异,这给人体行为识别带来了很大困难。
发明内容
本发明的目的是解决基于可见光的行为识别方法识别性能不稳定,当光线发生较大变化时,例如,夜晚,其性能将急剧下降的问题,提出了一种基于深度与RGB信息和多尺度多方向等级层次特征的行为识别方法,用于对视频监控中目标行为进行识别,以实现对监控视频的智能分析。
本发明提供的基于深度与RGB信息和多尺度多方向等级层次特征的行为识别方法,克服了现有技术的不足并提高了行为识别的准确性,能够很好的应用于现实生活中。该方法具体包含以下步骤:
第1、视频预处理
预处理包括对输入的深度和RGB图像序列滤波去噪,同时,根据目标距离信息设置阈值,当某像素的深度值大于该阈值时,将该像素标记为0,否则标记为1,这样,可以移除背景对目标的干扰;
第2、运动变化过程描述
(1)捕获深度视频序列人体变化过程,获得深度差值运动历史图像;
(2)捕获RGB视频序列人体运动变化过程,获得深度限制RGB图差值运动历史图像;
第3、多尺度多方向等级层次特征提取
在第2步获得的深度差值运动历史图像和深度限制RGB图差值运动历史图像的基础上,分别寻找图像中非零像素,从而获得对应的人体历史运动的矩形区域,并在该区域内,提取多尺度多方向的等级层次特征描述对应的人体行为;
第4、不同模型构建
在公共行为数据集DHA上(每个样本都包括RGB和深度图像序列,同时,该数据集被划分为训练数据集和测试数据集),按照第3步的方法,为训练数据集中的每个样本分别提取深度图像序列和RGB图像序列上的多尺度多方向的等级层次特征,然后,在训练数据集上分别训练基于深度的多尺度多方向的等级层次特征和基于深度、RGB融合的多尺度多方向的等级层次特征的支持向量机模型;
第5、模型选择和推断
在公共行为数据集DHA中测试数据集上,按照第3步的方法,提取深度和RGB运动历史图像上的多尺度多方向的等级层次特征,同时,计算RGB矩形区域内平均亮度,根据其光线的亮暗情况,选择不同的、已训练好的模型,当光线较暗时,采用基于深度的多尺度多方向的等级层次特征的支持向量机模型,反之,则采用深度、RGB融合的多尺度多方向的等级层次特征的支持向量机模型,将测试样本中提取的特征输入到选择的模型中,模型将自动地对样本的行为类别进行判断。
本发明第3步所述的人体行为包括17个行为类别,具体为(1) 弯腰鞠躬,(2) 原地起跳且手抬起, (3) 跳远,(4) 单手挥手,(5) 原地跳起手不动,(6)跑步,(7)侧移, (8)单脚走路,(9) 双手挥手, (10) 双脚走路,(11)鼓掌,(12)甩胳膊,(13)踢腿,(14)网球、羽毛球等发球,(15)高尔夫摇杆击球,(16) 拳击, (17) 太极云手。
本发明方法通过利用深度图解决由于光照变化、阴影、物体遮挡以及环境变化因素带来的难题,同时提出的深度差值运动历史图像和深度限制RGB图差值运动历史图像能够很好地捕获运动变化过程,对后续的识别工作有很大帮助,其次多尺度多方向等级层次特征提高了行为识别率,最后,根据光线的亮暗,能够自主的选择模型,进一步提高了行为识别方法的适应性。
本发明的优点和有益效果:
1)通过在深度图像上提取运动特征进行行为识别解决由于光照、阴影、色度、环境变化等因素带来的影响;2)在深度图中根据目标距离比较容易将前景与背景分开,将深度图与RGB图相与能够获得人体剪影的大概区域,这也解决了利用RGB图像进行识别时难以将人体分割出来的困难;3)本发明公开的多尺度多方向的等级层次特征既具有空间分辨能力也具有细节描述能力,且具有很好的鲁棒性和区分性,很大程度上提高行为识别的准确性。4) 根据光线的亮暗,可以自主的选择模型,进一步提高了行为识别算法的适应性。
附图说明
图1为本发明的流程图。
图2从左至右分别为“单手挥手”行为的RGB图像 (a)、深度图像(b)和深度差值运动历史图像 (c)。
图3从左至右分别为“高尔夫摇杆击球”行为的RGB图像(a)、RGB图人体剪影图像(b)和深度限制RGB图差值运动历史图像 (c)。
图4 为DDMHI_MSMD_HBM特征提取过程。
图5 为DLRDMHI_MSMD_HBM特征提取过程。
具体实施方式
下面结合附图对本发明作进一步的描述。
实施例1
如图1所示,为本发明基于深度与RGB信息和多尺度多方向等级层次特征的行为识别方法的操作流程图,该方法的操作步骤包括:
步骤01视频预处理
对输入的深度和RGB图像序列滤波去噪,同时,通过Kinect设备的红外装置,可以测出目标与摄像头的大概距离,根据该距离值,加上0.5获得大阈值,减去1获得小阈值,例如,在实时例中,目标与摄像头的距离大约为2米,则大阈值为2.5米,小阈值为1米。 当某像素的深度值大于大阈值或小于小阈值时,将该像素标记为0,否则标记为1,这样,可以移除背景对目标的干扰;其结果如图2(a)和(b)所示。具体定义为:
步骤02运动历史变化过程描述
(1) 深度图运动过程描述:针对任意长度的N帧视频,例如N=23、31、41、54,
为了描述连续运动序列的深度变化过程,针对每个非零像素,计算N帧中该像素位置的最大值和最小值,并将最大值和最小值做差,获得的图像被命名为深度差值运动历史图像(Depth Difference Motion History Image,简称DDMHI)。如图2(c),展示了N帧“单手挥手”行为的深度差值运动历史图像。具体定义如下所示:
(2)RGB图像运动过程描述:正如步骤01所述,在深度图中根据距离比较容易将前景与背景分开,因此,首先,在捕获RGB图像运动变化过程之前,使用去除背景的深度图对RGB图像进行过滤,从而获得RGB图像中人体的大致区域(如图3(b)所示),这样就去除了RGB图像的背景,防止了差值运动历史图受背景的干扰;其次,针对每个非零像素,计算N帧中该像素位置的最大值和最小值,并将最大值和最小值做差,获得的图像被命名为深度限制RGB图差值运动历史图像(Depth Limit RGB Difference Motion History Image,简称DLRDMHI)。如图3(c)展示了N帧“高尔夫摇杆击球”行为的深度限制RGB图差值运动历史图像。具体定义如下:
(7)
(8)
其中代表t帧RGB图像在像素位置为的亮度值,表示帧在像素位置的深度值,I代表人体剪影RGB图像,代表N帧人体剪影RGB图像中每个非零像素位置的最大值,代表N帧人体剪影RGB图像中每个非零像素位置的最小值,代表N帧的深度限制RGB图差值运动历史图像。
步骤03多尺度多方向等级层次特征提取
在步骤02中获得的DDMHI和DLRDMHI运动历史图像的基础上,首先遍历搜索非零像素,从而找到包含人体剪影的矩形框;其次分别针对DDMHI和DLRDMHI运动历史图像提取多尺度多方向的等级层次特征,它们分别被命名为DDMHI_MSMD_HBM特征和DLRDMHI_MSMD_HBM特征。
提取DDMHI_MSMD_HBM特征,具体包括以下步骤:
1) 首先利用不同方向和空间分辨率的 Gabor滤波器(式9)对DDMHI进行滤波,
得到滤波后的图像(式11),本发明使用4个尺度8个方向的滤波器对图像进行滤波,共得到4*8=32幅图像,具体如图4所示,其具体定义如下所示:
其中,为滤波器的尺度,K为正常数,为高斯函数的标准差,,i=1,2…,为尺度下的方向总数,为尺度 ,方向 下的滤波器,为DDMHI,为图像在经过尺度 ,方向的滤波器滤波后的结果。具体见参考文献 J. Daugman, “Two-dimensional spectral analysis of cortical receptive field profiles”, Vision Research, 20:847-856, 1980.
2) 在滤波后的图像上通过等级层次方法将图像依次等比例划分为不同大小的块,
分别是8*8块、4*4块、2*2块、1*2块、2*1块,总共是88块(具体划分方法如图4所示),将每一小块的像素平均值作为特征,所有块的特征联合在一起构成一个滤波图像的特征向量;
3) 最后,将4个尺度8个方向的滤波图像,共32幅图像的特征向量级联起来
作为最终的特征描述,一共是4*8*88=2816维;
4)对于DLRDMHI_MSMD_HBM特征提取算法和DDMHI_MSMD_HBM特征提取算法一样,重复以上过程,具体如图5所示;
5)考虑到深度特征和RGB特征的互补特性,将特征DLRDMHI_MSMD_HBM和特征DDMHI_MSMD_HBM串联,构建区分性更好的特征;
步骤04不同模型构建
SVM是Vapnik等人提出的以结构风险最小化理论(Structural Risk Minimization, SRM)为核心的一种统计学习算法,它是对传统的基于经验风险最小化准则(Empirical Risk Minimization, ERM)的学习算法的改进,后者虽然可以使训练误差最小化,但并不能最小化学习过程的推广误差。所谓结构风险最小化,即在保证分类精度(经验风险)的同时,通过最小化推广误差的上确界,使学习机在整个样本集上的期望风险得到控制。SVM的基本思想是:通过某种非线性映射,即满足Mercer定理的核函数,将输入的有限样本集X映射到一个高维线性特征空间,在这个空间中构造一个最优分类超平面,尽可能地将两类样本正确分开,同时使正负样本集的分类间隔最大,最终获得最佳推广性能。本发明在DHA行为训练数据集上,分别训练基于深度的多尺度多方向的等级层次特征的支持向量机模型、基于深度与RGB融合的多尺度多方向的等级层次特征的支持向量机模型,在训练模型的过程中,使用LIBSVM工具箱来训练模型,并找到最优的模型参数,其具体方法见参考文献:LIBSVM: www.csie.ntu.edu.tw/~cjlin/Lib-svm/。
步骤05 模型选择和模型推断
由于实际情况中环境光线常常发生变化,当光线暗淡时,RGB图像将非常暗,对应的目标非常模糊,这将导致算法的性能急剧下降,因此,在本发明中,根据RGB图像中矩形区域中的亮度平均值,确定所需的模型,当平均亮度值过小时,则直接采用基于深度的多尺度多方向的等级层次特征的支持向量机模型,否则采用基于深度与RGB融合的多尺度多方向的等级层次特征的支持向量机模型,其具体定义如下:
其中,代表RGB的亮度图像,分别代表图像的宽度和高度,表示当前RGB图像的平均亮度,表示模型选择的阈值,表示基于深度特征的模型,表示基于深度和RGB融合特征的模型,在实施例中,=80。当图像平均亮度较小时,RGB图像中目标非常模糊,其对应的运动历史直方图也较模糊,因此,此时选择基于深度特征的模型。同时,由于RGB信息和深度数据之间存在一定的互补特性,当它们融合时,能够进一步的提高算法的性能,因此,当光线比较亮时,选择基于深度和RGB融合特征的模型。
在测试过程中,针对每个测试样本,首先按照步骤03特征提取过程,提取DLRDMHI_MSMD_HBM和DDMHI_MSMD_HBM特征,并将对应的特征输入到已经选择的模型中,支持向量机模型将自动对样本的行为(在DHA数据集上,包括17个行为类别,每个行为由21个不同的人录制(12个男的9个女的),每个人做一次,总共是357*2个视频序列,行为类别具体为(1) 弯腰鞠躬,(2) 原地起跳且手抬起,(3) 跳远,(4) 单手挥手,(5) 原地跳起手不动,(6)跑步,(7)侧移, (8)单脚走路,(9) 双手挥手, (10) 双脚走路,(11)鼓掌,(12)甩胳膊,(13)踢腿,(14)网球、羽毛球等发球,(15)高尔夫摇杆击球,(16) 拳击,(17) 太极云手)进行分类,给出对应的行为类别标签。
为了进一步的说明本发明的有效性,在公共的、具有挑战性的行为识别DHA数据集上进行了评测,同时,由于等分法存在一定的巧合性,因此,本发明使用留一法进行模型性能评估。具体过程为:将全部样本按人(例如:共21个人)分成21份,首先取出其中一份,用剩下的20份作为训练集来生成预测模型,并采用该预留的样本评测模型性能,紧接着再把取出的那份样本放回原来的样本集中,取出另一份作为测试集,剩下样本构成训练集,构建预测模型,并用预留的这份样本验证模型的性能……,重复21次以上实验,计算21次的平均性能,并以此结果作为本发明的性能评价。
通过在DHA数据集的试验结果表明,当仅使用深度数据时,SVM线性核和RBF核的准确率都达到88%以上,而基于本发明提出的DLRDMHI_MSMD_HBM特征时,SVM线性核和RBF核的性能则都达到91%,而当深度和RGB特征融合时,此时算法性能达到93.5%,进一步提高了算法的性能,其性能比当前的the-state-of-the-art算法的准确率提高了6.5%。DHA数据集具体见参考文献 Yan-Ching Lin, Min-Chun Hua, Wen-Huang Cheng, Yung-Huan Hsieh, Hong-Ming Chen, Human Action Recognition and Retrieval Using Sole Depth Information, ACM MM 2012。
Claims (3)
1.一种基于深度与RGB信息和多尺度多方向等级层次特征的行为识别方法,该方法具体包含以下步骤:
第1、视频预处理
预处理包括对输入的深度和RGB图像序列滤波去噪,同时,通过Kinect设备的红外装置,可以测出目标与摄像头的大概距离,根据该距离值,加上0.5获得大阈值,减去1获得小阈值;当某像素的深度值大于该阈值时,将该像素标记为0,否则标记为1,这样,能够移除背景对目标的干扰;
第2、运动变化过程描述
(1)捕获深度视频序列人体变化过程,获得深度差值运动历史图像;
(2)捕获RGB视频序列人体运动变化过程,获得深度限制RGB图差值运动历史图像;
第3、多尺度多方向等级层次特征提取
在第2步获得的深度差值运动历史图像和深度限制RGB差值运动历史图像的基础上,分别寻找图像中非零像素,从而获得对应的人体历史运动的矩形区域,并在该区域内,提取多尺度多方向的等级层次特征描述对应的人体行为;
第4、不同模型构建
公共行为数据集DHA中每个样本都包括RGB和深度图像序列,同时,该数据集被划分为训练数据集和测试数据集,按照第3步的方法,为DHA的训练数据集中的每个样本分别提取深度图像序列和RGB图像序列上的多尺度多方向的等级层次特征,然后,在训练数据集上分别训练基于深度的多尺度多方向的等级层次特征和基于深度、RGB融合的多尺度多方向的等级层次特征的支持向量机模型;
第5、模型选择和模型推断
在公共行为数据集DHA中测试数据集上,按照第3步的方法,提取深度和RGB运动历史图像上的多尺度多方向的等级层次特征,同时,计算RGB矩形区域内平均亮度,根据其光线的亮暗情况,选择不同的、已训练好的模型,当光线较暗时,采用基于深度的多尺度多方向的等级层次特征的支持向量机模型,反之,则采用深度、RGB融合的多尺度多方向的等级层次特征的支持向量机模型,将测试样本中提取的特征输入到选择的模型中,模型将自动地对样本的行为类别进行判断。
2.根据权利要求1所述的方法,其特征在于该方法通过利用深度图解决由于光照变化、阴影、物体遮挡以及环境变化因素带来的难题,同时提出的深度差值运动历史图像和深度限制RGB图差值运动历史图像能够很好地捕获运动变化过程,对后续的识别工作有很大帮助,其次多尺度多方向等级层次特征提高了行为识别率,最后,根据光线的亮暗,能够自主的选择模型,进一步提高了行为识别方法的适应性。
3.根据权利要求1所述的方法,其特征在于第3步所述的人体行为包括17个行为类别,具体为(1) 弯腰鞠躬,(2) 原地起跳且手抬起, (3) 跳远,(4) 单手挥手,(5) 原地跳起手不动,(6)跑步,(7)侧移, (8)单脚走路,(9) 双手挥手, (10) 双脚走路,(11)鼓掌,(12)甩胳膊,(13)踢腿,(14)网球、羽毛球等发球,(15)高尔夫摇杆击球,(16) 拳击, (17) 太极云手。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310259191.9A CN103295016B (zh) | 2013-06-26 | 2013-06-26 | 基于深度与rgb信息和多尺度多方向等级层次特征的行为识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310259191.9A CN103295016B (zh) | 2013-06-26 | 2013-06-26 | 基于深度与rgb信息和多尺度多方向等级层次特征的行为识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103295016A true CN103295016A (zh) | 2013-09-11 |
CN103295016B CN103295016B (zh) | 2017-04-12 |
Family
ID=49095845
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310259191.9A Active CN103295016B (zh) | 2013-06-26 | 2013-06-26 | 基于深度与rgb信息和多尺度多方向等级层次特征的行为识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103295016B (zh) |
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103886293A (zh) * | 2014-03-21 | 2014-06-25 | 浙江大学 | 一种基于运动历史图与r变换的人体行为识别方法 |
CN104200197A (zh) * | 2014-08-18 | 2014-12-10 | 北京邮电大学 | 三维人体行为识别方法及装置 |
CN104217214A (zh) * | 2014-08-21 | 2014-12-17 | 广东顺德中山大学卡内基梅隆大学国际联合研究院 | 基于可配置卷积神经网络的rgb-d人物行为识别方法 |
WO2015149712A1 (zh) * | 2014-04-03 | 2015-10-08 | 华为技术有限公司 | 一种指向交互方法、装置及系统 |
CN105022982A (zh) * | 2014-04-22 | 2015-11-04 | 北京邮电大学 | 手部运动识别方法和装置 |
CN105373774A (zh) * | 2015-10-10 | 2016-03-02 | 安徽清新互联信息科技有限公司 | 一种幼师体罚小孩行为的检测方法 |
US9430701B2 (en) | 2014-02-07 | 2016-08-30 | Tata Consultancy Services Limited | Object detection system and method |
CN106964137A (zh) * | 2017-02-23 | 2017-07-21 | 浙江理工大学 | 一种基于图像处理的球类发球行为评定方法 |
CN107506740A (zh) * | 2017-09-04 | 2017-12-22 | 北京航空航天大学 | 一种基于三维卷积神经网络和迁移学习模型的人体行为识别方法 |
CN108734087A (zh) * | 2018-03-29 | 2018-11-02 | 京东方科技集团股份有限公司 | 物体自动识别方法以及系统、购物设备和存储介质 |
CN109086724A (zh) * | 2018-08-09 | 2018-12-25 | 北京华捷艾米科技有限公司 | 一种加速的人脸检测方法及存储介质 |
US10209797B2 (en) | 2015-07-23 | 2019-02-19 | Boe Technology Group Co., Ltd. | Large-size touch apparatus having depth camera device |
CN109472809A (zh) * | 2017-09-06 | 2019-03-15 | 中国移动通信有限公司研究院 | 一种目标鉴别方法及设备 |
CN109508698A (zh) * | 2018-12-19 | 2019-03-22 | 中山大学 | 一种基于二叉树的人体行为识别方法 |
CN109670524A (zh) * | 2018-10-30 | 2019-04-23 | 银河水滴科技(北京)有限公司 | 一种基于云平台和模型智能推荐的图像识别方法及系统 |
CN110149541A (zh) * | 2019-04-23 | 2019-08-20 | 腾讯科技(深圳)有限公司 | 视频推荐方法、装置、计算机设备及存储介质 |
CN110222576A (zh) * | 2019-05-07 | 2019-09-10 | 北京字节跳动网络技术有限公司 | 拳击动作识别方法、装置和电子设备 |
CN111860448A (zh) * | 2020-07-30 | 2020-10-30 | 北京华捷艾米科技有限公司 | 洗手动作识别方法及系统 |
CN113435297A (zh) * | 2021-06-23 | 2021-09-24 | 佛山弘视智能信息科技有限公司 | 基于监控相机和深度相机联合的人体抽搐检测方法及装置 |
CN116152051A (zh) * | 2023-02-27 | 2023-05-23 | 上海福柯斯智能科技有限公司 | 一种x射线图像的分块配准图像剪影方法和装置 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102695056A (zh) * | 2012-05-23 | 2012-09-26 | 中山大学 | 一种提取压缩视频关键帧的方法 |
CN102946548A (zh) * | 2012-11-27 | 2013-02-27 | 西安电子科技大学 | 基于3维Log-Gabor变换的视频图像融合性能评价方法 |
-
2013
- 2013-06-26 CN CN201310259191.9A patent/CN103295016B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102695056A (zh) * | 2012-05-23 | 2012-09-26 | 中山大学 | 一种提取压缩视频关键帧的方法 |
CN102946548A (zh) * | 2012-11-27 | 2013-02-27 | 西安电子科技大学 | 基于3维Log-Gabor变换的视频图像融合性能评价方法 |
Non-Patent Citations (1)
Title |
---|
曹殿华等: "《基于多方向多尺度边缘检测的位场源辨识方法》", 《第九届全国矿床会议论文集》, 31 December 2008 (2008-12-31), pages 760 - 761 * |
Cited By (36)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9430701B2 (en) | 2014-02-07 | 2016-08-30 | Tata Consultancy Services Limited | Object detection system and method |
CN103886293B (zh) * | 2014-03-21 | 2017-04-26 | 浙江大学 | 一种基于运动历史图与r变换的人体行为识别方法 |
CN103886293A (zh) * | 2014-03-21 | 2014-06-25 | 浙江大学 | 一种基于运动历史图与r变换的人体行为识别方法 |
CN104978012B (zh) * | 2014-04-03 | 2018-03-16 | 华为技术有限公司 | 一种指向交互方法、装置及系统 |
WO2015149712A1 (zh) * | 2014-04-03 | 2015-10-08 | 华为技术有限公司 | 一种指向交互方法、装置及系统 |
CN104978012A (zh) * | 2014-04-03 | 2015-10-14 | 华为技术有限公司 | 一种指向交互方法、装置及系统 |
US10466797B2 (en) | 2014-04-03 | 2019-11-05 | Huawei Technologies Co., Ltd. | Pointing interaction method, apparatus, and system |
CN105022982B (zh) * | 2014-04-22 | 2019-03-29 | 北京邮电大学 | 手部运动识别方法和装置 |
CN105022982A (zh) * | 2014-04-22 | 2015-11-04 | 北京邮电大学 | 手部运动识别方法和装置 |
US10248854B2 (en) | 2014-04-22 | 2019-04-02 | Beijing University Of Posts And Telecommunications | Hand motion identification method and apparatus |
CN104200197A (zh) * | 2014-08-18 | 2014-12-10 | 北京邮电大学 | 三维人体行为识别方法及装置 |
CN104217214B (zh) * | 2014-08-21 | 2017-09-19 | 广东顺德中山大学卡内基梅隆大学国际联合研究院 | 基于可配置卷积神经网络的rgb‑d人物行为识别方法 |
CN104217214A (zh) * | 2014-08-21 | 2014-12-17 | 广东顺德中山大学卡内基梅隆大学国际联合研究院 | 基于可配置卷积神经网络的rgb-d人物行为识别方法 |
US10209797B2 (en) | 2015-07-23 | 2019-02-19 | Boe Technology Group Co., Ltd. | Large-size touch apparatus having depth camera device |
CN105373774B (zh) * | 2015-10-10 | 2018-12-28 | 安徽清新互联信息科技有限公司 | 一种幼师体罚小孩行为的检测方法 |
CN105373774A (zh) * | 2015-10-10 | 2016-03-02 | 安徽清新互联信息科技有限公司 | 一种幼师体罚小孩行为的检测方法 |
CN106964137A (zh) * | 2017-02-23 | 2017-07-21 | 浙江理工大学 | 一种基于图像处理的球类发球行为评定方法 |
CN106964137B (zh) * | 2017-02-23 | 2019-05-28 | 浙江理工大学 | 一种基于图像处理的球类发球行为评定方法 |
CN107506740A (zh) * | 2017-09-04 | 2017-12-22 | 北京航空航天大学 | 一种基于三维卷积神经网络和迁移学习模型的人体行为识别方法 |
CN107506740B (zh) * | 2017-09-04 | 2020-03-17 | 北京航空航天大学 | 一种基于三维卷积神经网络和迁移学习模型的人体行为识别方法 |
CN109472809B (zh) * | 2017-09-06 | 2020-09-25 | 中国移动通信有限公司研究院 | 一种目标鉴别方法及设备 |
CN109472809A (zh) * | 2017-09-06 | 2019-03-15 | 中国移动通信有限公司研究院 | 一种目标鉴别方法及设备 |
CN108734087A (zh) * | 2018-03-29 | 2018-11-02 | 京东方科技集团股份有限公司 | 物体自动识别方法以及系统、购物设备和存储介质 |
CN109086724A (zh) * | 2018-08-09 | 2018-12-25 | 北京华捷艾米科技有限公司 | 一种加速的人脸检测方法及存储介质 |
CN109670524A (zh) * | 2018-10-30 | 2019-04-23 | 银河水滴科技(北京)有限公司 | 一种基于云平台和模型智能推荐的图像识别方法及系统 |
CN109508698A (zh) * | 2018-12-19 | 2019-03-22 | 中山大学 | 一种基于二叉树的人体行为识别方法 |
CN109508698B (zh) * | 2018-12-19 | 2023-01-10 | 中山大学 | 一种基于二叉树的人体行为识别方法 |
US11540019B2 (en) | 2019-04-23 | 2022-12-27 | Tencent Technology (Shenzhen) Company Limited | Video recommendation method and device, computer device and storage medium |
CN110149541A (zh) * | 2019-04-23 | 2019-08-20 | 腾讯科技(深圳)有限公司 | 视频推荐方法、装置、计算机设备及存储介质 |
CN110149541B (zh) * | 2019-04-23 | 2021-08-03 | 腾讯科技(深圳)有限公司 | 视频推荐方法、装置、计算机设备及存储介质 |
CN110222576A (zh) * | 2019-05-07 | 2019-09-10 | 北京字节跳动网络技术有限公司 | 拳击动作识别方法、装置和电子设备 |
CN110222576B (zh) * | 2019-05-07 | 2021-09-17 | 北京字节跳动网络技术有限公司 | 拳击动作识别方法、装置和电子设备 |
CN111860448A (zh) * | 2020-07-30 | 2020-10-30 | 北京华捷艾米科技有限公司 | 洗手动作识别方法及系统 |
CN113435297A (zh) * | 2021-06-23 | 2021-09-24 | 佛山弘视智能信息科技有限公司 | 基于监控相机和深度相机联合的人体抽搐检测方法及装置 |
CN116152051A (zh) * | 2023-02-27 | 2023-05-23 | 上海福柯斯智能科技有限公司 | 一种x射线图像的分块配准图像剪影方法和装置 |
CN116152051B (zh) * | 2023-02-27 | 2023-12-01 | 上海福柯斯智能科技有限公司 | 一种x射线图像的分块配准图像剪影方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
CN103295016B (zh) | 2017-04-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103295016A (zh) | 基于深度与rgb信息和多尺度多方向等级层次特征的行为识别方法 | |
CN103473530A (zh) | 基于多视图和多模态特征的自适应动作识别方法 | |
CN103164694B (zh) | 一种人体动作识别的方法 | |
CN103116896B (zh) | 一种基于视觉显著性模型的自动检测跟踪方法 | |
CN103310466B (zh) | 一种单目标跟踪方法及其实现装置 | |
CN110929593B (zh) | 一种基于细节辨别区别的实时显著性行人检测方法 | |
CN109460704B (zh) | 一种基于深度学习的疲劳检测方法、系统和计算机设备 | |
Yang et al. | SiamAtt: Siamese attention network for visual tracking | |
CN105160310A (zh) | 基于3d卷积神经网络的人体行为识别方法 | |
CN103218605B (zh) | 一种基于积分投影与边缘检测的快速人眼定位方法 | |
CN102402680A (zh) | 人机交互系统中手部、指示点定位方法和手势确定方法 | |
CN104268520A (zh) | 一种基于深度运动轨迹的人体动作识别方法 | |
CN107808376B (zh) | 一种基于深度学习的举手检测方法 | |
CN101635031B (zh) | 小样本人物轮廓特征提取与识别方法 | |
Benbihi et al. | Elf: Embedded localisation of features in pre-trained cnn | |
Chen et al. | Using FTOC to track shuttlecock for the badminton robot | |
CN111191535B (zh) | 基于深度学习的行人检测模型构建方法及行人检测方法 | |
CN110032932B (zh) | 一种基于视频处理和决策树设定阈值的人体姿态识别方法 | |
CN101470809A (zh) | 一种基于扩展混合高斯模型的运动目标检测方法 | |
Ji et al. | Integrating visual selective attention model with HOG features for traffic light detection and recognition | |
CN103593679A (zh) | 一种基于在线机器学习的视觉人手跟踪方法 | |
CN103020614A (zh) | 基于时空兴趣点检测的人体运动识别方法 | |
CN104143102A (zh) | 在线图像数据处理方法 | |
CN108614988A (zh) | 一种复杂背景下的运动手势自动识别系统 | |
CN105930793A (zh) | 一种基于sae特征可视化学习的人体检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right |
Effective date of registration: 20210817 Address after: 102200 4th floor, building 4, 19 Huangping Road, Changping District, Beijing Patentee after: Beijing Azuaba Technology Co.,Ltd. Address before: 300384 main campus of Tianjin University of Technology, 391 Bingshui West Road, Xiqing, Tianjin. Patentee before: TIANJIN University OF TECHNOLOGY |
|
TR01 | Transfer of patent right |