CN110633630A - 一种行为识别方法、装置及终端设备 - Google Patents
一种行为识别方法、装置及终端设备 Download PDFInfo
- Publication number
- CN110633630A CN110633630A CN201910718037.0A CN201910718037A CN110633630A CN 110633630 A CN110633630 A CN 110633630A CN 201910718037 A CN201910718037 A CN 201910718037A CN 110633630 A CN110633630 A CN 110633630A
- Authority
- CN
- China
- Prior art keywords
- video stream
- behavior
- rgb
- depth
- prediction result
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 61
- 230000006399 behavior Effects 0.000 claims abstract description 210
- 230000006835 compression Effects 0.000 claims abstract description 91
- 238000007906 compression Methods 0.000 claims abstract description 91
- 230000002457 bidirectional effect Effects 0.000 claims abstract description 37
- 238000012163 sequencing technique Methods 0.000 claims abstract description 35
- 230000008569 process Effects 0.000 claims abstract description 17
- 239000013598 vector Substances 0.000 claims description 106
- 238000013527 convolutional neural network Methods 0.000 claims description 50
- 230000002441 reversible effect Effects 0.000 claims description 39
- 230000006870 function Effects 0.000 claims description 29
- 238000004590 computer program Methods 0.000 claims description 22
- 238000005457 optimization Methods 0.000 claims description 20
- 238000004364 calculation method Methods 0.000 claims description 17
- 230000004927 fusion Effects 0.000 claims description 9
- 238000013507 mapping Methods 0.000 claims description 8
- 238000001514 detection method Methods 0.000 claims description 4
- 230000002123 temporal effect Effects 0.000 claims description 4
- 238000013528 artificial neural network Methods 0.000 abstract 2
- 238000012549 training Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 238000007781 pre-processing Methods 0.000 description 4
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biomedical Technology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
Abstract
本发明适用于行为识别领域,提供了一种行为识别方法、装置及终端设备,通过获取待检测行为的RGB视频流和深度视频流,再基于视频帧的排序关系对两者进行双向压缩排序,再将进行双向压缩排序的得到RGB视频流对应的图像和深度视频对应的图像分别输入至第一卷积神经网络和第二卷积神经网络中得到对应的行为预测结果,再根据该行为预测结果确定所述待检测行为的最终行为预测结果,通过根据双向压缩排序得到的行为预测结果确定最终行为预测结果,克服了对RGB视频流和深度视频流序列学习过程中的局部性和片面性,通过两者的互补性很好地避免了单一模态因受到外在因素而导致的行为识别不准确的问题,极大地提高了行为识别的准确率。
Description
技术领域
本发明属于行为识别技术领域,尤其涉及一种行为识别方法、装置及终端设备。
背景技术
人体行为识别作为计算机视觉的一个重要研究分支,已经广泛应用于视频监控、视频分析、人机交互等方面。
目前,人体行为识别的实际应用场景越来越复杂,且对人体行为识别的精度和准确率要求越来越高,传统的手工特征设计方法已经不能满足实际应用中对识别准确度的需求。虽然深度学习方法的出现提高了行为识别的准确度,但对于单一模态(RGB模态或者深度模态),则会因背景杂乱、遮挡摄像头移动和光线变化等外在因素而降低行为识别的准确率,因而,有必要提高单一模态中的行为识别准确率。
发明内容
有鉴于此,本发明实施例提供了一种行为识别方法、装置及终端设备,以解决现有RGB模态或深度态等单一模态中的行为识别准确率不高的问题。
本发明实施例的第一方面提供了一种行为识别方法,包括:
一种行为识别方法,其特征在于,所述行为识别方法包括:
获取待检测行为的视频流,所述待检测行为的视频流包括RGB视频流和深度视频流;
基于视频帧的排序关系,分别对所述RGB视频流和所述深度视频流进行双向压缩排序,得到所述RGB视频流对应的图像和所述深度视频对应的图像;
将所述RGB视频流对应的图像输入至第一卷积神经网络进行特征学习,得到所述RGB视频流对应的行为预测结果;
将所述深度视频流对应的图像输入至第二卷积神经网络进行特征学习,得到所述深度视频流对应的行为预测结果;
基于将所述RGB视频流对应的行为预测结果和所述深度视频流对应的行为预测结果,确定所述待检测行为的最终行为预测结果。
本发明实施例的第二方面提供了一种行为识别装置,包括:
视频流获取单元,用于获取待检测行为的视频流,所述待检测行为的视频流包括RGB视频流和深度视频流;
双向压缩排序单元,用于基于视频帧的排序关系,分别对所述RGB视频流和所述深度视频流进行双向压缩排序,得到所述RGB视频流对应的图像和所述深度视频对应的图像;
第一图像输入单元,用于将所述RGB视频流对应的图像输入至第一卷积神经网络进行特征学习,得到所述RGB视频流对应的行为预测结果;
第二图像输入单元,用于将所述深度视频流对应的图像输入至第二卷积神经网络进行特征学习,得到所述深度视频流对应的行为预测结果;
行为确定单元,用于基于将所述RGB视频流对应的行为预测结果和所述深度视频流对应的行为预测结果,确定所述待检测行为的最终行为预测结果。
本发明实施例的第三方面提供了一种终端设备,包括:
存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其中,所述处理器执行所述计算机程序时实现本发明实施例的第一方面提供的行为识别方法的步骤。
其中,所述计算机程序包括:
视频流获取单元,用于获取待检测行为的视频流,所述待检测行为的视频流包括RGB视频流和深度视频流;
双向压缩排序单元,用于基于视频帧的排序关系,分别对所述RGB视频流和所述深度视频流进行双向压缩排序,得到所述RGB视频流对应的图像和所述深度视频对应的图像;
第一图像输入单元,用于将所述RGB视频流对应的图像输入至第一卷积神经网络进行特征学习,得到所述RGB视频流对应的行为预测结果;
第二图像输入单元,用于将所述深度视频流对应的图像输入至第二卷积神经网络进行特征学习,得到所述深度视频流对应的行为预测结果;
行为确定单元,用于基于将所述RGB视频流对应的行为预测结果和所述深度视频流对应的行为预测结果,确定所述待检测行为的最终行为预测结果。
本发明实施例的第四方面提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其中,所述计算机程序被处理器执行时实现本发明实施例的第一方面提供的行为识别方法的步骤。
其中,所述计算机程序包括:
视频流获取单元,用于获取待检测行为的视频流,所述待检测行为的视频流包括RGB视频流和深度视频流;
双向压缩排序单元,用于基于视频帧的排序关系,分别对所述RGB视频流和所述深度视频流进行双向压缩排序,得到所述RGB视频流对应的图像和所述深度视频对应的图像;
第一图像输入单元,用于将所述RGB视频流对应的图像输入至第一卷积神经网络进行特征学习,得到所述RGB视频流对应的行为预测结果;
第二图像输入单元,用于将所述深度视频流对应的图像输入至第二卷积神经网络进行特征学习,得到所述深度视频流对应的行为预测结果;
行为确定单元,用于基于将所述RGB视频流对应的行为预测结果和所述深度视频流对应的行为预测结果,确定所述待检测行为的最终行为预测结果。
本发明实施例与现有技术相比存在的有益效果是:通过获取待检测行为的RGB视频流和深度视频流,再基于视频帧的排序关系对两者进行双向压缩排序,再将进行双向压缩排序的得到RGB视频流对应的图像和深度视频对应的图像分别输入至第一卷积神经网络和第二卷积神经网络中得到对应的行为预测结果,再根据该行为预测结果确定所述待检测行为的最终行为预测结果,通过根据双向压缩排序得到的行为预测结果确定最终行为预测结果,克服了对RGB视频流和深度视频流序列学习过程中的局部性和片面性,通过两者的互补性很好地避免了单一模态因受到外在因素而导致的行为识别不准确的问题,极大地提高了行为识别的准确率。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例提供的一种行为识别方法的实现流程图;
图2是本发明实施例提供的一种进行双向压缩排序后得到的四帧图像的示意图,其中,图2(a)表示第一前向压缩图像,图2(b)表示第一反向压缩图像,图2(c)表示第二前向压缩图像,图2(d)表示第二反向压缩图像;
图3是本发明实施例提供的一种对RGB视频进行前向压缩排序的方法的具体实现流程图;
图4是本发明实施例提供的一种对RGB视频进行反向压缩排序的方法的具体实现流程图;
图5是本发明实施例提供的一种行为识别装置的示意图;
图6是本发明实施例提供的一种终端设备的示意图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本申请实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本申请。在其它情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本申请的描述。
应当理解,当在本申请说明书和所附权利要求书中使用时,术语“包括”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。
还应当理解,在本申请说明书和所附权利要求书的描述中,术语“第一”、“第二”、“第三”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
为了说明本发明所述的技术方案,下面通过具体实施例来进行说明。请参考图1,图1示出了本发明实施例提供的一种行为识别方法的实现流程,详述如下:
在步骤S101中,获取待检测行为的视频流,所述待检测行为的视频流包括RGB视频流和深度视频流。
在本发明实施例中,待检测行为的视频流可以是通过RGB-D摄像机实时提供的视频流,也可以是存储在终端设备上的由RGB-D摄像机提供的视频流,该视频流可以看作由一帧一帧的视频帧按照时间顺序组合而成的视频流,一段视频流中包含有若干帧视频帧,这里所指的视频帧可以理解为图像,一帧视频帧表示一张图像。
可以理解的是,待检测行为中的行为包括但不限于人体行为、动物行为。
可选的,待检测行为的视频流也可以为直接通过RGB摄像机和深度摄像机同时记录的两段视频流。
需要说明的是,RGB视频流和深度视频流中对应的每帧视频帧的像素点和时间都是一一对应的,并且,深度视频流中的每帧视频帧的像素值是传感器距离物体的实际距离。
在步骤S102中,基于视频帧的排序关系,分别对所述RGB视频流和所述深度视频流进行双向压缩排序,得到所述RGB视频流对应的图像和所述深度视频对应的图像。
在本发明实施例中,双向压缩排序包括前向压缩排序和反向压缩排序,所述前向压缩排序为按照视频流的正向时间顺序对视频流中的所有视频帧进行压缩排序,所述反向压缩排序为按照视频流的反向时间顺序对视频流中的所有视频帧进行压缩排序。
具体的,步骤S102包括:
步骤S1021,对所述RGB视频流进行前向压缩排序,得到所述RGB视频流对应的一张图像,即第一前向压缩图像。
在本发明实施例中,对RGB视频流进行前向压缩排序,具体为对RGB视频流中的所有视频帧的特征向量按照时间正向顺序进行预处理后得到的一个参数特征向量,该参数特征向量包含有所有视频帧的时间维度信息和空间维度信息,再根据该参数特征向量得到一张类似于将多帧视频帧进行叠加后得到的动态图,但是该动态图实际上并不是动态的,而是一张如图2(a)所示的第一前向压缩图像,其包含有所有视频帧的时间维度信息和空间维度信息的图像。
具体的,请参考图3,图3示出了本发明实施例提供的一种对RGB视频进行前向压缩排序的方法的具体实现流程图,详述如下:
在步骤S301中,提取所述RGB视频流中的视频帧的第一特征向量。
在本发明实施例中,不同的视频帧中,每一帧视频帧的颜色特征、灰度特征、纹理特征等均有可能存在不同,因此从每一帧视频帧中提取的第一特征向量也不尽相同,该第一特征向量包括但不限于基于颜色特征、灰度特征和纹理特征所提取得到特征向量。
需要说明的是,所提取的第一特征向量为一维特征向量或多维特征向量。
在这里,假设RGB视频流包含有T帧视频帧,表示为<I1,I2,I3,...,IT>,设ψ(It)∈Rd为从视频帧It中所提取的第一特征向量,其中t∈[1,T],T为正整数,Rd表示维度为d的特征向量空间。
在步骤S302中,按照预设的特征向量计算公式,根据所述第一特征向量计算每个时间节点的第二特征向量。
在本发明实施例中,预设的特征向量计算公式具体为:
其中,Vt表示t时刻的第二参数特征向量,ψ(Iτ)表示视频帧Iτ的第一特征向量,τ∈[1,t]。
在步骤S303中,基于视频帧的正向时间顺序,根据所述第二特征向量和优化求解函数,计算得到若干个第一参数特征向量。
在本发明实施例中,按照t=1,2,...,T的顺序,通过优化求解函数对RGB视频流中的视频帧进行排序计算,得到若干个第一参数特征向量。
在这里,优化求解函数具体为:
其中,d为第一参数特征向量;为支持向量机SVM优化中的二次项;为对应视频帧在排序过程中的得分的错误累加;d表示第一参数特征向量;T表示所述RGB视频流的视频帧数;q和t表示两个不同的时间节点,并且q>t,q,t∈[1,T],T为正整数;S(t|d)表示时间节点为t时对应的视频帧的排序得分,S(q|d)表示时间节点为q时对应的视频帧的排序得分,其中,S(t|d)=<d,Vt>,d∈Rd,<d,Vt>表示两向量的内积,Vt表示t时刻的第二参数特征向量,Rd表示维度为d的特征向量空间,ψ(Iτ)表示视频帧Iτ的第一特征向量,τ∈[1,t]。
可以理解的是,求解第一参数特征向量的过程是一个凸优化过程,采用支持向量机SVM算法求解。
在步骤S304中,通过预设的映射函数,对若干个所述第一参数特征向量进行优化估计,得到第二参数特征向量。
在本发明实施例中,预设的映射函数为定义的从视频流到第二参数特征向量d*的映射函数,其具体为:
其中,d*是对d的优化估计,包含了视频流的视频帧的所有排序信息,且与视频流中的单帧视频帧的像素个数相等,即d*为整个视频流的描述子,可将解释为标准的视频源图像帧。
在步骤S305中,根据所述第二参数特征向量,得到所述RGB视频流对应的图像。
在本发明实施例中,第二参数特征向量中的部分数值,有可能会超过RGB的数值范围[0,255],这将会对卷积神经网络的收敛性造成很大的影响,从而导致卷积神经网络的识别准确率较低,因而在得到第二参数特征向量后,需要对第二参数特征向量中的超过RGB的数值范围的部分数值进行重置,将小于零的部分数值置为零,将大于255的部分数值置为255,从而保证第二参数特征向量的数据范围在RGB数据范围内
需要说明的是,通过凸优化计算得到的第二参数特征向量为一个与RGB视频帧具有相同尺寸的向量,其数值含义为对正向时间顺序的视频帧的排序权重。
还需要说明的是,第二参数特征向量为一个整体,具有所有视频帧的排序信息以及像素特征信息,也即时间维度信息和空间维度信息。
步骤S1022,对所述RGB视频流进行反向压缩排序,得到所述RGB视频流对应的另一张图像,即第一反向压缩图像。
在本发明实施例中,对RGB视频流进行反向压缩排序,具体为对RGB视频流中的所有视频帧的特征向量按照时间反向顺序进行预处理后得到的一个参数特征向量,该参数特征向量包含有所有视频帧的时间维度信息和空间维度信息,类似于将多帧图像进行叠加后得到的一帧动态图,但是该动态图实际上并不是动态的,而是一张如图2(b)所示的第一反向压缩图像,其包含有所有视频帧的时间维度信息的图像。
具体的,请参考图4,图4示出了本发明实施例提供的一种对RGB视频进行反向压缩排序的方法的具体实现流程图,详述如下:
在步骤S401中,提取所述RGB视频流中的视频帧的第一特征向量。
在本发明实施例中,步骤S401中提取的第一特征向量与步骤S301中提取的第一特征向量相同,这里不再赘述。
在步骤S402中,按照预设的特征向量计算公式,根据所述第一特征向量计算每个时间节点的第二特征向量。
在本发明实施例中,预设的特征向量计算公式以及第二特征向量与步骤S301中的相同,这里也不再赘述。
在步骤S403中,基于视频帧的反向时间顺序,根据所述第二特征向量和优化求解函数,计算得到若干个第一参数特征向量。
在本发明实施例中,按照t=T,T-1,,...,2,1的顺序,通过优化求解函数对RGB视频流中的视频帧进行排序计算,得到若干个第一参数特征向量。
在这里,优化求解函数与步骤S303中的相同,这里不再赘述。
需要说明的是,由于进行排序计算的顺序与步骤S303的不同,所得到的第一参数特征向量与步骤S303的也不同,即步骤S303中的第一参数特征向量与步骤S403中的第一参数特征向量并不相同。
在步骤S404中,通过预设的映射函数,对若干个所述第一参数特征向量进行优化估计,得到第二参数特征向量。
在本发明实施例中,预设的映射函数与步骤S304中的相同,由于第一参数特征向量与步骤S303中的不相同,使得步骤S404中得到的第二参数特征向量与步骤S304中的也不相同。
在步骤S405中,根据所述第二参数特征向量,得到所述RGB视频流对应的图像。
在本发明实施例中,所得到的RGB视频流对应的图像即为第一反向压缩图像。
步骤S1023,对所述深度视频流进行前向压缩排序,得到所述深度视频流对应的一张图像,即第二前向压缩图像。
在本发明实施例中,对深度视频流进行前向压缩排序,具体为对深度视频流中的所有视频帧的特征向量按照时间正向顺序进行预处理后得到的一个参数特征向量,该参数特征向量包含有所有视频帧的时间维度信息和空间维度信息,类似于将多帧图像进行叠加后得到的一帧动态图,但是该动态图实际上并不是动态的,而是一张如图2(c)所示的第二前向压缩图像,其包含有所有视频帧的时间维度信息的图像。
需要说明的是,对深度视频流进行前向压缩排序的具体方法参考图2提供的对RGB视频流进行前向压缩排序的具体实现步骤,所不同的仅是将RGB视频流替换为深度视频流,以及将RGB视频流的数据范围替换深度视频流的数据范围,这里不再赘述对深度视频流进行前向压缩排序的具体实现步骤。
步骤S1024,对所述深度视频流进行反向压缩排序,得到所述深度视频流对应的另一张图像,即第二反向压缩图像。
在本发明实施例中,对深度视频流进行反向压缩排序,具体为对深度视频流中的所有视频帧的特征向量按照时间反向顺序进行预处理后得到的一个参数特征向量,该参数特征向量包含有所有视频帧的时间维度信息和空间维度信息,类似于将多帧图像进行叠加后得到的一帧动态图,但是该动态图实际上并不是动态的,而是一张如图2(d)所示的第二反向压缩图像,其包含有所有视频帧的时间维度信息的图像。
需要说明的是,对深度视频流进行反向压缩排序的具体方法参考图4提供的对RGB视频流进行反向压缩排序的具体实现步骤,所不同的仅是将RGB视频流替换为深度视频流,以及将RGB视频流的数据范围替换深度视频流的数据范围,这里不再赘述对深度视频流进行反向压缩排序的具体实现步骤。
还需要说明的是,从第一前向压缩图像和第二前向压缩图像,可以明确看出视频流的开始帧对压缩图像影响较大,为了规避卷积神经网络训练过程中的权重偏差,还需要将第一反向压缩图像和第二反向压缩图像同时输入至卷积神经网络中进行预测分类,再根据卷积神经网络输出的预测结果进一步确定待检测行为的最终行为预测结果。
在步骤S103中,将所述RGB视频流对应的图像输入至第一卷积神经网络进行特征学习,得到所述RGB视频流对应的行为预测结果。
在本发明实施例中,通过第一卷积神经网络或第二卷积神经网络对所得到的图像实现时间维度和空间维度的特征学习,从而得到该图像对应的行为预测结果。
需要说明的是,这里所指的行为预测结果包括但不限于行为预测得分、行为预测分类。
可以理解的是,在将RGB视频流对应的图像输入至第一卷积神经网络进行特征学习,或者在将深度视频流对应的图像输入至第二卷积神经网络之前,还需要设置该第一卷积神经网络或第二卷积神经网络的参数以及训练该第一卷积神经网络或第二卷积神经网络使得其能够实现准确的行为识别,即在第一卷积神经网络或第二卷积神经网络的训练过程中,需要设置相应的超参数比如学习率、迭代规模、dropout、正则化等来实现第一卷积神经网络或第二卷积神经网络的快速收敛从而使得其训练后能够实现准确的行为识别。
在步骤S104中,将所述深度视频流对应的图像输入至第二卷积神经网络进行特征学习,得到所述深度视频流对应的行为预测结果。
在本发明实施例中,第一卷积神经网络和第二卷积神经网络均是由两个卷积神经网络组成,以避免因RGB视频流或深度视频流对应的图像的排序信息不同而频繁调整卷积神经网络参数的问题,提高了卷积神经网络的训练效率。
需要说明的是,构成第一卷积神经网络的两个卷积神经网络为结构相同,但具体参数不同的两个卷积神经网络,其可以选取现有的Inception、ResNet、ImageNet、TSN和双流网络等成熟网络模型,,也可以是自行设计的网络模型,在对所选取的网络模型的参数进行调整以及训练后使得其能够对RGB视频流或深度视频流对应的图像的行为进行预测分类,从而得到对应的行为预测结果。
具体的,在对所选取的网络模型进行参数训练的过程中,需要先对其进行改造,由于RGB视频帧为三通道,而深度视频帧为单通道,因而需要将所选取的网络模型的第一层参数数量修改为三通道或者单通道,以适应预训练模型参数规模,改造后可用随机初始化或者均值对其第一层进行初始化。同时,对于不同的行为识别任务,根据需要识别的动作种类,修改最后一层输出层的参数数量,并通过概率计算函数来输出概率最大的值对应的一类行为,从而完成行为动作的分类识别。
可以理解的是,第一卷积神经网络中的第一层参数数量为三通道,而第二卷积神经网络中的第一层参数数量为单通道。
需要说明的是,步骤S103和步骤S104并无严格的先后之分,即两者可以同时进行,也可以先进行步骤S103,后进行步骤S104,或者先进行步骤S104,后进行步骤S103,这里不做具体限定。
在步骤S105中,基于将所述RGB视频流对应的行为预测结果和所述深度视频流对应的行为预测结果,确定所述待检测行为的最终行为预测结果。
在本发明实施例中,将RGB视频流对应的行为预测结果设定为第一行为预测结果VRGB1和第二行为预测结果VRGB2,将深度视频流对应的行为预测结果设定第三行为预测结果VD1和第四行为预测结果VD2,对VRGB1、VRGB2、VD1和VD2进行加权融合比如通过点乘、加权相加或者最大值等方式实现最后的特征融合和行为分类识别,确定所述待检测行为的最终行为预测结果。
可选的,步骤S105具体为:
基于特征融合函数,将所述RGB视频流对应的行为预测结果和所述深度视频流对应的行为预测结果进行加权融合计算,得到所述待检测行为的最终行为预测结果。
在本发明实施例中,特征融合函数定义为:
V=λRGB(VRGB1+VRGB2)+λD(VD1+VD2)
其中,V表示最后的行为预测得分;λRGB和λD分别表示RGB视频帧和深度视频帧的融合权重。
需要说明的是,本发明实施例通过最后的行为预测得分V的结果来实现对待检测行为的识别分类,即根据最后的行为预测得分V来确定待检测行为的最终行为预测结果。
在本发明实施例中,通过获取待检测行为的RGB视频流和深度视频流,再基于视频帧的排序关系对两者进行双向压缩排序,再将进行双向压缩排序的得到RGB视频流对应的图像和深度视频对应的图像分别输入至第一卷积神经网络和第二卷积神经网络中得到对应的行为预测结果,再根据该行为预测结果确定所述待检测行为的最终行为预测结果,通过根据双向压缩排序得到的行为预测结果确定最终行为预测结果,克服了对RGB视频流和深度视频流序列学习过程中的局部性和片面性,通过两者的互补性很好地避免了单一模态因受到外在因素而导致的行为识别不准确的问题,极大地提高了行为识别的准确率。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑控制,而不应对本发明实施例的实施过程构成任何限定。
对应于上文实施例所述的一种行为识别方法,图5示出了本发明实施例提供的一种行为识别装置的示意图,为了便于说明,仅示出了与本发明实施例相关的部分。
参照图5,该装置包括:
视频流获取单元51,用于获取待检测行为的视频流,所述待检测行为的视频流包括RGB视频流和深度视频流;
双向压缩排序单元52,用于基于视频帧的排序关系,分别对所述RGB视频流和所述深度视频流进行双向压缩排序,得到所述RGB视频流对应的图像和所述深度视频对应的图像;
第一图像输入单元53,用于将所述RGB视频流对应的图像输入至第一卷积神经网络进行特征学习,得到所述RGB视频流对应的行为预测结果;
第二图像输入单元54,用于将所述深度视频流对应的图像输入至第二卷积神经网络进行特征学习,得到所述深度视频流对应的行为预测结果;
行为确定单元55,用于基于将所述RGB视频流对应的行为预测结果和所述深度视频流对应的行为预测结果,确定所述待检测行为的最终行为预测结果
具体的,所述双向压缩排序包括前向压缩排序和反向压缩排序,所述前向压缩排序为按照视频流的正向时间顺序对视频流中的所有视频帧进行压缩排序,所述反向压缩排序为按照视频流的反向时间顺序对视频流中的所有视频帧进行压缩排序。
具体的,所述双向压缩排序单元52包括:
第一前向压缩排序子单元,用于对所述RGB视频流进行前向压缩排序,得到所述RGB视频流对应的一张图像,即第一前向压缩图像;
第一反向压缩排序子单元,用于对所述RGB视频流进行反向压缩排序,得到所述RGB视频流对应的另一张图像,即第一反向压缩图像;
第二前向压缩排序子单元,用于对所述深度视频流进行前向压缩排序,得到所述深度视频流对应的一张图像,即第二前向压缩图像;
第二反向压缩排序子单元,用于对所述深度视频流进行反向压缩排序,得到所述深度视频流对应的另一张图像,即第二反向压缩图像。
具体的,所述第一前向压缩图像、所述第一反向压缩图像、所述第二前向压缩图像和所述第二反向压缩图像中均包含有所述待检测行为的视频流中的每一帧视频帧的时间维度信息和空间维度信息。
具体的,所述双向压缩排序单元52包括:
第一特征向量提取子单元,用于提取视频流中的视频帧的第一特征向量;
第二特征向量计算子单元,用于按照预设的特征向量计算公式,根据所述第一特征向量计算每个时间节点的第二特征向量;
第一参数特征向量求解子单元,用于基于视频帧的排序关系,根据所述第二特征向量和优化求解函数,计算得到若干个第一参数特征向量;
第二参数特征向量估计子单元,用于通过预设的映射函数,对若干个所述第一参数特征向量进行优化估计,得到第二参数特征向量;
图像处理单元,用于根据所述第二参数特征向量,得到视频流对应的图像。
具体的,所述优化求解函数为:
其中,为支持向量机SVM优化中的二次项;为对应视频帧在排序过程中的得分的错误累加;d表示第一参数特征向量;T表示视频流的视频帧数;q和t表示两个不同的时间节点,并且q>t,q,t∈[1,T],T为正整数;S(t|d)表示时间节点为t时对应的视频帧的排序得分,S(q|d)表示时间节点为q时对应的视频帧的排序得分,其中,S(t|d)=<d,Vt>,d∈Rd,<d,Vt>表示两向量的内积,Vt表示t时刻的第二参数特征向量,Rd表示维度为d的特征向量空间,ψ(Iτ)表示视频帧Iτ的第一特征向量,τ∈[1,t]。
具体的,所述行为确定单元56具体用于:
将所述RGB视频流对应的行为预测结果和所述深度视频流对应的行为预测结果进行加权融合计算,得到所述待检测行为的最终行为预测结果。
在本发明实施例中,通过获取待检测行为的RGB视频流和深度视频流,再基于视频帧的排序关系对两者进行双向压缩排序,再将进行双向压缩排序的得到RGB视频流对应的图像和深度视频对应的图像分别输入至第一卷积神经网络和第二卷积神经网络中得到对应的行为预测结果,再根据该行为预测结果确定所述待检测行为的最终行为预测结果,通过根据双向压缩排序得到的行为预测结果确定最终行为预测结果,克服了对RGB视频流和深度视频流序列学习过程中的局部性和片面性,通过两者的互补性很好地避免了单一模态因受到外在因素而导致的行为识别不准确的问题,极大地提高了行为识别的准确率。
图6是本发明一实施例提供的一种终端设备的示意图。如图6所示,该实施例的终端设备6包括:处理器60、存储器61以及存储在所述存储器61中并可在所述处理器60上运行的计算机程序62。所述处理器60执行所述计算机程序62时实现上述各个行为识别方法实施例中的步骤,例如图1所示的步骤101至105。或者,所述处理器60执行所述计算机程序62时实现上述各系统实施例中各单元的功能,例如图5所示模块51至55的功能。
示例性的,所述计算机程序62可以被分割成一个或多个单元,所述一个或者多个单元被存储在所述存储器61中,并由所述处理器60执行,以完成本发明。所述一个或多个单元可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述所述计算机程序62在所述终端设备6中的执行过程。例如,所述计算机程序62可以被分割成视频流获取单元51、双向压缩排序单元52、第一图像输入单元53、第二图像输入单元54、行为确定单元55,各单元具体功能如下:
视频流获取单元51,用于获取待检测行为的视频流,所述待检测行为的视频流包括RGB视频流和深度视频流;
双向压缩排序单元52,用于基于视频帧的排序关系,分别对所述RGB视频流和所述深度视频流进行双向压缩排序,得到所述RGB视频流对应的图像和所述深度视频对应的图像;
第一图像输入单元53,用于将所述RGB视频流对应的图像输入至第一卷积神经网络进行特征学习,得到所述RGB视频流对应的行为预测结果;
第二图像输入单元54,用于将所述深度视频流对应的图像输入至第二卷积神经网络进行特征学习,得到所述深度视频流对应的行为预测结果;
行为确定单元55,用于基于将所述RGB视频流对应的行为预测结果和所述深度视频流对应的行为预测结果,确定所述待检测行为的最终行为预测结果
具体的,所述双向压缩排序包括前向压缩排序和反向压缩排序,所述前向压缩排序为按照视频流的正向时间顺序对视频流中的所有视频帧进行压缩排序,所述反向压缩排序为按照视频流的反向时间顺序对视频流中的所有视频帧进行压缩排序。
具体的,所述双向压缩排序单元52包括:
第一前向压缩排序子单元,用于对所述RGB视频流进行前向压缩排序,得到所述RGB视频流对应的一张图像,即第一前向压缩图像;
第一反向压缩排序子单元,用于对所述RGB视频流进行反向压缩排序,得到所述RGB视频流对应的另一张图像,即第一反向压缩图像;
第二前向压缩排序子单元,用于对所述深度视频流进行前向压缩排序,得到所述深度视频流对应的一张图像,即第二前向压缩图像;
第二反向压缩排序子单元,用于对所述深度视频流进行反向压缩排序,得到所述深度视频流对应的另一张图像,即第二反向压缩图像。
具体的,所述第一前向压缩图像、所述第一反向压缩图像、所述第二前向压缩图像和所述第二反向压缩图像中均包含有所述待检测行为的视频流中的每一帧视频帧的时间维度信息和空间维度信息。
具体的,所述双向压缩排序单元52包括:
第一特征向量提取子单元,用于提取视频流中的视频帧的第一特征向量;
第二特征向量计算子单元,用于按照预设的特征向量计算公式,根据所述第一特征向量计算每个时间节点的第二特征向量;
第一参数特征向量求解子单元,用于基于视频帧的排序关系,根据所述第二特征向量和优化求解函数,计算得到若干个第一参数特征向量;
第二参数特征向量估计子单元,用于通过预设的映射函数,对若干个所述第一参数特征向量进行优化估计,得到第二参数特征向量;
图像处理单元,用于根据所述第二参数特征向量,得到视频流对应的图像。
具体的,所述优化求解函数为:
其中,为支持向量机SVM优化中的二次项;为对应视频帧在排序过程中的得分的错误累加;d表示第一参数特征向量;T表示视频流的视频帧数;q和t表示两个不同的时间节点,并且q>t,q,t∈[1,T],T为正整数;S(t|d)表示时间节点为t时对应的视频帧的排序得分,S(q|d)表示时间节点为q时对应的视频帧的排序得分,其中,S(t|d)=<d,Vt>,d∈Rd,<d,Vt>表示两向量的内积,Vt表示t时刻的第二参数特征向量,Rd表示维度为d的特征向量空间,ψ(Iτ)表示视频帧Iτ的第一特征向量,τ∈[1,t]。
具体的,所述行为确定单元56具体用于:
将所述RGB视频流对应的行为预测结果和所述深度视频流对应的行为预测结果进行加权融合计算,得到所述待检测行为的最终行为预测结果。
所述终端设备6包括但不限于桌上型计算机、笔记本、服务器、大型计算机等终端设备。所述终端设备6可包括,但不仅限于,处理器60、存储器61。本领域技术人员可以理解,图6仅仅是终端设备6的示例,并不构成对终端设备6的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述终端还可以包括输入输出设备、网络接入设备、总线等。
所称处理器60可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
所述存储器61可以是所述终端设备6的内部存储单元,例如终端设备6的硬盘或内存。所述存储器61也可以是所述终端设备6的外部存储设备,例如所述终端设备6上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。进一步地,所述存储器61还可以既包括所述终端设备6的内部存储单元也包括外部存储设备。所述存储器61用于存储所述计算机程序以及所述终端所需的其他程序和数据。所述存储器61还可以用于暂时地存储已经输出或者将要输出的数据。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述系统的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。上述系统中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
在本发明所提供的实施例中,应该理解到,所揭露的系统/终端设备和方法,可以通过其它的方式实现。例如,以上所描述的系统/终端设备实施例仅仅是示意性的,例如,所述模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,系统或单元的间接耦合或通讯连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或系统、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。
以上所述实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围,均应包含在本发明的保护范围之内。
Claims (10)
1.一种行为识别方法,其特征在于,所述行为识别方法包括:
获取待检测行为的视频流,所述待检测行为的视频流包括RGB视频流和深度视频流;
基于视频帧的排序关系,分别对所述RGB视频流和所述深度视频流进行双向压缩排序,得到所述RGB视频流对应的图像和所述深度视频对应的图像;
将所述RGB视频流对应的图像输入至第一卷积神经网络进行特征学习,得到所述RGB视频流对应的行为预测结果;
将所述深度视频流对应的图像输入至第二卷积神经网络进行特征学习,得到所述深度视频流对应的行为预测结果;
基于将所述RGB视频流对应的行为预测结果和所述深度视频流对应的行为预测结果,确定所述待检测行为的最终行为预测结果。
2.如权利要求1所述的行为识别方法,其特征在于,所述双向压缩排序包括前向压缩排序和反向压缩排序,所述前向压缩排序为按照视频流的正向时间顺序对视频流中的所有视频帧进行压缩排序,所述反向压缩排序为按照视频流的反向时间顺序对视频流中的所有视频帧进行压缩排序。
3.如权利要求2所述的行为识别方法,其特征在于,所述基于视频帧的排序关系,分别对所述RGB视频流和所述深度视频流进行双向压缩排序,得到所述RGB视频流对应的图像和所述深度视频对应的图像的步骤,包括:
对所述RGB视频流进行前向压缩排序,得到所述RGB视频流对应的一张图像,即第一前向压缩图像;
对所述RGB视频流进行反向压缩排序,得到所述RGB视频流对应的另一张图像,即第一反向压缩图像;
对所述深度视频流进行前向压缩排序,得到所述深度视频流对应的一张图像,即第二前向压缩图像;
对所述深度视频流进行反向压缩排序,得到所述深度视频流对应的另一张图像,即第二反向压缩图像。
4.如权利要求3所述的行为识别方法,其特征在于,所述第一前向压缩图像、所述第一反向压缩图像、所述第二前向压缩图像和所述第二反向压缩图像中均包含有所述待检测行为的视频流中的每一帧视频帧的时间维度信息和空间维度信息。
5.如权利要求1所述的行为识别方法,其特征在于,在所述基于视频帧的排序关系,分别对所述RGB视频流和所述深度视频流进行双向压缩排序,得到所述RGB视频流对应的图像和所述深度视频对应的图像的步骤中,包括:
提取视频流中的视频帧的第一特征向量;
按照预设的特征向量计算公式,根据所述第一特征向量计算每个时间节点的第二特征向量;
基于视频帧的排序关系,根据所述第二特征向量和优化求解函数,计算得到若干个第一参数特征向量;
通过预设的映射函数,对若干个所述第一参数特征向量进行优化估计,得到第二参数特征向量;
根据所述第二参数特征向量,得到视频流对应的图像。
7.如权利要求1至6任一所述的行为识别方法,其特征在于,所述基于将所述RGB视频流对应的行为预测结果和所述深度视频流对应的行为预测结果,确定所述待检测行为的最终行为预测结果的步骤,包括:
将所述RGB视频流对应的行为预测结果和所述深度视频流对应的行为预测结果进行加权融合计算,得到所述待检测行为的最终行为预测结果。
8.一种行为识别装置,其特征在于,所述行为识别装置包括:
视频流获取单元,用于获取待检测行为的视频流,所述待检测行为的视频流包括RGB视频流和深度视频流;
双向压缩排序单元,用于基于视频帧的排序关系,分别对所述RGB视频流和所述深度视频流进行双向压缩排序,得到所述RGB视频流对应的图像和所述深度视频对应的图像;
第一图像输入单元,用于将所述RGB视频流对应的图像输入至第一卷积神经网络进行特征学习,得到所述RGB视频流对应的行为预测结果;
第二图像输入单元,用于将所述深度视频流对应的图像输入至第二卷积神经网络进行特征学习,得到所述深度视频流对应的行为预测结果;
行为确定单元,用于基于将所述RGB视频流对应的行为预测结果和所述深度视频流对应的行为预测结果,确定所述待检测行为的最终行为预测结果。
9.一种终端设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至7任一项所述行为识别方法的步骤。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7任一项所述行为识别方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910718037.0A CN110633630B (zh) | 2019-08-05 | 2019-08-05 | 一种行为识别方法、装置及终端设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910718037.0A CN110633630B (zh) | 2019-08-05 | 2019-08-05 | 一种行为识别方法、装置及终端设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110633630A true CN110633630A (zh) | 2019-12-31 |
CN110633630B CN110633630B (zh) | 2022-02-01 |
Family
ID=68969024
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910718037.0A Active CN110633630B (zh) | 2019-08-05 | 2019-08-05 | 一种行为识别方法、装置及终端设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110633630B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111931713A (zh) * | 2020-09-21 | 2020-11-13 | 成都睿沿科技有限公司 | 一种异常行为检测方法、装置、电子设备及存储介质 |
CN112257526A (zh) * | 2020-10-10 | 2021-01-22 | 中国科学院深圳先进技术研究院 | 一种基于特征交互学习的动作识别方法及终端设备 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170185872A1 (en) * | 2015-12-28 | 2017-06-29 | Qualcomm Incorporated | Automatic detection of objects in video images |
US20180137362A1 (en) * | 2016-11-14 | 2018-05-17 | Axis Ab | Action recognition in a video sequence |
CN108573232A (zh) * | 2018-04-17 | 2018-09-25 | 中国民航大学 | 基于卷积神经网络的人体动作识别方法 |
CN108921047A (zh) * | 2018-06-12 | 2018-11-30 | 江西理工大学 | 一种基于跨层融合的多模型投票均值动作识别方法 |
CN109446923A (zh) * | 2018-10-10 | 2019-03-08 | 北京理工大学 | 基于训练特征融合的深度监督卷积神经网络行为识别方法 |
-
2019
- 2019-08-05 CN CN201910718037.0A patent/CN110633630B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170185872A1 (en) * | 2015-12-28 | 2017-06-29 | Qualcomm Incorporated | Automatic detection of objects in video images |
US20180137362A1 (en) * | 2016-11-14 | 2018-05-17 | Axis Ab | Action recognition in a video sequence |
CN108573232A (zh) * | 2018-04-17 | 2018-09-25 | 中国民航大学 | 基于卷积神经网络的人体动作识别方法 |
CN108921047A (zh) * | 2018-06-12 | 2018-11-30 | 江西理工大学 | 一种基于跨层融合的多模型投票均值动作识别方法 |
CN109446923A (zh) * | 2018-10-10 | 2019-03-08 | 北京理工大学 | 基于训练特征融合的深度监督卷积神经网络行为识别方法 |
Non-Patent Citations (3)
Title |
---|
PICHAO WANG ET AL.: "Cooperative training of deep aggregation networks for RGB-D action recognition", 《ARXIV》 * |
PICHAO WANG ET AL.: "Structured images for RGB-D action recognition", 《2017 IEEE INTERNATIONAL CONFERENCE ON COMPUTER VISION WORKSHOPS(ICCVW)》 * |
刘阳阳: "基于深度神经网络的RGB-D图像识别算法研究", 《万方优秀硕士学位论文全文库》 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111931713A (zh) * | 2020-09-21 | 2020-11-13 | 成都睿沿科技有限公司 | 一种异常行为检测方法、装置、电子设备及存储介质 |
CN112257526A (zh) * | 2020-10-10 | 2021-01-22 | 中国科学院深圳先进技术研究院 | 一种基于特征交互学习的动作识别方法及终端设备 |
WO2022073282A1 (zh) * | 2020-10-10 | 2022-04-14 | 中国科学院深圳先进技术研究院 | 一种基于特征交互学习的动作识别方法及终端设备 |
Also Published As
Publication number | Publication date |
---|---|
CN110633630B (zh) | 2022-02-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111192292B (zh) | 基于注意力机制与孪生网络的目标跟踪方法及相关设备 | |
WO2021043168A1 (zh) | 行人再识别网络的训练方法、行人再识别方法和装置 | |
WO2020119527A1 (zh) | 人体动作识别方法、装置、终端设备及存储介质 | |
CN109960742B (zh) | 局部信息的搜索方法及装置 | |
CN111161311A (zh) | 一种基于深度学习的视觉多目标跟踪方法及装置 | |
CN111860398B (zh) | 遥感图像目标检测方法、系统及终端设备 | |
CN112257526B (zh) | 一种基于特征交互学习的动作识别方法及终端设备 | |
CN102831427B (zh) | 一种融合视觉显著性和灰度共生矩的纹理特征提取方法 | |
CN108875482B (zh) | 物体检测方法和装置、神经网络训练方法和装置 | |
CN111738344A (zh) | 一种基于多尺度融合的快速目标检测方法 | |
CN108734127B (zh) | 年龄识别值调整方法、装置、设备及存储介质 | |
CN111079764A (zh) | 一种基于深度学习的低照度车牌图像识别方法及装置 | |
CN111242068B (zh) | 基于视频的行为识别方法、装置、电子设备和存储介质 | |
CN111597933A (zh) | 人脸识别方法和装置 | |
CN110633630B (zh) | 一种行为识别方法、装置及终端设备 | |
CN114170558B (zh) | 用于视频处理的方法、系统、设备、介质和产品 | |
CN113822871A (zh) | 基于动态检测头的目标检测方法、装置、存储介质及设备 | |
CN112183359A (zh) | 视频中的暴力内容检测方法、装置及设备 | |
CN114820755B (zh) | 一种深度图估计方法及系统 | |
CN111104965A (zh) | 车辆目标识别的方法及装置 | |
CN110781223A (zh) | 数据处理方法及装置、处理器、电子设备及存储介质 | |
CN113724176B (zh) | 一种多摄像头动作捕捉无缝衔接方法、装置、终端及介质 | |
CN115220574A (zh) | 位姿确定方法及装置、计算机可读存储介质和电子设备 | |
CN114998172A (zh) | 图像处理方法及相关系统 | |
CN110969651B (zh) | 3d景深估计方法、装置及终端设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |