CN107346414A - 行人属性识别方法和装置 - Google Patents
行人属性识别方法和装置 Download PDFInfo
- Publication number
- CN107346414A CN107346414A CN201710372619.9A CN201710372619A CN107346414A CN 107346414 A CN107346414 A CN 107346414A CN 201710372619 A CN201710372619 A CN 201710372619A CN 107346414 A CN107346414 A CN 107346414A
- Authority
- CN
- China
- Prior art keywords
- information point
- time information
- trajectory
- space time
- pedestrian
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/53—Recognition of crowd images, e.g. recognition of crowd congestion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
- G06V20/47—Detecting features for summarising video content
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
本发明提供一种行人属性识别方法和装置。此方法,包括:获取行人视频帧序列中的多帧图像;对多帧图像中的第一帧图像上选取至少一个时空信息点;并获取时空信息点在后续帧图像上的位置;根据多帧图像上出现的时空信息点位置得到时空信息点在所述预设周期内所形成的轨迹线;提取轨迹线在多帧图像中的每帧图像内对应的局部位置处的局部特征,获取每条轨迹线对应的轨迹线特征向量;轨迹线特征向量由所述轨迹线在多帧图像内的各个局部特征串联得到;通过聚类将轨迹线特征向量整合成行人属性特征向量,用于表征目标行人的属性。本发明在图像特征中加入了行人运动信息,因此具备更好的鲁棒性和稳定性,提高了多视角下目标行人再识别的准确度。
Description
技术领域
本发明涉及图像处理技术,尤其涉及一种行人属性识别方法和装置。
背景技术
目前针对多视角下的行人再识别技术,通常采用对不同摄像头在不同地点拍摄的单张图片进行颜色和纹理的描述,从而提取出单张图片的纹理特征,并根据所述纹理特征判断出不同摄像头拍摄到的行人是否为同一个人。但是,这种基于单张图片的特征提取方案鲁棒性差,容易受到光照、拍摄角度等因素的影响,稳定性差。
发明内容
本发明提供一种行人属性识别方法和装置,实现了多视角下对目标行人视频中多帧图像的特征向量提取,根据提取的特征向量表示目标行人的属性,鲁棒性和稳定性好。
第一方面,本发明实施例提供一种行人属性识别方法,包括:
获取行人视频帧序列中的多帧图像;
对所述多帧图像中的每帧图像分别进行N次缩放处理,得到N组不同尺寸的多帧图像,N为大于1的整数;
对所述多帧图像中的第一帧图像对应的N幅不同尺寸的图像分别进行点阵划分,得到所述多帧图像中第一帧图像的N幅不同尺寸的图像所对应的N个密集阵列;
从所述N个密集阵列上选取至少一个时空信息点;
从所述多帧图像的第一帧图像开始依次获取所述时空信息点在后续帧图像上的位置;其中,通过所述多帧图像中相邻两帧图像的光流跟踪得到前一帧图像的时空信息点在相邻的后一帧图像上的位置;
根据预设周期内在所述多帧图像上出现的时空信息点位置,得到所述时空信息点在所述预设周期内所形成的轨迹线;
提取每条轨迹线在所述多帧图像中的每帧图像内对应的局部位置处的局部特征,获取每条轨迹线对应的轨迹线特征向量;所述轨迹线特征向量由所述轨迹线在所述多帧图像内的各个局部特征串联得到;
通过聚类将所述轨迹线特征向量整合成行人属性特征向量,所述行人属性特征向量用于表征目标行人的属性。
可选地,所述获取行人视频帧序列中的多帧图像包括:
获取摄像头在预设周期内拍摄到的目标行人视频文件;
从所述目标行人视频文件中选取所述多帧图像。
可选地,所述通过所述多帧图像中相邻两帧图像的光流跟踪得到前一帧图像的时空信息点在相邻的后一帧图像上的位置包括:
选取第t帧的时空信息点,所述时空信息点记为:Pt,Pt=(xt,yt),则通过光流跟踪所述时空信息点Pt在第t+1帧图像的位置的公式如下:
式中:Pt+1为第t+1帧图像上的与时空信息点Pt对应的时空信息点,Pt为第t帧图像上的时空信息点,xt为时空信息点Pt关于X轴坐标的值,yt为时空信息点Pt关于Y轴坐标的值,xt+1为时空信息点Pt+1关于X轴坐标的值,yt+1为时空信息点Pt+1关于Y轴坐标的值,M为中值滤波的核,ω为光流场向量,*表示点积运算,为整数化后的信息点水平位置,为整数化后的信息点垂直位置,为信息点最终位移量。
可选地,所述提取每一条轨迹线在所述多帧图像中的每一帧图像内对应的局部位置处的局部特征包括:
在每条轨迹线周围提取梯度直方图描述符(Histogram of GradientDescriptor,HOG)、光流的柱状图描述符(Histogram of Optical Flow Descriptor,HOF)和运动边缘直方图描述符(Motion Boundary Histogram Descripto,MBH)。
可选地,所述通过聚类将所述轨迹线特征向量整合成行人属性特征向量,包括:
将目标行人的T个轨迹线特征向量聚类成一个集合,所述集合包含R个属性元素,R为大于0的整数,且R的值小于T的值,所述集合中的每一个属性元素表示一类轨迹线特征向量;则目标行人的T条轨迹线所对应的长度为R的属性向量即为目标行人的属性特征向量。
可选地,所述通过聚类将所述轨迹线特征向量整合成行人属性特征向量,包括:采用词袋模型将所述轨迹线特征向量整合成行人属性特征向量;
将目标行人的T个轨迹线特征向量聚类成一个包含有W个词的词典,T为大于0的整数,W为大于0的整数,且W的值小于T的值;词典中的每个词表示一类轨迹线特征向量;则目标行人的T条轨迹线所对应的长度为W的词向量即为目标行人的属性特征向量。
第二方面,本发明实施例提供一种行人属性识别装置,包括:第一提取模块、图像缩放模块、密集采样模块、选取模块、光流跟踪模块、轨迹线生成模块、第二提取模块、属性表征模块;
所述第一提取模块,用于获取行人视频帧序列中的多帧图像;
所述图像缩放模块,用于对所述多帧图像中的每帧图像分别进行N次缩放处理,得到N组不同尺寸的多帧图像,N为大于1的整数;
所述密集采样模块,用于对所述多帧图像中的第一帧图像对应的N幅不同尺寸的图像分别进行点阵划分,得到所述多帧图像中第一帧图像的N幅不同尺寸的图像所对应的N个密集阵列;
所述选取模块,用于从所述N个密集阵列上选取至少一个时空信息点;
所述光流跟踪模块,用于从所述多帧图像的第一帧图像开始依次获取所述时空信息点在后续帧图像上的位置;具体地,通过所述多帧图像中相邻两帧图像的光流跟踪得到前一帧图像的时空信息点在相邻的后一帧图像上的位置;
所述轨迹线生成模块,用于根据一个周期内在所述多帧图像上出现的时空信息点位置得到所述时空信息点在所述一个周期内所形成的轨迹线;
所述第二提取模块,用于提取每一条轨迹线在所述多帧图像中的每一帧图像内对应的局部位置处的局部特征,获取每条轨迹线对应的轨迹线特征向量;所述轨迹线特征向量由所述轨迹线在所述多帧图像内的各个局部特征串联得到;
所述属性表征模块,用于通过聚类将所述轨迹线特征向量整合成行人属性特征向量,所述行人属性特征向量用于表征目标行人的属性。
可选地,所述第一提取模块具体用于:获取摄像头在预设周期内拍摄到的目标行人视频文件,从所述目标行人视频文件中选取所述多帧图像。
可选地,所述光流跟踪模块具体用于:选取第t帧的时空信息点,所述时空信息点记为:Pt,Pt=(xt,yt),则通过光流跟踪所述时空信息点Pt在第t+1帧图像的位置的公式如下:
式中:Pt+1为第t+1帧图像上的与时空信息点Pt对应的时空信息点,Pt为第t帧图像上的时空信息点,xt为时空信息点Pt关于X轴坐标的值,yt为时空信息点Pt关于Y轴坐标的值,xt+1为时空信息点Pt+1关于X轴坐标的值,yt+1为时空信息点Pt+1关于Y轴坐标的值,M为中值滤波的核,ω为光流场向量,*表示点积运算,为整数化后的信息点水平位置,为整数化后的信息点垂直位置,为信息点最终位移量。
可选地,所述第二提取模块具体用于:在每一条轨迹线周围提取梯度直方图描述符(Histogram of Gradient Descriptor,HOG)、光流的柱状图描述符(Histogram ofOptical Flow Descriptor,HOF)和运动边缘直方图描述符(Motion Boundary HistogramDescripto,MBH)。
可选地,所述属性表征模块具体用于:将目标行人的T个轨迹线特征向量聚类成一个集合,所述集合包含R个属性元素,R为大于0的整数,且R的值小于T的值,所述集合中的每一个属性元素表示一类轨迹线特征向量;则目标行人的T条轨迹线所对应的长度为R的属性向量即为目标行人的属性特征向量。
可选地,所述属性表征模块具体用于采用词袋模型将所述轨迹线特征向量整合成行人属性特征向量;包括:将目标行人的T个轨迹线特征向量聚类成一个包含有W个词的词典,T为大于0的整数,W为大于0的整数,且W的值小于T的值;词典中的每个词表示一类轨迹线特征向量;则目标行人的T条轨迹线所对应的长度为W的词向量即为目标行人的属性特征向量。
第三方面,本发明实施例提供一种行人属性识别装置,包括存储器和处理器,
所述存储器用于存储程序;
所述处理器,用于执行所述存储器存储的所述程序,当所述程序被执行时,所述处理器用于执行如第一方面中任一所述的方法。
第四方面,本发明实施例提供一种计算机可读存储介质,包括指令,当其在计算机上运行时,使得计算机执行如第一方面中任一所述的方法。
本发明,通过从目标行人在多视角下的视频帧序列中获取多帧图像,并对所述多帧图像进行缩放后密集采样得到至少一个时空信息点。通过光流跟踪所述时空信息点在多帧图像中的位置,串联所述时空信息点在多帧图像中对应的位置从而得到了包含目标行人运动信息的轨迹线,在所述轨迹线周围提取局部特征。根据提取到的局部特征获得轨迹线特征向量,由所述轨迹线特征向量聚类得到行人属性特征向量,依据所述行人属性特征向量来表示目标行人的属性。从而能够避免了针对单张图像特征提取的局限性,在图像特征中加入了行人运动信息,因此具备更好的鲁棒性和稳定性,提高了多视角下目标行人再识别的准确度。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例一提供的行人属性识别方法的流程图;
图2为本发明实施例二提供的行人属性识别方法的流程图;
图3为本发明实施例三提供的行人属性识别方法的流程图;
图4为本发明实施例四提供的行人属性识别方法的流程图;
图5为本发明实施例一提供的行人属性识别装置的结构示意图;
图6为本发明实施例二提供的行人属性识别装置的结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
图1为本发明实施例一提供的行人属性识别方法的流程图,如图1所示,本实施例的方法可以包括:
S101、获取行人视频帧序列中的多帧图像。
本实施例中,首先获取拍摄到的一段行人视频,所述行人视频中包含有多帧连续的图像帧,从所述连续的图像帧中选出多帧图像,例如可以选取连续的U帧图像,或者按照等时间差选取不连续的U张图像,U为大于1的整数。
S102、对所述多帧图像中的每帧图像分别进行N次缩放处理,得到N组不同尺寸的多帧图像,N为大于1的整数。
本实施例中,对选取的多帧图像进行N次缩放处理,例如对U张选取的图像进行N此缩放处理之后,得到N组不同尺寸的多帧图像,每组多帧图像中包含U张图像,其中N为大于1的整数。
S103、对所述多帧图像中的第一帧图像对应的N幅不同尺寸的图像分别进行点阵划分,得到所述多帧图像中第一帧图像的N幅不同尺寸的图像所对应的N个密集阵列。
本实施例中,对所述多帧图像的第一帧图像进行点阵划分,由于经过了N次缩放处理,因此所述多帧图像的第一帧图像就对应有N幅不同尺寸的图像。对所述N幅不同尺寸的图像进行点阵划分,划分后得到N个密集阵列(即划分时标注的点阵)。
S104、从所述N个密集阵列上选取至少一个时空信息点。
本实施例中,从N个密集阵列的点阵中选取至少一个时空信息点,例如按照人体部位进行选取(腿部、手、头等)。
S105、从所述多帧图像的第一帧图像开始依次获取所述时空信息点在后续帧图像上的位置;其中,通过所述多帧图像中相邻两帧图像的光流跟踪得到前一帧图像的时空信息点在相邻的后一帧图像上的位置。
本实施例中,通过所述多帧图像中相邻两帧图像的光流跟踪得到前一帧图像的时空信息点在相邻的后一帧图像上的位置。由第一帧图像上选取的时空信息点根据光流跟踪方式可以得到所述时空信息点在第二帧图像上的位置,依次类推,通过第二帧图像上时空信息点的位置跟踪得到所述时空信息点在第三帧图像上的位置。因此可以获得所述时空信息点在所述多帧图像中的每一帧图像上的相应位置。
S106、根据预设周期内在所述多帧图像上出现的时空信息点位置,得到所述时空信息点在所述预设周期内所形成的轨迹线。
本实施例中,在获得预设周期内在所述多帧图像上出现的时空信息点位置后,依次将所述时空信息点的位置相连,得到在预设周期内所述时空信息点的轨迹线。
S107、提取每条轨迹线在所述多帧图像中的每帧图像内对应的局部位置处的局部特征,获取每条轨迹线对应的轨迹线特征向量;所述轨迹线特征向量由所述轨迹线在所述多帧图像内的各个局部特征串联得到。
本实施例中,通过对轨迹线在多帧图像中每帧图像所对应的位置周围提取局部特征,提取的局部特征串联之后即构成了轨迹线特征向量。
S108、通过聚类将所述轨迹线特征向量整合成行人属性特征向量,所述行人属性特征向量用于表征目标行人的属性。
本实施例中,通过对轨迹线特征向量进行聚类处理,得到至少一个行人属性特征向量。聚类中涉及到对轨迹线特征向量的分析,例如将符合同一属性的轨迹线划分为一个类别,并对该类别进行定性,定性的结果构成行人属性特征向量,所述行人属性特征向量能够表征目标行人的属性。
本实施例,通过从目标行人在多视角下的视频帧序列中获取多帧图像,并对所述多帧图像进行缩放后密集采样得到至少一个时空信息点。通过光流跟踪所述时空信息点在多帧图像中的位置,串联所述时空信息点在多帧图像中对应的位置从而得到了包含目标行人运动信息的轨迹线,在所述轨迹线周围提取局部特征。根据提取到的局部特征获得轨迹线特征向量,由所述轨迹线特征向量聚类得到行人属性特征向量,依据所述行人属性特征向量来表示目标行人的属性。从而能够避免了针对单张图像特征提取的局限性,在图像特征中加入了行人运动信息,因此具备更好的鲁棒性和稳定性,提高了多视角下目标行人再识别的准确度。
图2为本发明实施例二提供的行人属性识别方法的流程图,如图2所示,本实施例的方法可以包括:
S201、获取摄像头在预设周期内拍摄到的目标行人视频文件。
本实施例中,摄像头拍摄下包含目标行人在内的在预设周期内的一段视频,所述视频被保存在设定的文件夹中。所述目标行人是指需要监控或者观察的指定行人,例如在多视角下对不重叠摄像头获取的某一行人的视频进行识别,判断出现在不同摄像头中的行人是否属于同一个人,则需要判别的行人即为目标行人。
S202、从所述目标行人视频文件中选取所述多帧图像。
本实施例中,从设定的文件夹中获取包含目标行人在内的视频文件,所述视频文件中包含有连续的多帧图像,从所述连续的多帧图像中选取多帧图像,例如可以选取连续的U帧图像,或者按照等时间差选取不连续的U张图像,U为大于1的整数。
S203、对所述多帧图像中的每帧图像分别进行N次缩放处理,得到N组不同尺寸的多帧图像,N为大于1的整数。
S204、对所述多帧图像中的第一帧图像对应的N幅不同尺寸的图像分别进行点阵划分,得到所述多帧图像中第一帧图像的N幅不同尺寸的图像所对应的N个密集阵列。
S205、从所述N个密集阵列上选取至少一个时空信息点。
S206、从所述多帧图像的第一帧图像开始依次获取所述时空信息点在后续帧图像上的位置;其中,通过所述多帧图像中相邻两帧图像的光流跟踪得到前一帧图像的时空信息点在相邻的后一帧图像上的位置。
S207、根据预设周期内在所述多帧图像上出现的时空信息点位置,得到所述时空信息点在所述预设周期内所形成的轨迹线。
S208、提取每条轨迹线在所述多帧图像中的每帧图像内对应的局部位置处的局部特征,获取每条轨迹线对应的轨迹线特征向量;所述轨迹线特征向量由所述轨迹线在所述多帧图像内的各个局部特征串联得到。
S209、通过聚类将所述轨迹线特征向量整合成行人属性特征向量,所述行人属性特征向量用于表征目标行人的属性。
本实施例中的S203-S209的具体实现过程参见图1提供的实施例中关于S102-S108的相关描述,在此不再赘述。
可选地,所述通过所述多帧图像中相邻两帧图像的光流跟踪得到前一帧图像的时空信息点在相邻的后一帧图像上的位置包括:
选取第t帧的时空信息点,所述时空信息点记为:Pt,Pt=(xt,yt),则通过光流跟踪所述时空信息点Pt在第t+1帧图像的位置的公式如下:
式中:Pt+1为第t+1帧图像上的与时空信息点Pt对应的时空信息点,Pt为第t帧图像上的时空信息点,xt为时空信息点Pt关于X轴坐标的值,yt为时空信息点Pt关于Y轴坐标的值,xt+1为时空信息点Pt+1关于X轴坐标的值,yt+1为时空信息点Pt+1关于Y轴坐标的值,M为中值滤波的核,ω为光流场向量,*表示点积运算,为整数化后的信息点水平位置,为整数化后的信息点垂直位置,为信息点最终位移量。
本实施例,通过摄像头获取在预设周期内拍摄到的目标行人视频文件,并在视频文件中选取多帧图像,并对所述多帧图像进行缩放后密集采样得到至少一个时空信息点。通过光流跟踪所述时空信息点在多帧图像中的位置,串联所述时空信息点在多帧图像中对应的位置从而得到了包含目标行人运动信息的轨迹线,在所述轨迹线周围提取局部特征。根据提取到的局部特征获得轨迹线特征向量,由所述轨迹线特征向量聚类得到行人属性特征向量,依据所述行人属性特征向量来表示目标行人的属性。从而能够避免了针对单张图像特征提取的局限性,在图像特征中加入了行人运动信息,因此具备更好的鲁棒性和稳定性,提高了多视角下目标行人再识别的准确度。
图3为本发明实施例三提供的行人属性识别方法的流程图,如图3所示,本实施例的方法可以包括:
S301、获取行人视频帧序列中的多帧图像。
S302、对所述多帧图像中的每帧图像分别进行N次缩放处理,得到N组不同尺寸的多帧图像,N为大于1的整数。
S303、对所述多帧图像中的第一帧图像对应的N幅不同尺寸的图像分别进行点阵划分,得到所述多帧图像中第一帧图像的N幅不同尺寸的图像所对应的N个密集阵列。
S304、从所述N个密集阵列上选取至少一个时空信息点。
S305、从所述多帧图像的第一帧图像开始依次获取所述时空信息点在后续帧图像上的位置;其中,通过所述多帧图像中相邻两帧图像的光流跟踪得到前一帧图像的时空信息点在相邻的后一帧图像上的位置。
S306、根据预设周期内在所述多帧图像上出现的时空信息点位置,得到所述时空信息点在所述预设周期内所形成的轨迹线。
本实施例中S301-S306的具体实现过程参见图1提供的实施例中关于S101-S106的相关描述,在此不再赘述。
S307、在每条轨迹线周围提取梯度直方图描述符(Histogram of GradientDescriptor,HOG)、光流的柱状图描述符(Histogram of Optical Flow Descriptor,HOF)和运动边缘直方图描述符(Motion Boundary Histogram Descripto,MBH),获取每条轨迹线对应的轨迹线特征向量;所述轨迹线特征向量由所述轨迹线在所述多帧图像内的各个局部特征串联得到。
本实施例中,通过对轨迹线在多帧图像中每帧图像所对应的位置周围提取局部特征,提取的局部特征串联之后即构成了轨迹线特征向量。其中,HOG描述子的定义、HOF描述子的定义、MBH描述子的定义为现有技术,在此不再赘述。
可选地,在每条轨迹线周围提取梯度直方图描述符HOG包括:
选取在轨迹线经过的时空信息点周围的局部图像区域。
计算所述局部图像区域中每个像素的梯度,将所述局部图像区域划分为若干个单元格,获取单个单元格的梯度方向直方图。用以保持对图像中人体对象的姿势和外观的弱敏感性。例如对每个单元格内的每个像素用梯度方向在直方图中进行加权投影(映射到固定的角度范围),就可以得到对应单元格的梯度方向直方图。
统计每个单元格的梯度直方图,得到所述局部图像区域的完整梯度直方图,所述局部图像区域的完整梯度直方图即为HOG特征。
可选地,在每条轨迹线周围提取光流的柱状图描述符HOF包括:根据所述多帧图像中相邻两帧图像的光流,提取轨迹线经过的时空信息点周围的局部图像的光流场方向和梯度。
可选地,在每条轨迹线周围提取运动边缘直方图描述符MBH包括:对轨迹线经过的时空信息点周围的局部图像的光流场进行边缘检测和轮廓信息提取。例如将光流场分为垂直方向Iy和Ix,然后找到垂直方向和水平方向梯度值最大的部分作为光流场的特征。
S308、通过聚类将所述轨迹线特征向量整合成行人属性特征向量,所述行人属性特征向量用于表征目标行人的属性。
本实施例中S308的具体实现过程参见图1提供的实施例中关于S108的相关描述,在此不再赘述。
本实施例,通过从目标行人在多视角下的视频帧序列中获取多帧图像,并对所述多帧图像进行缩放后密集采样得到至少一个时空信息点。通过光流跟踪所述时空信息点在多帧图像中的位置,串联所述时空信息点在多帧图像中对应的位置从而得到了包含目标行人运动信息的轨迹线,在每条轨迹线周围提取梯度直方图描述符(Histogram of GradientDescriptor,HOG)、光流的柱状图描述符(Histogram of Optical Flow Descriptor,HOF)和运动边缘直方图描述符(Motion Boundary Histogram Descripto,MBH),获取每条轨迹线对应的轨迹线特征向量。根据提取到的局部特征获得轨迹线特征向量,由所述轨迹线特征向量聚类得到行人属性特征向量,依据所述行人属性特征向量来表示目标行人的属性。从而能够避免了针对单张图像特征提取的局限性,在图像特征中加入了行人运动信息,因此具备更好的鲁棒性和稳定性,提高了多视角下目标行人再识别的准确度。
需要说明的是,本实施例中在轨迹线周围提取的局部特征还包括:纹理(LocalBinary Pattern,LBP)特征、尺度不变特征变换(Scale Invariant Feature Transform,SIFT)特征等,但是本发明不限于此。
图4为本发明实施例四提供的行人属性识别方法的流程图,如图4所示,本实施例的方法在图1-图3任一所示方法的基础上,可以包括:
S401、获取行人视频帧序列中的多帧图像。
S402、对所述多帧图像中的每帧图像分别进行N次缩放处理,得到N组不同尺寸的多帧图像,N为大于1的整数。
S403、对所述多帧图像中的第一帧图像对应的N幅不同尺寸的图像分别进行点阵划分,得到所述多帧图像中第一帧图像的N幅不同尺寸的图像所对应的N个密集阵列。
S404、从所述N个密集阵列上选取至少一个时空信息点。
S405、从所述多帧图像的第一帧图像开始依次获取所述时空信息点在后续帧图像上的位置;其中,通过所述多帧图像中相邻两帧图像的光流跟踪得到前一帧图像的时空信息点在相邻的后一帧图像上的位置。
S406、根据预设周期内在所述多帧图像上出现的时空信息点位置,得到所述时空信息点在所述预设周期内所形成的轨迹线。
S407、提取每条轨迹线在所述多帧图像中的每帧图像内对应的局部位置处的局部特征,获取每条轨迹线对应的轨迹线特征向量;所述轨迹线特征向量由所述轨迹线在所述多帧图像内的各个局部特征串联得到。
本实施例中S401-S407的具体实现过程参见图1提供的实施例中关于S101-S107的相关描述,在此不再赘述。
S408、将目标行人的T个轨迹线特征向量聚类成一个集合,所述集合包含R个属性元素,R为大于0的整数,且R的值小于T的值,所述集合中的每一个属性元素表示一类轨迹线特征向量;则目标行人的T条轨迹线所对应的长度为R的属性向量即为目标行人的属性特征向量。
可选地,所述属性表征模块具体用于采用词袋模型将所述轨迹线特征向量整合成行人属性特征向量;包括:将目标行人的T个轨迹线特征向量聚类成一个包含有W个词的词典,T为大于0的整数,W为大于0的整数,且W的值小于T的值;词典中的每个词表示一类轨迹线特征向量;则目标行人的T条轨迹线所对应的长度为W的词向量即为目标行人的属性特征向量。
需要说明的是,本实施例中的聚类方法还包括:费舍尔向量(Fisher Vector)方法,但是本发明不限于此。
本实施例中,通过对轨迹线特征向量进行聚类处理,得到至少一个行人属性特征向量。聚类中涉及到对轨迹线特征向量的分析,例如将符合同一属性的T条轨迹线划分为一个类别(每个类别对应一个属性),并对该类别进行定性,定性的结果构成行人属性特征向量,所述行人属性特征向量能够表征目标行人的属性。其中,属性的个数一般远小于轨迹线特征向量的个数。
本实施例,通过从目标行人在多视角下的视频帧序列中获取多帧图像,并对所述多帧图像进行缩放后密集采样得到至少一个时空信息点。通过光流跟踪所述时空信息点在多帧图像中的位置,串联所述时空信息点在多帧图像中对应的位置从而得到了包含目标行人运动信息的轨迹线,在所述轨迹线周围提取局部特征。根据提取到的局部特征获得轨迹线特征向量,由所述轨迹线特征向量聚类得到行人属性特征向量,依据所述行人属性特征向量来表示目标行人的属性。从而能够避免了针对单张图像特征提取的局限性,在图像特征中加入了行人运动信息,因此具备更好的鲁棒性和稳定性,提高了多视角下目标行人再识别的准确度。
图5为本发明实施例一提供的行人属性识别装置的结构示意图,如图5所示,本实施例的装置包括:第一提取模块11、图像缩放模块12、密集采样模块13、选取模块14、光流跟踪模块15、轨迹线生成模块16、第二提取模块17、属性表征模块18。
所述第一提取模块11,用于获取行人视频帧序列中的多帧图像。
所述图像缩放模块12,用于对所述多帧图像中的每帧图像分别进行N次缩放处理,得到N组不同尺寸的多帧图像,N为大于1的整数。
所述密集采样模块13,用于对所述多帧图像中的第一帧图像对应的N幅不同尺寸的图像分别进行点阵划分,得到所述多帧图像中第一帧图像的N幅不同尺寸的图像所对应的N个密集阵列。
所述选取模块14,用于从所述N个密集阵列上选取至少一个时空信息点。
所述光流跟踪模块15,用于从所述多帧图像的第一帧图像开始依次获取所述时空信息点在后续帧图像上的位置;具体地,通过所述多帧图像中相邻两帧图像的光流跟踪得到前一帧图像的时空信息点在相邻的后一帧图像上的位置。
所述轨迹线生成模块16,用于根据一个周期内在所述多帧图像上出现的时空信息点位置得到所述时空信息点在所述一个周期内所形成的轨迹线。
所述第二提取模块17,用于提取每一条轨迹线在所述多帧图像中的每一帧图像内对应的局部位置处的局部特征,获取每条轨迹线对应的轨迹线特征向量;所述轨迹线特征向量由所述轨迹线在所述多帧图像内的各个局部特征串联得到。
所述属性表征模块18,用于通过聚类将所述轨迹线特征向量整合成行人属性特征向量,所述行人属性特征向量用于表征目标行人的属性。
可选地,所述第一提取模块11具体用于:获取摄像头在预设周期内拍摄到的目标行人视频文件,从所述目标行人视频文件中选取所述多帧图像。
可选地,所述光流跟踪模块15具体用于:选取第t帧的时空信息点,所述时空信息点记为:Pt,Pt=(xt,yt),则通过光流跟踪所述时空信息点Pt在第t+1帧图像的位置的公式如下:
式中:Pt+1为第t+1帧图像上的与时空信息点Pt对应的时空信息点,Pt为第t帧图像上的时空信息点,xt为时空信息点Pt关于X轴坐标的值,yt为时空信息点Pt关于Y轴坐标的值,xt+1为时空信息点Pt+1关于X轴坐标的值,yt+1为时空信息点Pt+1关于Y轴坐标的值,M为中值滤波的核,ω为光流场向量,*表示点积运算,为整数化后的信息点水平位置,为整数化后的信息点垂直位置,为信息点最终位移量。
可选地,所述第二提取模块17具体用于:在每一条轨迹线周围提取梯度直方图描述符(Histogram of Gradient Descriptor,HOG)、光流的柱状图描述符(Histogram ofOptical Flow Descriptor,HOF)和运动边缘直方图描述符(Motion Boundary HistogramDescripto,MBH)。
可选地,所述属性表征模块18具体用于:将目标行人的T个轨迹线特征向量聚类成一个集合,所述集合包含R个属性元素,R为大于0的整数,且R的值小于T的值,所述集合中的每一个属性元素表示一类轨迹线特征向量;则目标行人的T条轨迹线所对应的长度为R的属性向量即为目标行人的属性特征向量。
可选地,所述属性表征模块18具体用于采用词袋模型将所述轨迹线特征向量整合成行人属性特征向量;包括:将目标行人的T个轨迹线特征向量聚类成一个包含有W个词的词典,T为大于0的整数,W为大于0的整数,且W的值小于T的值;词典中的每个词表示一类轨迹线特征向量;则目标行人的T条轨迹线所对应的长度为W的词向量即为目标行人的属性特征向量。
本实施例中,可以用于执行上述图1-图4所示任一方法所执行的技术方案,其实现原理和技术效果类似,此处不再赘述。
图6为本发明实施例二提供的行人属性识别装置的结构示意图,如图6所示,本实施例的装置包括:包括存储器21和处理器22,
所述存储器21用于存储程序;
所述处理器22,用于执行所述存储器21存储的所述程序,当所述程序被执行时,所述处理器用于执行如图1-图4任一方法所执行的技术方案。
本实施例的装置,可以用于执行上述图1-图4所示任一方法所执行的技术方案,其实现原理和技术效果类似,此处不再赘述。
此外,本申请实施例还提供一种计算机可读存储介质,计算机可读存储介质中存储有计算机执行指令,当用户设备的至少一个处理器执行该计算机执行指令时,用户设备执行上述各种可能的方法。
其中,计算机可读介质包括计算机存储介质和通信介质,其中通信介质包括便于从一个地方向另一个地方传送计算机程序的任何介质。存储介质可以是通用或专用计算机能够存取的任何可用介质。一种示例性的存储介质耦合至处理器,从而使处理器能够从该存储介质读取信息,且可向该存储介质写入信息。当然,存储介质也可以是处理器的组成部分。处理器和存储介质可以位于ASIC中。另外,该ASIC可以位于用户设备中。当然,处理器和存储介质也可以作为分立组件存在于通信设备中。
本领域普通技术人员可以理解:实现上述各方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成。前述的程序可以存储于一计算机可读取存储介质中。该程序在执行时,执行包括上述各方法实施例的步骤;而前述的存储介质包括:ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
最后应说明的是:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围。
Claims (10)
1.一种行人属性识别方法,其特征在于,包括:
获取行人视频帧序列中的多帧图像;
对所述多帧图像中的每帧图像分别进行N次缩放处理,得到N组不同尺寸的多帧图像,N为大于1的整数;
对所述多帧图像中的第一帧图像对应的N幅不同尺寸的图像分别进行点阵划分,得到所述多帧图像中第一帧图像的N幅不同尺寸的图像所对应的N个密集阵列;
从所述N个密集阵列上选取至少一个时空信息点;
从所述多帧图像的第一帧图像开始依次获取所述时空信息点在后续帧图像上的位置;其中,通过所述多帧图像中相邻两帧图像的光流跟踪得到前一帧图像的时空信息点在相邻的后一帧图像上的位置;
根据预设周期内在所述多帧图像上出现的时空信息点位置,得到所述时空信息点在所述预设周期内所形成的轨迹线;
提取每条轨迹线在所述多帧图像中的每帧图像内对应的局部位置处的局部特征,获取每条轨迹线对应的轨迹线特征向量;所述轨迹线特征向量由所述轨迹线在所述多帧图像内的各个局部特征串联得到;
通过聚类将所述轨迹线特征向量整合成行人属性特征向量,所述行人属性特征向量用于表征目标行人的属性。
2.根据权利要求1所述的方法,其特征在于,所述获取行人视频帧序列中的多帧图像包括:
获取摄像头在预设周期内拍摄到的目标行人视频文件;
从所述目标行人视频文件中选取所述多帧图像。
3.根据权利要求1所述的方法,其特征在于,所述通过所述多帧图像中相邻两帧图像的光流跟踪得到前一帧图像的时空信息点在相邻的后一帧图像上的位置包括:
选取第t帧的时空信息点,所述时空信息点记为:Pt,Pt=(xt,yt),则通过光流跟踪所述时空信息点Pt在第t+1帧图像的位置的公式如下:
<mrow>
<msub>
<mi>P</mi>
<mrow>
<mi>t</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
</msub>
<mo>=</mo>
<mrow>
<mo>(</mo>
<msub>
<mi>x</mi>
<mrow>
<mi>t</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
</msub>
<mo>,</mo>
<msub>
<mi>y</mi>
<mrow>
<mi>t</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
</msub>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mrow>
<mo>(</mo>
<msub>
<mi>x</mi>
<mi>t</mi>
</msub>
<mo>,</mo>
<msub>
<mi>y</mi>
<mi>t</mi>
</msub>
<mo>)</mo>
</mrow>
<mo>+</mo>
<mrow>
<mo>(</mo>
<mi>M</mi>
<mo>*</mo>
<mi>&omega;</mi>
<mo>)</mo>
</mrow>
<msub>
<mo>|</mo>
<mrow>
<mo>(</mo>
<mover>
<msub>
<mi>x</mi>
<mi>t</mi>
</msub>
<mo>&OverBar;</mo>
</mover>
<mo>,</mo>
<mover>
<msub>
<mi>y</mi>
<mi>t</mi>
</msub>
<mo>&OverBar;</mo>
</mover>
<mo>)</mo>
</mrow>
</msub>
</mrow>
式中:Pt+1为第t+1帧图像上的与时空信息点Pt对应的时空信息点,Pt为第t帧图像上的时空信息点,xt为时空信息点Pt关于X轴坐标的值,yt为时空信息点Pt关于Y轴坐标的值,xt+1为时空信息点Pt+1关于X轴坐标的值,yt+1为时空信息点Pt+1关于Y轴坐标的值,M为中值滤波的核,ω为光流场向量,*表示点积运算,为整数化后的信息点水平位置,为整数化后的信息点垂直位置,为信息点最终位移量。
4.根据权利要求1所述的方法,其特征在于,所述提取每一条轨迹线在所述多帧图像中的每一帧图像内对应的局部位置处的局部特征包括:
在每一条轨迹线周围提取梯度直方图描述符HOG、光流的柱状图描述符HOF和运动边缘直方图描述符MBH。
5.根据权利要求1-4中任意一项所述的方法,其特征在于,所述通过聚类将所述轨迹线特征向量整合成行人属性特征向量,包括:
将目标行人的T个轨迹线特征向量聚类成一个集合,所述集合包含R个属性元素,R为大于0的整数,且R的值小于T的值,所述集合中的每一个属性元素表示一类轨迹线特征向量;则目标行人的T条轨迹线所对应的长度为R的属性向量即为目标行人的属性特征向量。
6.根据权利要求5所述的方法,其特征在于,所述通过聚类将所述轨迹线特征向量整合成行人属性特征向量,包括:采用词袋模型将所述轨迹线特征向量整合成行人属性特征向量;
将目标行人的T个轨迹线特征向量聚类成一个包含有W个词的词典,T为大于0的整数,W为大于0的整数,且W的值小于T的值;词典中的每个词表示一类轨迹线特征向量;则目标行人的T条轨迹线所对应的长度为W的词向量即为目标行人的属性特征向量。
7.一种行人属性识别装置,其特征在于,包括:第一提取模块、图像缩放模块、密集采样模块、选取模块、光流跟踪模块、轨迹线生成模块、第二提取模块、属性表征模块;
所述第一提取模块,用于获取行人视频帧序列中的多帧图像;
所述图像缩放模块,用于对所述多帧图像中的每帧图像分别进行N次缩放处理,得到N组不同尺寸的多帧图像,N为大于1的整数;
所述密集采样模块,用于对所述多帧图像中的第一帧图像对应的N幅不同尺寸的图像分别进行点阵划分,得到所述多帧图像中第一帧图像的N幅不同尺寸的图像所对应的N个密集阵列;
所述选取模块,用于从所述N个密集阵列上选取至少一个时空信息点;
所述光流跟踪模块,用于从所述多帧图像的第一帧图像开始依次获取所述时空信息点在后续帧图像上的位置;具体地,通过所述多帧图像中相邻两帧图像的光流跟踪得到前一帧图像的时空信息点在相邻的后一帧图像上的位置;
所述轨迹线生成模块,用于根据一个周期内在所述多帧图像上出现的时空信息点位置得到所述时空信息点在所述一个周期内所形成的轨迹线;
所述第二提取模块,用于提取每条轨迹线在所述多帧图像中的每一帧图像内对应的局部位置处的局部特征,获取每条轨迹线对应的轨迹线特征向量;所述轨迹线特征向量由所述轨迹线在所述多帧图像内的各个局部特征串联得到;
所述属性表征模块,用于通过聚类将所述轨迹线特征向量整合成行人属性特征向量,所述行人属性特征向量用于表征目标行人的属性。
8.根据权利要求7所述的装置,其特征在于,所述第一提取模块具体用于:获取摄像头在预设周期内拍摄到的目标行人视频文件,从所述目标行人视频文件中选取所述多帧图像。
9.根据权利要求7所述的装置,其特征在于,所述光流跟踪模块具体用于:选取第t帧的时空信息点,所述时空信息点记为:Pt,Pt=(xt,yt),则通过光流跟踪所述时空信息点Pt在第t+1帧图像的位置的公式如下:
<mrow>
<msub>
<mi>P</mi>
<mrow>
<mi>t</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
</msub>
<mo>=</mo>
<mrow>
<mo>(</mo>
<msub>
<mi>x</mi>
<mrow>
<mi>t</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
</msub>
<mo>,</mo>
<msub>
<mi>y</mi>
<mrow>
<mi>t</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
</msub>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mrow>
<mo>(</mo>
<msub>
<mi>x</mi>
<mi>t</mi>
</msub>
<mo>,</mo>
<msub>
<mi>y</mi>
<mi>t</mi>
</msub>
<mo>)</mo>
</mrow>
<mo>+</mo>
<mrow>
<mo>(</mo>
<mi>M</mi>
<mo>*</mo>
<mi>&omega;</mi>
<mo>)</mo>
</mrow>
<msub>
<mo>|</mo>
<mrow>
<mo>(</mo>
<mover>
<msub>
<mi>x</mi>
<mi>t</mi>
</msub>
<mo>&OverBar;</mo>
</mover>
<mo>,</mo>
<mover>
<msub>
<mi>y</mi>
<mi>t</mi>
</msub>
<mo>&OverBar;</mo>
</mover>
<mo>)</mo>
</mrow>
</msub>
</mrow>
式中:Pt+1为第t+1帧图像上的与时空信息点Pt对应的时空信息点,Pt为第t帧图像上的时空信息点,xt为时空信息点Pt关于X轴坐标的值,yt为时空信息点Pt关于Y轴坐标的值,xt+1为时空信息点Pt+1关于X轴坐标的值,yt+1为时空信息点Pt+1关于Y轴坐标的值,M为中值滤波的核,ω为光流场向量,*表示点积运算,为整数化后的信息点水平位置,为整数化后的信息点垂直位置,为信息点最终位移量。
10.根据权利要求7-9中任意一项所述的装置,其特征在于,所述属性表征模块具体用于:将目标行人的T个轨迹线特征向量聚类成一个集合,所述集合包含R个属性元素,R为大于0的整数,且R的值小于T的值,所述集合中的每一个属性元素表示一类轨迹线特征向量;则目标行人的T条轨迹线所对应的长度为R的属性向量即为目标行人的属性特征向量。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710372619.9A CN107346414B (zh) | 2017-05-24 | 2017-05-24 | 行人属性识别方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710372619.9A CN107346414B (zh) | 2017-05-24 | 2017-05-24 | 行人属性识别方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107346414A true CN107346414A (zh) | 2017-11-14 |
CN107346414B CN107346414B (zh) | 2020-06-12 |
Family
ID=60253341
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710372619.9A Active CN107346414B (zh) | 2017-05-24 | 2017-05-24 | 行人属性识别方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107346414B (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107944403A (zh) * | 2017-11-29 | 2018-04-20 | 青岛海信网络科技股份有限公司 | 一种图像中的行人属性检测方法及装置 |
CN108399435A (zh) * | 2018-03-21 | 2018-08-14 | 南京邮电大学 | 一种基于动静特征的视频分类方法 |
CN109993128A (zh) * | 2019-04-04 | 2019-07-09 | 北京航空航天大学 | 一种行人图像属性特征量化的方法 |
CN110532916A (zh) * | 2019-08-20 | 2019-12-03 | 北京地平线机器人技术研发有限公司 | 一种运动轨迹确定方法及装置 |
CN111183453A (zh) * | 2018-02-28 | 2020-05-19 | 株式会社爱考斯研究 | 图像数据生成装置、图像识别装置、图像数据生成程序以及图像识别程序 |
CN111540191A (zh) * | 2020-04-27 | 2020-08-14 | 英华达(上海)科技有限公司 | 基于车联网的行车示警方法、系统、设备及存储介质 |
CN111680543A (zh) * | 2020-04-23 | 2020-09-18 | 北京迈格威科技有限公司 | 动作识别方法、装置及电子设备 |
CN113408352A (zh) * | 2019-05-28 | 2021-09-17 | 浙江大华技术股份有限公司 | 行人异常行为检测方法、图像处理装置及存储装置 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102663429A (zh) * | 2012-04-11 | 2012-09-12 | 上海交通大学 | 运动目标的运动模式分类和动作识别的方法 |
CN106529477A (zh) * | 2016-11-11 | 2017-03-22 | 中山大学 | 基于显著轨迹和时空演化信息的视频人体行为识别方法 |
-
2017
- 2017-05-24 CN CN201710372619.9A patent/CN107346414B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102663429A (zh) * | 2012-04-11 | 2012-09-12 | 上海交通大学 | 运动目标的运动模式分类和动作识别的方法 |
CN106529477A (zh) * | 2016-11-11 | 2017-03-22 | 中山大学 | 基于显著轨迹和时空演化信息的视频人体行为识别方法 |
Non-Patent Citations (2)
Title |
---|
HENG WANG ET.AL: "Action recognition by dense trajectories", 《VISION & PATTERN RECOGNITION》 * |
HIROKATSU KATAOKA ET.AL: "Evaluation of Vision-Based Human Activity Recognition in Dense Trajectory Framework", 《INTERNATIONAL SYMPOSIUM ON VISUAL COMPUTING》 * |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107944403A (zh) * | 2017-11-29 | 2018-04-20 | 青岛海信网络科技股份有限公司 | 一种图像中的行人属性检测方法及装置 |
CN107944403B (zh) * | 2017-11-29 | 2021-03-19 | 青岛海信网络科技股份有限公司 | 一种图像中的行人属性检测方法及装置 |
CN111183453A (zh) * | 2018-02-28 | 2020-05-19 | 株式会社爱考斯研究 | 图像数据生成装置、图像识别装置、图像数据生成程序以及图像识别程序 |
CN108399435A (zh) * | 2018-03-21 | 2018-08-14 | 南京邮电大学 | 一种基于动静特征的视频分类方法 |
CN109993128A (zh) * | 2019-04-04 | 2019-07-09 | 北京航空航天大学 | 一种行人图像属性特征量化的方法 |
CN113408352A (zh) * | 2019-05-28 | 2021-09-17 | 浙江大华技术股份有限公司 | 行人异常行为检测方法、图像处理装置及存储装置 |
CN110532916A (zh) * | 2019-08-20 | 2019-12-03 | 北京地平线机器人技术研发有限公司 | 一种运动轨迹确定方法及装置 |
CN111680543A (zh) * | 2020-04-23 | 2020-09-18 | 北京迈格威科技有限公司 | 动作识别方法、装置及电子设备 |
CN111680543B (zh) * | 2020-04-23 | 2023-08-29 | 北京迈格威科技有限公司 | 动作识别方法、装置及电子设备 |
CN111540191A (zh) * | 2020-04-27 | 2020-08-14 | 英华达(上海)科技有限公司 | 基于车联网的行车示警方法、系统、设备及存储介质 |
CN111540191B (zh) * | 2020-04-27 | 2021-07-02 | 英华达(上海)科技有限公司 | 基于车联网的行车示警方法、系统、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN107346414B (zh) | 2020-06-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107346414A (zh) | 行人属性识别方法和装置 | |
CN109190508B (zh) | 一种基于空间坐标系的多摄像头数据融合方法 | |
CN108334847B (zh) | 一种真实场景下的基于深度学习的人脸识别方法 | |
CN110427905A (zh) | 行人跟踪方法、装置以及终端 | |
CN104463117B (zh) | 一种基于视频方式的人脸识别样本采集方法及系统 | |
CN108875600A (zh) | 一种基于yolo的车辆信息检测和跟踪方法、装置及计算机存储介质 | |
CN104143079B (zh) | 人脸属性识别的方法和系统 | |
CN109816689A (zh) | 一种多层卷积特征自适应融合的运动目标跟踪方法 | |
CN106548169B (zh) | 基于深度神经网络的模糊文字增强方法及装置 | |
Hsu et al. | Adaptive fusion of multi-scale YOLO for pedestrian detection | |
Ni et al. | Learning to photograph: A compositional perspective | |
CN105760836A (zh) | 基于深度学习的多角度人脸对齐方法、系统及拍摄终端 | |
CN105740780A (zh) | 人脸活体检测的方法和装置 | |
CN109598234A (zh) | 关键点检测方法和装置 | |
CN110263768A (zh) | 一种基于深度残差网络的人脸识别方法 | |
CN107977656A (zh) | 一种行人重识别方法及系统 | |
CN106897681A (zh) | 一种遥感图像对比分析方法及系统 | |
CN109993021A (zh) | 人脸正脸检测方法、装置及电子设备 | |
CN109297489A (zh) | 一种基于用户特征的室内导航方法、电子设备及存储介质 | |
CN106485186A (zh) | 图像特征提取方法、装置、终端设备及系统 | |
CN107767416A (zh) | 一种低分辨率图像中行人朝向的识别方法 | |
CN107992783A (zh) | 人脸图像处理方法及装置 | |
CN109409250A (zh) | 一种基于深度学习的无交叠视域跨摄像机行人再识别方法 | |
CN108986137A (zh) | 人体跟踪方法、装置及设备 | |
CN108985443A (zh) | 动作识别方法及其神经网络生成方法、装置和电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |