CN104166861B - 一种行人检测方法 - Google Patents
一种行人检测方法 Download PDFInfo
- Publication number
- CN104166861B CN104166861B CN201410393335.4A CN201410393335A CN104166861B CN 104166861 B CN104166861 B CN 104166861B CN 201410393335 A CN201410393335 A CN 201410393335A CN 104166861 B CN104166861 B CN 104166861B
- Authority
- CN
- China
- Prior art keywords
- pedestrian
- convolutional neural
- neural networks
- sample
- detection method
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Abstract
一种行人检测方法,包括:准备训练卷积神经网络所需的行人正样本集以及负样本集;对样本集预处理并且归一化为统一尺度,并生成数据文件;设计卷积神经网络的结构,进行训练,获取网络收敛时的权重连接矩阵;对视频进行自适应背景建模,获取每一帧中运动目标的信息,首先对于检测到的运动目标区域进行粗选,排除高度和宽度比值不符合要求的区域,产生候选区域;将每一个候选区域输入到卷积神经网络中,判断是否有行人存在。
Description
技术领域
本发明属于计算机视觉和模式识别领域,具体涉及一种适用于智能视频监控的行人检测方法。
背景技术
智能视频监控技术是计算机视觉领域近年来新兴的一个研究方向,它是一种基于机器学习和人工智能的计算机视觉技术,以视频场景中的行人、车辆等运动物体为主要研究分析对象。在智能视频监控研究领域,关于行人的检测技术的研究备受行业的关注。
在安全和法律方面,智能视频监控系统通过对从监控摄像机传来的监控场景的视频信息进行处理分析,对场景中可疑的人和事件进行预警,从而阻止犯罪、群体性事件的发生,以保障人民群众的生命和财产安全;在交通应用上,智能视频监控系统通过分析交通监控视频监测交通中行人的违法或不安全行为,根据实时交通状况合理分配警力,达到效率最大化;在商业活动中,智能视频监控系统可以实时统计各购物场所和娱乐场所人数,监视公众场合中行人的阻塞情况和拥挤程度,控制人群密度,以免发生踩踏事件;在军事上的应用包括测量冲突地区的难民流入流量,监视和平谈判,和军事基地是否存在异常人员。在针对行人的视频监控场景中,人是活动主体,所以监控系统必须能实时地检测出行人;在出现行人姿势变换,人和环境遮挡,光照变化等情况时,也应该能正常工作。
国外在行人检测方面的研究工作开展得较早,主要研究内容包括行人分类技术、行人识别技术、行人跟踪技术、行人意图分析与预测、人车碰撞机理研究等。这些研究单位主要使用机器视觉算法和传感器结合的方式来进行行人检测与识别。目前国外行人检测所使用的主流方法仍然是计算机视觉算法和传感器结合。与国外相比存在明显的差距,我国目前针对行人安全检测的研究大多集中在运动行人的检测和跟踪方面,且实验场景大都比较理想,对复杂环境和混合交通下的行人检测还没取得实时性、鲁棒性、高效性都比较好的算法。在行人检测的技术方法上,国内普遍采用基于单目视觉的方法,利用人体边缘、纹理、形状等特征建立模板并综合运用支持向量机、级联分类器这些机器学习方法。
现有的基于模式识别的行人检测技术在产生具有较高鲁棒性的行人检测器上主要面临四大问题:1)从特定的场景下提取该场景下行人样本,需逐一地手工裁切出行人样本,需花费大量的时间等;2)如除去1)所述问题,使用国内外开源的行人样本库产生得到的行人检测器只具备普适性,无法在特定场景下获得理想的效果;3)对于现代生活中较为丰富的视频场景,怎样才能获得适应于各类场景而且据又能高效鲁棒的行人检测器;4)大部分行人识别方法没有充分利用行人特征,只是使用部分特征进行检测,不能够保证高效性。
CN102043953A公开了一种针对特定场景下行人检测的方法,通过利用特定背景下的行人图像对SVM行人分类器进行训练,主要利用了行人的头肩梯度直方图特征和局部二值化模型特征,然后对利用背景差分模型获取的候选窗口进行检测获取行人的存在与否。
该发明但实际上该发明具有以下三个缺点:1)该专利利用的背景差分模型获取候选检测窗口过程中,并没有对背景进行实时更新,只是选取视频中没有行人的第一帧视频帧作为背景,当场景有较大变化时不能够保证鲁棒性;2)训练SVM行人分类器时并没有充分利用行人的特征,只是利用了头肩这一个整体性特征,没有利用行人的整个轮廓像素信息,使得该方法无法适用于多个场景,特征提取不够充分,训练时没有充分利用已有样本,准确性无法保证;3)SVM分类器对于样本线性可分的情况效果较好,但是对于样本线性不可分的情况就不够理想,而且SVM对于大规模的训练样本无法实施。
CN103324955A公开了一种基于视频处理的行人检测方法,通过对背景建模、筛选前景,确定候选行人区域,提取候选区域的HOG特征,然后利用行人SVM分类器对其进行分类。
该发明实际上该发明是行人检测领域内一种公认的基础方法:基于HOG+SVM行人分类方法。但是由于提取HOG特征时要进行图像的灰度化操作,并没有较好地利用图像的RGB像素信息,另外该发明也不适用于多场景下行人检测。
发明内容
本发明针对现有行人检测方法的不足进行改进,以产生适应于场景多变的鲁棒、高效的行人检测器,提出了一种行人检测方法。
本发明的方案具体包括以下步骤:
步骤S1:准备训练卷积神经网络所需的行人正样本集以及负样本集;
步骤S2:对样本集预处理并且归一化为统一尺度,并生成数据文件;
步骤S3:设计卷积神经网络的结构,进行训练,获取网络收敛时的权重连接矩阵;
步骤S4:对视频进行自适应背景建模,获取每一帧中运动目标的信息,首先对于检测到的运动目标区域进行粗选,排除高度和宽度比值不符合要求的区域,产生候选区域;
步骤S5:将每一个候选区域输入到卷积神经网络中,判断是否有行人存在;
进一步地,所述目标信息包括目标位置和目标大小。
本发明提出了一种行人检测方法,具体采用自适应背景差分方法对运动目标进行检测,实时更新背景模型;训练时采用三通道的整个行人RGB彩色图像作为样本,充分利用行人样本的轮廓等信息;使用卷积神经网络代替传统的特征提取、特征分类过程,利用softmax分类器判断是否有行人存在;其中自适应背景差分建模保证了获取运动目标区域的准确性,通过筛选降低目标区域的冗余度,进而保证了检测过程的高效性。
附图说明
图1为现有技术的训练流程图。
图2为现有技术的行人检测流程图。
图3为卷积神经网络训练流程图。
图4为基于卷积神经网络的视频中行人检测流程图。
图5为卷积神经网络结构。
图6是利用自适应背景差分模型检测到的背景。
图7是根据背景进行建模获取的前景图像。
图8是视频中行人检测的效果图。
具体实施方式
本发明实施例提出了一种行人检测方法,如图3所示,包括以下步骤:
步骤S1:准备训练卷积神经网络所需的行人正样本集P(包含正面、侧面、背面)、负样本集N,收集的是行业内公开并公认的效果良好且姿态丰富的正、负样本数据集和一些监控视频中的行人样本;
步骤S2:对样本集预处理并且归一化为统一尺度,并生成数据文件,用于卷积神经网络的训练;所述尺度为64*128像素;
步骤S3:设计卷积神经网络的结构,进行训练,获取网络收敛时的权重连接矩阵W,用于以后的检测过程;
步骤S4:对视频进行自适应背景建模,获取每一帧中运动目标的信息,首先对于检测到的运动目标区域进行粗选,排除高度h和宽度w比值不符合要求的区域,产生候选区域;所述目标信息包括目标位置和目标大小;所述不符合要求的区域指不在制定宽高比范围内的区域,在步骤S43中具体说明;
步骤S5:将每一个候选区域输入到卷积神经网络中,判断是否有行人存在。
根据本发明进一步的实施例:
上述步骤S1:中包括:搜集的行人样本是多姿态、多光照变化、多背景变化条件下的,充分保证了样本的多样性;
上述步骤S2:中包括:
步骤S21:对搜集到的样本进行裁剪,使其边缘区域占比较小,所述占比较小是指行人边缘和样本图像边缘之间的距离较小,一般为5个像素点;
步骤S22:将正样本集P标记为1,将负样本集N标记为0;
步骤S23:将样本文件进行随机打包,提取每一幅图片的R、G、B像素数值,保存为数据文件用于卷积神经网络训练,所述R表示红色,所述G表示绿色,所述B表示蓝色;为了保证卷积神经网络训练时,网络能够较好的收敛,经过每一次训练过程(由于训练时是依次去取每一个batch样本)误差都能够减少,所以对样本进行随机打包,分为6个数据batch,依次循环取这6个数据batch进行训练,直到收敛
上述步骤S3中包括:
步骤S31:设计一个具有两层卷积操作层、两层池化操作层、一层全连接层、一层soft max分类器、一层逻辑回归对象层的卷积神经网络;
步骤S32:各个神经元的激活函数采用f(x)=max(0,x)代替传统的sigmoid函数和正弦双曲函数加快网络收敛速度;传统的神经元激活函数主要分为三种:线性函数(f(x)=x)、sigmoid函数和正弦双曲函数,本发明所采用的神经元的激活函数f(x)=max(0,x)是改进的分段线性函数;
步骤S33:每一次迭代取一个数据batch,然后以128个样本为单位利用BP算法对卷积神经网络进行训练(迭代过程中每一个样本对应着图像处理器GPU中的每一个线程),直到网络达到收敛。
上述步骤S4中包括:
步骤S41:根据视频中的每一帧图像进行背景更新,以期对运动目标检测能够取得较好效果;
步骤S42:对视频中的每一帧图像利用自适应背景更新方法进行建模,获取所有可能的候选运动目标区域;
步骤S43:根据检测到的运动目标区域的宽高比排除不合要求的区域,a<(h/w)<b,其中,a、b为预先设定的阈值,h、w分别是目标区域的高度和宽度;
步骤S44:将获取的候选区域信息存到向量中,用于步骤S5进行检测,所述向量是指一个保存候选区域信息的全局变量。
上述步骤S5中包括对向量中的每一个成员利用步骤S3构建好的的卷积神经网络模型进行特征提取,利用soft max分类器进行目标分类,进而检测行人存在与否。
根据本发明的更进一步的实施例:
上述步骤S3中通过对卷积神经网络进行训练得到卷积神经网络行人检测器。卷积神经网络的权值共享网络结构使得它最相似于生物神经元,降低了网络模型的连接复杂度,减少了权值数目,一定程度上提高了模型运算速度。另一方面卷积神经网络可以直接使用图片进行输入,避免了传统的识别方法复杂的特征提取和数据重建过程。卷积神经网络是为识别二维形状而特殊设计的一个多层感知器,这种网络结构对平移、比例缩放、倾斜或者共他形式的形变具有高度不变性。
其训练步骤如下:
步骤31’:初始化卷积神经网络的所有权重W;
步骤32’:前向传播过程:通过将每一个训练样本输入到网络模型中计算实际的网络输出;
步骤33’:计算网络实际输出和样本期望输出的差作为网络模型的误差;
步骤34’:按照极小化误差的方法反向依次调整各层的权值矩阵。
循环执行步骤32’、步骤33’、步骤34’直到网络达到收敛。
上述步骤S4中自适应背景差分建模。背景差分建模法,就是将每个输入视频帧和背景图像相比较,如果相同位置的像素特征、像素区域特征或其他特征的差别大于预先设定的阀值,则新视频帧中这些位置的像素点或像素区域就构成前景运动目标区域,若对这些前景像素点做进一步处理,即可得到运动目标位置、大小、形状等信息,以便进行目标检测。
本实施例中具体使用的是基于自适应更新模型进行建模:
Bn+1(x,y)=αBn(x,y)+(1-α)In(x,y);
其中,Bn+1(x,y)、Bn(x,y)分别代表时刻n+1、n位置(x,y)处背景的像素值,In(x,y)代表时刻n位置(x,y)处图像像素数值,α为预先设定的系数,具体取值范围为:0<α<1,即是根据输入的每一个视频帧对原背景图像进行更新,充分保证背景的适应性,特别是在监控区域光照变化强烈时表现出较好效果。
下面详细描述本发明的实施例,所述实施例是基于已实例化的工程项目进行阐述,相关实例图表在附图中示出。
如图3中,对于卷积神经网络的训练,准备的正样本集P包含4万张行人图像,负样本集N包含4万张非行人图像,行人边缘和图像边缘之间一般不超过5个像素点,正负样本集内的图像均归一化为64*128像素。
实例化所使用的卷积神经网络结构:具有两层卷积层(conv1、conv2)、两层池化操作层(pool1、pool2)、一层全连接(fc)、一层soft max分类器层、一层逻辑回归层(用于计算网络输出和样本期望输出的差值),网络结构如图5所示。
其中,conv1层有12个卷积核,每一个卷积核为3×3大小,conv1和输入行人样本之间全连接,每一个卷积核分别对应输入样本的R、G、B通道图像。conv2层有16个卷积核,每一个卷积核大小为3×3,conv2层与pool1层之间连接方式也为全连接。pool1层、pool2层池化窗口大小为2×2,步长为2。
网络收敛后,使用1560张归一化过的正样本测试图片进行测试,误报的为8张;使用1135张归一化的负行人样本图片进行测试,误报的为7张。
实施例详细步骤如图4所示,首先取视频中的如图6所示的第一帧作为背景,然后取视频中的第二帧,利用自适应背景差分模型对背景建模,获取前景信息如图7所示,得到运动物体的轮廓信息,利用运动物体的区域大小信息筛选排除部分区域,然后对候选区域进行采样输入到卷积神经网络中,获取分类器分类结果,依次检测每一帧图像直到视频帧读取完毕,视频中行人检测的效果图如图8所示。实际上卷积神经网络检测时较为耗时(实施中所用模型为300ms),为了提高检测的速度,由于行人的高度和宽度在一定范围内,先用这一先验知识对自适应背景差分模型获取的运动目标区域进行筛选排除一部分候选区域,得到较优检测区域用于检测。另外,由于检测每一帧时都会对当前帧的背景进行更新,所以当视频场景变化较大时该方法仍然具有较好的鲁棒性。
本发明提出了一种行人检测方法,通过对视频中的每一帧图像进行自适应背景差分建模、筛选候选区域以获取最终候选区域,最后通过对候选区域进行卷积神经网络行人检测器计算,判断出行人的存在与否。其中自适应背景差分建模保证了获取运动目标区域的准确性,通过筛选降低目标区域的冗余度,进而保证了检测过程的高效性。本发明在工程应用上展现了良好的效果,针对卷积神经网络训练收敛较慢的问题,在卷积神经网络训练过程中我们对神经元激活函数进行改进,用激活函数f(x)=max(0,x),为已知的神经网络中的神经元激活函数,代替传统的sigmoid函数,并且在GPU上进行训练,极大地提高了卷积神经网络的收敛速度。
本领域的普通技术人员将会意识到,这里所述的实施例是为了帮助读者理解本发明的原理,应被理解为本发明的保护范围并不局限于这样的特别陈述和实施例。对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的权利要求范围之内。
Claims (7)
1.一种行人检测方法,其特征在于,包括以下步骤:
步骤S1:准备训练卷积神经网络所需的行人正样本集以及负样本集;
步骤S2:对样本集预处理并且归一化为统一尺度,并生成数据文件,包括以下分步骤:
步骤S21:对搜集到的样本进行裁剪,使其边缘区域占比较小;所述占比较小是指行人边缘和样本图像边缘之间的距离较小,为5个像素点;
步骤S22:将正样本集标记为1,将负样本集标记为0;
步骤S23:将样本文件进行随机打包,提取每一幅图片的R、G、B像素数值,保存为数据文件;所述R表示红色,所述G表示绿色,所述B表示蓝色;
步骤S3:设计卷积神经网络的结构,进行训练,获取网络收敛时的权重连接矩阵;
步骤S4:对视频进行自适应背景建模,获取每一帧中运动目标的信息,首先对于检测到的运动目标区域进行粗选,排除高度和宽度比值不符合要求的区域,产生候选区域;
所述目标信息包括目标位置和目标大小;
步骤S5:将每一个候选区域输入到卷积神经网络中,判断是否有行人存在。
2.根据权利要求1的一种行人检测方法,其特征在于,所述步骤S3设计卷积神经网络的结构具体包括以下分步骤:
步骤S31:设计一个具有两层卷积操作层、两层池化操作层、一层全连接层、一层softmax分类器、一层逻辑回归对象层的卷积神经网络;
步骤S32:各个神经元的激活函数采用f(x)=max(0,x)代替传统的sigmoid函数和正弦双曲函数加快网络收敛速度;
步骤S33:每一次迭代取一个数据,然后以128个样本为单位利用BP算法对卷积神经网络进行训练,直到网络达到收敛;
所述迭代过程中每一个样本对应着图像处理器GPU中的每一个线程。
3.根据权利要求2的一种行人检测方法,其特征在于,步骤S3所述训练包括以下分步骤:
步骤31’:初始化卷积神经网络的所有权重;
步骤32’:通过将每一个训练样本输入到网络模型中计算实际的网络输出;
步骤33’:计算网络实际输出和样本期望输出的差作为网络模型的误差;
步骤34’:按照极小化误差的方法反向依次调整各层的权值矩阵,循环执行步骤32’、步骤33’、步骤34’直到网络达到收敛。
4.根据权利要求1的一种行人检测方法,其特征在于,所述步骤S4具体包括以下分步骤:
步骤S41:根据视频中的每一帧图像进行背景更新;
步骤S42:对视频中的每一帧图像利用自适应背景更新方法进行建模,获取所有可能的候选运动目标区域;
步骤S43:根据检测到的运动目标区域的宽高比排除不符合要求的区域:a<(h/w)<b;
其中,a、b为预先设定的阈值,h、w分别是目标区域的高度和宽度;
步骤S44:将获取的候选区域信息存到向量中。
5.根据权利要求4的一种行人检测方法,其特征在于,所述自适应背景更新模型公式:Bn+1(x,y)=αBn(x,y)+(1-α)In(x,y);
其中,Bn+1(x,y)、Bn(x,y)分别代表时刻n+1、n位置(x,y)处背景的像素值,In(x,y)代表时刻n位置(x,y)处图像像素数值,α为预先设定的阈值,且0<α<1。
6.根据权利要求1的一种行人检测方法,其特征在于,所述步骤S5中包括对向量中的每一个成员利用步骤S3构建好的的卷积神经网络模型进行特征提取,利用softmax分类器进行目标分类,进而检测行人是否存在。
7.根据权利要求1的一种行人检测方法,其特征在于,所述步骤S2尺度为64*128像素。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410393335.4A CN104166861B (zh) | 2014-08-11 | 2014-08-11 | 一种行人检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410393335.4A CN104166861B (zh) | 2014-08-11 | 2014-08-11 | 一种行人检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104166861A CN104166861A (zh) | 2014-11-26 |
CN104166861B true CN104166861B (zh) | 2017-09-29 |
Family
ID=51910663
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410393335.4A Expired - Fee Related CN104166861B (zh) | 2014-08-11 | 2014-08-11 | 一种行人检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104166861B (zh) |
Families Citing this family (37)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105740751A (zh) * | 2014-12-11 | 2016-07-06 | 深圳市赛为智能股份有限公司 | 一种目标检测与识别的方法和系统 |
CN107003834B (zh) * | 2014-12-15 | 2018-07-06 | 北京市商汤科技开发有限公司 | 行人检测设备和方法 |
CN105989368A (zh) * | 2015-02-13 | 2016-10-05 | 展讯通信(天津)有限公司 | 一种目标检测方法及装置以及移动终端 |
CN104866524A (zh) * | 2015-04-10 | 2015-08-26 | 大连交通大学 | 一种商品图像精细分类方法 |
CN104809443B (zh) * | 2015-05-05 | 2018-12-28 | 上海交通大学 | 基于卷积神经网络的车牌检测方法及系统 |
CN105590094B (zh) * | 2015-12-11 | 2019-03-01 | 小米科技有限责任公司 | 确定人体数量的方法及装置 |
CN105528589B (zh) * | 2015-12-31 | 2019-01-01 | 上海科技大学 | 基于多列卷积神经网络的单张图像人群计数算法 |
CN105678268B (zh) * | 2016-01-11 | 2020-06-30 | 华东理工大学 | 一种基于双区域学习的地铁站场景行人计数实现方法 |
CN106022237B (zh) * | 2016-05-13 | 2019-07-12 | 电子科技大学 | 一种端到端的卷积神经网络的行人检测方法 |
CN106096655B (zh) * | 2016-06-14 | 2019-08-27 | 厦门大学 | 一种基于卷积神经网络的光学遥感图像飞机检测方法 |
CN106127114A (zh) * | 2016-06-16 | 2016-11-16 | 北京数智源科技股份有限公司 | 智能视频分析方法 |
CN106127164B (zh) * | 2016-06-29 | 2019-04-16 | 北京智芯原动科技有限公司 | 基于显著性检测和卷积神经网络的行人检测方法及装置 |
CN106203506B (zh) * | 2016-07-11 | 2019-06-21 | 上海凌科智能科技有限公司 | 一种基于深度学习技术的行人检测方法 |
CN107844794B (zh) * | 2016-09-21 | 2022-02-22 | 北京旷视科技有限公司 | 图像识别方法和装置 |
CN109416728A (zh) * | 2016-09-30 | 2019-03-01 | 富士通株式会社 | 目标检测方法、装置以及计算机系统 |
CN106529442B (zh) * | 2016-10-26 | 2019-10-18 | 清华大学 | 一种行人识别方法和装置 |
CN106570564B (zh) * | 2016-11-03 | 2019-05-28 | 天津大学 | 基于深度网络的多尺度行人检测方法 |
CN106845338B (zh) * | 2016-12-13 | 2019-12-20 | 深圳市智美达科技股份有限公司 | 视频流中行人检测方法与系统 |
CN108256404B (zh) * | 2016-12-29 | 2021-12-10 | 北京旷视科技有限公司 | 行人检测方法和装置 |
CN106845430A (zh) * | 2017-02-06 | 2017-06-13 | 东华大学 | 基于加速区域卷积神经网络的行人检测与跟踪方法 |
CN106846837A (zh) * | 2017-03-27 | 2017-06-13 | 广州大学 | 一种交通灯智能控制系统、交通灯智能控制方法及装置 |
CN107123131B (zh) * | 2017-04-10 | 2020-04-17 | 安徽清新互联信息科技有限公司 | 一种基于深度学习的运动目标检测方法 |
CN107316320A (zh) * | 2017-06-19 | 2017-11-03 | 江西洪都航空工业集团有限责任公司 | 一种使用gpu加速的实时行人检测系统 |
CN109583266A (zh) * | 2017-09-28 | 2019-04-05 | 杭州海康威视数字技术股份有限公司 | 一种目标检测方法、装置、计算机设备及存储介质 |
CN107729895A (zh) * | 2017-10-18 | 2018-02-23 | 吉林大学 | 一种智能车adas系统目标检测方法及装置 |
CN107886133A (zh) * | 2017-11-29 | 2018-04-06 | 南京市测绘勘察研究院股份有限公司 | 一种基于深度学习的地下管道缺陷自动识别方法 |
CN110096933B (zh) | 2018-01-30 | 2023-07-18 | 华为技术有限公司 | 目标检测的方法、装置及系统 |
CN108389220B (zh) * | 2018-02-05 | 2019-02-26 | 湖南航升卫星科技有限公司 | 遥感视频图像运动目标实时智能感知方法及其装置 |
CN108259909B (zh) * | 2018-02-09 | 2020-09-01 | 福州大学 | 基于显著性对象检测模型的图像压缩方法 |
CN108345860A (zh) * | 2018-02-24 | 2018-07-31 | 江苏测联空间大数据应用研究中心有限公司 | 基于深度学习和距离度量学习的人员再识别方法 |
CN108564874B (zh) * | 2018-05-07 | 2021-04-30 | 腾讯大地通途(北京)科技有限公司 | 地面标志提取的方法、模型训练的方法、设备及存储介质 |
CN108909624B (zh) * | 2018-05-13 | 2021-05-18 | 西北工业大学 | 一种基于单目视觉的实时障碍物检测和定位方法 |
CN108921015B (zh) * | 2018-05-23 | 2021-11-05 | 大连民族大学 | 基于递归结构车载单目摄像头下行人目标校验算法及系统 |
CN109409309A (zh) * | 2018-11-05 | 2019-03-01 | 电子科技大学 | 一种基于人体检测的智能报警系统和方法 |
CN110321818A (zh) * | 2019-06-21 | 2019-10-11 | 江西洪都航空工业集团有限责任公司 | 一种复杂场景中的行人检测方法 |
DE102020126690A1 (de) | 2020-10-12 | 2022-04-14 | Connaught Electronics Ltd. | Verfahren zum Bestimmen eines Bewegungsmodells eines Objekts in einer Umgebung eines Kraftfahrzeugs, Computerprogrammprodukt, computerlesbares Speichermedium sowie Assistenzsystem |
CN113807328B (zh) * | 2021-11-18 | 2022-03-18 | 济南和普威视光电技术有限公司 | 一种基于算法融合的目标检测方法、设备及介质 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102043953A (zh) * | 2011-01-27 | 2011-05-04 | 北京邮电大学 | 一种实时鲁棒的针对特定场景的行人检测方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8098891B2 (en) * | 2007-11-29 | 2012-01-17 | Nec Laboratories America, Inc. | Efficient multi-hypothesis multi-human 3D tracking in crowded scenes |
-
2014
- 2014-08-11 CN CN201410393335.4A patent/CN104166861B/zh not_active Expired - Fee Related
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102043953A (zh) * | 2011-01-27 | 2011-05-04 | 北京邮电大学 | 一种实时鲁棒的针对特定场景的行人检测方法 |
Non-Patent Citations (4)
Title |
---|
具有身份标识的多目标跟踪;安国成 等;《中国图象图形学报》;20121216;第17卷(第12期);第2.1节第1-2段 * |
基于人脸彩色图像的眼睛定位算法研究;任晓青;《中国优秀硕士学位论文全文数据库 信息科技辑》;20120215(第2期);第3.3.2节第19页最后一段 * |
基于分流抑制机制的卷积神经网络人脸检测法;肖柏旭 等;《计算机应用》;20061230;第26卷;第2节第1-4段,第1.1节第1段、第2节第4段与第7段,第3节第1段,第2节倒数第2段,第1.1节第1-4段、图1 * |
汽车牌照定位算法研究;郭天舒;《中国优秀博硕士学位论文全文数据库 (硕士) 信息科技辑》;20061015(第10期);第2.2.1节第2-3段 * |
Also Published As
Publication number | Publication date |
---|---|
CN104166861A (zh) | 2014-11-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104166861B (zh) | 一种行人检测方法 | |
CN110688987B (zh) | 一种行人位置检测与跟踪方法及系统 | |
CN104504394B (zh) | 一种基于多特征融合的密集人数估计方法和系统 | |
US10423856B2 (en) | Vector engine and methodologies using digital neuromorphic (NM) data | |
CN106169081B (zh) | 一种基于不同照度的图像分类及处理方法 | |
CN105718868B (zh) | 一种针对多姿态人脸的人脸检测系统及方法 | |
CN103871029B (zh) | 一种图像增强及分割方法 | |
CN107622258A (zh) | 一种结合静态底层特征和运动信息的快速行人检测方法 | |
CN108416307A (zh) | 一种航拍图像路面裂缝检测方法、装置及设备 | |
CN105404847B (zh) | 一种遗留物实时检测方法 | |
CN104077605B (zh) | 一种基于颜色拓扑结构的行人搜索识别方法 | |
CN108615027A (zh) | 一种基于长短期记忆-加权神经网络对视频人群计数的方法 | |
CN110084156A (zh) | 一种步态特征提取方法及基于步态特征的行人身份识别方法 | |
CN107818326A (zh) | 一种基于场景多维特征的船只检测方法及系统 | |
CN106127148A (zh) | 一种基于机器视觉的手扶电梯乘客异常行为检测算法 | |
CN103049751A (zh) | 一种改进的加权区域匹配高空视频行人识别方法 | |
CN106373146B (zh) | 一种基于模糊学习的目标跟踪方法 | |
CN108932479A (zh) | 一种人体异常行为检测方法 | |
CN104715238A (zh) | 一种基于多特征融合的行人检测方法 | |
CN105320917B (zh) | 一种基于头肩轮廓及bp神经网络的行人检测及跟踪方法 | |
CN109255298A (zh) | 一种动态背景中的安全帽检测方法与系统 | |
CN110232389A (zh) | 一种基于绿色作物特征提取不变性的立体视觉导航方法 | |
CN108288033A (zh) | 一种基于随机蕨融合多特征的安全帽检测方法 | |
CN108416292A (zh) | 一种基于深度学习的无人机航拍图像道路提取方法 | |
CN107863153A (zh) | 一种基于智能大数据的人体健康特征建模测量方法与平台 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20170814 Address after: 610041 No. 105, building C, 1, two, Keyuan garden, Chengdu hi tech Zone, Sichuan, China Applicant after: CHENGDU LIUHUO TECHNOLOGY CO., LTD. Address before: 610065 Jinjiang District, Chengdu, Guangxi, Guangxi, Guangxi Road, No. 168, building 4, unit 5, building 15, No. 1 Applicant before: Ye Mao |
|
TA01 | Transfer of patent application right | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20170929 Termination date: 20180811 |
|
CF01 | Termination of patent right due to non-payment of annual fee |