CN110378243A - 一种行人检测方法及装置 - Google Patents
一种行人检测方法及装置 Download PDFInfo
- Publication number
- CN110378243A CN110378243A CN201910560741.8A CN201910560741A CN110378243A CN 110378243 A CN110378243 A CN 110378243A CN 201910560741 A CN201910560741 A CN 201910560741A CN 110378243 A CN110378243 A CN 110378243A
- Authority
- CN
- China
- Prior art keywords
- pedestrian
- image
- detected
- pedestrian detection
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本申请适用于计算机应用技术领域,提供了行人检测方法及装置,包括:实时获取待检测图像;将所述待检测图像输入预先训练得到的行人检测模型,识别所述待检测图像中包含的行人数据;对所述行人数据进行非极大值抑制处理,确定所述待检测图像中所述行人数据对应的人像边框。本实施例中通过基于深度可分离卷积方式训练得到行人检测模型,根据行人检测模型对获取到的待检测图像进行识别,确定其中包含的行人对应的人像边框,不仅提高了人像检测的效率,使得用户可以第一时间根据检测到的人像边框确定对应的处理方式,也提高了人像检测的精确度,保证了在雾霾等能见度较低的环境下也能清楚检测出当前的行人情况。
Description
技术领域
本申请属于计算机应用技术领域,尤其涉及一种行人检测方法及装置。
背景技术
步行是交通出行的基本方式之一,据调查显示,在欧洲区域,每年有超过7000名行人死亡,占所有死亡人数的百分之二十七,因此,有效检测各种环境下的行人,将显著提高自动驾驶车辆的行驶安全性。然而,由于行人姿态、定位、服装和天气条件的多样性和复杂性,行人检测问题依然存在。
现有技术中大多数的检测模型只在光照充足的条件下进行了测试,一般而言,它们并没有能力在光照不足的情况下检测行人,比如在雾天,因为恶劣天气的使能见度降低,色彩反射不足,并造成行人轮廓和外观模糊,很难将其与背景区分开来。因此,现有技术中在环境较模糊的情况下,对行人进行检测时很难将其与背景区分开来,而造成行人检测结果不精确的问题。
发明内容
有鉴于此,本申请实施例提供了行人检测方法及装置,以解决现有技术中行人检测结果不精确的问题。
本申请实施例的第一方面提供了一种行人检测方法,包括:
实时获取待检测图像;
将所述待检测图像输入预先训练得到的行人检测模型,识别所述待检测图像中包含的行人数据;所述行人检测模型根据预设的深度可分离卷积方式训练得到;
对所述行人数据进行非极大值抑制处理,确定所述待检测图像中所述行人数据对应的人像边框。
本申请实施例的第二方面提供了一种行人检测装置,包括:
获取单元,用于实时获取待检测图像;
识别单元,用于将所述待检测图像输入预先训练得到的行人检测模型,识别所述待检测图像中包含的行人数据;所述行人检测模型根据预设的深度可分离卷积方式训练得到;
确定单元,用于对所述行人数据进行非极大值抑制处理,确定所述待检测图像中所述行人数据对应的人像边框。
本申请实施例的第三方面提供了一种行人检测装置,包括:处理器、输入设备、输出设备和存储器,所述处理器、输入设备、输出设备和存储器相互连接,其中,所述存储器用于存储支持装置执行上述方法的计算机程序,所述计算机程序包括程序指令,所述处理器被配置用于调用所述程序指令,执行上述第一方面的方法。
本申请实施例的第四方面提供了一种计算机可读存储介质,所述计算机存储介质存储有计算机程序,所述计算机程序包括程序指令,所述程序指令当被处理器执行时使所述处理器执行上述第一方面的方法。
本申请实施例与现有技术相比存在的有益效果是:实时获取待检测图像;将所述待检测图像输入预先训练得到的行人检测模型,识别所述待检测图像中包含的行人数据;对所述行人数据进行非极大值抑制处理,确定所述待检测图像中所述行人数据对应的人像边框。本实施例中通过基于深度可分离卷积方式训练得到行人检测模型,根据行人检测模型对获取到的待检测图像进行识别,确定其中包含的行人对应的人像边框,不仅提高了人像检测的效率,使得用户可以第一时间根据检测到的人像边框确定对应的处理方式,也提高了人像检测的精确度,保证了在雾霾等能见度较低的环境下也能清楚检测出当前的行人情况。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例一提供的行人检测方法的流程图;
图2是本申请实施例二提供的行人检测方法的流程图;
图3是本申请实施例二提供的图像增强技术的应用示例;
图4是本申请实施例二提供的训练模型的训练过程和应用过程示意图;
图5是本申请实施例二提供的行人检测方法的结构示意图;
图6是本申请实施例二提供的标准卷积与深度可分离卷积的对比示意图;
图7是本申请实施例二提供的行人检测方法中瓶颈层结构示意图;
图8是本申请实施例二提供的权重连结层的结构示意图;
图9是本申请实施例二提供的压缩激励机制的示意图;
图10是本申请实施例二提供的历史图像的先验框的分布图;
图11是本申请实施例二提供的MNPB-YOLO标签示意图;
图12是本申请实施例二提供的检测结果示例;
图13是本申请实施例三提供的行人检测装置的示意图;
图14是本申请实施例四提供的行人检测装置的示意图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本申请实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本申请。在其它情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本申请的描述。
为了说明本申请所述的技术方案,下面通过具体实施例来进行说明。
参见图1,图1是本申请实施例一提供的一种行人检测方法的流程图。本实施例中行人检测方法的执行主体为具有行人检测功能的装置,包括但不限于计算机、服务器、平板电脑或者终端等装置。如图所示的行人检测方法可以包括以下步骤:
S101:实时获取待检测图像。
步行是交通出行的基本方式之一,据调查显示,在欧洲区域,每年有超过7000名行人死亡,占所有死亡人数的百分之二十七,因此,有效检测各种环境下的行人,将显著提高自动驾驶车辆的行驶安全性。然而,由于行人姿态、定位、服装和天气条件的多样性和复杂性,行人检测问题依然存在。随着计算机性能的不断提高,基于深度体系结构的检测方法也得到了广泛的应用。然而,大多数的检测模型只在光照充足的条件下进行了测试,一般而言,它们并没有能力在光照不足的情况下检测行人,比如在雾天。据调查显示,雾霾天气下的交通事故发生率要远高于晴天条件下,因为在雾霾天气下,人眼能感受到的视野范围变小,使得司机难以看清路牌和行人,从而增加了交通事故发生的概率。一般来说,雾霾程度越严重,事故发生率越高。然而,在雾霾中检测行人是一项尤其挑战性的任务,因为恶劣天气的使能见度降低,色彩反射不足,并造成行人轮廓和外观模糊,很难将其与背景区分开来。这些算法主要应用于大气光均匀的白天场景。然而,更为恶劣的雾霾情况通常发生在昏暗的光线下,这使得现有的去雾算法无法适应于更为恶劣的雾霾场景。
本实施例中在检测行人过程中,先实时获取待检测图像。本实施例中的待检测图像可以是单幅图像的形式,也可以是一段视频的形式,当获取到视频之后,可以对视频进行预设周期内的采样处理,得到单帧的图像画面作为待检测图像。同时,本实施例中的待检测图像可以是彩色图像、黑白图像或者红外图像等,此处不做限定。
示例性地,在车辆行进过程中,可以通过安装在车辆前端的摄像装置,例如行车记录仪,来实时拍摄图像或者视频,以将该图像作为待检测图像,对视频进行采样处理,得到单帧的图像画面作为待检测图像。
S102:将所述待检测图像输入预先训练得到的行人检测模型,识别所述待检测图像中包含的行人数据;所述行人检测模型根据预设的深度可分离卷积方式训练得到。
本实施例中预先训练有行人检测模型,本实施例利用深度可分离卷积和线性瓶颈层技术降低了计算量和参数个数,提高了网络的运行效率。此外,我们还创新性地将多尺度特征融合与压缩激励机制相结合,提出了一种新的特征融合方法——权重连接层。利用上述方法,我们提出了一种高效的在雾霾天气下的行人检测方法MNPB-YOLO行人检测模型。
在训练得到行人检测模型之后,将获取到的待检测图像输入该行人检测模型,识别得到待检测图像中包含的行人数据。本实施例中的行人数据可以包括行人在待处理图像中的位置、对应的像素点的位置,以及通过行人检测模型找出了一堆行人对应的方框等,此处不做限定。
S103:对所述行人数据进行非极大值抑制处理,确定所述待检测图像中所述行人数据对应的人像边框。
在通过行人检测模型得到待处理图像中的行人数据之后,对行人数据进行非极大值抑制处理,以确定待检测图像中行人数据对应的人像边框。本实施例中通过非极大值抑制抑制不是极大值的元素,例如,通过局部最大搜索的方式,确定图像中对应区域的边缘。这个局部用于表示的是一个邻域,邻域有两个参数可变,一是邻域的维数,二是邻域的大小。在本实施例的行人检测中,通过滑动窗口经提取特征,经分类器分类识别后,每个窗口都会得到一个分数。但是滑动窗口会导致很多窗口与其他窗口存在包含或者大部分交叉的情况。这时就需要用到非极大值抑制处理来选取那些邻域里分数最高,即是行人的概率最大,不是行人的概率较小,并且抑制那些分数低的窗口。
具体的,对于识别出的待检测图像中各个行人数据对应的边界框,我们需要判别哪些矩形框是没用的。本实施例中假设每个行人对应的边界框的集合为B,选择边界框最大的为检测框M,将其从B集合中移除并加入到最终的检测结果中,计算B中每个剩余的边界框与检测框M之间的重叠度(Intersection over Union,IOU),将IOU大于或者等于预设的重叠度阈值的边界框框从B中移除,重复这个过程,直到B为空,最后将被保留下来的边界框作为待检测图像中行人数据对应的人像边框。
示例性地,在待检测图像定位一个行人时,通过行人检测模型找出了一堆的方框,我们需要判别哪些矩形框是没用的。本实施例中通过非极大值抑制的方法是:先假设有预设数量的矩形框,即边界框,根据分类器的类别分类概率做排序。假设矩形框的数量为6个,从小到大属于行人的概率分别为A、B、C、D、E、F。从最大概率矩形框F开始,分别判断A~E与F的IOU是否大于某个设定的重叠度阈值,假设B、D与F的重叠度超过重叠度阈值,那么就扔掉B、D;并标记第一个矩形框F,是我们保留下来的。从剩下的矩形框A、C、E中,选择概率最大的E,然后判断E与A、C的重叠度,重叠度大于一定的重叠度阈值,那么就扔掉;并标记E是我们保留下来的第二个矩形框,就这样一直重复,找到所有被保留下来的矩形框,作为待检测图像中所述行人数据对应的人像边框。
上述方案,通过实时获取待检测图像;将所述待检测图像输入预先训练得到的行人检测模型,识别所述待检测图像中包含的行人数据;所述行人检测模型根据预设的深度可分离卷积方式训练得到;对所述行人数据进行非极大值抑制处理,确定所述待检测图像中所述行人数据对应的人像边框。本实施例中通过基于深度可分离卷积方式训练得到行人检测模型,根据行人检测模型对获取到的待检测图像进行识别,确定其中包含的行人对应的人像边框,不仅提高了人像检测的效率,使得用户可以第一时间根据检测到的人像边框确定对应的处理方式,也提高了人像检测的精确度,保证了在雾霾等能见度较低的环境下也能清楚检测出当前的行人情况。
参见图2,图2是本申请实施例二提供的一种行人检测方法的流程图。本实施例中行人检测方法的执行主体为具有行人检测功能的装置,包括但不限于计算机、服务器、平板电脑或者终端等装置。如图所示的行人检测方法可以包括以下步骤:
S201:实时获取待检测图像。
本实施例中在检测行人过程中,先实时获取待检测图像。本实施例中的待检测图像可以是单幅图像的形式,也可以是一段视频的形式,当获取到视频之后,可以对视频进行预设周期内的采样处理,得到单帧的图像画面作为待检测图像。同时,本实施例中的待检测图像可以是彩色图像、黑白图像或者红外图像等,此处不做限定。示例性地,在车辆行进过程中,可以通过安装在车辆前端的摄像装置,例如行车记录仪,来实时拍摄图像或者视频,以将该图像作为待检测图像,对视频进行采样处理,得到单帧的图像画面作为待检测图像。
S202:获取包含行人的历史图像。
本实施例中在对待检测图像进行识别时,是根据预先训练好的行人检测模型进行识别。因此,在识别获取到的待检测图像之前,先获取包含行人的历史图像,以根据历史图像训练得到行人检测模型。
本实施例中的历史图像的形式和待检测图像的形式相同,本实施例中的历史图像可以是彩色图像、黑白图像或者红外图像等,此处不做限定。本实施例中的历史图像可以是单幅图像的形式,也可以是一段视频的形式,当获取到视频之后,可以对视频进行预设周期内的采样处理,得到单帧的图像画面作为历史图像。
S203:根据预设的权重连接层构建训练模型,根据所述历史图像对所述训练模型进行训练,得到所述行人检测模型。
在获取到历史图像之后,根据预设的权重连接层构建训练模型,并根据历史图像对训练模型进行训练,得到行人检测模型来检测时待检测图像中的行人。需要说明的是,为了区别不同处理方式对应的训练模型,本实施例中的训练模型包括第一训练模型和第二训练模型,其中,第一训练模型用于表示对历史图像进行扩充之后得到的训练模型,第二训练模型用于表示通过步骤S2031~S2034训练得到的S2031~S2034,两个训练模型可以单独实现训练和图像识别,也可以将两个训练模型结合起来进行训练和图像识别。
进一步的,步骤S203可以具体包括:
对所述历史图像进行图像增强处理,得到所述历史图像对应的至少两个扩充图像;
根据预设的权重连接层构建第一训练模型,根据所述历史图像及其对应的所述扩充图像对所述第一训练模型进行训练,得到所述行人检测模型。
具体的,请一并参阅图3所示,图3展示了一些图像增强技术的应用示例,其中,(a)~(f)分别为历史图像的原图、随机翻转之后的图像、随机对比度改变之后的图像、随机裁剪之后的图像、随机颜色改变之后的图像以及随机仿射变换之后的图像。为了让模型具有更好的泛化性能,我们在训练时增加了图像增强技术,通过随机的裁剪、翻转,颜色改变、仿射变换和高斯噪声等操作,来扩充原有的数据集,以保证在具有强大的数据集基础的条件下,增加模型训练的次数,提高模型训练的精度。根据预设的权重连接层构建第一训练模型,根据历史图像及其对应的扩充图像对第一训练模型进行训练,得到行人检测模型。
请一并参与图4,图4为本实施例提供的训练模型的训练过程和应用过程示意图,其中,在进行训练时,先获取红绿蓝(Red Green Blue,RGB)形式的历史图像,即RGB图像,再对RGB图像进行图像扩充,例如,进行图像裁剪、图像增强等处理,再通过预先涉及的算法架构,即MNPB-YOLO行人检测方法对历史图像及其扩充之后的图像进行识别,并根据预设的真值标签确定方式计算识别结果与原图之间的损失函数,最后通过损失函数来对MNPB-YOLO行人检测方法中的模型参数进行更新,最后得到训练模型中固定的参数和权重,得到高效、精确的训练模型。
进一步的,步骤S203可以具体包括步骤S2031~S2034:
S2031:根据预设的权重连接层,基于预设的深度可分离卷积方式以及预设的线性瓶颈层技术,构建第二训练模型。
请一并参与图5,图5为本实施例提供的行人检测方法的结构示意图,其中,图5中的各个数字之间的相乘计算公式用于表示在当前参与计算的数据量。为了有效的实现雾霾天气下的行人检测,本实施例提出了一新的基于YOLO的深度学习方法,其中包括了基础卷积模型部分、权重连接层、检测模块和分类模块。利用深度可分离卷积和线性瓶颈层技术构成基础卷积模型,降低了计算量和参数个数,提高了网络的运行效率。此外,我们还将空间到深度变换的多尺度特征融合与压缩激励机制相结合,提出了一种新的特征融合方法——权重连接层,最后通过检测模块和分类模块完成实现待处理图像的中的行人检测。
利用上述方法,我们提出了一种高效的在雾霾天气下的行人检测方法——MNPB-YOLO,请一并参与图6,图6为本实施例提供的标准卷积与深度可分离卷积的对比示意图,其中,H,W用于表示卷积核的高和宽,M用于表示输入特征图的通道数或卷积核的通道数,N用于表示卷积核个数。深度可分离卷积与普通卷积的效果差别主要是其可以有效的减少网络参数量和计算量,为让MNPB-YOLO可以更高速地运行在一般的处理器上,我们采用深度可分离卷积用来搭建整体的MNPB-YOLO模型。其卷积方式和普通卷积的对比如图6所示,通过图6可以看到,深度可分离卷积由两部分组成,纵向depthwise卷积和逐点pointwise卷积,depthwise卷积在不同通道上分别对特征图进行卷积,然后pointwise卷积在对特征图的所有通道进行卷积。
请一并参与图7,图7为本实施例提供的行人检测方法中瓶颈层结构示意图。深度可分离卷积搭配Relu激活函数会造成一定的信息损失,为了减少这种信息损失,需要用到瓶颈层的技术。具体的,瓶颈层技术在本方案的实施过程如表1所示,图像先经过一个3×3卷积输出一个特征图,该特征图就作为瓶颈层结构中的Input,即图6中所示的根据卷积步幅为1或2采用不同的方法再进行卷积,当卷积步幅为1时,先通过1×1卷积,激活函数为Relu6进行升维,即图7中的Conv 1×1,Relu6;升维的倍数体现在表1中的“扩展系数”一栏,通过此步骤可以将信息更广阔的散布在特征图中,以防止depthwise卷积(激活函数为Relu6时)造成的信息损失);将升维后的特征图用3×3Depthwise卷积进行降维处理,即图7中的Dwise3×3,Relu6;然后通过1×1普通卷积、激活函数为线性函数来融合不同通道的信息,即图7中的Conv 1×1,Linear;之后将输入与此部分输出做元素相加element-wise,即图7中的ADD;最后将此特征图输出到下一层,作为下一层的输入。当卷积步幅为2时,即图7中的Stride=2,与卷积步幅1的区别只在于没有element-wise相加的操作,这是因为卷积步幅为2时,主要目的是对特征图高宽进行下采样,高宽缩减一倍,缩减后的特征图无法与原特征图做element-wise相加操作。
行人检测方法中详细的网络结构参数如表1所示,需要说明的是,本实施例中文字和附图中的Conv用于表示代表卷积;“数字×数字×数字”格式的字符均用于表示特征图的高×宽×通道数,之后不再一一赘述。
表1:MNPB-YOLO网络配置参数
请一并参与图8,图8为本实施例提供的权重连结层的结构示意图。权重连结层能自动筛选来自于不同特征尺度的特征图的重要性,然后过滤掉那些不重要的信息,以此来提升网络的性能。首先,收集来自于不同层数、尺度不同的多个特征图的信息,这些特征图大小不一致,即特征图的高×宽×通道数不同,例如图中的28x28x16、14x14x48或者7x7x320等,不能直接拼接,所以采用分割和拼接的方法,先把不同大小的特征图调整至大小一致,即空间到深度变换,然后将所有调整后的特征图拼接在一起,一同构成多尺度的特征信息,例如图中的7x7x256+7x7x192+7x7x320,最后由压缩激励机制模型筛选出重要的特征。
请一并参与图9,图9为本实施例提供的压缩激励机制的示意图,压缩激励机制实际上是一种通道注意力机制,通过给每个通道赋以不同的权重ω来筛选出重要的特征,权重ω由学习得到,其更新的方向为损失下降的方向。如图所示,先通过1×1卷积进行降维处理,然后通过全局池化获取通道的特征值,之后通过全连接层计算出权重ω,再用权重ω乘以压缩后的特征图,最后得到重新标定后的特征。如图9所示,H,W,C分别用于表示某一特征图的高、宽、通道数,且带上标’也是同样的意思;Ftr用于表示一个1×1卷积的降维操作,目的是通过降维的方式来减少通道数,以减少后面步骤所需要的计算量,提高本实施例中的方法检测行人的效率;Fsq(·)用于表示一个在通道上的压缩操作,在实际中采用全局平均池化代替;Fex(·,W)代表将形状为1×1×C的特征信息映射成另一个形状为1×1×C的特征信息,即映射后的特征信息用于表示通道的重要性系数,映射方案采用多层感知机;W用于表示多层感知机的权重,此权重的更新方向为损失梯度下降的方向;Fscala(·,·)用于表示将特征图U与映射后的特征信息,即通道重要性系数,做通道上的乘法运算;最后得到重新标定后的特征X用于表示输入的特征图。在本实施例中,X用于表示多尺度特征信息,为筛选后的信息(请一并参阅图8)。
S2032:将所述历史图像输入所述第二训练模型中,检测所述历史图像中的行人图像,并确定每个行人图像对应的真值标签;所述真值标签用于表示识别出的历史图像的先验框基于真值框的变换系数。
MNPB-YOLO检测思想受YOLO启发,将图像分成N×N的网格,每个网格预测B个检测框,每个检测框由描述检测框位置的参数及物体种类的编码构成。在YOLOv1(第一版本)和YOLOv2(第二版本中),都采用物体中心位置位于哪个网格内,就由哪个网格内的检测框进行预测,但是在MNPB-YOLO中,我们先计算网格内先验框与真值框的IOU值,然后按IOU值降序对先验框排序,选取前k个先验框来复杂预测物体的大小。
请一并参与图10,图10为本实施例提供的历史图像的先验框的分布图。我们采用聚类方法先预先获取数据集中行人大小的聚类中心,我们将行人大小分为两类,将聚类中心的参数作为先验框的高宽,然后均匀分布在图像的N×N网格中,黑色的粗框就是两个位于网格中心的先验框,黑色网格线用于表示N×N网格,在这里N取为7。
请一并参与图11,图11为本实施例提供的MNPB-YOLO标签示意图,在MNPB-YOLO中,每个目标人物对应一个真值标签,由6个参数进行描述,分别用于表示先验框向真值框x方向的偏置和y方向的偏置,先验框向真值框在高、宽上的变换系数,以及用于区分人物及背景的特征向量,以one-hot编码表示。在图11的左图中,细线表示的框为先验框,粗线表示的框为真值框,假设细线表示的框就是负责预测真值框的,那么其标签就是:其中,wa,ha用于表示先验框的宽和高,xa,ya用于表示先验框距离图像左边缘和上边缘的距离。wg,hg用于表示真值框的宽和高,xg,yg用于表示真值框距离图像左边缘和上边缘的距离。否则,则其标签为其中a、b、c、d用于表示此处的值随意设置。
S2033:根据所述真值标签,确定所述第二训练模型对应的损失函数。
对于检测任务(检测框的回归),我们采用smooth L1对网络输出及真值标签进行损失评价,对于分类任务(区分行人与背景),我们采用交叉熵作为损失,而YOLOV1和V2均采用L2作为检测与分类的损失。
YOLO损失函数如下所示:
Ltotal=Lcenter+Lsize+Lsocre+Lclass
其中,Lcenter,Lsize和Lscore用于表示检测框中心、大小及框内有无物体的置信度损失,Lclass用于表示分类损失,ci,j,k,分别用于表示网络预测的网格I,j处检测框k内有无物体的置信度及其真值,xi,j,k,yi,j,k,wi,j,k,hi,j,k用于表示网络预测的网格I,j处的检测框k的位置及大小,用于表示与之对应的真值,pi,j,k和分别用于表示网络预测的网格I,j处的检测框k内物体所属类别的概率及其真值,用来指示网格I,j处的检测框k是否用来负责检测物体,用来指示网格I,j处的检测框k是否用来负责检测背景。
而本实施例中的,MNPB-YOLO损失如下所示:
Ltotal=λclassLclass+λboxLbox
其中,classi,j,k用于表示网络预测的物体种类的one-hot编码,用于表示物体种类的真值,用于表示网络预测的先验框向真值框变换的值,用于表示先验框向真值框变换的真值。λclass和λbox是两个常数,用以平衡不同类型的损失,CrossEntropy用于表示交叉熵函数;用于表示网格I,j处的检测框k是否用来负责检测物体;x用于表示函数的输入。
S2034:根据所述损失函数优化所述第二训练模型,得到所述行人检测模型。
通过权重连结层筛选出的特征还需要进一步的提取,最后才能输出特定的张量形状,与真值标签做对比,构成损失。我们采用3×3卷积和1×1卷积配合的方式构成我们的检测与分类模块。
如表2所示,张量最后输出的形状所用于表示的意义是:将图像分成7×7的网格,每个网格预测2个检测框,每个检测框需要6个参数描述,其中包括描述检测框位置及大小的4个参数及区分背景和人物的one-hot编码2个。
表2:分类及检测模块
不同方法的技术对比,可以看到,本实施例的方法参数量比原始YOLO少了非常多,这意味着本实施例的方法可以更高效的运行。与YOLOv1和YOLOv2相比,MNPB-YOLO在网络结构上进行了较大的改动,采用深度可分离卷积及瓶颈层技术将参数量及计算量大大减少,同时提出的权重连结层可以提升网络性能,这让我们的网络同时具备速度及精度的优势。
不同方法的技术对比如表3所示,其中,YOLOv1的网络结构受GoogleLenet启发,输入大小为224×224×3的图像,输出网格划分为7×7,每个网格预测2个检测框,检测思想为利用卷积神经网络的映射能力直接构建图像到检测框参数的映射过程,检测框由物体中心位置(x,y)及物体高宽(h,w)共4个参数构成,同时加上网格中的某个检测框内是否有物体的置信度c及物体种类的one-hot编码一起构成网络的输出,整个网络相当于是从零开始学习如何标注出物体。事实上,对于一些特定场景的物体,我们有一些先验的知识可以帮助网络更好的辨识出物体,比如目标物体的高宽比信息,对于行人,一般在3:1左右。YOLOv2就将这种先验知识融入进了网络预测当中,这就是我们说的先验框技术,对于YOLOv2,输入大小调整为448×448×3,网格划分为13×13,每个网格预测2个检测框,先验框的大小由训练集中的标签大小通过聚类方法得到,此外,还将网络结构做了很大的改动,提出了darknet这个backbone,参数量是原来的一半左右。YOLOv1及YOLOv2的对比可以在表3中看到,由表3可知,本实施例中MNPB-YOLO的方法在批量标准化、先验框技术、卷积方式、权重连接层以及参数量方面,都有明显的优势:
表3:不同方法的技术对比
S204:将所述待检测图像输入预先训练得到的行人检测模型,识别所述待检测图像中包含的行人数据;所述行人检测模型根据预设的深度可分离卷积方式训练得到;
在本实施例中S204与图1对应的实施例中S102的实现方式完全相同,具体可参考图1对应的实施例中的S102的相关描述,在此不再赘述。
S205:对所述行人数据进行非极大值抑制处理,确定所述待检测图像中所述行人数据对应的人像边框。
请一并参阅之前引入的图4,图4为本实施例提供的训练模型的训练过程和应用过程示意图,在根据历史图像及其扩充图像确定训练模型中的参数和权重之后,便可以将训练模型投入应用中,即通过训练模型来对待检测图像进行行人检测。在检测过程中,先通过车载摄像头来获取实时图像,即待检测图像,将获取到的实时图像输入训练好的训练模型中,检测得到实时图像中每个行人对应的至少一个边框,通过非极大值抑制的方式对各个边框进行计算和判定,确定待检测图像中的行人对应的行人边框,得到精确的检测结果。
在进行仿真实验时,原始YOLO是一种多目标检测模型,为了将YOLO与MNPB-YOLO的单目标检测进行对比,我们对其进行了一些改动,改动后的模型我们称之为S-YOLOV1和S-YOLOV2,此外,我们还对比了两种传统的方法:基于HAAR特征和Adaboost分类器的行人检测算法,以及基于HOG特征和SVM分类器的行人检测算法。不同方法的检测结果对比如表4所示。其中,AP用于表示平均精准度,具体为PR曲线与XY轴包围的面积占比,P用于表示精准度,R用于表示召回率,FPS用于表示处理速度,即每秒处理多少帧。从表4可以看出,本实施例的方法不仅比其他方法准确,而且速度还快出很多,实验在Intel-i7 6700K和GTX 1080计算机平台上测得。
表4:不同方法的检测结果对比
请一并参阅图12,图12为本实施例中的一些检测结果示例,通过图12可知,本实施例中的方式可以在雾霾天气或者环境可见度较低的情况下,检测到图像中的行人,并能精确的确定行人的人像边框。
S206:检测所述人像边框对应的行人相对于当前车辆的方位、所述当前车辆与所述人像边框对应的行人之间的距离。
在确定了获取到的待检测图像中的人像边框之后,可以根据人像边框来确定当前视野中的行人,并进行对应的控制操作。
示例性地,当检测到车辆前方的行人对应的人像边框之后,即确定车辆前方有人,可以再次检测该行人相对于车辆的方位、以及当前车辆与该行人之间的距离。具体的,方位的确定可以根据行人在待处理图像中的区域来确定,例如根据人像边框在待处理图像中的右下,则判定该行人在当前车辆的右前方。距离的确定可以通过红外测距的方式来确定,通过红外测距装置来确定该行人的位置与当前车辆的距离。
S207:根据所述方位和所述距离,生成提醒信息,并进行播报;所述提醒信息用于提醒所述当前车辆的司机注意所述人像边框对应的行人。
在确定了行人相对于当前车辆的方位和距离之后,生成提醒信息,并进行播报,以提醒当前车辆的司机注意人像边框对应的行人。
进一步的,若是在无人驾驶的环境下使用本实施例中的方法,也可以在确定了行人相对于当前车辆的方位和距离之后,根据行人相对于当前车辆的方位和距离,生成车辆控制指令,以通过车辆控制指令来控制车辆行进速度和方向,避免撞向行人。
上述方案,通过实时获取待检测图像;获取包含行人的历史图像;根据预设的权重连接层构建训练模型,根据所述历史图像对所述训练模型进行训练,得到所述行人检测模型。将所述待检测图像输入预先训练得到的行人检测模型,识别所述待检测图像中包含的行人数据;所述行人检测模型根据预设的深度可分离卷积方式训练得到;对所述行人数据进行非极大值抑制处理,确定所述待检测图像中所述行人数据对应的人像边框。通过对历史图像进行处理增加图像训练的基数,根据权重连接层构建训练模型并进行训练,得到所述行人检测模型,对待检测图像进行检测,并在得到检测结果之后,根据检测结果进行相应的处理,不仅提高了待检测图像的检测效率和检测精度,也提高了车辆驾驶和路人的安全性。
参见图13,图13是本申请实施例三提供的一种行人检测装置的示意图。行人检测装置1300可以为智能手机、平板电脑等移动终端。本实施例的行人检测装置1300包括的各单元用于执行图1对应的实施例中的各步骤,具体请参阅图1及图1对应的实施例中的相关描述,此处不赘述。本实施例的行人检测装置1300包括:
获取单元1301,用于实时获取待检测图像;
识别单元1302,用于将所述待检测图像输入预先训练得到的行人检测模型,识别所述待检测图像中包含的行人数据;所述行人检测模型根据预设的深度可分离卷积方式训练得到;
确定单元1303,用于对所述行人数据进行非极大值抑制处理,确定所述待检测图像中所述行人数据对应的人像边框。
进一步的,所述行人检测装置还包括:
历史获取单元,用于获取包含行人的历史图像;
训练单元,用于根据预设的权重连接层构建训练模型,根据所述历史图像对所述训练模型进行训练,得到所述行人检测模型。
进一步的,所述训练单元包括:
扩充单元,用于对所述历史图像进行图像增强处理,得到所述历史图像对应的至少两个扩充图像;
第一训练单元,用于根据预设的权重连接层构建第一训练模型,根据所述历史图像及其对应的所述扩充图像对所述第一训练模型进行训练,得到所述行人检测模型。
进一步的,所述训练单元包括:
第二训练单元,用于根据预设的权重连接层,基于预设的深度可分离卷积方式以及预设的线性瓶颈层技术,构建第二训练模型;
真值单元,用于将所述历史图像输入所述第二训练模型中,检测所述历史图像中的行人图像,并确定每个行人图像对应的真值标签;所述真值标签用于表示识别出的历史图像的先验框基于真值框的变换系数;
损失函数单元,用于根据所述真值标签,确定所述第二训练模型对应的损失函数;
优化单元,用于根据所述损失函数优化所述第二训练模型,得到所述行人检测模型。
进一步的,所述行人检测装置还包括:
定位单元,用于检测所述人像边框对应的行人相对于当前车辆的方位、所述当前车辆与所述人像边框对应的行人之间的距离;
提醒单元,用于根据所述方位和所述距离,生成提醒信息,并进行播报;所述提醒信息用于提醒所述当前车辆的司机注意所述人像边框对应的行人。
上述方案,通过实时获取待检测图像;获取包含行人的历史图像;根据预设的权重连接层构建训练模型,根据所述历史图像对所述训练模型进行训练,得到所述行人检测模型。将所述待检测图像输入预先训练得到的行人检测模型,识别所述待检测图像中包含的行人数据;所述行人检测模型根据预设的深度可分离卷积方式训练得到;对所述行人数据进行非极大值抑制处理,确定所述待检测图像中所述行人数据对应的人像边框。通过对历史图像进行处理增加图像训练的基数,根据权重连接层构建训练模型并进行训练,得到所述行人检测模型,对待检测图像进行检测,并在得到检测结果之后,根据检测结果进行相应的处理,不仅提高了待检测图像的检测效率和检测精度,也提高了车辆驾驶和路人的安全性。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本申请实施例的实施过程构成任何限定。
参见图14,图14是本申请实施例五提供的一种行人检测装置的示意图。如图14所示的本实施例中的行人检测装置1400可以包括:处理器1401、存储器1402以及存储在存储器1402中并可在处理器1401上运行的计算机程序1403。处理器1401执行计算机程序1403时实现上述各个行人检测方法实施例中的步骤。存储器1402用于存储计算机程序,所述计算机程序包括程序指令。处理器1401用于执行存储器1402存储的程序指令。其中,处理器1401被配置用于调用所述程序指令执行以下操作:
处理器1401用于:
实时获取待检测图像;
将所述待检测图像输入预先训练得到的行人检测模型,识别所述待检测图像中包含的行人数据;所述行人检测模型根据预设的深度可分离卷积方式训练得到;
对所述行人数据进行非极大值抑制处理,确定所述待检测图像中所述行人数据对应的人像边框。
进一步的,处理器1401具体用于:
获取包含行人的历史图像;
根据预设的权重连接层构建训练模型,根据所述历史图像对所述训练模型进行训练,得到所述行人检测模型。
进一步的,处理器1401具体用于:
对所述历史图像进行图像增强处理,得到所述历史图像对应的至少两个扩充图像;
根据预设的权重连接层构建第一训练模型,根据所述历史图像及其对应的所述扩充图像对所述第一训练模型进行训练,得到所述行人检测模型。
进一步的,处理器1401具体用于:
根据预设的权重连接层,基于预设的深度可分离卷积方式以及预设的线性瓶颈层技术,构建第二训练模型;
将所述历史图像输入所述第二训练模型中,检测所述历史图像中的行人图像,并确定每个行人图像对应的真值标签;所述真值标签用于表示识别出的历史图像的先验框基于真值框的变换系数;
根据所述真值标签,确定所述第二训练模型对应的损失函数;
根据所述损失函数优化所述第二训练模型,得到所述行人检测模型。
进一步的,处理器1401具体用于:
检测所述人像边框对应的行人相对于当前车辆的方位、所述当前车辆与所述人像边框对应的行人之间的距离;
根据所述方位和所述距离,生成提醒信息,并进行播报;所述提醒信息用于提醒所述当前车辆的司机注意所述人像边框对应的行人。
上述方案,通过实时获取待检测图像;获取包含行人的历史图像;根据预设的权重连接层构建训练模型,根据所述历史图像对所述训练模型进行训练,得到所述行人检测模型。将所述待检测图像输入预先训练得到的行人检测模型,识别所述待检测图像中包含的行人数据;所述行人检测模型根据预设的深度可分离卷积方式训练得到;对所述行人数据进行非极大值抑制处理,确定所述待检测图像中所述行人数据对应的人像边框。通过对历史图像进行处理增加图像训练的基数,根据权重连接层构建训练模型并进行训练,得到所述行人检测模型,对待检测图像进行检测,并在得到检测结果之后,根据检测结果进行相应的处理,不仅提高了待检测图像的检测效率和检测精度,也提高了车辆驾驶和路人的安全性。
应当理解,在本申请实施例中,所称处理器1401可以是中央处理单元(CentralProcessing Unit,CPU),该处理器还可以是其他通用处理器、数字信号处理器(DigitalSignal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
该存储器1402可以包括只读存储器和随机存取存储器,并向处理器1401提供指令和数据。存储器1402的一部分还可以包括非易失性随机存取存储器。例如,存储器1402还可以存储设备类型的信息。
具体实现中,本申请实施例中所描述的处理器1401、存储器1402、计算机程序1403可执行本申请实施例提供的行人检测方法的第一实施例和第二实施例中所描述的实现方式,也可执行本申请实施例所描述的终端的实现方式,在此不再赘述。
在本申请的另一实施例中提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序包括程序指令,所述程序指令被处理器执行时实现:
实时获取待检测图像;
将所述待检测图像输入预先训练得到的行人检测模型,识别所述待检测图像中包含的行人数据;所述行人检测模型根据预设的深度可分离卷积方式训练得到;
对所述行人数据进行非极大值抑制处理,确定所述待检测图像中所述行人数据对应的人像边框。
进一步的,所述计算机程序被处理器执行时还实现:
获取包含行人的历史图像;
根据预设的权重连接层构建训练模型,根据所述历史图像对所述训练模型进行训练,得到所述行人检测模型。
进一步的,所述计算机程序被处理器执行时还实现:
对所述历史图像进行图像增强处理,得到所述历史图像对应的至少两个扩充图像;
根据预设的权重连接层构建第一训练模型,根据所述历史图像及其对应的所述扩充图像对所述第一训练模型进行训练,得到所述行人检测模型。
进一步的,所述计算机程序被处理器执行时还实现:
根据预设的权重连接层,基于预设的深度可分离卷积方式以及预设的线性瓶颈层技术,构建第二训练模型;
将所述历史图像输入所述第二训练模型中,检测所述历史图像中的行人图像,并确定每个行人图像对应的真值标签;所述真值标签用于表示识别出的历史图像的先验框基于真值框的变换系数;
根据所述真值标签,确定所述第二训练模型对应的损失函数;
根据所述损失函数优化所述第二训练模型,得到所述行人检测模型。
进一步的,所述计算机程序被处理器执行时还实现:
检测所述人像边框对应的行人相对于当前车辆的方位、所述当前车辆与所述人像边框对应的行人之间的距离;
根据所述方位和所述距离,生成提醒信息,并进行播报;所述提醒信息用于提醒所述当前车辆的司机注意所述人像边框对应的行人。
上述方案,通过实时获取待检测图像;获取包含行人的历史图像;根据预设的权重连接层构建训练模型,根据所述历史图像对所述训练模型进行训练,得到所述行人检测模型。将所述待检测图像输入预先训练得到的行人检测模型,识别所述待检测图像中包含的行人数据;所述行人检测模型根据预设的深度可分离卷积方式训练得到;对所述行人数据进行非极大值抑制处理,确定所述待检测图像中所述行人数据对应的人像边框。通过对历史图像进行处理增加图像训练的基数,根据权重连接层构建训练模型并进行训练,得到所述行人检测模型,对待检测图像进行检测,并在得到检测结果之后,根据检测结果进行相应的处理,不仅提高了待检测图像的检测效率和检测精度,也提高了车辆驾驶和路人的安全性。
所述计算机可读存储介质可以是前述任一实施例所述的终端的内部存储单元,例如终端的硬盘或内存。所述计算机可读存储介质也可以是所述终端的外部存储设备,例如所述终端上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(SecureDigital,SD)卡,闪存卡(Flash Card)等。进一步地,所述计算机可读存储介质还可以既包括所述终端的内部存储单元也包括外部存储设备。所述计算机可读存储介质用于存储所述计算机程序及所述终端所需的其他程序和数据。所述计算机可读存储介质还可以用于暂时地存储已经输出或者将要输出的数据。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,上述描述的终端和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的终端和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另外,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口、装置或单元的间接耦合或通信连接,也可以是电的,机械的或其它的形式连接。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本申请实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以是两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分,或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以权利要求的保护范围为准。
Claims (10)
1.一种行人检测方法,其特征在于,包括:
实时获取待检测图像;
将所述待检测图像输入预先训练得到的行人检测模型,识别所述待检测图像中包含的行人数据;所述行人检测模型根据预设的深度可分离卷积方式训练得到;
对所述行人数据进行非极大值抑制处理,确定所述待检测图像中所述行人数据对应的人像边框。
2.如权利要求1所述的行人检测方法,其特征在于,所述将所述待检测图像输入预先训练得到的行人检测模型,识别所述待检测图像中包含的行人数据之前,包括:
获取包含行人的历史图像;
根据预设的权重连接层构建训练模型,根据所述历史图像对所述训练模型进行训练,得到所述行人检测模型。
3.如权利要求2所述的行人检测方法,其特征在于,所述根据预设的权重连接层构建训练模型,根据所述历史图像对所述训练模型进行训练,得到所述行人检测模型,包括:
对所述历史图像进行图像增强处理,得到所述历史图像对应的至少两个扩充图像;
根据预设的权重连接层构建第一训练模型,根据所述历史图像及其对应的所述扩充图像对所述第一训练模型进行训练,得到所述行人检测模型。
4.如权利要求2所述的行人检测方法,其特征在于,所述根据预设的权重连接层构建训练模型,根据所述历史图像对所述训练模型进行训练,得到所述行人检测模型,包括:
根据预设的权重连接层,基于预设的深度可分离卷积方式以及预设的线性瓶颈层技术,构建第二训练模型;
将所述历史图像输入所述第二训练模型中,检测所述历史图像中的行人图像,并确定每个行人图像对应的真值标签;所述真值标签用于表示识别出的历史图像的先验框基于真值框的变换系数;
根据所述真值标签,确定所述第二训练模型对应的损失函数;
根据所述损失函数优化所述第二训练模型,得到所述行人检测模型。
5.如权利要求1-4任一项所述的行人检测方法,其特征在于,所述对所述行人数据进行非极大值抑制处理,确定所述待检测图像中所述行人数据对应的人像边框之后,还包括:
检测所述人像边框对应的行人相对于当前车辆的方位、所述当前车辆与所述人像边框对应的行人之间的距离;
根据所述方位和所述距离,生成提醒信息,并进行播报;所述提醒信息用于提醒所述当前车辆的司机注意所述人像边框对应的行人。
6.一种行人检测装置,其特征在于,包括:
获取单元,用于实时获取待检测图像;
识别单元,用于将所述待检测图像输入预先训练得到的行人检测模型,识别所述待检测图像中包含的行人数据;所述行人检测模型根据预设的深度可分离卷积方式训练得到;
确定单元,用于对所述行人数据进行非极大值抑制处理,确定所述待检测图像中所述行人数据对应的人像边框。
7.如权利要求6所述的行人检测装置,其特征在于,所述行人检测装置还包括:
历史获取单元,用于获取包含行人的历史图像;
训练单元,用于根据预设的权重连接层构建训练模型,根据所述历史图像对所述训练模型进行训练,得到所述行人检测模型。
8.如权利要求6所述的行人检测装置,其特征在于,所述训练单元包括:
扩充单元,用于对所述历史图像进行图像增强处理,得到所述历史图像对应的至少两个扩充图像;
第一训练单元,用于根据预设的权重连接层构建第一训练模型,根据所述历史图像及其对应的所述扩充图像对所述第一训练模型进行训练,得到所述行人检测模型。
9.一种行人检测装置,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至5任一项所述方法的步骤。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至5任一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910560741.8A CN110378243A (zh) | 2019-06-26 | 2019-06-26 | 一种行人检测方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910560741.8A CN110378243A (zh) | 2019-06-26 | 2019-06-26 | 一种行人检测方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110378243A true CN110378243A (zh) | 2019-10-25 |
Family
ID=68249503
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910560741.8A Pending CN110378243A (zh) | 2019-06-26 | 2019-06-26 | 一种行人检测方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110378243A (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111079767A (zh) * | 2019-12-22 | 2020-04-28 | 浪潮电子信息产业股份有限公司 | 一种用于分割图像的神经网络模型及其图像分割方法 |
CN111144364A (zh) * | 2019-12-31 | 2020-05-12 | 北京理工大学重庆创新中心 | 一种基于通道注意更新机制的孪生网络目标跟踪方法 |
CN111310824A (zh) * | 2020-02-13 | 2020-06-19 | 中科智云科技有限公司 | 多角度稠密目标检测抑制优化方法及设备 |
CN111597959A (zh) * | 2020-05-12 | 2020-08-28 | 三一重工股份有限公司 | 行为检测方法、装置及电子设备 |
CN112200225A (zh) * | 2020-09-23 | 2021-01-08 | 西南交通大学 | 基于深度卷积神经网络的钢轨伤损b显图像识别方法 |
CN113486722A (zh) * | 2021-06-10 | 2021-10-08 | 青岛本原微电子有限公司 | 基于dsp的非极大值抑制算法的实现方法 |
JP2022148383A (ja) * | 2021-03-24 | 2022-10-06 | パナソニックIpマネジメント株式会社 | 学習方法、学習装置、及び、プログラム |
CN116229419A (zh) * | 2023-02-21 | 2023-06-06 | 中国人民解放军军事科学院系统工程研究院 | 一种行人检测方法及装置 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160019678A1 (en) * | 2014-07-16 | 2016-01-21 | The Cleveland Clinic Foundation | Real-time image enhancement for x-ray imagers |
CN105809152A (zh) * | 2016-04-06 | 2016-07-27 | 清华大学 | 一种基于多源信息融合的驾驶员认知分心监测方法 |
CN108510012A (zh) * | 2018-05-04 | 2018-09-07 | 四川大学 | 一种基于多尺度特征图的目标快速检测方法 |
CN109086678A (zh) * | 2018-07-09 | 2018-12-25 | 天津大学 | 一种基于深度监督学习提取图像多级特征的行人检测方法 |
CN109117836A (zh) * | 2018-07-05 | 2019-01-01 | 中国科学院信息工程研究所 | 一种基于焦点损失函数的自然场景下文字检测定位方法和装置 |
CN109484290A (zh) * | 2018-11-23 | 2019-03-19 | 武汉格罗夫氢能汽车有限公司 | 一种新能源汽车行人提醒方法、设备及存储设备 |
CN109670529A (zh) * | 2018-11-14 | 2019-04-23 | 天津大学 | 一种用于快速语义分割的可分离分解残差模块设计方法 |
CN109784386A (zh) * | 2018-12-29 | 2019-05-21 | 天津大学 | 一种用语义分割辅助物体检测的方法 |
CN109815886A (zh) * | 2019-01-21 | 2019-05-28 | 南京邮电大学 | 一种基于改进YOLOv3的行人和车辆检测方法及系统 |
-
2019
- 2019-06-26 CN CN201910560741.8A patent/CN110378243A/zh active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160019678A1 (en) * | 2014-07-16 | 2016-01-21 | The Cleveland Clinic Foundation | Real-time image enhancement for x-ray imagers |
CN105809152A (zh) * | 2016-04-06 | 2016-07-27 | 清华大学 | 一种基于多源信息融合的驾驶员认知分心监测方法 |
CN108510012A (zh) * | 2018-05-04 | 2018-09-07 | 四川大学 | 一种基于多尺度特征图的目标快速检测方法 |
CN109117836A (zh) * | 2018-07-05 | 2019-01-01 | 中国科学院信息工程研究所 | 一种基于焦点损失函数的自然场景下文字检测定位方法和装置 |
CN109086678A (zh) * | 2018-07-09 | 2018-12-25 | 天津大学 | 一种基于深度监督学习提取图像多级特征的行人检测方法 |
CN109670529A (zh) * | 2018-11-14 | 2019-04-23 | 天津大学 | 一种用于快速语义分割的可分离分解残差模块设计方法 |
CN109484290A (zh) * | 2018-11-23 | 2019-03-19 | 武汉格罗夫氢能汽车有限公司 | 一种新能源汽车行人提醒方法、设备及存储设备 |
CN109784386A (zh) * | 2018-12-29 | 2019-05-21 | 天津大学 | 一种用语义分割辅助物体检测的方法 |
CN109815886A (zh) * | 2019-01-21 | 2019-05-28 | 南京邮电大学 | 一种基于改进YOLOv3的行人和车辆检测方法及系统 |
Non-Patent Citations (7)
Title |
---|
JIE HU 等: "Squeeze-and-Excitation Networks", 《2018 IEEE/CVF CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》 * |
ZAHID AHMED 等: "Enhanced Vulnerable Pedestrian Detection using Deep Learning", 《2019 INTERNATIONAL CONFERENCE ON COMMUNICATION AND SIGNAL PROCESSING (ICCSP)》 * |
刘学平 等: "嵌入SENet结构的改进YOLOV3目标识别算法", 《计算机工程》 * |
徐凯_XP: "目标检测(Object detection)", 《HTTPS://WWW.JIANSHU.COM/P/8C0E0D19399B》 * |
打不死的小黑: "深度学习(十五):目标定位 Object Localization", 《HTTPS://BLOG.CSDN.NET/HZK1562110692/ARTICLE/DETAILS/88937239》 * |
童靖然 等: "特征金字塔融合的多模态行人检测算法", 《计算机工程与应用》 * |
蛋黄儿笔记: "吴恩达《卷积神经网络》(第三周上半部分)", 《HTTPS://BLOG.CSDN.NET/SKLDECSDN/ARTICLE/DETAILS/88363444》 * |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111079767B (zh) * | 2019-12-22 | 2022-03-22 | 浪潮电子信息产业股份有限公司 | 一种用于分割图像的神经网络模型及其图像分割方法 |
CN111079767A (zh) * | 2019-12-22 | 2020-04-28 | 浪潮电子信息产业股份有限公司 | 一种用于分割图像的神经网络模型及其图像分割方法 |
CN111144364A (zh) * | 2019-12-31 | 2020-05-12 | 北京理工大学重庆创新中心 | 一种基于通道注意更新机制的孪生网络目标跟踪方法 |
CN111144364B (zh) * | 2019-12-31 | 2022-07-26 | 北京理工大学重庆创新中心 | 一种基于通道注意更新机制的孪生网络目标跟踪方法 |
CN111310824A (zh) * | 2020-02-13 | 2020-06-19 | 中科智云科技有限公司 | 多角度稠密目标检测抑制优化方法及设备 |
CN111597959A (zh) * | 2020-05-12 | 2020-08-28 | 三一重工股份有限公司 | 行为检测方法、装置及电子设备 |
CN111597959B (zh) * | 2020-05-12 | 2023-09-26 | 盛景智能科技(嘉兴)有限公司 | 行为检测方法、装置及电子设备 |
CN112200225A (zh) * | 2020-09-23 | 2021-01-08 | 西南交通大学 | 基于深度卷积神经网络的钢轨伤损b显图像识别方法 |
JP2022148383A (ja) * | 2021-03-24 | 2022-10-06 | パナソニックIpマネジメント株式会社 | 学習方法、学習装置、及び、プログラム |
JP7361342B2 (ja) | 2021-03-24 | 2023-10-16 | パナソニックIpマネジメント株式会社 | 学習方法、学習装置、及び、プログラム |
CN113486722A (zh) * | 2021-06-10 | 2021-10-08 | 青岛本原微电子有限公司 | 基于dsp的非极大值抑制算法的实现方法 |
CN116229419A (zh) * | 2023-02-21 | 2023-06-06 | 中国人民解放军军事科学院系统工程研究院 | 一种行人检测方法及装置 |
CN116229419B (zh) * | 2023-02-21 | 2024-04-30 | 中国人民解放军军事科学院系统工程研究院 | 一种行人检测方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110378243A (zh) | 一种行人检测方法及装置 | |
CN108388888B (zh) | 一种车辆识别方法、装置和存储介质 | |
CN104166841B (zh) | 一种视频监控网络中指定行人或车辆的快速检测识别方法 | |
CN111104903B (zh) | 一种深度感知交通场景多目标检测方法和系统 | |
CN112200161A (zh) | 一种基于混合注意力机制的人脸识别检测方法 | |
CN109447169A (zh) | 图像处理方法及其模型的训练方法、装置和电子系统 | |
CN109902806A (zh) | 基于卷积神经网络的噪声图像目标边界框确定方法 | |
CN105335716A (zh) | 一种基于改进udn提取联合特征的行人检测方法 | |
CN107085696A (zh) | 一种基于卡口图像的车辆定位及型号识别方法 | |
CN110533950A (zh) | 车位使用状况的检测方法、装置、电子设备及存储介质 | |
WO2020258077A1 (zh) | 一种行人检测方法及装置 | |
CN103996041A (zh) | 一种基于匹配的车辆颜色识别方法和系统 | |
Megalingam et al. | Indian traffic sign detection and recognition using deep learning | |
CN109871789A (zh) | 一种基于轻量化神经网络的复杂环境下车辆检测方法 | |
CN108764096B (zh) | 一种行人重识别系统和方法 | |
CN109935080A (zh) | 一种交通线路上的车流量实时计算的监测系统及方法 | |
CN114092917B (zh) | 一种基于mr-ssd的被遮挡交通标志检测方法及系统 | |
CN112733815B (zh) | 一种基于rgb室外道路场景图像的红绿灯识别方法 | |
Zhang et al. | Automatic detection of road traffic signs from natural scene images based on pixel vector and central projected shape feature | |
CN112289037B (zh) | 基于复杂环境下高视角的机动车辆违规停车检测方法及系统 | |
CN113111838A (zh) | 行为识别方法及装置、设备和存储介质 | |
CN114495060B (zh) | 一种道路交通标线识别方法及装置 | |
CN114926791A (zh) | 一种路口车辆异常变道检测方法、装置、存储介质及电子设备 | |
CN111753610A (zh) | 天气识别方法及装置 | |
Thomas et al. | Smart car parking system using convolutional neural network |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20191025 |