发明内容
本申请提供了一种基于深度学习的火情检测方法、装置、设备和介质,用于改善现有的火情检测方法存在的检测速度慢的技术问题。
有鉴于此,本申请第一方面提供了一种基于深度学习的火情检测方法,包括:
获取火情样本图像,对所述火情样本图像进行类别标注,并采用矩形框对所述火情样本图像中的火情区域进行标注,得到火情训练集;
通过所述火情训练集训练预先构建的YOLOX网络,通过所述YOLOX网络对所述火情训练集中的所述火情样本图像进行火情特征提取和火情分类,输出所述火情样本图像的火情区域预测框和类别置信度;
根据所述火情样本图像的火情区域预测框和真实框计算检测框位置损失,根据所述火情样本图像的类别置信度和真实类别计算类别损失;
通过所述类别损失和所述检测框位置损失更新所述YOLOX网络的网络参数,直至YOLOX网络收敛,得到火情检测模型;
从监控视频数据中提取待检测图像,并通过所述火情检测模型对所述待检测图像进行火情检测,得到所述待检测图像的火情检测结果。
可选的,所述YOLOX网络包括骨干网络、颈部网络和头部网络,所述骨干网络用于对输入图像进行特征提取,所述颈部网络用于对浅层特征、中层特征和深层特征进行特征融合,所述头部网络用于对输入特征进行分类和位置检测;
所述骨干网络包括注意力模块,所述注意力模块包括通道注意力模块和空间注意力模块,所述注意力模块用于通过所述通道注意力模块对输入特征进行通道维度上的特征提取,将提取到的通道注意力特征与输入特征相乘后输入到所述空间注意力模块进行空间维度上的特征提取,再将提取到的空间注意力特征与所述空间注意力模块的输入特征相乘,得到注意力特征。
可选的,所述通过所述通道注意力模块对输入特征进行通道维度上的特征提取,包括:
通过所述通道注意力模块对输入特征分别进行最大池化处理和平均池化处理,得到第一池化特征和第二池化特征;
通过所述通道注意力模块分别对所述第一池化特征和所述第二池化特征依次进行通道降维、通道升维和非线性映射,得到第一中间特征和第二中间特征;
通过所述通道注意力模块对所述第一中间特征和所述第二中间特征相加后输入到Sigmoid激活函数中计算输入特征的通道权重,得到通道注意力特征。
可选的,所述将提取到的通道注意力特征与输入特征相乘后输入到所述空间注意力模块进行空间维度上的特征提取,包括:
将提取到的通道注意力特征与所述通道注意力模块的输入特征相乘,得到所述空间注意力模块的输入特征,将输入特征输入到所述空间注意力模块;
通过所述空间注意力模块在通道维度上对输入特征分别进行最大池化处理和平均池化处理,得到第三池化特征和第四池化特征;
通过所述空间注意力模块在通道维度上对所述第三池化特征和所述第四池化特征进行特征拼接,得到拼接特征;
通过所述空间注意力模块对所述拼接特征进行卷积处理,并将提取的卷积特征输入到Sigmoid激活函数中计算输入特征的空间权重,得到空间注意力特征。
可选的,所述颈部网络包括特征融合模块,所述特征融合模块包括上采样层、拼接层、CSP层和CBS层,CSP层包括第一分支、第二分支、拼接层、归一化层、激活层和CBS层,CBS层由卷积层、归一化层和激活层串联组成,等一分支由两个CBS层和卷积层串联组成,第二分支由卷积层组成;
所述特征融合模块,用于对深层特征进行上采样后与中层特征进行拼接,并通过CSP层对拼接得到的特征进行处理,得到第一融合特征;
将所述第一融合特征进行上采样后与浅层特征进行拼接,并通过CSP层对拼接得到的特征进行处理,得到第二融合特征;
将所述第二融合特征与浅层特征进行拼接后输入到CSP层进行处理,得到浅层融合特征;
将所述浅层融合特征输入到CBS层进行处理后与所述第一融合特征、中层特征进行拼接,通过CSP层对拼接得到的特征进行处理,得到中层融合特征;
将所述中层融合特征与深层特征进行拼接后输入到CSP层进行处理,得到深层融合特征。
可选的,所述颈部网络由3个特征融合模块串联组成。
可选的,所述根据所述火情样本图像的火情区域预测框和真实框计算检测框位置损失,包括:
根据所述火情样本图像的火情区域预测框和真实框计算交并比、火情区域预测框与真实框的中心点距离;
采用火情区域预测框和真实框的最小外接矩形的对角线长度对火情区域预测框与真实框的中心点距离矩形进行归一化处理,得到归一化中心点距离;
根据所述交并比和所述归一化中心节点距离计算检测框位置损失。
本申请第二方面提供了一种基于深度学习的火情检测装置,包括:
标注单元,用于获取火情样本图像,对所述火情样本图像进行类别标注,并采用矩形框对所述火情样本图像中的火情区域进行标注,得到火情训练集;
训练单元,用于通过所述火情训练集训练预先构建的YOLOX网络,通过所述YOLOX网络对所述火情训练集中的所述火情样本图像进行火情特征提取和火情分类,输出所述火情样本图像的火情区域预测框和类别置信度;
损失计算单元,用于根据所述火情样本图像的火情区域预测框和真实框计算检测框位置损失,根据所述火情样本图像的类别置信度和真实类别计算类别损失;
参数更新单元,用于通过所述类别损失和所述检测框位置损失更新所述YOLOX网络的网络参数,直至YOLOX网络收敛,得到火情检测模型;
火情检测单元,用于从监控视频数据中提取待检测图像,并通过所述火情检测模型对所述待检测图像进行火情检测,得到所述待检测图像的火情检测结果。
本申请第三方面提供了一种基于深度学习的火情检测设备,所述设备包括处理器以及存储器;
所述存储器用于存储程序代码,并将所述程序代码传输给所述处理器;
所述处理器用于根据所述程序代码中的指令执行第一方面任一种所述的基于深度学习的火情检测方法。
本申请第四方面提供了一种计算机可读存储介质,所述计算机可读存储介质用于存储程序代码,所述程序代码被处理器执行时实现第一方面任一种所述的基于深度学习的火情检测方法。
从以上技术方案可以看出,本申请具有以下优点:
本申请提供了一种基于深度学习的火情检测方法,包括:获取火情样本图像,对火情样本图像进行类别标注,并采用矩形框对火情样本图像中的火情区域进行标注,得到火情训练集;通过火情训练集训练预先构建的YOLOX网络,通过YOLOX网络对火情训练集中的火情样本图像进行火情特征提取和火情分类,输出火情样本图像的火情区域预测框和类别置信度;根据火情样本图像的火情区域预测框和真实框计算检测框位置损失,根据火情样本图像的类别置信度和真实类别计算类别损失;通过类别损失和检测框位置损失更新YOLOX网络的网络参数,直至YOLOX网络收敛,得到火情检测模型;从监控视频数据中提取待检测图像,并通过火情检测模型对待检测图像进行火情检测,得到待检测图像的火情检测结果。
本申请中,通过构建火情训练集训练YOLOX网络,使得YOLOX网络学习火情特征,得到火情检测模型,通过火情检测模型识别监控视频数据中的待检测图像,实现火情检测,通过端到端的卷积神经网络进行火情特征提取和火情检测,不需要进行人工特征提取,大大减少了人工干预,提高了检测速度,从而改善了现有的火情检测方法存在的检测速度慢的技术问题。
具体实施方式
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
为了便于理解,请参阅图1,本申请实施例提供了一种基于深度学习的火情检测方法,包括:
步骤101、获取火情样本图像,对火情样本图像进行类别标注,并采用矩形框对火情样本图像中的火情区域进行标注,得到火情训练集。
可以从开源数据集或网络视频中获取包含各种火情的火情样本图像,通过标注工具对火情样本图像进行类别标注,包括标注是否有火情,还可以标注火情的严重程度,并采用矩形框对火情样本图像中的火情区域进行标注,得到火情训练集,火情训练集包括火情样本图像及其对应的类别标签、标注的检测框的位置信息。
步骤102、通过火情训练集训练预先构建的YOLOX网络,通过YOLOX网络对火情训练集中的火情样本图像进行火情特征提取和火情分类,输出火情样本图像的火情区域预测框和类别置信度。
将火情训练集中的火情样本图像输入到预先构建的YOLOX网络,对YOLOX网络进行训练,通过YOLOX网络对火情训练集中的火情样本图像进行火情特征提取和火情分类,输出火情样本图像的火情区域预测框和类别置信度。YOLOX是一种anchor-free的检测网络,不需要预先设置anchor,具有较高的检测速度,运算成本大大降低。
本申请实施例中的YOLOX网络包括骨干网络(backbone)、颈部网络(neck)和头部网络(head),骨干网络用于对输入图像进行特征提取,颈部网络用于对浅层特征、中层特征和深层特征进行特征融合,头部网络用于对输入特征进行分类和位置检测。
本申请实施例考虑到,实际场景下火焰可能很小,会影响火情识别结果。基于此,本申请在骨干网络添加注意力模块,以提高对小目标的火情识别效果。骨干网络包括注意力模块,注意力模块包括通道注意力模块和空间注意力模块,注意力模块用于通过通道注意力模块对输入特征进行通道维度上的特征提取,将提取到的通道注意力特征与输入特征相乘后输入到空间注意力模块进行空间维度上的特征提取,再将提取到的空间注意力特征与空间注意力模块的输入特征相乘,得到注意力特征。
进一步,通过通道注意力模块对输入特征进行通道维度上的特征提取,包括:
通过通道注意力模块对输入特征分别进行最大池化处理和平均池化处理,得到第一池化特征和第二池化特征;
通过通道注意力模块分别对第一池化特征和第二池化特征依次进行通道降维、通道升维和非线性映射,得到第一中间特征和第二中间特征;
通过通道注意力模块对第一中间特征和第二中间特征相加后输入到Sigmoid激活函数中计算输入特征的通道权重,得到通道注意力特征。
进一步,将提取到的通道注意力特征与输入特征相乘后输入到空间注意力模块进行空间维度上的特征提取,包括:
将提取到的通道注意力特征与通道注意力模块的输入特征相乘,得到空间注意力模块的输入特征,将输入特征输入到空间注意力模块;
通过空间注意力模块在通道维度上对输入特征分别进行最大池化处理和平均池化处理,得到第三池化特征和第四池化特征;
通过空间注意力模块在通道维度上对第三池化特征和第四池化特征进行特征拼接,得到拼接特征;
通过空间注意力模块对拼接特征进行卷积处理,并将提取的卷积特征输入到Sigmoid激活函数中计算输入特征的空间权重,得到空间注意力特征。
本申请实施例在骨干网络中增加注意力模块以增加注意力机制,注意力模块可以自动学习和计算输入数据对输出数据的贡献大小,使YOLOX网络更加关注有助于区分火情的有效信息,以增强YOLOX网络对于火情的区分能力。本申请实施例中的注意力模块是一种轻量级的注意力模块,它同时在空间维度和通道维度上实现注意力机制,仅需要很少的运算成本就能够有效提高火情检测精度。注意力模块包含通道注意力模块和空间注意力模块两部分,分别进行通道和空间上的特征提取,其整体结构如图2所示。注意力模块将输入特征输入通道注意力模块进行通道注意力特征提取,将通道注意力特征与原输入特征相乘后作为空间注意力特征模块的输入特征,经过空间注意力模块进行空间注意力特征提取后,再与空间注意力模块的输入特征相乘,得到经过注意力调整后的特征,即注意力特征。
通道注意力模块的结构如图3所示,由最大池化层(MaxPool)、平均池化层(AvgPool)、MLP模块(SharedMLP)和Sigmoid激活函数构成。通道注意力模块采用并行的最大池化层和平均池化层分别对输入特征F∈RC*H*W进行池化处理,得到第一池化特征和第二池化特征,输入特征F的维度从C*H*W变为C*1*1(输出的第一、第二池化特征的大小),然后将第一、第二池化特征输入到MLP模块先进行通道降维,再进行通道升维,然后通过ReLU激活函数进行非线性映射得到两个C*1*1的特征,即第一中间特征和第二中间特征;将第一中间特征和第二中间特征相加后再经过Sigmoid激活函数处理得到通道注意力的结果,即各通道的权重,从而得到通道注意力特征(ChannelAttention)。
空间注意力模块的结构如图4所示,由最大池化层(MaxPool)、平均池化层(AvgPool)、拼接层(Concat)、卷积层(Conv Layer)和Sigmoid激活函数构成。空间注意力模块对输入特征分别进行最大池化和平均池化,得到第三池化特征和第二池化特征,但与通道注意力模块不同,空间注意力模块是在通道维度上对输入特征进行池化,即输入特征的维度由C*H*W变为1*H*W,将第三池化特征和第四池化特征按通道维度拼接在一起得到2*H*W大小的拼接特征,再输入到卷积层进行卷积处理,再经过Sigmoid激活函数处理得到空间注意力的结果,即空间注意力特征。
考虑到火情检测时,由于监控设备与发生火情的区域的距离原因,以及火情严重程度不同等因素的影响,距离较近、火情比较严重的更容易被检测出来,而某些距离较远的、刚发生的火情很难被检测出来。为了改善该问题,本申请实施例中的颈部网络采用特征融合模块,通过特征融合模块对不同深度的特征进行特征融合,并且对多个尺度的特征进行特征融合,获取多个尺度的融合特征,以提高网络对于远距离、不严重的火情的检测准确性,减少火情漏检和误检的可能性;并且火焰的颜色、形态相较其他目标变化比较多,通过添加特征融合模块,可以应对多尺度、多形态的目标变化。
本申请实施例中的特征融合模块包括上采样层(upsample layer)、拼接层、CSP层和CBS层,具体可以参考图5,图5中的C5、C6、C7为不同深度的特征,分别为浅层特征、中层特征和深层特征;P5、P6、P7为不同尺度的输出特征,分别为C5、C6、C7经过特征融合模块融合后得到的对应的浅层融合特征、中层融合特征和深层融合特征;CSP层包括第一分支、第二分支、拼接层、归一化层(BN)、激活层(SILU)和CBS层,CBS层由卷积层、归一化层和激活层串联组成,等一分支由两个CBS层和卷积层串联组成,第二分支由卷积层组成,具体可以参考图6;
特征融合模块,用于对深层特征进行上采样后与中层特征进行拼接,并通过CSP层对拼接得到的特征进行处理,得到第一融合特征;
将第一融合特征进行上采样后与浅层特征进行拼接,并通过CSP层对拼接得到的特征进行处理,得到第二融合特征;
将第二融合特征与浅层特征进行拼接后输入到CSP层进行处理,得到浅层融合特征;
将浅层融合特征输入到CBS层进行处理后与第一融合特征、中层特征进行拼接,通过CSP层对拼接得到的特征进行处理,得到中层融合特征;
将中层融合特征与深层特征进行拼接后输入到CSP层进行处理,得到深层融合特征。
本申请实施例中的颈部网络由3个特征融合模块串联组成,即将图5中的虚线框部分的特征融合模块重复堆叠3次。颈部网络中的特征融合模块采用残差连接,通过简单的残差操作,可以增强火情特征的表示能力;将重复堆叠特征融合模块来获得更具有区分力的火情融合特征,有助于提高火情检测准确性;针对融合的各个尺度的火情特征增加一个可学习的权重,调节每个尺度的贡献度。其中,使用ReLU保证权重为正值而非softmax,可以提高计算速度,从而提高火情检测速度。
颈部网络将最终提取的三个不同尺度、不同深度的融合特征输入到头部网络,头部网络在三个不同尺度上进行火情检测,可以对不同距离、不同严重程度下的火情进行检测,有助于提高网络对于小目标,即远距离、不严重的火情的检测准确性,从而减少火情漏检和误检的可能性,提高安全性。
步骤103、根据火情样本图像的火情区域预测框和真实框计算检测框位置损失,根据火情样本图像的类别置信度和真实类别计算类别损失。
根据火情样本图像的火情区域预测框和真实框计算交并比、火情区域预测框与真实框的中心点距离;采用火情区域预测框和真实框的最小外接矩形的对角线长度对火情区域预测框与真实框的中心点距离矩形进行归一化处理,得到归一化中心点距离;根据交并比和归一化中心节点距离计算检测框位置损失,检测框位置损失的计算公式为:
式中,FDIOULOSS为检测框位置损失,IOU为火情区域预测框与真实框的交并比,D为火情区域预测框与真实框的中心点距离,d为火情区域预测框和真实框的最小外接矩形的对角线长度。
现有技术中的YOLOX网络采用IOU Loss或GIOU Loss来计算检测框位置损失,但这两种计算方式均存在一定缺陷。参考图7所示的两种检测框与真实框的情况,其中,大框为真实框,小框为预测框,IOU为预测框与真实框的交并比,在预测框与真实框无重叠时,无法正确反映预测框的优劣,同时IOU为零,求导时导数为零,反向传播也无法优化此类情况。GIOU Loss较IOU Loss有一定改进,在交并比的基础上增加了预测框和真实框的最小外接矩形,GIOU Loss虽然考虑到了非重合区域的影响,但依然存在明显缺陷,如图8所示,当真实框和预测框重叠在一起时,GIOU就等于IOU,此时无法区分两个框的相对位置关系,导致网络的训练结果不理想,从而影响火情检测模型的检测精度。
为了改善上述问题,本申请实施例在计算检测框位置损失时,采用检测框和火情区域预测框的最小外接矩形的对角线长度对火情区域预测框与真实框的中心点距离矩形进行归一化处理,可以直接最小化两个目标框的距离,并且弥补了IOU Loss和GIOU Loss的缺点,同时具有比GIOU Loss更快的收敛速度,从而提高网络的训练速度,减少训练时间。
可以采用现有的损失函数计算类别损失,在此不再进行赘述。
步骤104、通过类别损失和检测框位置损失更新YOLOX网络的网络参数,直至YOLOX网络收敛,得到火情检测模型。
通过类别损失和检测框位置损失反向传播,更新YOLOX网络的网络参数,直至YOLOX网络收敛(如训练时的迭代次数达到最大迭代次数等),将训练好的YOLOX网络作为火情检测模型。
步骤105、从监控视频数据中提取待检测图像,并通过火情检测模型对待检测图像进行火情检测,得到待检测图像的火情检测结果。
本申请实施例考虑到在实际应用中,容易受到检测设备的硬件条件影响,导致检测速度不理想,因此本申请采用静态图像进行火情检测,相较于采用视频流进行火情检测的方式,由于缺少时间序列,大大减少了信息量,降低了硬件设备要求,有助于提高检测速度。
通过监控设备采集监控视频数据,对监控视频数据进行解码抽帧,得到待检测图像,将待检测图像输入到火情检测模型进行火情检测,火情检测模块在检测到火情时,相应的还会输出火情区域的检测框信息,通过对火情检测模型的输出结果进行可视化,可以清楚了解到是否有火情,已经发生火情的具体位置。在检测到火情时,可以进行火情预警,以提醒相关人员及时反应、处理。
本申请中,通过构建火情训练集训练YOLOX网络,使得YOLOX网络学习火情特征,得到火情检测模型,通过火情检测模型识别监控视频数据中的待检测图像,实现火情检测,通过端到端的卷积神经网络进行火情特征提取和火情检测,不需要进行人工特征提取,大大减少了人工干预,提高了检测速度,从而改善了现有的火情检测方法存在的检测速度慢的技术问题;
进一步,本申请实施例在骨干网络中采用轻量化的注意力模块进行特征提取,在保证检测速度的同时提高了火情检测模型对火情信息的关注度,提升了火情检测精度,并且考虑到实际场景下火焰可能很小,通过添加注意力模块可以提高对小目标的火焰识别精度;
在颈部网络中采用特征融合模块对提取到的不同尺度、不同深度的火情特征进行特征融合,并输出多个尺度的融合特征到头部网络进行多尺度火情检测,提高了对因为距离、火情严重程度得到的不同尺度下的火情的检测精度;火焰的颜色、形态相较其他目标变化比较多,通过添加特征融合模块应对多尺度、多形态的火情变化;
在计算损失值时,采用检测框和火情区域预测框的最小外接矩形的对角线长度对火情区域预测框与真实框的中心点距离矩形进行归一化处理,可以直接最小化两个目标框的距离,并且弥补了IOU Loss和GIOU Loss的缺点,同时具有比GIOU Loss更快的收敛速度,从而提高了网络的训练速度,减少了训练时间。
以上为本申请提供的一种基于深度学习的火情检测方法的一个实施例,以下为本申请提供的一种基于深度学习的火情检测装置的一个实施例。
请参考图9,本申请实施例提供的一种基于深度学习的火情检测装置,包括:
标注单元,用于获取火情样本图像,对火情样本图像进行类别标注,并采用矩形框对火情样本图像中的火情区域进行标注,得到火情训练集;
训练单元,用于通过火情训练集训练预先构建的YOLOX网络,通过YOLOX网络对火情训练集中的火情样本图像进行火情特征提取和火情分类,输出火情样本图像的火情区域预测框和类别置信度;
损失计算单元,用于根据火情样本图像的火情区域预测框和真实框计算检测框位置损失,根据火情样本图像的类别置信度和真实类别计算类别损失;
参数更新单元,用于通过类别损失和检测框位置损失更新YOLOX网络的网络参数,直至YOLOX网络收敛,得到火情检测模型;
火情检测单元,用于从监控视频数据中提取待检测图像,并通过火情检测模型对待检测图像进行火情检测,得到待检测图像的火情检测结果。
本申请实施例中,通过构建火情训练集训练YOLOX网络,使得YOLOX网络学习火情特征,得到火情检测模型,通过火情检测模型识别监控视频数据中的待检测图像,实现火情检测,通过端到端的卷积神经网络进行火情特征提取和火情检测,不需要进行人工特征提取,大大减少了人工干预,提高了检测速度,从而改善了现有的火情检测方法存在的检测速度慢的技术问题。
本申请还提供了一种基于深度学习的火情检测设备,设备包括处理器以及存储器;
存储器用于存储程序代码,并将程序代码传输给处理器;
处理器用于根据程序代码中的指令执行前述方法实施例中的基于深度学习的火情检测方法。
本申请还提供了一种计算机可读存储介质,计算机可读存储介质用于存储程序代码,程序代码被处理器执行时实现前述方法实施例中的基于深度学习的火情检测方法。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
本申请的说明书及上述附图中的术语“第一”、“第二”、“第三”、“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例例如能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
应当理解,在本申请中,“至少一个(项)”是指一个或者多个,“多个”是指两个或两个以上。“和/或”,用于描述关联对象的关联关系,表示可以存在三种关系,例如,“A和/或B”可以表示:只存在A,只存在B以及同时存在A和B三种情况,其中A,B可以是单数或者复数。字符“/”一般表示前后关联对象是一种“或”的关系。“以下至少一项(个)”或其类似表达,是指这些项中的任意组合,包括单项(个)或复数项(个)的任意组合。例如,a,b或c中的至少一项(个),可以表示:a,b,c,“a和b”,“a和c”,“b和c”,或“a和b和c”,其中a,b,c可以是单个,也可以是多个。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以通过一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(英文全称:Read-OnlyMemory,英文缩写:ROM)、随机存取存储器(英文全称:RandomAccess Memory,英文缩写:RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,以上实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围。