CN112132037B - 基于人工智能的人行道检测方法、装置、设备及介质 - Google Patents

基于人工智能的人行道检测方法、装置、设备及介质 Download PDF

Info

Publication number
CN112132037B
CN112132037B CN202011011581.0A CN202011011581A CN112132037B CN 112132037 B CN112132037 B CN 112132037B CN 202011011581 A CN202011011581 A CN 202011011581A CN 112132037 B CN112132037 B CN 112132037B
Authority
CN
China
Prior art keywords
feature map
predicted
sample
coordinates
pavement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011011581.0A
Other languages
English (en)
Other versions
CN112132037A (zh
Inventor
吴晓东
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ping An International Smart City Technology Co Ltd
Original Assignee
Ping An International Smart City Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ping An International Smart City Technology Co Ltd filed Critical Ping An International Smart City Technology Co Ltd
Priority to CN202011011581.0A priority Critical patent/CN112132037B/zh
Publication of CN112132037A publication Critical patent/CN112132037A/zh
Application granted granted Critical
Publication of CN112132037B publication Critical patent/CN112132037B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及人工智能技术领域,提供一种基于人工智能的人行道检测方法、装置、设备及介质,能够更加有效地融合深层特征与浅层特征,减少了信息损失,从而提高了人行道检测的整体准确率,并且增加了IoU损失,能够更加精准地拟合检测框的位置和大小,有效减少非人行道的误召回现象,提高了人行道检测的整体召回率和准确率,损失函数能够从多个层面评价模型的损失,使模型的效果更佳,进而基于人工智能手段实现对人行道高效且准确地自动检测。此外,本发明还可应用于智慧交通,从而推动智慧城市的建设。本发明还涉及区块链技术,人行道检测结果可存储于区块链节点中。

Description

基于人工智能的人行道检测方法、装置、设备及介质
技术领域
本发明涉及人工智能技术领域,尤其涉及一种基于人工智能的人行道检测方法、装置、设备及介质。
背景技术
人行道作为重要的道路安全设施,对人行道的自动检测与识别已成为智能交通系统中重要的技术环节之一,并越来越受到广大研究者的关注。
传统的人行道检测主要采用目标检测算法,该算法虽然在正常环境下能够保证一定的准确率,但召回率并不高,有待进一步提高。
另外,在雾霾、雨天、人行道斑马线模糊不清等特殊环境下,基于目标检测算法的人行道检测准确率较低,很难满足检测的需求。
发明内容
鉴于以上内容,有必要提供一种基于人工智能的人行道检测方法、装置、设备及介质,能够基于人工智能手段实现对人行道高效且准确地自动检测。
一种基于人工智能的人行道检测方法,所述基于人工智能的人行道检测方法包括:
响应于接收到的待检测图像,对所述待检测图像进行尺寸变换处理,得到目标图像;
提取所述目标图像的人行道特征;
将所述人行道特征输入至预先训练的人行道检测模型,输出第一特征图、第二特征图及第三特征图,其中,所述人行道检测模型采用特征融合及交并比损失训练目标检测网络而得到;
获取所述人行道检测模型的目标锚框;
对于所述第一特征图、所述第二特征图及所述第三特征图中的每个特征图,利用所述目标锚框在每个特征图上进行识别,输出与每个特征图对应的预测锚框坐标、每个预测锚框坐标的目标得分及预测概率,从所述预测锚框坐标中获取所述预测概率大于或者等于配置概率的预测锚框坐标,并从获取的预测锚框坐标中选择所述目标得分最高的预测锚框坐标作为人行道的预测坐标;
将所述人行道的预测坐标映射到所述待检测图像上,得到所述待检测图像的人行道检测结果。
根据本发明优选实施例,所述将所述人行道特征输入至预先训练的人行道检测模型,输出第一特征图、第二特征图及第三特征图包括:
对所述人行道特征执行卷积层运算,得到第一中间特征;
对所述第一中间特征执行联合卷积运算,得到所述第一特征图;
融合所述人行道特征与所述第一中间特征,得到第一融合特征;
对所述第一融合特征执行所述卷积层运算,得到第二中间特征;
对所述第二中间特征执行所述联合卷积运算,得到所述第二特征图;
融合所述人行道特征与所述第二中间特征,得到第二融合特征;
对所述第二融合特征执行所述卷积层运算及所述联合卷积运算,得到所述第三特征图。
根据本发明优选实施例,所述融合所述人行道特征与所述第一中间特征,得到第一融合特征包括:
对所述人行道特征执行第一运算,得到第一运算结果,其中,所述第一运算包括卷积块运算、最大池化运算及卷积运算;
对所述第一中间特征执行第二运算,得到第二运算结果,其中,所述第二运算包括所述卷积块运算、上采样运算及所述卷积运算;
对所述第一运算结果及所述第二运算结果执行和运算,得到所述第一融合特征。
根据本发明优选实施例,所述基于人工智能的人行道检测方法还包括:
获取训练样本;
将所述训练样本输入至目标检测网络,输出第一样本特征图、第二样本特征图及第三样本特征图;
对于所述第一样本特征图、所述第二样本特征图及所述第三样本特征图中的每个样本特征图,确定每个样本特征图对应的样本预测锚框坐标及样本预测概率;
确定每个样本特征图的实际锚框坐标、样本实际概率,及每个样本特征图对应的实际中心点坐标及实际宽高坐标;
根据所述样本预测锚框坐标及所述实际锚框坐标计算每个样本特征图的交并比损失;
根据每个样本特征图对应的样本预测锚框坐标确定每个样本特征图对应的预测中心点坐标及预测宽高坐标;
根据每个样本特征图对应的预测中心点坐标及实际中心点坐标计算每个样本特征图的中心点坐标损失;
根据每个样本特征图对应的预测宽高坐标及实际宽高坐标计算每个样本特征图的宽高坐标损失;
根据每个样本特征图对应的样本预测概率及样本实际概率计算每个样本特征图的类别损失;
计算所述交并比损失、所述中心点坐标损失、所述宽高坐标损失及所述类别损失的和作为损失函数;
当所述损失函数的取值小于或者等于配置损失时,停止训练,得到所述人行道检测模型。
根据本发明优选实施例,采用下述公式根据所述样本预测锚框坐标及所述实际锚框坐标计算每个样本特征图的交并比损失:
lossiou=1-IoU2=1-(I/U)2
其中,I为样本预测锚框与实际锚框的交集面积,U为样本预测锚框与实际锚框的并集面积,IoU为每个样本特征图的交并比取值;
采用下述公式根据每个样本特征图对应的预测中心点坐标及实际中心点坐标计算每个样本特征图的中心点坐标损失:
lossxy=-(ytrue_xlogypredict_x+(1-ytrue_x)log(1-ypredict_x)
+ytrue_ylogypredict_y+(1-ytrue_y)log(1-ypredict_y))
其中,ytrue_x为实际中心点坐标的x值,ypredict_x为预测中心点坐标的x值,ytrue_y为实际中心点坐标的y值,ypredict_y为预测中心点坐标的y值。
采用下述公式根据每个样本特征图对应的预测宽高坐标及实际宽高坐标计算每个样本特征图的宽高坐标损失:
其中,ytrue_w为实际宽高坐标的w值,ypredict_w为预测宽高坐标的w值,ytrue_h为实际宽高坐标的h值,ypredict_h为预测宽高坐标的h值。
采用下述公式根据每个样本特征图对应的样本预测概率及样本实际概率计算每个样本特征图的类别损失:
lossclass=-(ytrue_classlogypredict_class
+(1-ytrue_class)log(1-ypredict_class))
其中,ytrue_class为样本实际概率,ypredict_class为样本预测概率。
根据本发明优选实施例,所述将所述人行道的预测坐标映射到所述待检测图像上,得到所述待检测图像的人行道检测结果包括:
确定偏移量;
根据所述偏移量转换所述预测坐标,得到转换坐标;
确定所述待检测图像的第一尺度,及确定所述预测坐标对应的特征图的第二尺度;
计算所述第一尺度与所述第二尺度的商作为系数;
将所述系数与所述预测坐标相乘,得到所述预测坐标在所述待检测图像上的对应位置以生成所述待检测图像的人行道检测结果。
根据本发明优选实施例,所述基于人工智能的人行道检测方法还包括:
响应于接收到的检测指令,确定与所述检测指令对应的终端;
将所述人行道检测结果发送至所述终端。
一种基于人工智能的人行道检测装置,所述基于人工智能的人行道检测装置包括:
处理单元,用于响应于接收到的待检测图像,对所述待检测图像进行尺寸变换处理,得到目标图像;
提取单元,用于提取所述目标图像的人行道特征;
输入单元,用于将所述人行道特征输入至预先训练的人行道检测模型,输出第一特征图、第二特征图及第三特征图,其中,所述人行道检测模型采用特征融合及交并比损失训练目标检测网络而得到;
获取单元,用于获取所述人行道检测模型的目标锚框;
识别单元,用于对于所述第一特征图、所述第二特征图及所述第三特征图中的每个特征图,利用所述目标锚框在每个特征图上进行识别,输出与每个特征图对应的预测锚框坐标、每个预测锚框坐标的目标得分及预测概率,从所述预测锚框坐标中获取所述预测概率大于或者等于配置概率的预测锚框坐标,并从获取的预测锚框坐标中选择所述目标得分最高的预测锚框坐标作为人行道的预测坐标;
映射单元,用于将所述人行道的预测坐标映射到所述待检测图像上,得到所述待检测图像的人行道检测结果。
一种电子设备,所述电子设备包括:
存储器,存储至少一个指令;及
处理器,执行所述存储器中存储的指令以实现所述基于人工智能的人行道检测方法。
一种计算机可读存储介质,所述计算机可读存储介质中存储有至少一个指令,所述至少一个指令被电子设备中的处理器执行以实现所述基于人工智能的人行道检测方法。
由以上技术方案可以看出,本发明能够响应于接收到的待检测图像,对所述待检测图像进行尺寸变换处理,得到目标图像,提取所述目标图像的人行道特征,将所述人行道特征输入至预先训练的人行道检测模型,输出第一特征图、第二特征图及第三特征图,其中,所述人行道检测模型采用特征融合及交并比损失训练目标检测网络而得到,改进了目标检测网络的特征融合方式,即将目标检测网络原来的拼接方式改进为求和方式,能够更加有效地融合深层特征与浅层特征,减少了信息损失,从而提高了人行道检测的整体准确率,在目标检测网络原有损失函数的基础上增加了IoU损失,能够更加精准地拟合检测框的位置和大小,并且还能够有效减少非人行道的误召回现象,从而提高了人行道检测的整体召回率和准确率,同时,该损失函数能够从多个层面评价模型的损失,进而使模型的效果更佳,获取所述人行道检测模型的目标锚框,对于所述第一特征图、所述第二特征图及所述第三特征图中的每个特征图,利用所述目标锚框在每个特征图上进行识别,输出与每个特征图对应的预测锚框坐标、每个预测锚框坐标的目标得分及预测概率,从所述预测锚框坐标中获取所述预测概率大于或者等于配置概率的预测锚框坐标,并从获取的预测锚框坐标中选择所述目标得分最高的预测锚框坐标作为人行道的预测坐标,将所述人行道的预测坐标映射到所述待检测图像上,得到所述待检测图像的人行道检测结果,进而基于人工智能手段实现对人行道高效且准确地自动检测。
附图说明
图1是本发明基于人工智能的人行道检测方法的较佳实施例的流程图。
图2是本发明基于人工智能的人行道检测装置的较佳实施例的功能模块图。
图3是本发明实现基于人工智能的人行道检测方法的较佳实施例的电子设备的结构示意图。
具体实施方式
为了使本发明的目的、技术方案和优点更加清楚,下面结合附图和具体实施例对本发明进行详细描述。
如图1所示,是本发明基于人工智能的人行道检测方法的较佳实施例的流程图。根据不同的需求,该流程图中步骤的顺序可以改变,某些步骤可以省略。
所述基于人工智能的人行道检测方法应用于一个或者多个电子设备中,所述电子设备是一种能够按照事先设定或存储的指令,自动进行数值计算和/或信息处理的设备,其硬件包括但不限于微处理器、专用集成电路(Application Specific IntegratedCircuit,ASIC)、可编程门阵列(Field-Programmable Gate Array,FPGA)、数字处理器(Digital Signal Processor,DSP)、嵌入式设备等。
所述电子设备可以是任何一种可与用户进行人机交互的电子产品,例如,个人计算机、平板电脑、智能手机、个人数字助理(Personal Digital Assistant,PDA)、游戏机、交互式网络电视(Internet Protocol Television,IPTV)、智能式穿戴式设备等。
所述电子设备还可以包括网络设备和/或用户设备。其中,所述网络设备包括,但不限于单个网络服务器、多个网络服务器组成的服务器组或基于云计算(CloudComputing)的由大量主机或网络服务器构成的云。
所述电子设备所处的网络包括但不限于互联网、广域网、城域网、局域网、虚拟专用网络(Virtual Private Network,VPN)等。
S10,响应于接收到的待检测图像,对所述待检测图像进行尺寸变换处理,得到目标图像。
通过尺寸变换处理,使所述待检测图像满足模型对于图像大小的需求,便于后续利用模型进行自动检测。
例如:可以将所述待检测图像尺寸变换成固定大小512*512。
S11,提取所述目标图像的人行道特征。
如:可以利用darknet53网络提取所述目标图像的人行道特征。
其中,所述人行道特征包括,但不限于以下一种或者多种特征的组合:
人行道的位置特征、边缘特征、形状特征、结构组成特征、颜色特征、纹理特征等。
S12,将所述人行道特征输入至预先训练的人行道检测模型,输出第一特征图、第二特征图及第三特征图,其中,所述人行道检测模型采用特征融合及交并比(Intersectionover Union,IoU)损失训练目标检测网络而得到。
目标检测网络属于传统的人行道检测算法,本实施方式在目标检测网络的基础上训练所述人行道检测模型。
在本发明的至少一个实施例中,所述将所述人行道特征输入至预先训练的人行道检测模型,输出第一特征图、第二特征图及第三特征图包括:
对所述人行道特征执行卷积层运算,得到第一中间特征;
对所述第一中间特征执行联合卷积运算,得到所述第一特征图;
融合所述人行道特征与所述第一中间特征,得到第一融合特征;
对所述第一融合特征执行所述卷积层运算,得到第二中间特征;
对所述第二中间特征执行所述联合卷积运算,得到所述第二特征图;
融合所述人行道特征与所述第二中间特征,得到第二融合特征;
对所述第二融合特征执行所述卷积层运算及所述联合卷积运算,得到所述第三特征图。
其中,所述执行卷积层运算包括:
将相应特征输入至conv_layer层进行处理。
所述执行联合卷积运算包括:
将相应特征依次输入至conv_block层及conv层进行处理。
需要说明的是,所述conv_layer层、所述conv_block层及所述conv层的层组成方式可以根据实际需求进行设置,本发明不限制。
例如:通过获取历史数据得知,所述conv_layer层可以包括5层卷积、1层BN层(Batch Normalization)及1层激活层,所述conv_block层可以包括1层卷积、1层BN层及1层激活层,所述conv层可以包括1层卷积。
具体地,所述融合所述人行道特征与所述第一中间特征,得到第一融合特征包括:
对所述人行道特征执行第一运算,得到第一运算结果,其中,所述第一运算包括卷积块运算、最大池化运算及卷积运算;
对所述第一中间特征执行第二运算,得到第二运算结果,其中,所述第二运算包括所述卷积块运算、上采样运算及所述卷积运算;
对所述第一运算结果及所述第二运算结果执行和运算,得到所述第一融合特征。
在本实施例中,所述第二融合特征的计算方式与所述第一融合特征的计算方式类似,在此不赘述。
通过上述实施方式,改进了目标检测网络的特征融合方式,即将目标检测网络原来的拼接方式改进为求和方式,能够更加有效地融合深层特征与浅层特征,减少了信息损失,从而提高了人行道检测的整体准确率。
在本发明的至少一个实施例中,所述基于人工智能的人行道检测方法还包括:
获取训练样本;
将所述训练样本输入至目标检测网络,输出第一样本特征图、第二样本特征图及第三样本特征图;
对于所述第一样本特征图、所述第二样本特征图及所述第三样本特征图中的每个样本特征图,确定每个样本特征图对应的样本预测锚框坐标及样本预测概率;
确定每个样本特征图的实际锚框坐标、样本实际概率,及每个样本特征图对应的实际中心点坐标及实际宽高坐标;
根据所述样本预测锚框坐标及所述实际锚框坐标计算每个样本特征图的交并比损失;
根据每个样本特征图对应的样本预测锚框坐标确定每个样本特征图对应的预测中心点坐标及预测宽高坐标;
根据每个样本特征图对应的预测中心点坐标及实际中心点坐标计算每个样本特征图的中心点坐标损失;
根据每个样本特征图对应的预测宽高坐标及实际宽高坐标计算每个样本特征图的宽高坐标损失;
根据每个样本特征图对应的样本预测概率及样本实际概率计算每个样本特征图的类别损失;
计算所述交并比损失、所述中心点坐标损失、所述宽高坐标损失及所述类别损失的和作为损失函数;
当所述损失函数的取值小于或者等于配置损失时,停止训练,得到所述人行道检测模型。
通过上述实施方式构建的损失函数,在目标检测网络原有损失函数的基础上增加了交并比损失,能够更加精准地拟合检测框的位置和大小,并且还能够有效减少非人行道的误召回现象,从而提高了人行道检测的整体召回率和准确率,同时,该损失函数能够从多个层面评价模型的损失,进而使模型的效果更佳。
具体地,采用下述公式根据所述样本预测锚框坐标及所述实际锚框坐标计算每个样本特征图的交并比损失:
lossiou=1-IoU2=1-(I/U)2
其中,I为样本预测锚框与实际锚框的交集面积,U为样本预测锚框与实际锚框的并集面积,IoU为每个样本特征图的交并比取值;
采用下述公式根据每个样本特征图对应的预测中心点坐标及实际中心点坐标计算每个样本特征图的中心点坐标损失:
lossxy=-(ytrue_xlogypredict_x+(1-ytrue_x)log(1-ypredict_x)
+ytrue_ylogypredict_y+(1-ytrue_y)log(1-ypredict_y))
其中,ytrue_x为实际中心点坐标的x值,ypredict_x为预测中心点坐标的x值,ytrue_y为实际中心点坐标的y值,ypredict_y为预测中心点坐标的y值。
采用下述公式根据每个样本特征图对应的预测宽高坐标及实际宽高坐标计算每个样本特征图的宽高坐标损失:
其中,ytrue_w为实际宽高坐标的w值,ypredict_w为预测宽高坐标的w值,ytrue_h为实际宽高坐标的h值,ypredict_h为预测宽高坐标的h值。
采用下述公式根据每个样本特征图对应的样本预测概率及样本实际概率计算每个样本特征图的类别损失:
lossclass=-(ytrue_classlogypredict_class
+(1-ytrue_class)log(1-ypredict_class))
其中,ytrue_class为样本实际概率,ypredict_class为样本预测概率。
S13,获取所述人行道检测模型的目标锚框。
其中,所述目标锚框的数量为所述至少一种尺度的倍数,以确保每种尺度的目标特征图能够得到相同的目标锚框。例如:9个。
S14,对于所述第一特征图、所述第二特征图及所述第三特征图中的每个特征图,利用所述目标锚框在每个特征图上进行识别,输出与每个特征图对应的预测锚框坐标、每个预测锚框坐标的目标得分及预测概率,从所述预测锚框坐标中获取所述预测概率大于或者等于配置概率的预测锚框坐标,并从获取的预测锚框坐标中选择所述目标得分最高的预测锚框坐标作为人行道的预测坐标。
通过上述实施方式,能够在输出的每个特征图对应的预测锚框坐标中获取到得分最高的预测锚框坐标作为人行道的预测坐标,以分值进行进一步筛选再次提高了识别的准确度。
S15,将所述人行道的预测坐标映射到所述待检测图像上,得到所述待检测图像的人行道检测结果。
在本实施例中,所述将所述人行道的预测坐标映射到所述待检测图像上,得到所述待检测图像的人行道检测结果包括:
确定偏移量;
根据所述偏移量转换所述预测坐标,得到转换坐标;
确定所述待检测图像的第一尺度,及确定所述预测坐标对应的特征图的第二尺度;
计算所述第一尺度与所述第二尺度的商作为系数;
将所述系数与所述预测坐标相乘,得到所述预测坐标在所述待检测图像上的对应位置以生成所述待检测图像的人行道检测结果。
通过上述实施方式,相当于将识别到的人行道映射在原始图像上,便于用户查看人行道检测结果。
进一步地,所述基于人工智能的人行道检测方法还包括:
响应于接收到的检测指令,确定与所述检测指令对应的终端;
将所述人行道检测结果发送至所述终端。
在将所述人行道检测结果发送至所述终端后,可以利用所述人行道检测结果辅助进行是否有闯红灯行为等的检测。
为了提高安全性,将将所述人行道检测结果存储于区块链上。
由以上技术方案可以看出,本发明能够响应于接收到的待检测图像,对所述待检测图像进行尺寸变换处理,得到目标图像,提取所述目标图像的人行道特征,将所述人行道特征输入至预先训练的人行道检测模型,输出第一特征图、第二特征图及第三特征图,其中,所述人行道检测模型采用特征融合及交并比损失训练目标检测网络而得到,改进了目标检测网络的特征融合方式,即将目标检测网络原来的拼接方式改进为求和方式,能够更加有效地融合深层特征与浅层特征,减少了信息损失,从而提高了人行道检测的整体准确率,在目标检测网络原有损失函数的基础上增加了IoU损失,能够更加精准地拟合检测框的位置和大小,并且还能够有效减少非人行道的误召回现象,从而提高了人行道检测的整体召回率和准确率,同时,该损失函数能够从多个层面评价模型的损失,进而使模型的效果更佳,获取所述人行道检测模型的目标锚框,对于所述第一特征图、所述第二特征图及所述第三特征图中的每个特征图,利用所述目标锚框在每个特征图上进行识别,输出与每个特征图对应的预测锚框坐标、每个预测锚框坐标的目标得分及预测概率,从所述预测锚框坐标中获取所述预测概率大于或者等于配置概率的预测锚框坐标,并从获取的预测锚框坐标中选择所述目标得分最高的预测锚框坐标作为人行道的预测坐标,将所述人行道的预测坐标映射到所述待检测图像上,得到所述待检测图像的人行道检测结果进而基于人工智能手段实现对人行道高效且准确地自动检测。此外,本发明还可应用于智慧交通,从而推动智慧城市的建设。
如图2所示,是本发明基于人工智能的人行道检测装置的较佳实施例的功能模块图。所述基于人工智能的人行道检测装置11包括处理单元110、提取单元111、输入单元112、获取单元113、识别单元114、映射单元115。本发明所称的模块/单元是指一种能够被处理器13所执行,并且能够完成固定功能的一系列计算机程序段,其存储在存储器12中。在本实施例中,关于各模块/单元的功能将在后续的实施例中详述。
响应于接收到的待检测图像,处理单元110对所述待检测图像进行尺寸变换处理,得到目标图像。
通过尺寸变换处理,使所述待检测图像满足模型对于图像大小的需求,便于后续利用模型进行自动检测。
例如:可以将所述待检测图像尺寸变换成固定大小512*512。
提取单元111提取所述目标图像的人行道特征。
如:可以利用darknet53网络提取所述目标图像的人行道特征。
其中,所述人行道特征包括,但不限于以下一种或者多种特征的组合:
人行道的位置特征、边缘特征、形状特征、结构组成特征、颜色特征、纹理特征等。
输入单元112将所述人行道特征输入至预先训练的人行道检测模型,输出第一特征图、第二特征图及第三特征图,其中,所述人行道检测模型采用特征融合及交并比(Intersection over Union,IoU)损失训练目标检测网络而得到。
目标检测网络属于传统的人行道检测算法,本实施方式在目标检测网络的基础上训练所述人行道检测模型。
在本发明的至少一个实施例中,所述输入单元112将所述人行道特征输入至预先训练的人行道检测模型,输出第一特征图、第二特征图及第三特征图包括:
对所述人行道特征执行卷积层运算,得到第一中间特征;
对所述第一中间特征执行联合卷积运算,得到所述第一特征图;
融合所述人行道特征与所述第一中间特征,得到第一融合特征;
对所述第一融合特征执行所述卷积层运算,得到第二中间特征;
对所述第二中间特征执行所述联合卷积运算,得到所述第二特征图;
融合所述人行道特征与所述第二中间特征,得到第二融合特征;
对所述第二融合特征执行所述卷积层运算及所述联合卷积运算,得到所述第三特征图。
其中,所述执行卷积层运算包括:
将相应特征输入至conv_layer层进行处理。
所述执行联合卷积运算包括:
将相应特征依次输入至conv_block层及conv层进行处理。
需要说明的是,所述conv_layer层、所述conv_block层及所述conv层的层组成方式可以根据实际需求进行设置,本发明不限制。
例如:通过获取历史数据得知,所述conv_layer层可以包括5层卷积、1层BN层(Batch Normalization)及1层激活层,所述conv_block层可以包括1层卷积、1层BN层及1层激活层,所述conv层可以包括1层卷积。
具体地,所述融合所述人行道特征与所述第一中间特征,得到第一融合特征包括:
对所述人行道特征执行第一运算,得到第一运算结果,其中,所述第一运算包括卷积块运算、最大池化运算及卷积运算;
对所述第一中间特征执行第二运算,得到第二运算结果,其中,所述第二运算包括所述卷积块运算、上采样运算及所述卷积运算;
对所述第一运算结果及所述第二运算结果执行和运算,得到所述第一融合特征。
在本实施例中,所述第二融合特征的计算方式与所述第一融合特征的计算方式类似,在此不赘述。
通过上述实施方式,改进了目标检测网络的特征融合方式,即将目标检测网络原来的拼接方式改进为求和方式,能够更加有效地融合深层特征与浅层特征,减少了信息损失,从而提高了人行道检测的整体准确率。
在本发明的至少一个实施例中,获取训练样本;
将所述训练样本输入至目标检测网络,输出第一样本特征图、第二样本特征图及第三样本特征图;
对于所述第一样本特征图、所述第二样本特征图及所述第三样本特征图中的每个样本特征图,确定每个样本特征图对应的样本预测锚框坐标及样本预测概率;
确定每个样本特征图的实际锚框坐标、样本实际概率,及每个样本特征图对应的实际中心点坐标及实际宽高坐标;
根据所述样本预测锚框坐标及所述实际锚框坐标计算每个样本特征图的交并比损失;
根据每个样本特征图对应的样本预测锚框坐标确定每个样本特征图对应的预测中心点坐标及预测宽高坐标;
根据每个样本特征图对应的预测中心点坐标及实际中心点坐标计算每个样本特征图的中心点坐标损失;
根据每个样本特征图对应的预测宽高坐标及实际宽高坐标计算每个样本特征图的宽高坐标损失;
根据每个样本特征图对应的样本预测概率及样本实际概率计算每个样本特征图的类别损失;
计算所述交并比损失、所述中心点坐标损失、所述宽高坐标损失及所述类别损失的和作为损失函数;
当所述损失函数的取值小于或者等于配置损失时,停止训练,得到所述人行道检测模型。
通过上述实施方式构建的损失函数,在目标检测网络原有损失函数的基础上增加了交并比损失,能够更加精准地拟合检测框的位置和大小,并且还能够有效减少非人行道的误召回现象,从而提高了人行道检测的整体召回率和准确率,同时,该损失函数能够从多个层面评价模型的损失,进而使模型的效果更佳。
具体地,采用下述公式根据所述样本预测锚框坐标及所述实际锚框坐标计算每个样本特征图的交并比损失:
lossiou=1-IoU2=1-(I/U)2
其中,I为样本预测锚框与实际锚框的交集面积,U为样本预测锚框与实际锚框的并集面积,IoU为每个样本特征图的交并比取值;
采用下述公式根据每个样本特征图对应的预测中心点坐标及实际中心点坐标计算每个样本特征图的中心点坐标损失:
lossxy=-(ytrue_xlogypredict_x+(1-ytrue_x)log(1-ypredict_x)
+ytrue_ylogypredict_y+(1-ytrue_y)log(1-ypredict_y))
其中,ytrue_x为实际中心点坐标的x值,ypredict_x为预测中心点坐标的x值,ytrue_y为实际中心点坐标的y值,ypredict_y为预测中心点坐标的y值。
采用下述公式根据每个样本特征图对应的预测宽高坐标及实际宽高坐标计算每个样本特征图的宽高坐标损失:
其中,ytrue_w为实际宽高坐标的w值,ypredict_w为预测宽高坐标的w值,ytrue_h为实际宽高坐标的h值,ypredict_h为预测宽高坐标的h值。
采用下述公式根据每个样本特征图对应的样本预测概率及样本实际概率计算每个样本特征图的类别损失:
lossclass=-(ytrue_classlogypredict_class
+(1-ytrue_class)log(1-ypredict_class))
其中,ytrue_class为样本实际概率,ypredict_class为样本预测概率。
获取单元113获取所述人行道检测模型的目标锚框。
其中,所述目标锚框的数量为所述至少一种尺度的倍数,以确保每种尺度的目标特征图能够得到相同的目标锚框。例如:9个。
对于所述第一特征图、所述第二特征图及所述第三特征图中的每个特征图,识别单元114利用所述目标锚框在每个特征图上进行识别,输出与每个特征图对应的预测锚框坐标、每个预测锚框坐标的目标得分及预测概率,从所述预测锚框坐标中获取所述预测概率大于或者等于配置概率的预测锚框坐标,并从获取的预测锚框坐标中选择所述目标得分最高的预测锚框坐标作为人行道的预测坐标。
通过上述实施方式,能够在输出的每个特征图对应的预测锚框坐标中获取到得分最高的预测锚框坐标作为人行道的预测坐标,以分值进行进一步筛选再次提高了识别的准确度。
映射单元115将所述人行道的预测坐标映射到所述待检测图像上,得到所述待检测图像的人行道检测结果。
在本实施例中,所述映射单元115将所述人行道的预测坐标映射到所述待检测图像上,得到所述待检测图像的人行道检测结果包括:
确定偏移量;
根据所述偏移量转换所述预测坐标,得到转换坐标;
确定所述待检测图像的第一尺度,及确定所述预测坐标对应的特征图的第二尺度;
计算所述第一尺度与所述第二尺度的商作为系数;
将所述系数与所述预测坐标相乘,得到所述预测坐标在所述待检测图像上的对应位置以生成所述待检测图像的人行道检测结果。
通过上述实施方式,相当于将识别到的人行道映射在原始图像上,便于用户查看人行道检测结果。
进一步地,响应于接收到的检测指令,确定与所述检测指令对应的终端;
将所述人行道检测结果发送至所述终端。
在将所述人行道检测结果发送至所述终端后,可以利用所述人行道检测结果辅助进行是否有闯红灯行为等的检测。
为了提高安全性,将所述人行道检测结果存储于区块链上。
由以上技术方案可以看出,本发明能够响应于接收到的待检测图像,对所述待检测图像进行尺寸变换处理,得到目标图像,提取所述目标图像的人行道特征,将所述人行道特征输入至预先训练的人行道检测模型,输出第一特征图、第二特征图及第三特征图,其中,所述人行道检测模型采用特征融合及交并比损失训练目标检测网络而得到,改进了目标检测网络的特征融合方式,即将目标检测网络原来的拼接方式改进为求和方式,能够更加有效地融合深层特征与浅层特征,减少了信息损失,从而提高了人行道检测的整体准确率,在目标检测网络原有损失函数的基础上增加了IoU损失,能够更加精准地拟合检测框的位置和大小,并且还能够有效减少非人行道的误召回现象,从而提高了人行道检测的整体召回率和准确率,同时,该损失函数能够从多个层面评价模型的损失,进而使模型的效果更佳,获取所述人行道检测模型的目标锚框,对于所述第一特征图、所述第二特征图及所述第三特征图中的每个特征图,利用所述目标锚框在每个特征图上进行识别,输出与每个特征图对应的预测锚框坐标、每个预测锚框坐标的目标得分及预测概率,从所述预测锚框坐标中获取所述预测概率大于或者等于配置概率的预测锚框坐标,并从获取的预测锚框坐标中选择所述目标得分最高的预测锚框坐标作为人行道的预测坐标,将所述人行道的预测坐标映射到所述待检测图像上,得到所述待检测图像的人行道检测结果进而基于人工智能手段实现对人行道高效且准确地自动检测。此外,本发明还可应用于智慧交通,从而推动智慧城市的建设。
如图3所示,是本发明实现基于人工智能的人行道检测方法的较佳实施例的电子设备的结构示意图。
所述电子设备1可以包括存储器12、处理器13和总线,还可以包括存储在所述存储器12中并可在所述处理器13上运行的计算机程序,例如基于人工智能的人行道检测程序。
本领域技术人员可以理解,所述示意图仅仅是电子设备1的示例,并不构成对电子设备1的限定,所述电子设备1既可以是总线型结构,也可以是星形结构,所述电子设备1还可以包括比图示更多或更少的其他硬件或者软件,或者不同的部件布置,例如所述电子设备1还可以包括输入输出设备、网络接入设备等。
需要说明的是,所述电子设备1仅为举例,其他现有的或今后可能出现的电子产品如可适应于本发明,也应包含在本发明的保护范围以内,并以引用方式包含于此。
其中,存储器12至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、移动硬盘、多媒体卡、卡型存储器(例如:SD或DX存储器等)、磁性存储器、磁盘、光盘等。存储器12在一些实施例中可以是电子设备1的内部存储单元,例如该电子设备1的移动硬盘。存储器12在另一些实施例中也可以是电子设备1的外部存储设备,例如电子设备1上配备的插接式移动硬盘、智能存储卡(Smart Media Card,SMC)、安全数字(Secure Digital,SD)卡、闪存卡(Flash Card)等。进一步地,存储器12还可以既包括电子设备1的内部存储单元也包括外部存储设备。存储器12不仅可以用于存储安装于电子设备1的应用软件及各类数据,例如基于人工智能的人行道检测程序的代码等,还可以用于暂时地存储已经输出或者将要输出的数据。
处理器13在一些实施例中可以由集成电路组成,例如可以由单个封装的集成电路所组成,也可以是由多个相同功能或不同功能封装的集成电路所组成,包括一个或者多个中央处理器(Central Processing unit,CPU)、微处理器、数字处理芯片、图形处理器及各种控制芯片的组合等。处理器13是所述电子设备1的控制核心(Control Unit),利用各种接口和线路连接整个电子设备1的各个部件,通过运行或执行存储在所述存储器12内的程序或者模块(例如执行基于人工智能的人行道检测程序等),以及调用存储在所述存储器12内的数据,以执行电子设备1的各种功能和处理数据。
所述处理器13执行所述电子设备1的操作系统以及安装的各类应用程序。所述处理器13执行所述应用程序以实现上述各个基于人工智能的人行道检测方法实施例中的步骤,例如图1所示的步骤。
示例性的,所述计算机程序可以被分割成一个或多个模块/单元,所述一个或者多个模块/单元被存储在所述存储器12中,并由所述处理器13执行,以完成本发明。所述一个或多个模块/单元可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述所述计算机程序在所述电子设备1中的执行过程。例如,所述计算机程序可以被分割成处理单元110、提取单元111、输入单元112、获取单元113、识别单元114、映射单元115。
上述以软件功能模块的形式实现的集成的单元,可以存储在一个计算机可读取存储介质中。上述软件功能模块存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机、计算机设备,或者网络设备等)或处理器(processor)执行本发明各个实施例所述基于人工智能的人行道检测方法的部分。
所述电子设备1集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指示相关的硬件设备来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。
其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)。
进一步地,计算机可读存储介质可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序等;存储数据区可存储根据区块链节点的使用所创建的数据等。
本发明所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。
总线可以是外设部件互连标准(peripheral component interconnect,简称PCI)总线或扩展工业标准结构(extended industry standard architecture,简称EISA)总线等。该总线可以分为地址总线、数据总线、控制总线等。为便于表示,在图3中仅用一根箭头表示,但并不表示仅有一根总线或一种类型的总线。所述总线被设置为实现所述存储器12以及至少一个处理器13等之间的连接通信。
尽管未示出,所述电子设备1还可以包括给各个部件供电的电源(比如电池),优选地,电源可以通过电源管理装置与所述至少一个处理器13逻辑相连,从而通过电源管理装置实现充电管理、放电管理、以及功耗管理等功能。电源还可以包括一个或一个以上的直流或交流电源、再充电装置、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。所述电子设备1还可以包括多种传感器、蓝牙模块、Wi-Fi模块等,在此不再赘述。
进一步地,所述电子设备1还可以包括网络接口,可选地,所述网络接口可以包括有线接口和/或无线接口(如WI-FI接口、蓝牙接口等),通常用于在该电子设备1与其他电子设备之间建立通信连接。
可选地,该电子设备1还可以包括用户接口,用户接口可以是显示器(Display)、输入单元(比如键盘(Keyboard)),可选地,用户接口还可以是标准的有线接口、无线接口。可选地,在一些实施例中,显示器可以是LED显示器、液晶显示器、触控式液晶显示器以及OLED(Organic Light-Emitting Diode,有机发光二极管)触摸器等。其中,显示器也可以适当的称为显示屏或显示单元,用于显示在电子设备1中处理的信息以及用于显示可视化的用户界面。
应该了解,所述实施例仅为说明之用,在专利申请范围上并不受此结构的限制。
图3仅示出了具有组件12-13的电子设备1,本领域技术人员可以理解的是,图3示出的结构并不构成对所述电子设备1的限定,可以包括比图示更少或者更多的部件,或者组合某些部件,或者不同的部件布置。
结合图1,所述电子设备1中的所述存储器12存储多个指令以实现一种基于人工智能的人行道检测方法,所述处理器13可执行所述多个指令从而实现:
响应于接收到的待检测图像,对所述待检测图像进行尺寸变换处理,得到目标图像;
提取所述目标图像的人行道特征;
将所述人行道特征输入至预先训练的人行道检测模型,输出第一特征图、第二特征图及第三特征图,其中,所述人行道检测模型采用特征融合及交并比损失训练目标检测网络而得到;
获取所述人行道检测模型的目标锚框;
对于所述第一特征图、所述第二特征图及所述第三特征图中的每个特征图,利用所述目标锚框在每个特征图上进行识别,输出与每个特征图对应的预测锚框坐标、每个预测锚框坐标的目标得分及预测概率,从所述预测锚框坐标中获取所述预测概率大于或者等于配置概率的预测锚框坐标,并从获取的预测锚框坐标中选择所述目标得分最高的预测锚框坐标作为人行道的预测坐标;
将所述人行道的预测坐标映射到所述待检测图像上,得到所述待检测图像的人行道检测结果。
具体地,所述处理器13对上述指令的具体实现方法可参考图1对应实施例中相关步骤的描述,在此不赘述。
在本发明所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。
因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附关联图标记视为限制所涉及的权利要求。
此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。系统权利要求中陈述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第二等词语用来表示名称,而并不表示任何特定的顺序。
最后应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或等同替换,而不脱离本发明技术方案的精神和范围。

Claims (8)

1.一种基于人工智能的人行道检测方法,其特征在于,所述基于人工智能的人行道检测方法包括:
响应于接收到的待检测图像,对所述待检测图像进行尺寸变换处理,得到目标图像;
提取所述目标图像的人行道特征;
将所述人行道特征输入至预先训练的人行道检测模型,输出第一特征图、第二特征图及第三特征图,其中,所述人行道检测模型采用特征融合及交并比损失训练目标检测网络而得到;其中,所述将所述人行道特征输入至预先训练的人行道检测模型,输出第一特征图、第二特征图及第三特征图包括:对所述人行道特征执行卷积层运算,得到第一中间特征;对所述第一中间特征执行联合卷积运算,得到所述第一特征图;融合所述人行道特征与所述第一中间特征,得到第一融合特征,包括:对所述人行道特征执行第一运算,得到第一运算结果,其中,所述第一运算包括卷积块运算、最大池化运算及卷积运算;对所述第一中间特征执行第二运算,得到第二运算结果,其中,所述第二运算包括所述卷积块运算、上采样运算及所述卷积运算;对所述第一运算结果及所述第二运算结果执行和运算,得到所述第一融合特征;对所述第一融合特征执行所述卷积层运算,得到第二中间特征;对所述第二中间特征执行所述联合卷积运算,得到所述第二特征图;融合所述人行道特征与所述第二中间特征,得到第二融合特征;对所述第二融合特征执行所述卷积层运算及所述联合卷积运算,得到所述第三特征图;
获取所述人行道检测模型的目标锚框;
对于所述第一特征图、所述第二特征图及所述第三特征图中的每个特征图,利用所述目标锚框在每个特征图上进行识别,输出与每个特征图对应的预测锚框坐标、每个预测锚框坐标的目标得分及预测概率,从所述预测锚框坐标中获取所述预测概率大于或者等于配置概率的预测锚框坐标,并从获取的预测锚框坐标中选择所述目标得分最高的预测锚框坐标作为人行道的预测坐标;
将所述人行道的预测坐标映射到所述待检测图像上,得到所述待检测图像的人行道检测结果。
2.如权利要求1所述的基于人工智能的人行道检测方法,其特征在于,所述基于人工智能的人行道检测方法还包括:
获取训练样本;
将所述训练样本输入至目标检测网络,输出第一样本特征图、第二样本特征图及第三样本特征图;
对于所述第一样本特征图、所述第二样本特征图及所述第三样本特征图中的每个样本特征图,确定每个样本特征图对应的样本预测锚框坐标及样本预测概率;
确定每个样本特征图的实际锚框坐标、样本实际概率,及每个样本特征图对应的实际中心点坐标及实际宽高坐标;
根据所述样本预测锚框坐标及所述实际锚框坐标计算每个样本特征图的交并比损失;
根据每个样本特征图对应的样本预测锚框坐标确定每个样本特征图对应的预测中心点坐标及预测宽高坐标;
根据每个样本特征图对应的预测中心点坐标及实际中心点坐标计算每个样本特征图的中心点坐标损失;
根据每个样本特征图对应的预测宽高坐标及实际宽高坐标计算每个样本特征图的宽高坐标损失;
根据每个样本特征图对应的样本预测概率及样本实际概率计算每个样本特征图的类别损失;
计算所述交并比损失、所述中心点坐标损失、所述宽高坐标损失及所述类别损失的和作为损失函数;
当所述损失函数的取值小于或者等于配置损失时,停止训练,得到所述人行道检测模型。
3.如权利要求2所述的基于人工智能的人行道检测方法,其特征在于,采用下述公式根据所述样本预测锚框坐标及所述实际锚框坐标计算每个样本特征图的交并比损失:
lossiou=1-IoU2=1-(I/U)2
其中,I为样本预测锚框与实际锚框的交集面积,U为样本预测锚框与实际锚框的并集面积,IoU为每个样本特征图的交并比取值;
采用下述公式根据每个样本特征图对应的预测中心点坐标及实际中心点坐标计算每个样本特征图的中心点坐标损失:
lossxy=-(ytrue_xlogypredict_x+(1-ytrue_x)log(1-ypredict_x)+ytrue_ylogypredict_y+(1-ytrue_y)log(1-ypredict_y))
其中,ytrue_x为实际中心点坐标的x值,ypredict_x为预测中心点坐标的x值,ytrue_y为实际中心点坐标的y值,ypredict_y为预测中心点坐标的y值;
采用下述公式根据每个样本特征图对应的预测宽高坐标及实际宽高坐标计算每个样本特征图的宽高坐标损失:
其中,ytrue_w为实际宽高坐标的w值,ypredict_w为预测宽高坐标的w值,ytrue_h为实际宽高坐标的h值,ypredict_h为预测宽高坐标的h值;
采用下述公式根据每个样本特征图对应的样本预测概率及样本实际概率计算每个样本特征图的类别损失:
lossclass=-(ytrue_classlogypredict_class+(1-ytrue_class)log(1-ypredict_class))
其中,ytrue_class为样本实际概率,ypredict_class为样本预测概率。
4.如权利要求1所述的基于人工智能的人行道检测方法,其特征在于,所述将所述人行道的预测坐标映射到所述待检测图像上,得到所述待检测图像的人行道检测结果包括:
确定偏移量;
根据所述偏移量转换所述预测坐标,得到转换坐标;
确定所述待检测图像的第一尺度,及确定所述预测坐标对应的特征图的第二尺度;
计算所述第一尺度与所述第二尺度的商作为系数;
将所述系数与所述预测坐标相乘,得到所述预测坐标在所述待检测图像上的对应位置以生成所述待检测图像的人行道检测结果。
5.如权利要求1所述的基于人工智能的人行道检测方法,其特征在于,所述基于人工智能的人行道检测方法还包括:
响应于接收到的检测指令,确定与所述检测指令对应的终端;
将所述人行道检测结果发送至所述终端。
6.一种基于人工智能的人行道检测装置,其特征在于,所述装置包括实现如权利要求1至5中任意一项所述的基于人工智能的人行道检测方法的单元,所述基于人工智能的人行道检测装置包括:
处理单元,用于响应于接收到的待检测图像,对所述待检测图像进行尺寸变换处理,得到目标图像;
提取单元,用于提取所述目标图像的人行道特征;
输入单元,用于将所述人行道特征输入至预先训练的人行道检测模型,输出第一特征图、第二特征图及第三特征图,其中,所述人行道检测模型采用特征融合及交并比损失训练目标检测网络而得到;
获取单元,用于获取所述人行道检测模型的目标锚框;
识别单元,用于对于所述第一特征图、所述第二特征图及所述第三特征图中的每个特征图,利用所述目标锚框在每个特征图上进行识别,输出与每个特征图对应的预测锚框坐标、每个预测锚框坐标的目标得分及预测概率,从所述预测锚框坐标中获取所述预测概率大于或者等于配置概率的预测锚框坐标,并从获取的预测锚框坐标中选择所述目标得分最高的预测锚框坐标作为人行道的预测坐标;
映射单元,用于将所述人行道的预测坐标映射到所述待检测图像上,得到所述待检测图像的人行道检测结果。
7.一种电子设备,其特征在于,所述电子设备包括:
存储器,存储至少一个指令;及
处理器,执行所述存储器中存储的指令以实现如权利要求1至5中任意一项所述的基于人工智能的人行道检测方法。
8.一种计算机可读存储介质,其特征在于:所述计算机可读存储介质中存储有至少一个指令,所述至少一个指令被电子设备中的处理器执行以实现如权利要求1至5中任意一项所述的基于人工智能的人行道检测方法。
CN202011011581.0A 2020-09-23 2020-09-23 基于人工智能的人行道检测方法、装置、设备及介质 Active CN112132037B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011011581.0A CN112132037B (zh) 2020-09-23 2020-09-23 基于人工智能的人行道检测方法、装置、设备及介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011011581.0A CN112132037B (zh) 2020-09-23 2020-09-23 基于人工智能的人行道检测方法、装置、设备及介质

Publications (2)

Publication Number Publication Date
CN112132037A CN112132037A (zh) 2020-12-25
CN112132037B true CN112132037B (zh) 2024-04-16

Family

ID=73839381

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011011581.0A Active CN112132037B (zh) 2020-09-23 2020-09-23 基于人工智能的人行道检测方法、装置、设备及介质

Country Status (1)

Country Link
CN (1) CN112132037B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114187586B (zh) * 2022-02-16 2022-05-06 中航信移动科技有限公司 一种行程单识别方法、装置、电子设备及存储介质
CN115063631B (zh) * 2022-06-20 2024-07-05 平安科技(深圳)有限公司 基于人工智能的车损检测方法及相关设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109902676A (zh) * 2019-01-12 2019-06-18 浙江工业大学 一种基于动态背景的违停检测算法
CN111259796A (zh) * 2020-01-16 2020-06-09 东华大学 一种基于图像几何特征的车道线检测方法
CN111612008A (zh) * 2020-05-21 2020-09-01 苏州大学 基于卷积网络的图像分割方法
CN111626200A (zh) * 2020-05-26 2020-09-04 北京联合大学 一种基于Libra R-CNN的多尺度目标检测网络和交通标识检测方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11010641B2 (en) * 2019-03-14 2021-05-18 Mapbox, Inc. Low power consumption deep neural network for simultaneous object detection and semantic segmentation in images on a mobile computing device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109902676A (zh) * 2019-01-12 2019-06-18 浙江工业大学 一种基于动态背景的违停检测算法
CN111259796A (zh) * 2020-01-16 2020-06-09 东华大学 一种基于图像几何特征的车道线检测方法
CN111612008A (zh) * 2020-05-21 2020-09-01 苏州大学 基于卷积网络的图像分割方法
CN111626200A (zh) * 2020-05-26 2020-09-04 北京联合大学 一种基于Libra R-CNN的多尺度目标检测网络和交通标识检测方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于YOLOv3的自然路况信息识别研究;田锋;雷印杰;邓棋;;计算机应用研究(S1);全文 *

Also Published As

Publication number Publication date
CN112132037A (zh) 2020-12-25

Similar Documents

Publication Publication Date Title
CN113159147B (zh) 基于神经网络的图像识别方法、装置、电子设备
CN111949708B (zh) 基于时序特征提取的多任务预测方法、装置、设备及介质
CN111738212B (zh) 基于人工智能的交通信号灯识别方法、装置、设备及介质
CN113806434B (zh) 大数据处理方法、装置、设备及介质
CN112132032A (zh) 交通标志牌检测方法、装置、电子设备及存储介质
CN111476225B (zh) 基于人工智能的车内人脸识别方法、装置、设备及介质
CN112132037B (zh) 基于人工智能的人行道检测方法、装置、设备及介质
WO2022141858A1 (zh) 行人检测方法、装置、电子设备及存储介质
CN111931729B (zh) 基于人工智能的行人检测方法、装置、设备及介质
CN116168350B (zh) 基于物联网实现施工人员违规行为的智能监测方法及装置
CN114049568B (zh) 基于图像比对的标的物形变检测方法、装置、设备及介质
CN111985545B (zh) 基于人工智能的目标数据检测方法、装置、设备及介质
CN112651782B (zh) 基于缩放点积注意力的行为预测方法、装置、设备及介质
CN111950707B (zh) 基于行为共现网络的行为预测方法、装置、设备及介质
CN112052409B (zh) 地址解析方法、装置、设备及介质
CN114022841A (zh) 人员监控识别方法、装置、电子设备及可读存储介质
CN112115890B (zh) 基于人工智能的酒驾识别方法、装置、设备及介质
CN112101191A (zh) 基于边框注意力网络的表情识别方法、装置、设备及介质
CN116823437A (zh) 基于配置化风控策略的准入方法、装置、设备及介质
CN116680580A (zh) 基于多模态训练的信息匹配方法、装置、电子设备及介质
CN113204962B (zh) 基于图扩展结构的词义消歧方法、装置、设备及介质
CN115239958A (zh) 基于人工智能的轮毂损伤检测方法及相关设备
CN112819593B (zh) 基于位置信息的数据分析方法、装置、设备及介质
CN112330080B (zh) 基于连通图的因子筛选方法、装置、设备及介质
CN111652226B (zh) 基于图片的目标识别方法、装置及可读存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant