CN111931729A - 基于人工智能的行人检测方法、装置、设备及介质 - Google Patents
基于人工智能的行人检测方法、装置、设备及介质 Download PDFInfo
- Publication number
- CN111931729A CN111931729A CN202011011567.0A CN202011011567A CN111931729A CN 111931729 A CN111931729 A CN 111931729A CN 202011011567 A CN202011011567 A CN 202011011567A CN 111931729 A CN111931729 A CN 111931729A
- Authority
- CN
- China
- Prior art keywords
- feature
- pedestrian
- artificial intelligence
- pedestrian detection
- anchor frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Probability & Statistics with Applications (AREA)
- Human Computer Interaction (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及人工智能技术领域,提供一种基于人工智能的行人检测方法、装置、设备及介质,采用VoVNet网络代替DarkNet53网络进行特征提取,显著增强了行人集中的场景以及雾霾、雨天、夜间等环境条件差的场景下的特征表达能力,从而提高了行人检测的整体准确率和召回率,且推理速度提升了一倍,进而基于人工智能手段对行人进行自动检测。此外,本发明还可应用于智慧交通,从而推动智慧城市的建设。本发明还涉及区块链技术,检测结果及行人检测模型可存储于区块链节点中。
Description
技术领域
本发明涉及人工智能技术领域,尤其涉及一种基于人工智能的行人检测方法、装置、设备及介质。
背景技术
近年来,随着智慧城市的快速发展,行人检测在智慧城市交通管理系统中发挥着越来越重要的作用。
现有技术方案中,主要采用YOLOv3的深度学习方法,但是,该方法对外界环境的要求较高,其检测精度受环境影响较大,当天气环境恶劣或者面对行人集中等困难场景时其准确率和召回率都相对较低,仍存在较大的提升空间。
发明内容
鉴于以上内容,有必要提供一种基于人工智能的行人检测方法、装置、设备及介质,能够采用VoVNet网络进行特征提取,显著增强了行人集中的场景以及雾霾、雨天、夜间等环境条件差的场景下的特征表达能力,从而提高了行人检测的整体准确率和召回率,且推理速度提升了一倍,进而基于人工智能手段对行人进行自动检测。
一种基于人工智能的行人检测方法,所述基于人工智能的行人检测方法包括:
响应于接收到的待检测图像,对所述待检测图像进行尺度变换处理,得到目标图像;
利用VoVNet网络提取所述目标图像的行人特征;
将所述行人特征输入至预先训练的行人检测模型,输出第一特征图、第二特征图及第三特征图;
获取所述行人检测模型的目标锚框;
对于所述第一特征图、所述第二特征图及所述第三特征图中的每个特征图,利用所述目标锚框在每个特征图上进行识别,输出与每个特征图对应的预测锚框坐标、每个预测锚框坐标的目标得分及行人预测结果,从所述预测锚框坐标中选择所述目标得分最高的预测锚框坐标作为行人的位置预测坐标;
将所述位置预测坐标映射到所述待检测图像上,得到映射图,输出所述映射图及所述行人预测结果作为检测结果。
根据本发明优选实施例,所述将所述行人特征输入至预先训练的行人检测模型,输出第一特征图、第二特征图及第三特征图包括:
对所述行人特征执行第一操作,得到第一特征,拼接所述第一特征及所述行人特征,得到第一拼接特征;
对所述第一拼接特征执行第二操作,得到第一特征图;
对所述第一拼接特征执行第三操作,得到第一中间特征,对所述第一中间特征执行所述第一操作,得到第二特征,拼接所述第二特征及所述行人特征,得到第二拼接特征;
对所述第二拼接特征执行所述第二操作,得到第二特征图;
对所述第二拼接特征执行所述第三操作,得到第二中间特征,对所述第二中间特征执行所述第一操作,得到第三特征,拼接所述第三特征及所述行人特征,得到第三拼接特征;
对所述第三拼接特征执行所述第二操作,得到第三特征图。
根据本发明优选实施例,所述第一操作包括第一运算及上采样运算,所述第一运算包括3*3卷积运算、批归一化运算及采用Mish激活函数的运算,所述第一运算执行第一预设次数;所述第二操作包括所述第一运算及1*1卷积运算,所述第一运算执行第二预设次数;所述第三操作包括所述第一运算,所述第一运算执行第三预设次数。
根据本发明优选实施例,在获取所述行人检测模型的目标锚框前,所述基于人工智能的行人检测方法还包括:
获取样本数据;
从所述样本数据中随机获取初始样点;
采用K-means++算法以所述初始样点为起点对所述样本数据进行聚类,得到指定数量的簇;
计算每个簇的中心点坐标作为所述目标锚框。
根据本发明优选实施例,在采用K-means++算法以所述初始样点为起点对所述样本数据进行聚类时,所述基于人工智能的行人检测方法还包括:
基于配置距离函数计算每两个点间的距离,并根据计算的距离对所述样本数据进行聚类;
其中,所述配置距离函数为:y=1-IoU=1- I/U,IoU= I/U;
y为所述配置距离函数的函数值,I为任意两个锚框的交集面积,U为任意两个锚框的并集面积,IoU为交并比。
根据本发明优选实施例,所述将所述位置预测坐标映射到所述待检测图像上,得到映射图包括:
确定偏移量;
根据所述偏移量转换所述位置预测坐标,得到转换坐标;
确定所述待检测图像的第一尺度,及确定所述位置预测坐标对应的特征图的第二尺度;
计算所述第一尺度与所述第二尺度的商作为系数;
将所述系数与所述位置预测坐标相乘,得到所述位置预测坐标在所述待检测图像上的对应位置以生成所述映射图。
根据本发明优选实施例,所述基于人工智能的行人检测方法还包括:
响应于接收到的检测指令,确定与所述检测指令对应的终端;
获取所述终端的标识码;
以配置加密算法对所述标识码及所述检测结果进行加密处理,得到密文;
将所述密文发送至所述终端。
一种基于人工智能的行人检测装置,所述基于人工智能的行人检测装置包括:
处理单元,用于响应于接收到的待检测图像,对所述待检测图像进行尺度变换处理,得到目标图像;
提取单元,用于利用VoVNet网络提取所述目标图像的行人特征;
输入单元,用于将所述行人特征输入至预先训练的行人检测模型,输出第一特征图、第二特征图及第三特征图;
获取单元,用于获取所述行人检测模型的目标锚框;
识别单元,用于对于所述第一特征图、所述第二特征图及所述第三特征图中的每个特征图,利用所述目标锚框在每个特征图上进行识别,输出与每个特征图对应的预测锚框坐标、每个预测锚框坐标的目标得分及行人预测结果,从所述预测锚框坐标中选择所述目标得分最高的预测锚框坐标作为行人的位置预测坐标;
映射单元,用于将所述位置预测坐标映射到所述待检测图像上,得到映射图,输出所述映射图及所述行人预测结果作为检测结果。
一种电子设备,所述电子设备包括:
存储器,存储至少一个指令;及
处理器,执行所述存储器中存储的指令以实现所述基于人工智能的行人检测方法。
一种计算机可读存储介质,所述计算机可读存储介质中存储有至少一个指令,所述至少一个指令被电子设备中的处理器执行以实现所述基于人工智能的行人检测方法。
由以上技术方案可以看出,本发明能够响应于接收到的待检测图像,对所述待检测图像进行尺度变换处理,得到目标图像,利用VoVNet网络提取所述目标图像的行人特征,采用VoVNet网络代替原有的DarkNet53网络进行特征提取,显著增强了行人集中的场景以及雾霾、雨天、夜间等环境条件差的场景下的特征表达能力,从而提高了行人检测的整体准确率和召回率,基于VoVNet的检测模型推理速度提升了一倍,而且效果更好,将所述行人特征输入至预先训练的行人检测模型,输出第一特征图、第二特征图及第三特征图,获取所述行人检测模型的目标锚框,对于所述第一特征图、所述第二特征图及所述第三特征图中的每个特征图,利用所述目标锚框在每个特征图上进行识别,输出与每个特征图对应的预测锚框坐标、每个预测锚框坐标的目标得分及行人预测结果,从所述预测锚框坐标中选择所述目标得分最高的预测锚框坐标作为行人的位置预测坐标,将所述位置预测坐标映射到所述待检测图像上,得到映射图,输出所述映射图及所述行人预测结果作为检测结果,进而基于人工智能手段对行人进行自动检测。
附图说明
图1是本发明基于人工智能的行人检测方法的较佳实施例的流程图。
图2是本发明基于人工智能的行人检测装置的较佳实施例的功能模块图。
图3是本发明实现基于人工智能的行人检测方法的较佳实施例的电子设备的结构示意图。
具体实施方式
为了使本发明的目的、技术方案和优点更加清楚,下面结合附图和具体实施例对本发明进行详细描述。
如图1所示,是本发明基于人工智能的行人检测方法的较佳实施例的流程图。根据不同的需求,该流程图中步骤的顺序可以改变,某些步骤可以省略。
所述基于人工智能的行人检测方法应用于一个或者多个电子设备中,所述电子设备是一种能够按照事先设定或存储的指令,自动进行数值计算和/或信息处理的设备,其硬件包括但不限于微处理器、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程门阵列(Field-Programmable Gate Array,FPGA)、数字处理器(DigitalSignal Processor,DSP)、嵌入式设备等。
所述电子设备可以是任何一种可与用户进行人机交互的电子产品,例如,个人计算机、平板电脑、智能手机、个人数字助理(Personal Digital Assistant,PDA)、游戏机、交互式网络电视(Internet Protocol Television,IPTV)、智能式穿戴式设备等。
所述电子设备还可以包括网络设备和/或用户设备。其中,所述网络设备包括,但不限于单个网络服务器、多个网络服务器组成的服务器组或基于云计算(CloudComputing)的由大量主机或网络服务器构成的云。
所述电子设备所处的网络包括但不限于互联网、广域网、城域网、局域网、虚拟专用网络(Virtual Private Network,VPN)等。
S10,响应于接收到的待检测图像,对所述待检测图像进行尺度变换处理,得到目标图像。
通过尺度变换处理,使所述待检测图像满足模型对于图像大小的需求,便于后续利用模型进行自动检测与识别。
例如:可以将所述待检测图像转换成固定大小512*512。
S11,利用VoVNet网络提取所述目标图像的行人特征。
其中,所述行人特征包括,但不限于以下一种或者多种特征的组合:衣着特征、身形特征等。
需要说明的是,本实施例是基于传统的YOLOv3网络进行的改进,而传统的YOLOv3网络主要是采用DarkNet53网络进行特征的提取,而DarkNet53网络的特征表达能力不如VoVNet网络。
具体地,所述VoVNet网络由OSA(One-Shot Aggregation)模块构成,首先是一个由3个3x3卷积层构成的stem block,然后经过4个阶段的OSA模块,每个阶段的最后会采用一个stride为2的3x3 max pooling层进行降采样,模型最终的output stride是32。与其他网络类似,每次降采样后都会提升特征的channel数。本实施例采用VoVNet网络代替原有的DarkNet53网络进行特征提取,显著增强了雾霾、雨天、夜间、行人集中等困难场景下的特征表达能力,从而提高了行人检测的整体准确率和召回率,基于VoVNet的检测模型推理速度提升了一倍,而且效果更好。
S12,将所述行人特征输入至预先训练的行人检测模型,输出第一特征图、第二特征图及第三特征图。
其中,所述第一特征图指经过一次拼接处理后得到的特征图,所述第二特征图为经过二次拼接处理后得到的特征图,所述第三特征图为经过三次拼接处理后得到的特征图,且由于每次拼接处理前都进行了上采样处理,因此能够逐级扩大所述第一特征图、所述第二特征图及所述第三特征图的尺度,从而实现多尺度检测。
在本实施例中,所述行人检测模型为基于目标检测模型YOLOv3网络训练而得到。
在本发明的至少一个实施例中,所述将所述行人特征输入至预先训练的行人检测模型,输出第一特征图、第二特征图及第三特征图包括:
对所述行人特征执行第一操作,得到第一特征,拼接所述第一特征及所述行人特征,得到第一拼接特征;
对所述第一拼接特征执行第二操作,得到第一特征图;
对所述第一拼接特征执行第三操作,得到第一中间特征,对所述第一中间特征执行所述第一操作,得到第二特征,拼接所述第二特征及所述行人特征,得到第二拼接特征;
对所述第二拼接特征执行所述第二操作,得到第二特征图;
对所述第二拼接特征执行所述第三操作,得到第二中间特征,对所述第二中间特征执行所述第一操作,得到第三特征,拼接所述第三特征及所述行人特征,得到第三拼接特征;
对所述第三拼接特征执行所述第二操作,得到第三特征图。
通过上述实施方式,改进了YOLOv3网络原先的残差连接结构,将原有的2次连接扩展为3次连接,即分别执行了3次特征拼接,有效减少了信息损失,改善了提取的特征的完整性,从而提高了行人检测的整体准确率和召回率。
具体地,所述第一操作包括第一运算及上采样运算,所述第一运算包括3*3卷积运算、批归一化运算及采用Mish激活函数的运算,所述第一运算执行第一预设次数;所述第二操作包括所述第一运算及1*1卷积运算,所述第一运算执行第二预设次数;所述第三操作包括所述第一运算,所述第一运算执行第三预设次数。
例如:所述第一预设次数可以为3次,所述第二预设次数可以为6次,所述第三预设次数可以为5次。
其中,通过执行上采样运算(即upsample),能够逐级扩大特征图的尺度,从而实现多尺度预测。
例如:当所述第一特征图的尺度为10*10*512时,所述第二特征图的尺度为20*20*512,所述第三特征图的尺度为40*40*512。
需要说明的是,在原有的网络结构中,采用的激活函数为Leaky Relu激活函数,容易在训练时产生梯度消失的问题,导致模型不容易收敛,训练耗时较长。本实施例采用Mish激活函数,能够有效克服梯度消失的问题,提升训练效率。
S13,获取所述行人检测模型的目标锚框。
其中,所述目标锚框的数量为所述至少一种尺度的倍数,以确保每种尺度的目标特征图能够得到相同的目标锚框。例如:9个。
在本发明的至少一个实施例中,在获取所述行人检测模型的目标锚框前,所述基于人工智能的行人检测方法还包括:
获取样本数据;
从所述样本数据中随机获取初始样点;
采用K-means++算法以所述初始样点为起点对所述样本数据进行聚类,得到指定数量的簇;
计算每个簇的中心点坐标作为所述目标锚框。
所述指定数量为所述至少一种尺度的倍数,如:9个。
通过上述实施方式,以K-means++算法进行目标锚框的选择,消除了随机误差对锚框准确性的影响,改善了锚框生成的质量,从而提高了行人检测框的定位精度。
具体地,在采用K-means++算法以所述初始样点为起点对所述样本数据进行聚类时,所述基于人工智能的行人检测方法还包括:
基于配置距离函数计算每两个点间的距离,并根据计算的距离对所述样本数据进行聚类;
其中,所述配置距离函数为:y=1-IoU=1- I/U,IoU= I/U;
y为所述配置距离函数的函数值,I为任意两个锚框的交集面积,U为任意两个锚框的并集面积,IoU为交并比。
需要说明的是,由于K-means算法主要用于解决大数据中的聚类问题,因此通常采用余弦距离作为距离函数,本实施例是对具有宽和高的锚框进行聚类,若采用余弦距离函数,将导致严重的宽高损失,因此,本案采用基于交并比的距离函数替代原有的余弦距离函数,能够有效避免锚框的宽高误差,使聚类效果更加准确,进一步保证了后续进行行人检测的准确性。
S14,对于所述第一特征图、所述第二特征图及所述第三特征图中的每个特征图,利用所述目标锚框在每个特征图上进行识别,输出与每个特征图对应的预测锚框坐标、每个预测锚框坐标的目标得分及行人预测结果,从所述预测锚框坐标中选择所述目标得分最高的预测锚框坐标作为行人的位置预测坐标。
其中,所述行人预测结果是一种二分类结果。
例如:当输出为1或Y时,确定在所述待检测图像中检测到行人,当输出为0或N时,确定在所述待检测图像中未检测到行人。
通过上述实施方式,能够在输出的每个特征图对应的预测锚框坐标中获取到得分最高的预测锚框坐标作为行人的位置预测坐标,以分值进行进一步筛选,再次提高了对行人检测的准确度。
S15,将所述位置预测坐标映射到所述待检测图像上,得到映射图,输出所述映射图及所述行人预测结果作为检测结果。
通过上述实施方式,能够在检测到有行人时,直观地将行人的位置标注在对应的待检测图像上,便于查看。
在本实施例中,所述将所述位置预测坐标映射到所述待检测图像上,得到映射图包括:
确定偏移量;
根据所述偏移量转换所述位置预测坐标,得到转换坐标;
确定所述待检测图像的第一尺度,及确定所述位置预测坐标对应的特征图的第二尺度;
计算所述第一尺度与所述第二尺度的商作为系数;
将所述系数与所述位置预测坐标相乘,得到所述位置预测坐标在所述待检测图像上的对应位置以生成所述映射图。
通过上述实施方式,相当于将检测到的行人映射在原始图像上,便于用户直观地查看行人位置。
进一步地,所述基于人工智能的行人检测方法还包括:
响应于接收到的检测指令,确定与所述检测指令对应的终端;
获取所述终端的标识码;
以配置加密算法对所述标识码及所述检测结果进行加密处理,得到密文;
将所述密文发送至所述终端。
其中,所述配置加密算法可以包括对称加密算法及非对称加密算法等,具体可根据实际情况进行选择,本发明不限制。
通过上述实施方式,能够有效提高设备间交互的安全性。
需要说明的是,为了进一步防止数据被篡改,还可以将检测结果及行人检测模型存储于区块链。
由以上技术方案可以看出,本发明能够响应于接收到的待检测图像,对所述待检测图像进行尺度变换处理,得到目标图像,利用VoVNet网络提取所述目标图像的行人特征,采用VoVNet网络代替原有的DarkNet53网络进行特征提取,显著增强了行人集中的场景以及雾霾、雨天、夜间等环境条件差的场景下的特征表达能力,从而提高了行人检测的整体准确率和召回率,基于VoVNet的检测模型推理速度提升了一倍,而且效果更好,将所述行人特征输入至预先训练的行人检测模型,输出第一特征图、第二特征图及第三特征图,获取所述行人检测模型的目标锚框,对于所述第一特征图、所述第二特征图及所述第三特征图中的每个特征图,利用所述目标锚框在每个特征图上进行识别,输出与每个特征图对应的预测锚框坐标、每个预测锚框坐标的目标得分及行人预测结果,从所述预测锚框坐标中选择所述目标得分最高的预测锚框坐标作为行人的位置预测坐标,将所述位置预测坐标映射到所述待检测图像上,得到映射图,输出所述映射图及所述行人预测结果作为检测结果,进而基于人工智能手段对行人进行自动检测。
如图2所示,是本发明基于人工智能的行人检测装置的较佳实施例的功能模块图。所述基于人工智能的行人检测装置11包括处理单元110、提取单元111、输入单元112、获取单元113、识别单元114、映射单元115。本发明所称的模块/单元是指一种能够被处理器13所执行,并且能够完成固定功能的一系列计算机程序段,其存储在存储器12中。在本实施例中,关于各模块/单元的功能将在后续的实施例中详述。
响应于接收到的待检测图像,处理单元110对所述待检测图像进行尺度变换处理,得到目标图像。
通过尺度变换处理,使所述待检测图像满足模型对于图像大小的需求,便于后续利用模型进行自动检测与识别。
例如:可以将所述待检测图像转换成固定大小512*512。
提取单元111利用VoVNet网络提取所述目标图像的行人特征。
其中,所述行人特征包括,但不限于以下一种或者多种特征的组合:衣着特征、身形特征等。
需要说明的是,本实施例是基于传统的YOLOv3网络进行的改进,而传统的YOLOv3网络主要是采用DarkNet53网络进行特征的提取,而DarkNet53网络的特征表达能力不如VoVNet网络。
具体地,所述VoVNet网络由OSA(One-Shot Aggregation)模块构成,首先是一个由3个3x3卷积层构成的stem block,然后经过4个阶段的OSA模块,每个阶段的最后会采用一个stride为2的3x3 max pooling层进行降采样,模型最终的output stride是32。与其他网络类似,每次降采样后都会提升特征的channel数。本实施例采用VoVNet网络代替原有的DarkNet53网络进行特征提取,显著增强了雾霾、雨天、夜间、行人集中等困难场景下的特征表达能力,从而提高了行人检测的整体准确率和召回率,基于VoVNet的检测模型推理速度提升了一倍,而且效果更好。
输入单元112将所述行人特征输入至预先训练的行人检测模型,输出第一特征图、第二特征图及第三特征图。
其中,所述第一特征图指经过一次拼接处理后得到的特征图,所述第二特征图为经过二次拼接处理后得到的特征图,所述第三特征图为经过三次拼接处理后得到的特征图,且由于每次拼接处理前都进行了上采样处理,因此能够逐级扩大所述第一特征图、所述第二特征图及所述第三特征图的尺度,从而实现多尺度检测。
在本实施例中,所述行人检测模型为基于目标检测模型YOLOv3网络训练而得到。
在本发明的至少一个实施例中,所述输入单元112将所述行人特征输入至预先训练的行人检测模型,输出第一特征图、第二特征图及第三特征图包括:
对所述行人特征执行第一操作,得到第一特征,拼接所述第一特征及所述行人特征,得到第一拼接特征;
对所述第一拼接特征执行第二操作,得到第一特征图;
对所述第一拼接特征执行第三操作,得到第一中间特征,对所述第一中间特征执行所述第一操作,得到第二特征,拼接所述第二特征及所述行人特征,得到第二拼接特征;
对所述第二拼接特征执行所述第二操作,得到第二特征图;
对所述第二拼接特征执行所述第三操作,得到第二中间特征,对所述第二中间特征执行所述第一操作,得到第三特征,拼接所述第三特征及所述行人特征,得到第三拼接特征;
对所述第三拼接特征执行所述第二操作,得到第三特征图。
通过上述实施方式,改进了YOLOv3网络原先的残差连接结构,将原有的2次连接扩展为3次连接,即分别执行了3次特征拼接,有效减少了信息损失,改善了提取的特征的完整性,从而提高了行人检测的整体准确率和召回率。
具体地,所述第一操作包括第一运算及上采样运算,所述第一运算包括3*3卷积运算、批归一化运算及采用Mish激活函数的运算,所述第一运算执行第一预设次数;所述第二操作包括所述第一运算及1*1卷积运算,所述第一运算执行第二预设次数;所述第三操作包括所述第一运算,所述第一运算执行第三预设次数。
例如:所述第一预设次数可以为3次,所述第二预设次数可以为6次,所述第三预设次数可以为5次。
其中,通过执行上采样运算(即upsample),能够逐级扩大特征图的尺度,从而实现多尺度预测。
例如:当所述第一特征图的尺度为10*10*512时,所述第二特征图的尺度为20*20*512,所述第三特征图的尺度为40*40*512。
需要说明的是,在原有的网络结构中,采用的激活函数为Leaky Relu激活函数,容易在训练时产生梯度消失的问题,导致模型不容易收敛,训练耗时较长。本实施例采用Mish激活函数,能够有效克服梯度消失的问题,提升训练效率。
获取单元113获取所述行人检测模型的目标锚框。
其中,所述目标锚框的数量为所述至少一种尺度的倍数,以确保每种尺度的目标特征图能够得到相同的目标锚框。例如:9个。
在本发明的至少一个实施例中,在获取所述行人检测模型的目标锚框前,获取样本数据;
从所述样本数据中随机获取初始样点;
采用K-means++算法以所述初始样点为起点对所述样本数据进行聚类,得到指定数量的簇;
计算每个簇的中心点坐标作为所述目标锚框。
所述指定数量为所述至少一种尺度的倍数,如:9个。
通过上述实施方式,以K-means++算法进行目标锚框的选择,消除了随机误差对锚框准确性的影响,改善了锚框生成的质量,从而提高了行人检测框的定位精度。
具体地,在采用K-means++算法以所述初始样点为起点对所述样本数据进行聚类时,基于配置距离函数计算每两个点间的距离,并根据计算的距离对所述样本数据进行聚类;
其中,所述配置距离函数为:y=1-IoU=1- I/U,IoU= I/U;
y为所述配置距离函数的函数值,I为任意两个锚框的交集面积,U为任意两个锚框的并集面积,IoU为交并比。
需要说明的是,由于K-means算法主要用于解决大数据中的聚类问题,因此通常采用余弦距离作为距离函数,本实施例是对具有宽和高的锚框进行聚类,若采用余弦距离函数,将导致严重的宽高损失,因此,本案采用基于交并比的距离函数替代原有的余弦距离函数,能够有效避免锚框的宽高误差,使聚类效果更加准确,进一步保证了后续进行行人检测的准确性。
识别单元114对于所述第一特征图、所述第二特征图及所述第三特征图中的每个特征图,利用所述目标锚框在每个特征图上进行识别,输出与每个特征图对应的预测锚框坐标、每个预测锚框坐标的目标得分及行人预测结果,从所述预测锚框坐标中选择所述目标得分最高的预测锚框坐标作为行人的位置预测坐标。
其中,所述行人预测结果是一种二分类结果。
例如:当输出为1或Y时,确定在所述待检测图像中检测到行人,当输出为0或N时,确定在所述待检测图像中未检测到行人。
通过上述实施方式,能够在输出的每个特征图对应的预测锚框坐标中获取到得分最高的预测锚框坐标作为行人的位置预测坐标,以分值进行进一步筛选,再次提高了对行人检测的准确度。
映射单元115将所述位置预测坐标映射到所述待检测图像上,得到映射图,输出所述映射图及所述行人预测结果作为检测结果。
通过上述实施方式,能够在检测到有行人时,直观地将行人的位置标注在对应的待检测图像上,便于查看。
在本实施例中,所述映射单元115将所述位置预测坐标映射到所述待检测图像上,得到映射图包括:
确定偏移量;
根据所述偏移量转换所述位置预测坐标,得到转换坐标;
确定所述待检测图像的第一尺度,及确定所述位置预测坐标对应的特征图的第二尺度;
计算所述第一尺度与所述第二尺度的商作为系数;
将所述系数与所述位置预测坐标相乘,得到所述位置预测坐标在所述待检测图像上的对应位置以生成所述映射图。
通过上述实施方式,相当于将检测到的行人映射在原始图像上,便于用户直观地查看行人位置。
进一步地,响应于接收到的检测指令,确定与所述检测指令对应的终端;
获取所述终端的标识码;
以配置加密算法对所述标识码及所述检测结果进行加密处理,得到密文;
将所述密文发送至所述终端。
其中,所述配置加密算法可以包括对称加密算法及非对称加密算法等,具体可根据实际情况进行选择,本发明不限制。
通过上述实施方式,能够有效提高设备间交互的安全性。
需要说明的是,为了进一步防止数据被篡改,还可以将检测结果及行人检测模型存储于区块链。
由以上技术方案可以看出,本发明能够响应于接收到的待检测图像,对所述待检测图像进行尺度变换处理,得到目标图像,利用VoVNet网络提取所述目标图像的行人特征,采用VoVNet网络代替原有的DarkNet53网络进行特征提取,显著增强了行人集中的场景以及雾霾、雨天、夜间等环境条件差的场景下的特征表达能力,从而提高了行人检测的整体准确率和召回率,基于VoVNet的检测模型推理速度提升了一倍,而且效果更好,将所述行人特征输入至预先训练的行人检测模型,输出第一特征图、第二特征图及第三特征图,获取所述行人检测模型的目标锚框,对于所述第一特征图、所述第二特征图及所述第三特征图中的每个特征图,利用所述目标锚框在每个特征图上进行识别,输出与每个特征图对应的预测锚框坐标、每个预测锚框坐标的目标得分及行人预测结果,从所述预测锚框坐标中选择所述目标得分最高的预测锚框坐标作为行人的位置预测坐标,将所述位置预测坐标映射到所述待检测图像上,得到映射图,输出所述映射图及所述行人预测结果作为检测结果,进而基于人工智能手段对行人进行自动检测。
如图3所示,是本发明实现基于人工智能的行人检测方法的较佳实施例的电子设备的结构示意图。
所述电子设备1可以包括存储器12、处理器13和总线,还可以包括存储在所述存储器12中并可在所述处理器13上运行的计算机程序,例如基于人工智能的行人检测程序。
本领域技术人员可以理解,所述示意图仅仅是电子设备1的示例,并不构成对电子设备1的限定,所述电子设备1既可以是总线型结构,也可以是星形结构,所述电子设备1还可以包括比图示更多或更少的其他硬件或者软件,或者不同的部件布置,例如所述电子设备1还可以包括输入输出设备、网络接入设备等。
需要说明的是,所述电子设备1仅为举例,其他现有的或今后可能出现的电子产品如可适应于本发明,也应包含在本发明的保护范围以内,并以引用方式包含于此。
其中,存储器12至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、移动硬盘、多媒体卡、卡型存储器(例如:SD或DX存储器等)、磁性存储器、磁盘、光盘等。存储器12在一些实施例中可以是电子设备1的内部存储单元,例如该电子设备1的移动硬盘。存储器12在另一些实施例中也可以是电子设备1的外部存储设备,例如电子设备1上配备的插接式移动硬盘、智能存储卡(Smart Media Card, SMC)、安全数字(Secure Digital, SD)卡、闪存卡(Flash Card)等。进一步地,存储器12还可以既包括电子设备1的内部存储单元也包括外部存储设备。存储器12不仅可以用于存储安装于电子设备1的应用软件及各类数据,例如基于人工智能的行人检测程序的代码等,还可以用于暂时地存储已经输出或者将要输出的数据。
处理器13在一些实施例中可以由集成电路组成,例如可以由单个封装的集成电路所组成,也可以是由多个相同功能或不同功能封装的集成电路所组成,包括一个或者多个中央处理器(Central Processing unit,CPU)、微处理器、数字处理芯片、图形处理器及各种控制芯片的组合等。处理器13是所述电子设备1的控制核心(Control Unit),利用各种接口和线路连接整个电子设备1的各个部件,通过运行或执行存储在所述存储器12内的程序或者模块(例如执行基于人工智能的行人检测程序等),以及调用存储在所述存储器12内的数据,以执行电子设备1的各种功能和处理数据。
所述处理器13执行所述电子设备1的操作系统以及安装的各类应用程序。所述处理器13执行所述应用程序以实现上述各个基于人工智能的行人检测方法实施例中的步骤,例如图1所示的步骤。
示例性的,所述计算机程序可以被分割成一个或多个模块/单元,所述一个或者多个模块/单元被存储在所述存储器12中,并由所述处理器13执行,以完成本发明。所述一个或多个模块/单元可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述所述计算机程序在所述电子设备1中的执行过程。例如,所述计算机程序可以被分割成处理单元110、提取单元111、输入单元112、获取单元113、识别单元114、映射单元115。
上述以软件功能模块的形式实现的集成的单元,可以存储在一个计算机可读取存储介质中。上述软件功能模块存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机、计算机设备,或者网络设备等)或处理器(processor)执行本发明各个实施例所述基于人工智能的行人检测方法的部分。
所述电子设备1集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指示相关的硬件设备来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。
其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)。
进一步地,计算机可读存储介质可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序等;存储数据区可存储根据区块链节点的使用所创建的数据等。
本发明所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。
总线可以是外设部件互连标准(peripheral component interconnect,简称PCI)总线或扩展工业标准结构(extended industry standard architecture,简称EISA)总线等。该总线可以分为地址总线、数据总线、控制总线等。为便于表示,在图3中仅用一根箭头表示,但并不表示仅有一根总线或一种类型的总线。所述总线被设置为实现所述存储器12以及至少一个处理器13等之间的连接通信。
尽管未示出,所述电子设备1还可以包括给各个部件供电的电源(比如电池),优选地,电源可以通过电源管理装置与所述至少一个处理器13逻辑相连,从而通过电源管理装置实现充电管理、放电管理、以及功耗管理等功能。电源还可以包括一个或一个以上的直流或交流电源、再充电装置、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。所述电子设备1还可以包括多种传感器、蓝牙模块、Wi-Fi模块等,在此不再赘述。
进一步地,所述电子设备1还可以包括网络接口,可选地,所述网络接口可以包括有线接口和/或无线接口(如WI-FI接口、蓝牙接口等),通常用于在该电子设备1与其他电子设备之间建立通信连接。
可选地,该电子设备1还可以包括用户接口,用户接口可以是显示器(Display)、输入单元(比如键盘(Keyboard)),可选地,用户接口还可以是标准的有线接口、无线接口。可选地,在一些实施例中,显示器可以是LED显示器、液晶显示器、触控式液晶显示器以及OLED(Organic Light-Emitting Diode,有机发光二极管)触摸器等。其中,显示器也可以适当的称为显示屏或显示单元,用于显示在电子设备1中处理的信息以及用于显示可视化的用户界面。
应该了解,所述实施例仅为说明之用,在专利申请范围上并不受此结构的限制。
图3仅示出了具有组件12-13的电子设备1,本领域技术人员可以理解的是,图3示出的结构并不构成对所述电子设备1的限定,可以包括比图示更少或者更多的部件,或者组合某些部件,或者不同的部件布置。
结合图1,所述电子设备1中的所述存储器12存储多个指令以实现一种基于人工智能的行人检测方法,所述处理器13可执行所述多个指令从而实现:
响应于接收到的待检测图像,对所述待检测图像进行尺度变换处理,得到目标图像;
利用VoVNet网络提取所述目标图像的行人特征;
将所述行人特征输入至预先训练的行人检测模型,输出第一特征图、第二特征图及第三特征图;
获取所述行人检测模型的目标锚框;
对于所述第一特征图、所述第二特征图及所述第三特征图中的每个特征图,利用所述目标锚框在每个特征图上进行识别,输出与每个特征图对应的预测锚框坐标、每个预测锚框坐标的目标得分及行人预测结果,从所述预测锚框坐标中选择所述目标得分最高的预测锚框坐标作为行人的位置预测坐标;
将所述位置预测坐标映射到所述待检测图像上,得到映射图,输出所述映射图及所述行人预测结果作为检测结果。
具体地,所述处理器13对上述指令的具体实现方法可参考图1对应实施例中相关步骤的描述,在此不赘述。
在本发明所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。
因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附关联图标记视为限制所涉及的权利要求。
此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。系统权利要求中陈述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第二等词语用来表示名称,而并不表示任何特定的顺序。
最后应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或等同替换,而不脱离本发明技术方案的精神和范围。
Claims (10)
1.一种基于人工智能的行人检测方法,其特征在于,所述基于人工智能的行人检测方法包括:
响应于接收到的待检测图像,对所述待检测图像进行尺度变换处理,得到目标图像;
利用VoVNet网络提取所述目标图像的行人特征;
将所述行人特征输入至预先训练的行人检测模型,输出第一特征图、第二特征图及第三特征图;
获取所述行人检测模型的目标锚框;
对于所述第一特征图、所述第二特征图及所述第三特征图中的每个特征图,利用所述目标锚框在每个特征图上进行识别,输出与每个特征图对应的预测锚框坐标、每个预测锚框坐标的目标得分及行人预测结果,从所述预测锚框坐标中选择所述目标得分最高的预测锚框坐标作为行人的位置预测坐标;
将所述位置预测坐标映射到所述待检测图像上,得到映射图,输出所述映射图及所述行人预测结果作为检测结果。
2.如权利要求1所述的基于人工智能的行人检测方法,其特征在于,所述将所述行人特征输入至预先训练的行人检测模型,输出第一特征图、第二特征图及第三特征图包括:
对所述行人特征执行第一操作,得到第一特征,拼接所述第一特征及所述行人特征,得到第一拼接特征;
对所述第一拼接特征执行第二操作,得到第一特征图;
对所述第一拼接特征执行第三操作,得到第一中间特征,对所述第一中间特征执行所述第一操作,得到第二特征,拼接所述第二特征及所述行人特征,得到第二拼接特征;
对所述第二拼接特征执行所述第二操作,得到第二特征图;
对所述第二拼接特征执行所述第三操作,得到第二中间特征,对所述第二中间特征执行所述第一操作,得到第三特征,拼接所述第三特征及所述行人特征,得到第三拼接特征;
对所述第三拼接特征执行所述第二操作,得到第三特征图。
3.如权利要求2所述的基于人工智能的行人检测方法,其特征在于,所述第一操作包括第一运算及上采样运算,所述第一运算包括3*3卷积运算、批归一化运算及采用Mish激活函数的运算,所述第一运算执行第一预设次数;所述第二操作包括所述第一运算及1*1卷积运算,所述第一运算执行第二预设次数;所述第三操作包括所述第一运算,所述第一运算执行第三预设次数。
4.如权利要求1所述的基于人工智能的行人检测方法,其特征在于,在获取所述行人检测模型的目标锚框前,所述基于人工智能的行人检测方法还包括:
获取样本数据;
从所述样本数据中随机获取初始样点;
采用K-means++算法以所述初始样点为起点对所述样本数据进行聚类,得到指定数量的簇;
计算每个簇的中心点坐标作为所述目标锚框。
5.如权利要求4所述的基于人工智能的行人检测方法,其特征在于,在采用K-means++算法以所述初始样点为起点对所述样本数据进行聚类时,所述基于人工智能的行人检测方法还包括:
基于配置距离函数计算每两个点间的距离,并根据计算的距离对所述样本数据进行聚类;
其中,所述配置距离函数为:y=1-IoU=1- I/U,IoU= I/U;
y为所述配置距离函数的函数值,I为任意两个锚框的交集面积,U为任意两个锚框的并集面积,IoU为交并比。
6.如权利要求1所述的基于人工智能的行人检测方法,其特征在于,所述将所述位置预测坐标映射到所述待检测图像上,得到映射图包括:
确定偏移量;
根据所述偏移量转换所述位置预测坐标,得到转换坐标;
确定所述待检测图像的第一尺度,及确定所述位置预测坐标对应的特征图的第二尺度;
计算所述第一尺度与所述第二尺度的商作为系数;
将所述系数与所述位置预测坐标相乘,得到所述位置预测坐标在所述待检测图像上的对应位置以生成所述映射图。
7.如权利要求1所述的基于人工智能的行人检测方法,其特征在于,所述基于人工智能的行人检测方法还包括:
响应于接收到的检测指令,确定与所述检测指令对应的终端;
获取所述终端的标识码;
以配置加密算法对所述标识码及所述检测结果进行加密处理,得到密文;
将所述密文发送至所述终端。
8.一种基于人工智能的行人检测装置,其特征在于,所述基于人工智能的行人检测装置包括:
处理单元,用于响应于接收到的待检测图像,对所述待检测图像进行尺度变换处理,得到目标图像;
提取单元,用于利用VoVNet网络提取所述目标图像的行人特征;
输入单元,用于将所述行人特征输入至预先训练的行人检测模型,输出第一特征图、第二特征图及第三特征图;
获取单元,用于获取所述行人检测模型的目标锚框;
识别单元,用于对于所述第一特征图、所述第二特征图及所述第三特征图中的每个特征图,利用所述目标锚框在每个特征图上进行识别,输出与每个特征图对应的预测锚框坐标、每个预测锚框坐标的目标得分及行人预测结果,从所述预测锚框坐标中选择所述目标得分最高的预测锚框坐标作为行人的位置预测坐标;
映射单元,用于将所述位置预测坐标映射到所述待检测图像上,得到映射图,输出所述映射图及所述行人预测结果作为检测结果。
9.一种电子设备,其特征在于,所述电子设备包括:
存储器,存储至少一个指令;及
处理器,执行所述存储器中存储的指令以实现如权利要求1至7中任意一项所述的基于人工智能的行人检测方法。
10.一种计算机可读存储介质,其特征在于:所述计算机可读存储介质中存储有至少一个指令,所述至少一个指令被电子设备中的处理器执行以实现如权利要求1至7中任意一项所述的基于人工智能的行人检测方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011011567.0A CN111931729B (zh) | 2020-09-23 | 2020-09-23 | 基于人工智能的行人检测方法、装置、设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011011567.0A CN111931729B (zh) | 2020-09-23 | 2020-09-23 | 基于人工智能的行人检测方法、装置、设备及介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111931729A true CN111931729A (zh) | 2020-11-13 |
CN111931729B CN111931729B (zh) | 2021-01-08 |
Family
ID=73335054
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011011567.0A Active CN111931729B (zh) | 2020-09-23 | 2020-09-23 | 基于人工智能的行人检测方法、装置、设备及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111931729B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113468988A (zh) * | 2021-06-18 | 2021-10-01 | 南京润楠医疗电子研究院有限公司 | 一种基于ecg信号的多压力状态下身份识别方法 |
CN113488060A (zh) * | 2021-06-25 | 2021-10-08 | 武汉理工大学 | 一种基于变分信息瓶颈的声纹识别方法及系统 |
CN115471871A (zh) * | 2022-09-22 | 2022-12-13 | 四川农业大学 | 一种基于目标检测和分类网络的麻鸭性别分类识别方法 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106407943A (zh) * | 2016-09-28 | 2017-02-15 | 天津工业大学 | 金字塔层定位的快速dpm行人检测 |
WO2018003212A1 (ja) * | 2016-06-30 | 2018-01-04 | クラリオン株式会社 | 物体検出装置及び物体検出方法 |
KR20180067909A (ko) * | 2016-12-13 | 2018-06-21 | 한국전자통신연구원 | 영상 분할 장치 및 방법 |
CN108830205A (zh) * | 2018-06-04 | 2018-11-16 | 江南大学 | 基于改进全卷积网络的多尺度感知行人检测方法 |
CN110414464A (zh) * | 2019-08-05 | 2019-11-05 | 北京深醒科技有限公司 | 一种小尺度密集行人检测方法 |
EP3633553A1 (en) * | 2018-08-03 | 2020-04-08 | Huawei Technologies Co. Ltd. | Method, device and apparatus for training object detection model |
CN111027493A (zh) * | 2019-12-13 | 2020-04-17 | 电子科技大学 | 一种基于深度学习多网络软融合的行人检测方法 |
CN111027542A (zh) * | 2019-11-20 | 2020-04-17 | 天津大学 | 一种基于Faster RCNN算法改进的目标检测方法 |
WO2020114116A1 (zh) * | 2018-12-06 | 2020-06-11 | 深圳光启空间技术有限公司 | 一种基于密集人群的行人检测方法、存储介质及处理器 |
-
2020
- 2020-09-23 CN CN202011011567.0A patent/CN111931729B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018003212A1 (ja) * | 2016-06-30 | 2018-01-04 | クラリオン株式会社 | 物体検出装置及び物体検出方法 |
CN106407943A (zh) * | 2016-09-28 | 2017-02-15 | 天津工业大学 | 金字塔层定位的快速dpm行人检测 |
KR20180067909A (ko) * | 2016-12-13 | 2018-06-21 | 한국전자통신연구원 | 영상 분할 장치 및 방법 |
CN108830205A (zh) * | 2018-06-04 | 2018-11-16 | 江南大学 | 基于改进全卷积网络的多尺度感知行人检测方法 |
EP3633553A1 (en) * | 2018-08-03 | 2020-04-08 | Huawei Technologies Co. Ltd. | Method, device and apparatus for training object detection model |
WO2020114116A1 (zh) * | 2018-12-06 | 2020-06-11 | 深圳光启空间技术有限公司 | 一种基于密集人群的行人检测方法、存储介质及处理器 |
CN110414464A (zh) * | 2019-08-05 | 2019-11-05 | 北京深醒科技有限公司 | 一种小尺度密集行人检测方法 |
CN111027542A (zh) * | 2019-11-20 | 2020-04-17 | 天津大学 | 一种基于Faster RCNN算法改进的目标检测方法 |
CN111027493A (zh) * | 2019-12-13 | 2020-04-17 | 电子科技大学 | 一种基于深度学习多网络软融合的行人检测方法 |
Non-Patent Citations (1)
Title |
---|
BIN ZHANG等: "ACFD: Asymmetric Cartoon Face Detector", 《ARXIV》 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113468988A (zh) * | 2021-06-18 | 2021-10-01 | 南京润楠医疗电子研究院有限公司 | 一种基于ecg信号的多压力状态下身份识别方法 |
CN113468988B (zh) * | 2021-06-18 | 2024-04-05 | 南京润楠医疗电子研究院有限公司 | 一种基于ecg信号的多压力状态下身份识别方法 |
CN113488060A (zh) * | 2021-06-25 | 2021-10-08 | 武汉理工大学 | 一种基于变分信息瓶颈的声纹识别方法及系统 |
CN113488060B (zh) * | 2021-06-25 | 2022-07-19 | 武汉理工大学 | 一种基于变分信息瓶颈的声纹识别方法及系统 |
CN115471871A (zh) * | 2022-09-22 | 2022-12-13 | 四川农业大学 | 一种基于目标检测和分类网络的麻鸭性别分类识别方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111931729B (zh) | 2021-01-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111931729B (zh) | 基于人工智能的行人检测方法、装置、设备及介质 | |
CN111738212B (zh) | 基于人工智能的交通信号灯识别方法、装置、设备及介质 | |
CN111476225B (zh) | 基于人工智能的车内人脸识别方法、装置、设备及介质 | |
CN111476324B (zh) | 基于人工智能的交通数据标注方法、装置、设备及介质 | |
CN112699775A (zh) | 基于深度学习的证件识别方法、装置、设备及存储介质 | |
CN112052850A (zh) | 车牌识别方法、装置、电子设备及存储介质 | |
CN112396005A (zh) | 生物特征图像识别方法、装置、电子设备及可读存储介质 | |
CN113705462A (zh) | 人脸识别方法、装置、电子设备及计算机可读存储介质 | |
CN112446544A (zh) | 交通流预测模型训练方法、装置、电子设备及存储介质 | |
CN113033543A (zh) | 曲形文本识别方法、装置、设备及介质 | |
CN111950621A (zh) | 基于人工智能的目标数据检测方法、装置、设备及介质 | |
CN114677650B (zh) | 地铁乘客行人违法行为智能分析方法及装置 | |
CN111985449A (zh) | 救援现场图像的识别方法、装置、设备及计算机介质 | |
CN114187489B (zh) | 车辆异常驾驶风险检测方法、装置、电子设备及存储介质 | |
CN114708461A (zh) | 基于多模态学习模型的分类方法、装置、设备及存储介质 | |
CN112651782B (zh) | 基于缩放点积注意力的行为预测方法、装置、设备及介质 | |
CN112115890A (zh) | 基于人工智能的酒驾识别方法、装置、设备及介质 | |
CN112101191A (zh) | 基于边框注意力网络的表情识别方法、装置、设备及介质 | |
CN111488876B (zh) | 基于人工智能的车牌识别方法、装置、设备及介质 | |
CN115346095A (zh) | 视觉问答方法、装置、设备及存储介质 | |
CN112132037B (zh) | 基于人工智能的人行道检测方法、装置、设备及介质 | |
CN115239958A (zh) | 基于人工智能的轮毂损伤检测方法及相关设备 | |
CN112132140B (zh) | 基于人工智能的车品牌识别方法、装置、设备及介质 | |
CN112712797A (zh) | 语音识别方法、装置、电子设备及可读存储介质 | |
CN111652226B (zh) | 基于图片的目标识别方法、装置及可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |