CN114283321A - 一种目标车辆检测方法、装置及计算机 - Google Patents
一种目标车辆检测方法、装置及计算机 Download PDFInfo
- Publication number
- CN114283321A CN114283321A CN202111604574.6A CN202111604574A CN114283321A CN 114283321 A CN114283321 A CN 114283321A CN 202111604574 A CN202111604574 A CN 202111604574A CN 114283321 A CN114283321 A CN 114283321A
- Authority
- CN
- China
- Prior art keywords
- model
- vehicle
- ghostnet
- module
- image data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
本发明属于图像识别技术领域,具体涉及一种轻量车辆检测的方法、装置及计算机,包括如下步骤:获取待检测车辆环境图像数据;对所述待检测车辆环境图像数据进行图像处理,得到416×416的车辆环境图像数据;将YOLOv4网络结构算法与GhostNet模型结合,在GhostNet模型中加入注意力机制模块,得到GS‑YOLO模型;将所述416×416的车辆环境图像数据输入至所述GS‑YOLO模型,得到特征提取结果,获得图像中车辆的位置。本发明使用GhostNet结构思想,利用轻量操作降低模型计算量,压缩模型大小,在主干网络中增加注意力机制,筛选重要特征,提高模型的检测能力。
Description
技术领域
本发明属于图像识别技术领域,具体涉及一种目标车辆检测方法、装置及计算机。
背景技术
目标检测技术已经在人脸识别、车辆检测等多个领域内广泛应用。基于深度学习的目标检测算法主要分为一阶目标检测与两阶目标检测,前者采用端到端的方式直接获得物体位置并进行类别预测,计算速度快,但精度略有损失,典型算法有SSD、RetinaNet和YOLO系列。两阶目标检测算法相比于一阶网络可以更充分地提取特征,得到目标物体的精准位置和分类,代表算法有Fast R-CNN、Cascade R-CNN。此外CornerNet和CenterNet这些依靠关键点来检测目标的算法也受到了研究人员和业界的广泛关注。
基于深度学习的目标检测算法在车辆检测领域的应用一直是研究的热点。有学者使用Faster-RCNN网络检测车辆,用卷积特征代替人工提取特征,避免了传统检测问题中设计手工特征的问题;有学者使用Cascade RCNN算法进行目标检测,引入空洞卷积来减少下采样过程中的特征丢失,可以有效的检测出小目标和遮挡目标,改进后的网络准确率有所提高,但在速度方面略有损失;有学者将Darknet53改进为30个卷积层的卷积神经网络,使用K-means聚类选取车辆锚框,可以实现道路车辆的实时检测。有学者使用深度残差网络作为主干网络,利用软化非极大抑制解决车辆尺度变化大以及遮挡问题;有学者提出的Vehicle-YOLO模型是在YOLOv3的基础上采用7次深度残网络输出五种不同大小的特征图,对潜在车辆的边界框进行提取,从而提升车辆检测的精度和普适性;有学者将YOLOv3-tiny的主干网络与BiFPN特征金字塔结构相结合,并提出了一种新的上采样结构,来解决采样过程中信息丢失的问题;还有学者使用残差网络和反残差网络作为基础模型,使用Focalloss改进损失函数,平衡正负样本,提高了目标检测的准确度。
目前,车辆检测多用于智能网联和自动驾驶汽车感知交通环境信息,大量研究使用KITTI数据集完成模型训练与测试。通常这类数据集基于车载设备、从平视或小倾角俯视角度采集,与交通管理场景下的路侧监控图像视角存在明显差异,相关模型不能很好适应大倾角俯视视角下的车辆检测任务。
发明内容
为了解决现有技术存在的问题,本发明实施例提供以下技术方案:
第一方面,本申请提供一种轻量车辆检测的方法,包括如下步骤:
获取待检测车辆环境图像数据;
对所述待检测车辆环境图像数据进行图像处理,得到416×416的车辆环境图像数据;
将YOLOv4网络结构算法与GhostNet模型结合,在GhostNet模型中加入注意力机制模块,得到GS-YOLO模型;
将所述416×416的车辆环境图像数据输入至所述GS-YOLO模型,得到特征提取结果,获得图像中车辆的位置。
进一步地,基于YOLOv4网络结构算法结合GhostNet模型,在GhostNet模型中加入注意力机制模块,得到GS-YOLO模型,包括:
将GhostNet模型与所述YOLOv4网络结构融合,所述Ghost模型中的Ghost模块采用卷积核为1×1的传统卷积和深度卷积的轻量卷积。
进一步地,所述GhostNet模型包括多个Ghost BottleNeck模块,其中GhostBottleNeck模块包括多个Ghost模块。
进一步地,所述基于YOLOv4网络结构算法结合GhostNet模型,在GhostNet模型中加入注意力机制模块,得到GS-YOLO模型,包括:
在Ghost BottleNeck模块之间添加注意力机制模块,得到GS-YOLO模型。
进一步地,还包括多尺度检测模块,所述多尺度检测模块改进为在PANet网络中使用五次卷积块的3×3卷积,下采样过程中使用的3×3卷积以及在预测网络Yolo-head中使用3×3深度可分离卷积。
进一步地,还包括Fire Module模块,在SPPNet结构的输入输出部分加入FireModule模块。
第二发明,本申请提供一种轻量车辆检测的装置,包括:
获取模块,用于获取待检测车辆环境图像数据;
图像处理模块,用于对所述待检测车辆环境图像数据进行图像处理,得到416×416的车辆环境图像数据;
构建GS-YOLO模型模块,用于将YOLOv4网络结构算法与GhostNet模型结合,在GhostNet模型中加入注意力机制模块,得到GS-YOLO模型;
特征提取模块,将所述416×416的车辆环境图像数据输入至所述GS-YOLO模型,得到特征提取结果,所述特征结果包括图像中车辆的位置。第三方面,本发明提供一种计算机,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如第一方面任意一项所述的方法步骤。
本发明具有以下有益效果:
本发明实施例提供的本发明提供一种轻量车辆检测的方法,包括如下步骤:获取待检测车辆环境图像数据;对所述待检测车辆环境图像数据进行图像处理,得到416×416的车辆环境图像数据;将YOLOv4网络结构算法与GhostNet模型结合,在GhostNet模型中加入注意力机制模块,得到GS-YOLO模型;将所述416×416的车辆环境图像数据输入至所述GS-YOLO模型,得到特征提取结果,所述特征结果包括图像中车辆的位置。本发明使用GhostNet结构思想,利用轻量操作降低模型计算量,压缩模型大小,在主干网络中增加注意力机制,筛选重要特征,提高模型的检测能力。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例中一种轻量车辆检测的方法的流程示意图。
图2是本发明一个实施例提供的一种GS-YOLO网结构图络结构图。
图3是本发明一个实施例提供的GhostNet Bottleneck结构示意图。
图4是本发明一个实施例所提供的包含注意力机制模块的Bottleneck结构示意图。
图5是本发明一个实施例提供的Fire Module结构示意图。
图6是本发明一个实施例提供的使用GS-YOLO和YOLOv4进行车辆检测的结果对比图。
图7是本发明一个实施例提供的一种轻量车辆检测的装置结构示意图。
图8是本发明一个实施例提供的一种计算机结构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将对本发明的技术方案进行详细的描述。显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所得到的所有其它实施方式,都属于本发明所保护的范围。
目前,车辆检测多用于智能网联和自动驾驶汽车感知交通环境信息,大量研究使用KITTI数据集完成模型训练与测试。通常这类数据集基于车载设备、从平视或小倾角俯视角度采集,与交通管理场景下的路侧监控图像视角存在明显差异,相关模型不能很好适应大倾角俯视视角下的车辆检测任务,图1为本申请一个实施例提供的一种轻量车辆检测的方法的流程示意图,如图1所示,该方法包括如下步骤:
步骤S101、获取待检测车辆环境图像数据;
具体的,在一个实施例中,采用UA-DETRAC车辆数据集,该数据集拍摄于北京和天津的24个过街天桥,以俯视角度拍摄共100个交通场景,并标注了8250个车辆和121万个目标对象。实验在全部场景中随机抽取80%作为训练集,剩余20%的样本作为测试集。
步骤S102、对所述待检测车辆环境图像数据进行图像处理,得到416×416的车辆环境图像数据;
为了验证本申请改进点对模型性能的影响,待检测车辆环境图像数据进行图像处理,得到416×416的车辆环境图像数据;使得输入图像尺寸均为416×416。
步骤S103、将YOLOv4网络结构算法与GhostNet模型结合,在GhostNet模型中加入注意力机制模块,得到GS-YOLO模型;
使用GhostNet结构思想,利用轻量操作降低通道,增强特征,在主干网络中增加注意力机制模块,筛选重要特征,提高模型的检测能力。
注意力机制模块即SE(Squeeze-and-Excitation)模块,使用SE模块可以筛选出更重要的特征的权重,使得重要特征的权重量增加,无用特征的权重量减小。在经过通注意力机制模块“过滤”之后还进行上采样、下采样操作进一步提取特征。
其中,注意力机制模块为本领域常用模块,本申请未对其进行改进。
步骤S104、将所述416×416的车辆环境图像数据输入至所述GS-YOLO模型,得到特征提取结果,所述特征结果包括图像中车辆的位置。
可以理解为,本发明实施例提供的一种轻量车辆检测的方法,包括如下步骤:获取待检测车辆环境图像数据;对所述待检测车辆环境图像数据进行图像处理,得到416×416的车辆环境图像数据;基于YOLOv4网络结构算法构建改进的YOLOv4结构,得到GS-YOLO模型;将所述416×416的车辆环境图像数据输入至所述GS-YOLO模型,得到特征提取结果,所述特征结果包括图像中车辆的位置。本发明使用GhostNet结构思想,利用轻量操作降低模型计算量,压缩模型大小,在主干网络中增加注意力机制,筛选重要特征,提高模型的检测能力。
在一个实施例中,请参阅图2,图2是本申请一个实施例提供的GS-YOLO网络结构图,如图2所示,基于YOLOv4网络结构算法结合GhostNet模型,在GhostNet模型中加入注意力机制模块,得到GS-YOLO模型,包括:
将GhostNet模型与所述YOLOv4网络结构融合,所述GhostNet模型中的Ghost模块采用卷积核为1×1的传统卷积和深度卷积的轻量卷积。
Ghostnet是一个轻量化的主干网络,计算量少,极大地压缩了模型占用内存大小。
本发明在YOLOv4网络结构基础上揭示了一种轻量车辆检测模型GS-YOLO。GS-YOLO在保证检测精度基本不变的情况下,一定程度简化了网络结构和计算量。具体改进如图3所示,图3是本发明一个实施例提供的GhostNet Bottleneck结构示意图,主干特征网络选用GhostNet,对输入的待检测车辆图像进行初步特征提取,其中Ghost Module采用卷积核为1×1的传统卷积和深度卷积的轻量操作。
其中,GhostNet模型为本领域常用模块,本申请未对其进行改进。
一些实施例中,所述GhostNet模型包括多个Ghost BottleNeck模块,其中GhostBottleNeck模块包括多个Ghost模块。
在一个实施例中,如图4所示,图4是本发明一个实施例所提供的包含注意力机制模块(即SE模块)的Bottleneck结构示意图,所述基于YOLOv4网络结构算法结合GhostNet模型,在GhostNet模型中加入注意力机制模块,得到GS-YOLO模型,包括:在Ghost BottleNeck模块之间添加注意力机制模块,得到GS-YOLO模型。
在目标检测任务中,被测目标的大小经常是不固定的,自动驾驶相关检测任务可能要同时检测大卡车与小狗;工业质检相关检测任务可能要同时检测布料的大面积撕裂与小穿孔;医疗病灶检测任务可能要同时检测大小不一的病灶。在被测物体尺度相差极大时,模型通常难以对极大和极小的物体同时进行检测。
首先,要知道为什么被测物体尺度相差过大会造成模型精度降低。物体检测领域中各个模型的骨干网络,无外乎不是使用多层卷积逐步提取图像深层信息,生成多层特征图,并基于深层特征图做定位、分类等进一步处理。
作为上述方法的进一步改建,本申请还包括多尺度检测模块,所述多尺度检测模块涉及的改动为在现有的多尺度检测模块中的PANet网络中使用五次卷积块的3×3卷积,在下采样过程中使用的3×3卷积以及在预测网络Yolo-head中使用3×3深度可分离卷积。
具体地,416×416尺寸的数据经过多次卷积操作之后得到的52×52、26×26和13×13三个尺寸的特征图,多尺度检测模块是通过yolo-head部分的三个检测头进行的,本申请检测52×52、26×26和13×13三个尺寸的特征图。
在多尺度检测部分使用深度可分离卷积代替传统卷积,降低大量卷积操作产生的计算量。极大地减少了设备的资源消耗,提升了模型性价比。
作为上述方法的进一步改进,请参阅图5,图5是本发明一个实施例提供的FireModule结构示意图,请参阅图5,具体地,在SPPNet结构的输入输出部分加入Fire Module模块。
Fire Module模块的输入的数据是上一部得到的特征图,例如SPPNet上面的FireModule输入的数据是尺寸为13×13×160的特征图,输出的特征图将传至SPPNet结构中。
其中,Fire Module模块为本领域常用模块,本申请未对其进行改进。
由于多尺度预测部分卷积操作内存占用多,计算复杂,借鉴SqueezeNet的FireModule结构和深度可分离卷积,对加强特征提取网络和预测网络进行优化,有效地解决原有模型内存占用大和特征提取不充分的问题。
本申请还提供了实验分析过程及实验数据。
具体地,采用UA-DETRAC车辆数据集,该数据集拍摄于北京和天津的24个过街天桥,以俯视角度拍摄共100个交通场景,并标注了8250个车辆和121万个目标对象。实验在全部场景中随机抽取80%作为训练集,剩余20%的样本作为测试集。
本实验在Windows10操作系统下进行,使用Python3.7进行编译和测试,对应开发工具为PyCharm2019.3.4,CPU为Intel Xeon Silver 4126,GPU为NVIDIA TITAN RTX。实验参数设置如表1所示,其中初始学习率为0.001,并在50epoch后降低为0.0001。
表1实验参数选取
表2是网络模型使用深度可分离卷积和Fire Module前后的参数量对比,其中模型YOLOv4和YOLOv5是未做任何改动的初始模型,Ghost-A仅将YOLOv4的主干网络替换为GhostNet,Ghost-B是在Ghost-A的基础上,对强特征提取网络和预测网络所有的3×3卷积中使用深度可分离卷积的模型,GS-YOLO是本文改进后的模型。
表2不同模型的参数量对比
为了验证这些改进点对模型性能的影响,将GS-YOLO与表3中的模型进行消融实验,根据表2的参数配置训练参数,输入尺寸均为416×416,结果如表3所示。
表3不同模型的检测结果对比
需要说明的是,模型大小是指模型占用存储空间字节数。由表3可知,使用GhostNet替换主干网络CSPDarknet53模型后,模型占用内存降低38.53%,精度增加0.14%,CPU检测速度提高49.02%。在多尺度检测部分,使用深度可分离卷积代替传统卷积进一步减少了71.71%的内存占用空间,CPU和GPU检测速度分别提升66.70%和1.34%,精度损失仅为0.98%。在加强特征提取网络引入Fire Module后,检测精度提升1.29%,同时模型大小降低至34.77MB,相较于原始YOLOv4占用内存244.40MB,减小了约86%的内存空间,极大地减少了设备的资源消耗,提升了模型性价比。
根据Roofline Model理论,模型实际测试性能会受到计算平台的算力和带宽影响,当模型计算强度I小于平台计算强度上限Imax的时候,模型性能受到平台带宽限制,处于带宽瓶颈区域(Memory-Bound);当模型计算强度I大于平台计算强度上限Imax的时候,模型处于计算瓶颈区域(Compute-Bound),虽受到平台算力限制,但可以充分利用平台的全部算力。
根据第3.2小节相关内容和NVIDIA官网提供的数据可知,NVIDIA TITAN RTX的算力π为16.3TFLOP/s,带宽β为672GB/s,平台计算强度上限Imax约为22.6FLOPs/Byte。表5为各模型的理论性能及计算强度。
表4性能参数及计算强度
Table 5 Performance parameters and operational intensity
经过对比发现GS-YOLO在GPU上运行时处于带宽瓶颈区域,性能受到平台带宽限制,无法像YOLOv4一样完全利用平台的全部算力,所以推理时间减少效果不明显。但在CPU处理器上运行时,GS-YOLO的性能不再受带宽限制,速度提升约83%,说明GS-YOLO更适合用于CPU或资源不足的设备上。
为了更直观地展示检测结果,请参阅图6,图6是使用GS-YOLO和YOLOv4进行车辆检测的结果对比图,如图6所示,(a)(c)为YOLOv4的结果,(b)(d)为GS-YOLO的结果。测试图像分别选取白天和夜间不同场景,从图中标出的目标框可以看出模型轻量化操作前后,目标检测准确率几乎没有差异。
请参阅图7,图7是本发明一个实施例提供的一种轻量车辆检测的装置结构示意图,如图7所示,该装置包括:
获取模块701,用于获取待检测车辆环境图像数据;
图像处理模块702,用于对所述待检测车辆环境图像数据进行图像处理,得到416×416的车辆环境图像数据;
构建GS-YOLO模型模块703,用于将YOLOv4网络结构算法与GhostNet模型结合,在GhostNet模型中加入注意力机制模块,得到GS-YOLO模型;
特征提取模块704,将所述416×416的车辆环境图像数据输入至所述GS-YOLO模型,得到特征提取结果,所述特征结果包括图像中车辆的位置、车辆的类别以及车辆的数量。
关于上述实施例中的轻量车辆检测的装置,其中各个模块执行操作的具体方式已经在上述相关方法的实施例中进行了详细描述,此处将不做详细阐述说明。
请参阅图8,图8是本申请一个实施例中一种计算机结构示意图,如图8所示,包括存储器801、处理器802以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器802执行所述计算机程序时实现上任意一项所述的方法步骤。
关于上述实施例中的计算机,其处理器802执行存储器801中程序的具体方式已经在上述相关方法的实施例中进行了详细描述,此处将不做详细阐述说明。
可以理解的是,上述各实施例中相同或相似部分可以相互参考,在一些实施例中未详细说明的内容可以参见其他实施例中相同或相似的内容。
需要说明的是,在本申请的描述中,术语“第一”、“第二”等仅用于描述目的,而不能理解为指示或暗示相对重要性。此外,在本申请的描述中,除非另有说明,“多个”的含义是指至少两个。
流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更多个用于实现特定逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本申请的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本申请的实施例所属技术领域的技术人员所理解。
应当理解,本申请的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。例如,如果用硬件来实现,和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。
本技术领域的普通技术人员可以理解实现上述实施例方法携带的全部或部分步骤是可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,该程序在执行时,包括方法实施例的步骤之一或其组合。
此外,在本申请各个实施例中的各功能单元可以集成在一个处理模块中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。所述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。
上述提到的存储介质可以是只读存储器,磁盘或光盘等。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本申请的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
尽管上面已经示出和描述了本申请的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本申请的限制,本领域的普通技术人员在本申请的范围内可以对上述实施例进行变化、修改、替换和变型。
Claims (8)
1.一种轻量车辆检测的方法,其特征在于,包括如下步骤:
获取待检测车辆环境图像数据;
对所述待检测车辆环境图像数据进行图像处理,得到416×416的车辆环境图像数据;
将YOLOv4网络结构算法与GhostNet模型结合,在GhostNet模型中加入注意力机制模块,得到GS-YOLO模型;
将所述416×416的车辆环境图像数据输入至所述GS-YOLO模型,得到特征提取结果,获得图像中车辆的位置。
2.根据权利要求1所述的方法,其特征在于,基于YOLOv4网络结构算法结合GhostNet模型,在GhostNet模型中加入注意力机制模块,得到GS-YOLO模型,包括:
将GhostNet模型与所述YOLOv4网络结构融合,所述GhostNet模型中的Ghost模块采用卷积核为1×1的传统卷积和深度卷积的轻量卷积。
3.根据权利要求2所述的方法,其特征在于,所述GhostNet模型包括多个GhostBottleNeck模块,其中Ghost BottleNeck模块包括多个Ghost模块。
4.根据权利要求2所述的方法,其特征在于,所述基于YOLOv4网络结构算法结合GhostNet模型,在GhostNet模型中加入注意力机制模块,得到GS-YOLO模型,包括:
在Ghost BottleNeck模块中添加注意力机制模块,得到GS-YOLO模型。
5.根据权利要求1所述的方法,其特征在于,还包括多尺度检测模块,所述多尺度检测模块改进为PANet网络中使用五次卷积块的3×3卷积,下采样过程中使用的3×3卷积以及在预测网络Yolo-head中使用3×3深度可分离卷积。
6.根据权利要求2所述的方法,其特征在于,还包括Fire Module模块,在SPPNet结构的输入输出部分加入Fire Module模块。
7.一种轻量车辆检测的装置,其特征在于,包括:
获取模块,用于获取待检测车辆环境图像数据;
图像处理模块,用于对所述待检测车辆环境图像数据进行图像处理,得到416×416的车辆环境图像数据;
构建GS-YOLO模型模块,用于将YOLOv4网络结构算法与GhostNet模型结合,在GhostNet模型中加入注意力机制模块,得到GS-YOLO模型;
目标检测模块,将所述416×416的车辆环境图像数据输入至所述GS-YOLO模型,得到特征提取结果,获得图像中车辆的位置。
8.一种计算机,其特征在于,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如权利要求1至6任意一项所述的方法步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111604574.6A CN114283321A (zh) | 2021-12-24 | 2021-12-24 | 一种目标车辆检测方法、装置及计算机 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111604574.6A CN114283321A (zh) | 2021-12-24 | 2021-12-24 | 一种目标车辆检测方法、装置及计算机 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114283321A true CN114283321A (zh) | 2022-04-05 |
Family
ID=80875485
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111604574.6A Pending CN114283321A (zh) | 2021-12-24 | 2021-12-24 | 一种目标车辆检测方法、装置及计算机 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114283321A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115082751A (zh) * | 2022-05-07 | 2022-09-20 | 长春工业大学 | 一种基于改进YOLOv4的可移动机器人目标检测方法 |
CN116189115A (zh) * | 2023-04-24 | 2023-05-30 | 青岛创新奇智科技集团股份有限公司 | 车型识别方法、电子设备和可读存储介质 |
-
2021
- 2021-12-24 CN CN202111604574.6A patent/CN114283321A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115082751A (zh) * | 2022-05-07 | 2022-09-20 | 长春工业大学 | 一种基于改进YOLOv4的可移动机器人目标检测方法 |
CN116189115A (zh) * | 2023-04-24 | 2023-05-30 | 青岛创新奇智科技集团股份有限公司 | 车型识别方法、电子设备和可读存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114120102A (zh) | 边界优化的遥感图像语义分割方法、装置、设备及介质 | |
CN114283321A (zh) | 一种目标车辆检测方法、装置及计算机 | |
Li et al. | Automatic bridge crack identification from concrete surface using ResNeXt with postprocessing | |
CN111179273A (zh) | 一种基于深度学习的白细胞核质自动分割方法及系统 | |
WO2021185121A1 (zh) | 模型生成方法、目标检测方法、装置、设备及存储介质 | |
CN111027505A (zh) | 一种基于显著性检测的分层多目标跟踪方法 | |
CN114037834B (zh) | 一种基于振动信号和rgb图像融合的语义分割方法及装置 | |
CN116502175A (zh) | 一种图神经网络故障诊断方法、装置和存储介质 | |
CN112927237A (zh) | 基于改进SCB-Unet网络的蜂窝肺病灶分割方法 | |
CN110728675A (zh) | 肺结节分析装置、模型训练方法、装置及分析设备 | |
CN114596503A (zh) | 一种基于遥感卫星影像的道路提取方法 | |
CN111951260B (zh) | 基于部分特征融合卷积神经网络实时目标计数系统及方法 | |
CN113269119A (zh) | 一种夜间车辆检测方法及装置 | |
CN110991421B (zh) | 卡口抓拍图像车辆检测方法、计算机存储介质及电子设备 | |
CN110659724B (zh) | 基于目标尺度的目标检测深度卷积神经网络构建方法 | |
CN115456957B (zh) | 一种全尺度特征聚合的遥感影像变化检测的方法 | |
Qin et al. | Dynamically aggregating MLPs and CNNs for skin lesion segmentation with geometry regularization | |
Li et al. | Incremental learning of infrared vehicle detection method based on SSD | |
CN116310748A (zh) | 一种自动驾驶场景恢复及自动驾驶原型测试方法和系统 | |
CN111161284B (zh) | 一种基于PSPNet与HED相结合的医学图像骨骼分割方法 | |
CN112446292B (zh) | 一种2d图像显著目标检测方法及系统 | |
CN115452376A (zh) | 基于改进轻量级深度卷积神经网络的轴承故障诊断方法 | |
CN111583655B (zh) | 一种车流量检测方法、装置、设备及介质 | |
CN114821383A (zh) | 基于轻量化网络的视频运动目标检测方法及系统 | |
CN111126271B (zh) | 卡口抓拍图像车辆检测方法、计算机存储介质及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |