CN114973168A - 一种跨场景交通目标检测方法和系统 - Google Patents

一种跨场景交通目标检测方法和系统 Download PDF

Info

Publication number
CN114973168A
CN114973168A CN202210914306.2A CN202210914306A CN114973168A CN 114973168 A CN114973168 A CN 114973168A CN 202210914306 A CN202210914306 A CN 202210914306A CN 114973168 A CN114973168 A CN 114973168A
Authority
CN
China
Prior art keywords
target detection
layer
traffic
scene image
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210914306.2A
Other languages
English (en)
Inventor
张波
张超
万亚东
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Science and Technology Beijing USTB
Original Assignee
University of Science and Technology Beijing USTB
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Science and Technology Beijing USTB filed Critical University of Science and Technology Beijing USTB
Priority to CN202210914306.2A priority Critical patent/CN114973168A/zh
Publication of CN114973168A publication Critical patent/CN114973168A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/54Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Abstract

本发明涉及一种跨场景交通目标检测方法和系统。所述跨场景交通目标检测方法中,通过采用在Faster RCNN模型中引入域分类器构建得到的自适应目标检测模型对交通场景图像进行检测,得到交通目标检测结果,能够解决现有技术存在的使用某一个交通场景图片训练得到的目标检测模型实际应用于其他真实场景时出现的检测性能大幅下降的问题。

Description

一种跨场景交通目标检测方法和系统
技术领域
本发明涉及目标检测技术领域,特别是涉及一种跨场景交通目标检测方法和系统。
背景技术
交通目标检测作为道路交通场景重要的研究课题和方向,为目标车辆的追踪识别等提供了强有力的支持和支撑;当前通用目标检测技术(如Faster RCNN、YOLO等)在使用大量已经被人工标注的交通场景图片进行训练后,对于背景、光线、天气等存在较小差异的新图片,能够较好的对其中包含的交通目标进行检测和识别;但这种通用的目标检测技术在遇到较大场景差异(如天气、光线、角度等)时,检测性能会出现极大的下降。在真实交通场景中,很难实现收集所有交通场景的图像并对其进行大量的人工标注去训练鲁棒性极高的目标检测模型,所以如何将在某一交通场景下训练好的目标检测模型通过无监督的方式,迁移至存在较大差异的其他场景,且不需要对该场景的图像进行手工标注,成为了本领域亟待解决的技术问题。
发明内容
本发明的目的是提供一种跨场景交通目标检测方法和系统,能够解决现有技术存在的使用某一个交通场景图片训练得到的目标检测模型实际应用于其他真实场景时出现的检测性能大幅下降的问题。
为实现上述目的,本发明提供了如下方案:
一种跨场景交通目标检测方法,包括:
获取训练好的自适应目标检测模型和待检测交通场景图像;所述自适应目标检测模型为在Faster RCNN模型中引入域分类器构建得到的检测模型;所述Faster RCNN模型包括依次连接的基准残差网络、区域生成网络和全连接层;所述域分类器的输入为所述Faster RCNN模型中基准残差网络的输出;
将所述待检测交通场景图像输入至所述训练好的自适应目标检测模型中,输出交通目标检测结果。
优选地,所述域分类器,包括依次连接的梯度反转层、多层卷积层、全局池化层和全连接层。
优选地,所述多层卷积层包括:第一卷积层、第二卷积层和第三卷积层;
所述第一卷积层的卷积核、所述第二卷积层的卷积核和所述第三卷积层的卷积核均为m×m,m为卷积核的数量;
所述第一卷积层的输入通道数为第一数值,所述第一卷积层的输出通道数为第二数值;所述第二卷积层的输入通道数为所述第二数值,所述第二卷积层的输出通道数为第三数值;所述第三卷积层的输入通道数和所述第三卷积层的输出通道数均为第三数值。
优选地,所述全局池化层的输出节点数和所述全连接层的输入节点数均为第三数值;所述全连接层的输出节点数为第四数值。
优选地,所述第一数值为1024;所述第二数值为512;所述第三数值为128;所述第四数值为2。
优选地,所述自适应目标检测模型的训练过程为:
获取原场景图像和目标场景图像;所述原场景图像为带有标注的交通场景图像;所述目标场景图像为不带标注的交通场景图像;
采用所述原场景图像和所述目标场景图像训练所述自适应目标检测模型,得到训练好的自适应目标检测模型。
优选地,在采用所述原场景图像和所述目标场景图像训练所述自适应目标检测模型的过程中,使用焦点损失函数训练所述域分类器。
根据本发明提供的具体实施例,本发明公开了以下技术效果:
本发明提供的跨场景交通目标检测方法中,通过采用在Faster RCNN模型中引入域分类器构建得到的自适应目标检测模型对交通场景图像进行检测,得到交通目标检测结果,能够解决现有技术存在的使用某一个交通场景图片训练得到的目标检测模型实际应用于其他真实场景时出现的检测性能大幅下降的问题。
对应于上述提供的跨场景交通目标检测方法,本发明还提供了一种跨场景交通目标检测系统,该系统包括:
获取模块,用于获取训练好的自适应目标检测模型和待检测交通场景图像;所述自适应目标检测模型为在Faster RCNN模型中引入域分类器构建得到的检测模型;所述Faster RCNN模型包括依次连接的基准残差网络、区域生成网络和全连接层;所述域分类器的输入为所述Faster RCNN模型中基准残差网络的输出;所述域分类器,包括依次连接的梯度反转层、多层卷积层、全局池化层和全连接层;
检测模块,用于将所述待检测交通场景图像输入至所述训练好的自适应目标检测模型中,输出交通目标检测结果。
因本发明提供的跨场景交通目标检测系统实现的技术效果与上述提供的跨场景交通目标检测方法实现的技术效果相同,故在此不再进行赘述。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明提供的跨场景交通目标检测方法的流程图;
图2为本发明实施例提供的Faster RCNN模型的数据传输流程示意图;
图3为本发明实施例提供的自适应目标检测模型的数据传输流程示意图;
图4为本发明实施例提供的使用域分类器将使用原场景训练得到的Faster RCNN模型通过无监督的方式迁移至目标场景的数据处理流程图;
图5为本发明提供的跨场景交通目标检测系统的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明的目的是提供一种跨场景交通目标检测方法和系统,能够解决现有技术存在的使用某一个交通场景图片训练得到的目标检测模型实际应用于其他真实场景时出现的检测性能大幅下降的问题。
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
如图1所示,本发明提供的一种跨场景交通目标检测方法,包括:
步骤100:获取训练好的自适应目标检测模型和待检测交通场景图像。自适应目标检测模型为在Faster RCNN模型中引入域分类器构建得到的检测模型。本发明使用的Faster RCNN作为基础模型,Faster RCNN由基准残差网络(ResNet50或ResNet101等)、区域生成网络和全连接层构成,Faster RCNN模型输出为输入图像中包含的目标类别和具体的位置坐标,如图2所示。在Faster RCNN的第二个残差模块结束后(即基准残差网络之后),引出域分类器,如图3所示。
域分类器的输出为Faster RCNN模型中区域生成网络的输入。如图3所示,域分类器包括依次连接的梯度反转层、多层卷积层、全局池化层和全连接层。具体的,本发明将第二个残差后的的输出特征输入的一个梯度反转层(GRL)中,具体的,在正向传播中,GRL相当于实现一个恒等变化,特征经过GRL层时不发生任何变化,直接进入后续的网络模型。在反向传播的过程中,通过域分类损失函数计算的梯度进行反向传播并经过GRL层时,相当于将反向传播回去的梯度乘上一个负数,再向上传播。然后,分别设计了下表1中的第二至第六层,特征从第二层到第六层正向传播,具体每一层的网络参数如表1所示。
Figure 955395DEST_PATH_IMAGE001
步骤101:将待检测交通场景图像输入至训练好的自适应目标检测模型中,输出交通目标检测结果。
为了进一步提高所构建自适应目标检测模型的鲁棒性,需要对自适应目标检测模 型进行训练。为了使得模型从原场景图像中学习得到的特征在目标场景越来越通用,使得 模型真正用于目标场景中交通目标检测时性能尽可能下降的更少,在对上述构建的自适应 目标检测模型训练过程中,本发明使用带有标注信息的原交通场景的图像(
Figure 544639DEST_PATH_IMAGE002
,表示S中有N张图片)和目标交通场景的图像(
Figure 996480DEST_PATH_IMAGE003
)对 自适应目标检测模型进行训练。
当前互联网上已经公开了较多具备完备标注信息的真实交通场景目标数据集,类 似CityScape、DeTrac、KITTI等,在本发明中,可以选取任意互联网上已经公开的具有完备 标注的公开数据集作为原场景交通目标数据S,对于S中的每一张图像
Figure 922848DEST_PATH_IMAGE004
都有对应的位置标 注信息
Figure 940483DEST_PATH_IMAGE005
在具体的自适应目标检测模型训练过程中,本发明会先给自适应目标检测模型输入一个原场景图像xs,再输入一个目标场景图像xt,在特征空间中,容易区分的目标样本距离源域样本非常远,而难以区分的目标样本距离源域样本很近,所以本发明使用域分类器去对齐目标域和源域全局特征,以忽略容易区分的样本,而去重点关注那些难以区分的样本。
本发明对于原场景交通目标数据S,可以使用Faster RCNN已开源的方式计算目标 检测模型的损失函数
Figure 432119DEST_PATH_IMAGE006
Figure 636836DEST_PATH_IMAGE007
其中,FASTER指代原始Faster RCNN中所有涉及到的运算,这是已开源算法中的内容,不是本发明的重点,在此不做赘述。
在对自适应目标检测模型进行训练的过程中,采用焦点损失函数(Focal Loss,FL)训练域分类器。FL侧重的点是根据样本分辨的难以程度给样本对应的损失添加权重。在分类任务中,最经典的损失函数是标准的交叉熵函数(CE),以二分类为例,首先定义p为模型预估的一个样本xs或者样本xt属于正例(y=1)的概率,则可以通过如下方式定义概率为CE:
Figure 242260DEST_PATH_IMAGE008
为了统一p,1-p,定义pt函数为:
Figure 707877DEST_PATH_IMAGE009
定义一个减函数,当pt函数提升时,函数值随之变小,定义为f(pt):
Figure 107765DEST_PATH_IMAGE010
其中,
Figure 534199DEST_PATH_IMAGE011
为超参数,一般定义为0.1。超参数
Figure 67948DEST_PATH_IMAGE011
是由原场景图像经过残差模块之后的 特征
Figure 997858DEST_PATH_IMAGE012
和目标场景图像经过残差模块之后的特征
Figure 693282DEST_PATH_IMAGE013
间的特征距离进行确定,具体的:
首先计算特征
Figure 607011DEST_PATH_IMAGE012
和特征
Figure 554238DEST_PATH_IMAGE013
之间的协方差(记作G),再计算特征
Figure 728868DEST_PATH_IMAGE012
和特征
Figure 733208DEST_PATH_IMAGE013
之 间的均值(记作
Figure 134234DEST_PATH_IMAGE014
,最后得到从特征
Figure 9786DEST_PATH_IMAGE012
和特征
Figure 914288DEST_PATH_IMAGE013
的马氏距离M,并用这个马氏距离来标识 超参数
Figure 951514DEST_PATH_IMAGE015
,则有:
Figure 308677DEST_PATH_IMAGE016
每次输入一个新的原场景图像和一个新的目标场景图像,超参数
Figure 722341DEST_PATH_IMAGE015
的值都会根据 实际两个图像经过残差之后的特征距离进行动态调整。
那么当输入域分类的样本来自原场景,即为xs时,则域分类损失函数LC可定义为LC(xs):
Figure 481350DEST_PATH_IMAGE017
其中,F指代原始Faster RCNN的前两个残差模块,D指代域分类器,
Figure 955056DEST_PATH_IMAGE018
指代 将前两个残差门模块的输出特征
Figure 658570DEST_PATH_IMAGE019
输入域分类器后的输出特征。
那么当输入域分类的样本来自目标场景,即为xt时,则域分类损失函数可定义为LC(xt):
Figure 485712DEST_PATH_IMAGE020
当模型输入为域分类器的样本来自原场景,即为
Figure 489440DEST_PATH_IMAGE021
时,整个模型按照如下方式进 行优化:
Figure 743835DEST_PATH_IMAGE022
当模型输入为域分类的样本来自目标场景,即为xt时,整个模型按照如下方式进行优化:
Figure 200224DEST_PATH_IMAGE023
其中,L为优化损失函数。
目标检测网络和域分类器结合来改善复杂交通场景下的检测任务,是这一实际问题的常规解决思路,但在这一个常规的解决思路下,存在各种方向不同且效果不同的解决思路。本发明提出了使用焦点损失来训练域分类器,焦点损失的侧重点是根据样本的分辨难易程度,给样本对应的损失添加权重,类似于人脑的学习机制,先学习简单的样本,随着学习的不断深入,慢慢开始接触难样本。
基于上述描述的自适应目标检测模型的训练过程,真实使用场景中,使用具有完备标注信息的原场景样本和无标注信息的目标场景样本,对自适应目标检测模型进行训练后,训练好的自适应目标检测模型对于无标注信息的目标场景样本具有很好的鲁棒性,能够较好的检测识别目标场景图片中包含的交通目标。Faster RCNN是业界非常经典且通用的目标检测模型,本发明的重点是通过域分类器将使用某一场景(原场景)训练得到的Faster RCNN模型通过无监督的方式迁移至另一场景(目标场景),如图4所示,所以对Faster RCNN的具体的原理和怎么输出图像中目标的类别和位置不做赘述。
基于上述描述,本发明提出的跨场景交通目标检测方法,可以广泛应用在真实环境中的交通目标检测场景,能够有效提升目标检测模型的鲁棒性,实现了在一个场景中训练得到的自适应目标检测模型,能够通过简单的迁移方法直接应用于其他具有一定差异(背景、光线、天气等)的真实交通场景。
此外,对应于上述提供的跨场景交通目标检测方法,本发明还提供了一种跨场景交通目标检测系统,如图5所示,该系统包括:
获取模块500,用于获取训练好的自适应目标检测模型和待检测交通场景图像。自适应目标检测模型为在Faster RCNN模型中引入域分类器构建得到的检测模型。FasterRCNN模型包括依次连接的基准残差网络、区域生成网络和全连接层。域分类器的输入为Faster RCNN模型中基准残差网络的输出。域分类器的输出为Faster RCNN模型中区域生成网络的输入。域分类器,包括依次连接的梯度反转层、多层卷积层、全局池化层和全连接层。
检测模块501,用于将待检测交通场景图像输入至训练好的自适应目标检测模型中,输出交通目标检测结果。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的系统而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处。综上所述,本说明书内容不应理解为对本发明的限制。

Claims (8)

1.一种跨场景交通目标检测方法,其特征在于,包括:
获取训练好的自适应目标检测模型和待检测交通场景图像;所述自适应目标检测模型为在Faster RCNN模型中引入域分类器构建得到的检测模型;所述Faster RCNN模型包括依次连接的基准残差网络、区域生成网络和全连接层;所述域分类器的输入为所述FasterRCNN模型中基准残差网络的输出;
将所述待检测交通场景图像输入至所述训练好的自适应目标检测模型中,输出交通目标检测结果。
2.根据权利要求1所述的跨场景交通目标检测方法,其特征在于,所述域分类器,包括依次连接的梯度反转层、多层卷积层、全局池化层和全连接层。
3.根据权利要求2所述的跨场景交通目标检测方法,其特征在于,所述多层卷积层包括:第一卷积层、第二卷积层和第三卷积层;
所述第一卷积层的卷积核、所述第二卷积层的卷积核和所述第三卷积层的卷积核均为m×m,m为卷积核的数量;
所述第一卷积层的输入通道数为第一数值,所述第一卷积层的输出通道数为第二数值;所述第二卷积层的输入通道数为所述第二数值,所述第二卷积层的输出通道数为第三数值;所述第三卷积层的输入通道数和所述第三卷积层的输出通道数均为第三数值。
4.根据权利要求3所述的跨场景交通目标检测方法,其特征在于,所述全局池化层的输出节点数和所述全连接层的输入节点数均为第三数值;所述全连接层的输出节点数为第四数值。
5.根据权利要求4所述的跨场景交通目标检测方法,其特征在于,所述第一数值为1024;所述第二数值为512;所述第三数值为128;所述第四数值为2。
6.根据权利要求1所述的跨场景交通目标检测方法,其特征在于,所述自适应目标检测模型的训练过程为:
获取原场景图像和目标场景图像;所述原场景图像为带有标注的交通场景图像;所述目标场景图像为不带标注的交通场景图像;
采用所述原场景图像和所述目标场景图像训练所述自适应目标检测模型,得到训练好的自适应目标检测模型。
7.根据权利要求6所述的跨场景交通目标检测方法,其特征在于,在采用所述原场景图像和所述目标场景图像训练所述自适应目标检测模型的过程中,使用焦点损失函数训练所述域分类器。
8.一种跨场景交通目标检测系统,其特征在于,包括:
获取模板,用于获取训练好的自适应目标检测模型和待检测交通场景图像;所述自适应目标检测模型为在Faster RCNN模型中引入域分类器构建得到的检测模型;所述FasterRCNN模型包括依次连接的基准残差网络、区域生成网络和全连接层;所述域分类器的输入为所述Faster RCNN模型中基准残差网络的输出;所述域分类器,包括依次连接的梯度反转层、多层卷积层、全局池化层和全连接层;
检测模块,用于将所述待检测交通场景图像输入至所述训练好的自适应目标检测模型中,输出交通目标检测结果。
CN202210914306.2A 2022-08-01 2022-08-01 一种跨场景交通目标检测方法和系统 Pending CN114973168A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210914306.2A CN114973168A (zh) 2022-08-01 2022-08-01 一种跨场景交通目标检测方法和系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210914306.2A CN114973168A (zh) 2022-08-01 2022-08-01 一种跨场景交通目标检测方法和系统

Publications (1)

Publication Number Publication Date
CN114973168A true CN114973168A (zh) 2022-08-30

Family

ID=82968660

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210914306.2A Pending CN114973168A (zh) 2022-08-01 2022-08-01 一种跨场景交通目标检测方法和系统

Country Status (1)

Country Link
CN (1) CN114973168A (zh)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106650655A (zh) * 2016-12-16 2017-05-10 北京工业大学 一种基于卷积神经网络的动作检测模型
JP2020067896A (ja) * 2018-10-25 2020-04-30 トヨタ自動車株式会社 進行可能方向検出装置及び進行可能方向検出方法
CN111553397A (zh) * 2020-04-21 2020-08-18 东南大学 基于区域全卷积网络和自适应的跨域目标检测方法
CN111898427A (zh) * 2020-06-22 2020-11-06 西北工业大学 一种基于特征融合深度神经网络的多光谱行人检测方法
CN112149722A (zh) * 2020-09-11 2020-12-29 南京大学 一种基于无监督域适应的图像自动标注方法
CN112215255A (zh) * 2020-09-08 2021-01-12 深圳大学 一种目标检测模型的训练方法、目标检测方法及终端设备
CN112395951A (zh) * 2020-10-23 2021-02-23 中国地质大学(武汉) 一种面向复杂场景的域适应交通目标检测与识别方法
CN113052243A (zh) * 2021-03-30 2021-06-29 浙江工业大学 基于CycleGAN和条件分布自适应的目标检测方法
CN114821152A (zh) * 2022-03-23 2022-07-29 湖南大学 基于前景-类别感知对齐的域自适应目标检测方法及系统

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106650655A (zh) * 2016-12-16 2017-05-10 北京工业大学 一种基于卷积神经网络的动作检测模型
JP2020067896A (ja) * 2018-10-25 2020-04-30 トヨタ自動車株式会社 進行可能方向検出装置及び進行可能方向検出方法
CN111553397A (zh) * 2020-04-21 2020-08-18 东南大学 基于区域全卷积网络和自适应的跨域目标检测方法
CN111898427A (zh) * 2020-06-22 2020-11-06 西北工业大学 一种基于特征融合深度神经网络的多光谱行人检测方法
CN112215255A (zh) * 2020-09-08 2021-01-12 深圳大学 一种目标检测模型的训练方法、目标检测方法及终端设备
CN112149722A (zh) * 2020-09-11 2020-12-29 南京大学 一种基于无监督域适应的图像自动标注方法
CN112395951A (zh) * 2020-10-23 2021-02-23 中国地质大学(武汉) 一种面向复杂场景的域适应交通目标检测与识别方法
CN113052243A (zh) * 2021-03-30 2021-06-29 浙江工业大学 基于CycleGAN和条件分布自适应的目标检测方法
CN114821152A (zh) * 2022-03-23 2022-07-29 湖南大学 基于前景-类别感知对齐的域自适应目标检测方法及系统

Similar Documents

Publication Publication Date Title
CN106547880B (zh) 一种融合地理区域知识的多维度地理场景识别方法
CN108509978B (zh) 基于cnn的多级特征融合的多类目标检测方法及模型
CN106650789B (zh) 一种基于深度lstm网络的图像描述生成方法
WO2022105608A1 (zh) 一种快速人脸密度预测和人脸检测方法、装置、电子设备及存储介质
CN110826457B (zh) 一种复杂场景下的车辆检测方法及装置
CN112990065A (zh) 一种基于优化的YOLOv5模型的车辆分类检测方法
Liu et al. Road segmentation with image-LiDAR data fusion in deep neural network
CN116596966A (zh) 一种基于注意力和特征融合的分割与跟踪方法
CN111768792A (zh) 基于卷积神经网络和领域对抗学习的音频隐写分析方法
CN113657473B (zh) 一种基于迁移学习的Web服务分类方法
Yan et al. Video scene parsing: An overview of deep learning methods and datasets
CN114037666A (zh) 一种数据集扩充和阴影图像分类辅助的阴影检测方法
CN115641584B (zh) 一种雾天图像识别方法及装置
CN112418207A (zh) 一种基于自注意力蒸馏的弱监督文字检测方法
CN117116048A (zh) 基于知识表示模型和图神经网络的知识驱动交通预测方法
CN114973168A (zh) 一种跨场景交通目标检测方法和系统
CN116524261A (zh) 一种基于多模态小样本持续学习的图像分类方法及产品
CN114998702A (zh) 基于BlendMask的实体识别、知识图谱生成方法及系统
CN114332780A (zh) 一种针对小目标的交通人车非目标检测方法
CN114463543A (zh) 基于级联决策和交互标注自提升的弱监督语义分割方法
Xiong et al. TFA-CNN: an efficient method for dealing with crowding and noise problems in crowd counting
CN117456480B (zh) 一种基于多源信息融合的轻量化车辆再辨识方法
Liu et al. Object Detection in Driving Video Based on Improved Mask R-CNN
CN114913344A (zh) 层次化多感受野网络的显著性目标检测算法
Rajalakshmi et al. A Study on Different Types of Convolutions in Deep Learning in the Area of Lane Detection

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20220830

RJ01 Rejection of invention patent application after publication