CN114973168A - 一种跨场景交通目标检测方法和系统 - Google Patents
一种跨场景交通目标检测方法和系统 Download PDFInfo
- Publication number
- CN114973168A CN114973168A CN202210914306.2A CN202210914306A CN114973168A CN 114973168 A CN114973168 A CN 114973168A CN 202210914306 A CN202210914306 A CN 202210914306A CN 114973168 A CN114973168 A CN 114973168A
- Authority
- CN
- China
- Prior art keywords
- target detection
- layer
- traffic
- scene image
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/54—Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Abstract
本发明涉及一种跨场景交通目标检测方法和系统。所述跨场景交通目标检测方法中,通过采用在Faster RCNN模型中引入域分类器构建得到的自适应目标检测模型对交通场景图像进行检测,得到交通目标检测结果,能够解决现有技术存在的使用某一个交通场景图片训练得到的目标检测模型实际应用于其他真实场景时出现的检测性能大幅下降的问题。
Description
技术领域
本发明涉及目标检测技术领域,特别是涉及一种跨场景交通目标检测方法和系统。
背景技术
交通目标检测作为道路交通场景重要的研究课题和方向,为目标车辆的追踪识别等提供了强有力的支持和支撑;当前通用目标检测技术(如Faster RCNN、YOLO等)在使用大量已经被人工标注的交通场景图片进行训练后,对于背景、光线、天气等存在较小差异的新图片,能够较好的对其中包含的交通目标进行检测和识别;但这种通用的目标检测技术在遇到较大场景差异(如天气、光线、角度等)时,检测性能会出现极大的下降。在真实交通场景中,很难实现收集所有交通场景的图像并对其进行大量的人工标注去训练鲁棒性极高的目标检测模型,所以如何将在某一交通场景下训练好的目标检测模型通过无监督的方式,迁移至存在较大差异的其他场景,且不需要对该场景的图像进行手工标注,成为了本领域亟待解决的技术问题。
发明内容
本发明的目的是提供一种跨场景交通目标检测方法和系统,能够解决现有技术存在的使用某一个交通场景图片训练得到的目标检测模型实际应用于其他真实场景时出现的检测性能大幅下降的问题。
为实现上述目的,本发明提供了如下方案:
一种跨场景交通目标检测方法,包括:
获取训练好的自适应目标检测模型和待检测交通场景图像;所述自适应目标检测模型为在Faster RCNN模型中引入域分类器构建得到的检测模型;所述Faster RCNN模型包括依次连接的基准残差网络、区域生成网络和全连接层;所述域分类器的输入为所述Faster RCNN模型中基准残差网络的输出;
将所述待检测交通场景图像输入至所述训练好的自适应目标检测模型中,输出交通目标检测结果。
优选地,所述域分类器,包括依次连接的梯度反转层、多层卷积层、全局池化层和全连接层。
优选地,所述多层卷积层包括:第一卷积层、第二卷积层和第三卷积层;
所述第一卷积层的卷积核、所述第二卷积层的卷积核和所述第三卷积层的卷积核均为m×m,m为卷积核的数量;
所述第一卷积层的输入通道数为第一数值,所述第一卷积层的输出通道数为第二数值;所述第二卷积层的输入通道数为所述第二数值,所述第二卷积层的输出通道数为第三数值;所述第三卷积层的输入通道数和所述第三卷积层的输出通道数均为第三数值。
优选地,所述全局池化层的输出节点数和所述全连接层的输入节点数均为第三数值;所述全连接层的输出节点数为第四数值。
优选地,所述第一数值为1024;所述第二数值为512;所述第三数值为128;所述第四数值为2。
优选地,所述自适应目标检测模型的训练过程为:
获取原场景图像和目标场景图像;所述原场景图像为带有标注的交通场景图像;所述目标场景图像为不带标注的交通场景图像;
采用所述原场景图像和所述目标场景图像训练所述自适应目标检测模型,得到训练好的自适应目标检测模型。
优选地,在采用所述原场景图像和所述目标场景图像训练所述自适应目标检测模型的过程中,使用焦点损失函数训练所述域分类器。
根据本发明提供的具体实施例,本发明公开了以下技术效果:
本发明提供的跨场景交通目标检测方法中,通过采用在Faster RCNN模型中引入域分类器构建得到的自适应目标检测模型对交通场景图像进行检测,得到交通目标检测结果,能够解决现有技术存在的使用某一个交通场景图片训练得到的目标检测模型实际应用于其他真实场景时出现的检测性能大幅下降的问题。
对应于上述提供的跨场景交通目标检测方法,本发明还提供了一种跨场景交通目标检测系统,该系统包括:
获取模块,用于获取训练好的自适应目标检测模型和待检测交通场景图像;所述自适应目标检测模型为在Faster RCNN模型中引入域分类器构建得到的检测模型;所述Faster RCNN模型包括依次连接的基准残差网络、区域生成网络和全连接层;所述域分类器的输入为所述Faster RCNN模型中基准残差网络的输出;所述域分类器,包括依次连接的梯度反转层、多层卷积层、全局池化层和全连接层;
检测模块,用于将所述待检测交通场景图像输入至所述训练好的自适应目标检测模型中,输出交通目标检测结果。
因本发明提供的跨场景交通目标检测系统实现的技术效果与上述提供的跨场景交通目标检测方法实现的技术效果相同,故在此不再进行赘述。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明提供的跨场景交通目标检测方法的流程图;
图2为本发明实施例提供的Faster RCNN模型的数据传输流程示意图;
图3为本发明实施例提供的自适应目标检测模型的数据传输流程示意图;
图4为本发明实施例提供的使用域分类器将使用原场景训练得到的Faster RCNN模型通过无监督的方式迁移至目标场景的数据处理流程图;
图5为本发明提供的跨场景交通目标检测系统的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明的目的是提供一种跨场景交通目标检测方法和系统,能够解决现有技术存在的使用某一个交通场景图片训练得到的目标检测模型实际应用于其他真实场景时出现的检测性能大幅下降的问题。
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
如图1所示,本发明提供的一种跨场景交通目标检测方法,包括:
步骤100:获取训练好的自适应目标检测模型和待检测交通场景图像。自适应目标检测模型为在Faster RCNN模型中引入域分类器构建得到的检测模型。本发明使用的Faster RCNN作为基础模型,Faster RCNN由基准残差网络(ResNet50或ResNet101等)、区域生成网络和全连接层构成,Faster RCNN模型输出为输入图像中包含的目标类别和具体的位置坐标,如图2所示。在Faster RCNN的第二个残差模块结束后(即基准残差网络之后),引出域分类器,如图3所示。
域分类器的输出为Faster RCNN模型中区域生成网络的输入。如图3所示,域分类器包括依次连接的梯度反转层、多层卷积层、全局池化层和全连接层。具体的,本发明将第二个残差后的的输出特征输入的一个梯度反转层(GRL)中,具体的,在正向传播中,GRL相当于实现一个恒等变化,特征经过GRL层时不发生任何变化,直接进入后续的网络模型。在反向传播的过程中,通过域分类损失函数计算的梯度进行反向传播并经过GRL层时,相当于将反向传播回去的梯度乘上一个负数,再向上传播。然后,分别设计了下表1中的第二至第六层,特征从第二层到第六层正向传播,具体每一层的网络参数如表1所示。
步骤101:将待检测交通场景图像输入至训练好的自适应目标检测模型中,输出交通目标检测结果。
为了进一步提高所构建自适应目标检测模型的鲁棒性,需要对自适应目标检测模
型进行训练。为了使得模型从原场景图像中学习得到的特征在目标场景越来越通用,使得
模型真正用于目标场景中交通目标检测时性能尽可能下降的更少,在对上述构建的自适应
目标检测模型训练过程中,本发明使用带有标注信息的原交通场景的图像(,表示S中有N张图片)和目标交通场景的图像()对
自适应目标检测模型进行训练。
当前互联网上已经公开了较多具备完备标注信息的真实交通场景目标数据集,类
似CityScape、DeTrac、KITTI等,在本发明中,可以选取任意互联网上已经公开的具有完备
标注的公开数据集作为原场景交通目标数据S,对于S中的每一张图像都有对应的位置标
注信息。
在具体的自适应目标检测模型训练过程中,本发明会先给自适应目标检测模型输入一个原场景图像xs,再输入一个目标场景图像xt,在特征空间中,容易区分的目标样本距离源域样本非常远,而难以区分的目标样本距离源域样本很近,所以本发明使用域分类器去对齐目标域和源域全局特征,以忽略容易区分的样本,而去重点关注那些难以区分的样本。
其中,FASTER指代原始Faster RCNN中所有涉及到的运算,这是已开源算法中的内容,不是本发明的重点,在此不做赘述。
在对自适应目标检测模型进行训练的过程中,采用焦点损失函数(Focal Loss,FL)训练域分类器。FL侧重的点是根据样本分辨的难以程度给样本对应的损失添加权重。在分类任务中,最经典的损失函数是标准的交叉熵函数(CE),以二分类为例,首先定义p为模型预估的一个样本xs或者样本xt属于正例(y=1)的概率,则可以通过如下方式定义概率为CE:
为了统一p,1-p,定义pt函数为:
定义一个减函数,当pt函数提升时,函数值随之变小,定义为f(pt):
那么当输入域分类的样本来自原场景,即为xs时,则域分类损失函数LC可定义为LC(xs):
那么当输入域分类的样本来自目标场景,即为xt时,则域分类损失函数可定义为LC(xt):
当模型输入为域分类的样本来自目标场景,即为xt时,整个模型按照如下方式进行优化:
其中,L为优化损失函数。
目标检测网络和域分类器结合来改善复杂交通场景下的检测任务,是这一实际问题的常规解决思路,但在这一个常规的解决思路下,存在各种方向不同且效果不同的解决思路。本发明提出了使用焦点损失来训练域分类器,焦点损失的侧重点是根据样本的分辨难易程度,给样本对应的损失添加权重,类似于人脑的学习机制,先学习简单的样本,随着学习的不断深入,慢慢开始接触难样本。
基于上述描述的自适应目标检测模型的训练过程,真实使用场景中,使用具有完备标注信息的原场景样本和无标注信息的目标场景样本,对自适应目标检测模型进行训练后,训练好的自适应目标检测模型对于无标注信息的目标场景样本具有很好的鲁棒性,能够较好的检测识别目标场景图片中包含的交通目标。Faster RCNN是业界非常经典且通用的目标检测模型,本发明的重点是通过域分类器将使用某一场景(原场景)训练得到的Faster RCNN模型通过无监督的方式迁移至另一场景(目标场景),如图4所示,所以对Faster RCNN的具体的原理和怎么输出图像中目标的类别和位置不做赘述。
基于上述描述,本发明提出的跨场景交通目标检测方法,可以广泛应用在真实环境中的交通目标检测场景,能够有效提升目标检测模型的鲁棒性,实现了在一个场景中训练得到的自适应目标检测模型,能够通过简单的迁移方法直接应用于其他具有一定差异(背景、光线、天气等)的真实交通场景。
此外,对应于上述提供的跨场景交通目标检测方法,本发明还提供了一种跨场景交通目标检测系统,如图5所示,该系统包括:
获取模块500,用于获取训练好的自适应目标检测模型和待检测交通场景图像。自适应目标检测模型为在Faster RCNN模型中引入域分类器构建得到的检测模型。FasterRCNN模型包括依次连接的基准残差网络、区域生成网络和全连接层。域分类器的输入为Faster RCNN模型中基准残差网络的输出。域分类器的输出为Faster RCNN模型中区域生成网络的输入。域分类器,包括依次连接的梯度反转层、多层卷积层、全局池化层和全连接层。
检测模块501,用于将待检测交通场景图像输入至训练好的自适应目标检测模型中,输出交通目标检测结果。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的系统而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处。综上所述,本说明书内容不应理解为对本发明的限制。
Claims (8)
1.一种跨场景交通目标检测方法,其特征在于,包括:
获取训练好的自适应目标检测模型和待检测交通场景图像;所述自适应目标检测模型为在Faster RCNN模型中引入域分类器构建得到的检测模型;所述Faster RCNN模型包括依次连接的基准残差网络、区域生成网络和全连接层;所述域分类器的输入为所述FasterRCNN模型中基准残差网络的输出;
将所述待检测交通场景图像输入至所述训练好的自适应目标检测模型中,输出交通目标检测结果。
2.根据权利要求1所述的跨场景交通目标检测方法,其特征在于,所述域分类器,包括依次连接的梯度反转层、多层卷积层、全局池化层和全连接层。
3.根据权利要求2所述的跨场景交通目标检测方法,其特征在于,所述多层卷积层包括:第一卷积层、第二卷积层和第三卷积层;
所述第一卷积层的卷积核、所述第二卷积层的卷积核和所述第三卷积层的卷积核均为m×m,m为卷积核的数量;
所述第一卷积层的输入通道数为第一数值,所述第一卷积层的输出通道数为第二数值;所述第二卷积层的输入通道数为所述第二数值,所述第二卷积层的输出通道数为第三数值;所述第三卷积层的输入通道数和所述第三卷积层的输出通道数均为第三数值。
4.根据权利要求3所述的跨场景交通目标检测方法,其特征在于,所述全局池化层的输出节点数和所述全连接层的输入节点数均为第三数值;所述全连接层的输出节点数为第四数值。
5.根据权利要求4所述的跨场景交通目标检测方法,其特征在于,所述第一数值为1024;所述第二数值为512;所述第三数值为128;所述第四数值为2。
6.根据权利要求1所述的跨场景交通目标检测方法,其特征在于,所述自适应目标检测模型的训练过程为:
获取原场景图像和目标场景图像;所述原场景图像为带有标注的交通场景图像;所述目标场景图像为不带标注的交通场景图像;
采用所述原场景图像和所述目标场景图像训练所述自适应目标检测模型,得到训练好的自适应目标检测模型。
7.根据权利要求6所述的跨场景交通目标检测方法,其特征在于,在采用所述原场景图像和所述目标场景图像训练所述自适应目标检测模型的过程中,使用焦点损失函数训练所述域分类器。
8.一种跨场景交通目标检测系统,其特征在于,包括:
获取模板,用于获取训练好的自适应目标检测模型和待检测交通场景图像;所述自适应目标检测模型为在Faster RCNN模型中引入域分类器构建得到的检测模型;所述FasterRCNN模型包括依次连接的基准残差网络、区域生成网络和全连接层;所述域分类器的输入为所述Faster RCNN模型中基准残差网络的输出;所述域分类器,包括依次连接的梯度反转层、多层卷积层、全局池化层和全连接层;
检测模块,用于将所述待检测交通场景图像输入至所述训练好的自适应目标检测模型中,输出交通目标检测结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210914306.2A CN114973168A (zh) | 2022-08-01 | 2022-08-01 | 一种跨场景交通目标检测方法和系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210914306.2A CN114973168A (zh) | 2022-08-01 | 2022-08-01 | 一种跨场景交通目标检测方法和系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114973168A true CN114973168A (zh) | 2022-08-30 |
Family
ID=82968660
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210914306.2A Pending CN114973168A (zh) | 2022-08-01 | 2022-08-01 | 一种跨场景交通目标检测方法和系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114973168A (zh) |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106650655A (zh) * | 2016-12-16 | 2017-05-10 | 北京工业大学 | 一种基于卷积神经网络的动作检测模型 |
JP2020067896A (ja) * | 2018-10-25 | 2020-04-30 | トヨタ自動車株式会社 | 進行可能方向検出装置及び進行可能方向検出方法 |
CN111553397A (zh) * | 2020-04-21 | 2020-08-18 | 东南大学 | 基于区域全卷积网络和自适应的跨域目标检测方法 |
CN111898427A (zh) * | 2020-06-22 | 2020-11-06 | 西北工业大学 | 一种基于特征融合深度神经网络的多光谱行人检测方法 |
CN112149722A (zh) * | 2020-09-11 | 2020-12-29 | 南京大学 | 一种基于无监督域适应的图像自动标注方法 |
CN112215255A (zh) * | 2020-09-08 | 2021-01-12 | 深圳大学 | 一种目标检测模型的训练方法、目标检测方法及终端设备 |
CN112395951A (zh) * | 2020-10-23 | 2021-02-23 | 中国地质大学(武汉) | 一种面向复杂场景的域适应交通目标检测与识别方法 |
CN113052243A (zh) * | 2021-03-30 | 2021-06-29 | 浙江工业大学 | 基于CycleGAN和条件分布自适应的目标检测方法 |
CN114821152A (zh) * | 2022-03-23 | 2022-07-29 | 湖南大学 | 基于前景-类别感知对齐的域自适应目标检测方法及系统 |
-
2022
- 2022-08-01 CN CN202210914306.2A patent/CN114973168A/zh active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106650655A (zh) * | 2016-12-16 | 2017-05-10 | 北京工业大学 | 一种基于卷积神经网络的动作检测模型 |
JP2020067896A (ja) * | 2018-10-25 | 2020-04-30 | トヨタ自動車株式会社 | 進行可能方向検出装置及び進行可能方向検出方法 |
CN111553397A (zh) * | 2020-04-21 | 2020-08-18 | 东南大学 | 基于区域全卷积网络和自适应的跨域目标检测方法 |
CN111898427A (zh) * | 2020-06-22 | 2020-11-06 | 西北工业大学 | 一种基于特征融合深度神经网络的多光谱行人检测方法 |
CN112215255A (zh) * | 2020-09-08 | 2021-01-12 | 深圳大学 | 一种目标检测模型的训练方法、目标检测方法及终端设备 |
CN112149722A (zh) * | 2020-09-11 | 2020-12-29 | 南京大学 | 一种基于无监督域适应的图像自动标注方法 |
CN112395951A (zh) * | 2020-10-23 | 2021-02-23 | 中国地质大学(武汉) | 一种面向复杂场景的域适应交通目标检测与识别方法 |
CN113052243A (zh) * | 2021-03-30 | 2021-06-29 | 浙江工业大学 | 基于CycleGAN和条件分布自适应的目标检测方法 |
CN114821152A (zh) * | 2022-03-23 | 2022-07-29 | 湖南大学 | 基于前景-类别感知对齐的域自适应目标检测方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106547880B (zh) | 一种融合地理区域知识的多维度地理场景识别方法 | |
CN108509978B (zh) | 基于cnn的多级特征融合的多类目标检测方法及模型 | |
CN106650789B (zh) | 一种基于深度lstm网络的图像描述生成方法 | |
WO2022105608A1 (zh) | 一种快速人脸密度预测和人脸检测方法、装置、电子设备及存储介质 | |
CN110826457B (zh) | 一种复杂场景下的车辆检测方法及装置 | |
CN112990065A (zh) | 一种基于优化的YOLOv5模型的车辆分类检测方法 | |
Liu et al. | Road segmentation with image-LiDAR data fusion in deep neural network | |
CN116596966A (zh) | 一种基于注意力和特征融合的分割与跟踪方法 | |
CN111768792A (zh) | 基于卷积神经网络和领域对抗学习的音频隐写分析方法 | |
CN113657473B (zh) | 一种基于迁移学习的Web服务分类方法 | |
Yan et al. | Video scene parsing: An overview of deep learning methods and datasets | |
CN114037666A (zh) | 一种数据集扩充和阴影图像分类辅助的阴影检测方法 | |
CN115641584B (zh) | 一种雾天图像识别方法及装置 | |
CN112418207A (zh) | 一种基于自注意力蒸馏的弱监督文字检测方法 | |
CN117116048A (zh) | 基于知识表示模型和图神经网络的知识驱动交通预测方法 | |
CN114973168A (zh) | 一种跨场景交通目标检测方法和系统 | |
CN116524261A (zh) | 一种基于多模态小样本持续学习的图像分类方法及产品 | |
CN114998702A (zh) | 基于BlendMask的实体识别、知识图谱生成方法及系统 | |
CN114332780A (zh) | 一种针对小目标的交通人车非目标检测方法 | |
CN114463543A (zh) | 基于级联决策和交互标注自提升的弱监督语义分割方法 | |
Xiong et al. | TFA-CNN: an efficient method for dealing with crowding and noise problems in crowd counting | |
CN117456480B (zh) | 一种基于多源信息融合的轻量化车辆再辨识方法 | |
Liu et al. | Object Detection in Driving Video Based on Improved Mask R-CNN | |
CN114913344A (zh) | 层次化多感受野网络的显著性目标检测算法 | |
Rajalakshmi et al. | A Study on Different Types of Convolutions in Deep Learning in the Area of Lane Detection |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20220830 |
|
RJ01 | Rejection of invention patent application after publication |