CN115578246B - 基于风格迁移的非对齐可见光和红外模态融合目标检测方法 - Google Patents
基于风格迁移的非对齐可见光和红外模态融合目标检测方法 Download PDFInfo
- Publication number
- CN115578246B CN115578246B CN202211335202.2A CN202211335202A CN115578246B CN 115578246 B CN115578246 B CN 115578246B CN 202211335202 A CN202211335202 A CN 202211335202A CN 115578246 B CN115578246 B CN 115578246B
- Authority
- CN
- China
- Prior art keywords
- style
- visible light
- fusion
- infrared
- representing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000004927 fusion Effects 0.000 title claims abstract description 55
- 238000001514 detection method Methods 0.000 title claims abstract description 47
- 238000013508 migration Methods 0.000 title claims abstract description 32
- 230000005012 migration Effects 0.000 title claims abstract description 32
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 claims abstract description 35
- 238000000034 method Methods 0.000 claims abstract description 32
- 230000009466 transformation Effects 0.000 claims abstract description 30
- 238000005070 sampling Methods 0.000 claims description 8
- 238000000605 extraction Methods 0.000 claims description 6
- 239000011159 matrix material Substances 0.000 claims description 6
- 239000008186 active pharmaceutical agent Substances 0.000 claims description 4
- 230000009286 beneficial effect Effects 0.000 claims description 4
- 230000006870 function Effects 0.000 claims description 4
- 238000010606 normalization Methods 0.000 claims description 4
- 238000012952 Resampling Methods 0.000 claims description 2
- 230000004913 activation Effects 0.000 claims description 2
- 238000004364 calculation method Methods 0.000 claims description 2
- 230000002349 favourable effect Effects 0.000 claims description 2
- 239000012633 leachable Substances 0.000 claims description 2
- 238000013507 mapping Methods 0.000 claims description 2
- 230000008569 process Effects 0.000 claims description 2
- 238000001311 chemical methods and process Methods 0.000 claims 1
- 230000000694 effects Effects 0.000 abstract description 4
- 238000010586 diagram Methods 0.000 description 3
- 238000002474 experimental method Methods 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 238000012800 visualization Methods 0.000 description 3
- 230000015556 catabolic process Effects 0.000 description 2
- 238000006731 degradation reaction Methods 0.000 description 2
- 230000000052 comparative effect Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 239000012530 fluid Substances 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 238000012418 validation experiment Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/04—Context-preserving transformations, e.g. by using an importance map
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Processing (AREA)
Abstract
该发明公开了一种基于风格迁移的非对齐可见光和红外模态融合目标检测方法,属于多模态目标检测领域。本发明充分考虑可见光和红外图像不对齐的问题,采用一个可学习的仿射变换网络,对红外模态作仿射变换,实现模态间特征对齐,有效的提升模态融合的效果。本发明中采用一个可学习的仿射变换模块LATM(learning affine transform moduel)来进行特征对齐,采用一个风格迁移融合模块来进行模态间特征融合,本发明可以有效地应对非对齐的可见光和红外图像融合目标检测任务。
Description
技术领域
本发明属于多模态目标检测领域,尤其涉及一种基于风格迁移的非对齐可见光和红外模态融合目标检测方法。
背景技术
为了应对现实中各种复杂检测场景,单传感器目标检测系统已难以满足实际检测需求,采用多传感器的多模态目标检测系统成为实际工程应用中的主流,比如自动驾驶汽车等。多模态融合的目标检测方法在计算机视觉研究和实际工程应用中具有重要的意义。
常用的摄像头属于可见光波段,在光线良好的情况下能够捕捉到较好的环境信息,但是在雨雾天气或者晚上检测能力会急剧退化。而红外利用热效应,在光照较低的情况下具有较好的检测性能,与可见光传感器能达成优势互补。因此,可见光和红外模态融合目标检测在应对现实环境中具有更好的鲁棒性。
在现有的可见光和红外多模态融合目标检测技术中,如CFT和GAFF方法,他们都通过各模态特征提取网络提取特征,然后在特征层面将多模态进行融合,但是都没有考虑到两种模态具有不同的风格属性,没有进行风格统一,导致不能有效的融合多模态信息;另外,在实际应用中,多传感器由于安装的物理误差以及传感器退化等因素,通常从不同传感器取得的成对可见光和红外图像在像素级是非对齐的,现有的方法没有考虑非对齐因素,导致融合的可能是错误的信息。因此,基于风格迁移的非对齐可见光和红外模态融合目标检测方法具有重要的意义。
发明内容
本发明的目的在于解决以下技术问题:
其一,现有的可见光和红外多模态融合目标检测方法没有考虑到可见光和红外图像属于不同的域,具有不同的风格,导致特征融合结果并不利于目标检测任务。本发明采用风格迁移将两种模态的特征转换到一个新的风格上,既实现了模态间风格一致化,又将其转换到一个更有利于目标检测任务的新风格上,有效的提升目标检测指标;
其二,现有的可见光和红外多模态融合目标检测方法没有考虑到传感器的位置误差以及传感器退化所导致的模态间图像不对齐的问题,这样进行特征融合实际上是将不对应的信息进行了融合,结果是错误的,这样针对目标检测任务采用多种模态反而是负增长。本发明充分考虑可见光和红外图像不对齐的问题,采用一个可学习的仿射变换网络,对红外模态作仿射变换,实现模态间特征对齐,有效的提升模态融合的效果。
本发明技术方案为基于风格迁移的非对齐可见光和红外模态融合目标检测方法,该方法包括:
步骤1、将可见光图像imgv和非对齐红外图像imgI分别输入各自的特征提取模块hi和得到八分之一下采样的可见光特征fv1和红外特征fI1,具体公式如下:
(fv1,fI1)=DS(SiLu(BN(conv(imgv,imgI))))#n (0.1)
式中,DS表示下采样,SiLu表示激活函数,BN表示批量标准化,conv表示卷积,#n表示执行了n次,n=3;
步骤2、由于可见光和红外图像像素级非对齐,采用一个可学习的仿射变换模块LATM对红外模态特征fI1进行仿射变换得到f′I1,使其尽可能地与可见光图像特征fv1在特征空间上实现对齐,有益于后面的模态融合操作,仿射变换的计算公式如下:
式中,xi,yi表示像素点仿射变换前的x,y坐标,x′i,y′i表示该像素点经过仿射变换后对应的x,y坐标,Aθ表示仿射变换矩阵,θ为的LATM模块生成的仿射变换系数;
步骤3,由于特征fv1和f′I1分别来自可见光图像和红外图像,它们具有不同的风格属性,风格属性由特征的均值μ和标准差α表征;为了更好的对两个模态特征进行融合,设计了一个风格迁移融合模块;将可见光特征fv1和经过仿射变换后的红外特征f′I1输入风格迁移融合模块,分别对特征去掉原来的风格属性,即减去特征的均值μ除以特征标准差α,这里的操作是采用实例标准化而非批量标准化,即对每一个特征通道进行计算;然后迁移到一个新的统一的风格,即乘上新风格标准差再加上新风格的均值;将可见光特征fv1和f′I1输入风格迁移融合模块,最后融合在一起得到融合特征ffusion1,风格迁移融合模块的具体公式如下:
式中,conv表示卷积操作,用于将融合特征的通道数减少至融合前;concat表示特征拼接操作;μ(fv1)、α(fv1)、μ(f′I1)、α(f′I1)分别表示图像特征和红外特征的均值、标准差;μ,α是的风格迁移融合网络生成的新风格的均值和方差;
步骤4、将融合的特征ffusion1分别与融合前的图像特征fv1、红外特征fI1执行对应元素相加,得到的结果再分别采用n=1的公式1.1的方法进行特征提取,分别得到fv2和fI2;
步骤5:针对fv2和fI2,再依次采用步骤2和步骤3的方法得到ffusion2;
步骤6:针对ffusion2,分别与融合前的图像特征fv2、红外特征fI2执行对应元素相加,得到的结果再分别采用n=1的公式1.1的方法进行特征提取,分别得到fv3和fI3;再依次采用步骤2和步骤3的方法得到ffusion3;
步骤7:将ffusion 1、ffusion2、ffusion3送入YOLOv5目标检测网络的检测头进行训练,基于风格迁移的非对齐可见光和红外模态融合目标检测方法的总体损失函数如下:
Ltotal=Lbbox+Lclass+Lobject
Lbbox=1-GIoU
式中,Ltotal,Lbbox,Lclass,Lobject分别表示网络总损失、检测框损失、类别损失、目标置信度损失,IoU表示检测框与真实框的交并比,GIoU表示由IoU改进而来的带距离度量的广义交并比,s表示分辨率,B表示批量大小,表示类别标签值,pi(c)表示类别预测概率,/>表示对象标签,ci表示对象预测置信度,/>表示该预测为正例时值为1,/>表示该预测为负例时值为1;
步骤8:实际检测时,采用训练好的YOLOv5目标检测网络进行目标检测。
进一步的,所述步骤2中的可学习仿射变换模块LATM的详细方法为:对于输入特征f,首先终止梯度回传并通过多个卷积和多个全连接层计算出仿射变换矩阵θ,然后根据θ得到采样网格,再根据采样网络对f进行重采样;该过程等价于对f按θ作仿射变换;LATM的总的运算公式如下:
其中,fc(·)表示全连接层,Grid(·)根据仿射变换参数生成采样网格即输入输出矩阵的位置坐标映射关系,Sampler(·)根据采样网格Grid对输入特征f进行重采样。
进一步的,所述步骤3中的风格迁移融合模块的详细方法包括:风格生成、去风格化、迁移到新风格,
所述风格生成部分,随机生成一个服从正态分布的向量X作为输入,通过多个全连接层进行编码,生成一个新风格的均值μ和标准差α用于风格迁移;去风格化和迁移到新风格的方法如式(1.3)所示;风格生成不设额外的损失,都采用最终的目标检测损失作为约束,以生成一种有利于目标检测任务的风格。
本发明中采用一个可学习的仿射变换模块LATM(learning affine transformmoduel)来进行特征对齐,采用一个风格迁移融合模块来进行模态间特征融合,本发明可以有效地应对非对齐的可见光和红外图像融合目标检测任务。
附图说明
图1为本发明方法的整体网络结构示意图;
图2为本发明可学习仿射变换模块示意图;
图3为本发明风格迁移融合模块示意图;
图4为本发明具体实施方式实验数据集可视化;
图5为本发明具体实施方式实验结果可视化。
具体实施方式
图1中,hi和都表示一系列卷积、池化和标准化操作;1/8,1/16,1/32表示下采样倍数;fvi,fIi分别表示在不同下采样倍数取得的可见光图像特征和红外图像特征;ffusion表示在不同下采样倍数进行模态融合后得到的特征;LATM表示可学习仿射变换模块(learning affine transform moduel)。
在公开数据集M3FD上实施了本专利方法以验证本方案的有效性。
数据集:M3FD数据集是一个包含可见光和红外的街景数据集,共有4200对时空严格对齐的图像,包含行人、小车、公交车、摩托车、路灯、卡车6种类别共34407个目标标签。将其划分为训练集3200对,验证集1000对以进行实验。该数据集可见光和红外图像分辨率均为1024*768。为模拟模态的分辨率和宽高比差异,以可见光图像为基准不变,将红外图像分辨率由原来的1024*768缩放到640*640。同时,为了更逼近真实场景红外图像,采用大小为5、标准差为3的卷积核对红外图像进行高斯滤波以模糊目标对象边缘。进一步,对红外图像进行角度[-2,2]的随机旋转以及水平和纵向像素[-30,30]的随机平移,构建一个非对齐的数据集版本以进行实验。数据集可视化展示如图4。
评价指标:的方案统一采用MS-COCO数据集引入的目标检测指标mAP.5和mAP,该指标也是目前目标检测领域最流行的性能指标。mAP(mean Average Precision),平均精度均值,即AP(Average Precision)的平均值,mAP值越高,表明该目标检测模型在给定的数据集上的检测效果越好。mAP.5表示IOU阈值设置为0.5时的mAP值,mAP@.5-.95表示IOU阈值从0.5到0.95每隔0.05取10个mAP值的平均。
实验设备及参数:本实验在一台4张RTX3090显卡服务器上进行,批量大小(batch-size)设置为16,图像大小(img-size)设置为1024*1024,学习率设置为0.01,所有模型不使用预训练权重。
实验结果:
表1本专利方案对比验证实验
表中,yolov5、TarDAL、GAFF、CFT均为现有方法,从实验结果可以看到,本专利基于风格迁移的非对齐可见光和红外模态融合目标检测方法相比较于单模态实验结果,以及现有其他融合检测方法,在性能指标上都有较大的提升。实验结果可视化如图5所示,从图中可以看到本融合方案的有更好的检测结果和置信度。该实验验证了本专利的有效性。
Claims (3)
1.基于风格迁移的非对齐可见光和红外模态融合目标检测方法,该方法包括:
步骤1、将可见光图像imgv和非对齐红外图像imgI分别输入各自的特征提取模块hi和得到八分之一下采样的可见光特征fv1和红外特征fI1,具体公式如下:
(fv1,fI1)=DS(SiLu(BN(conv(imgv,imgI))))#n (1.1)
式中,DS表示下采样,SiLu表示激活函数,BN表示批量标准化,conv表示卷积,#n表示执行了n次,n=3;
步骤2、由于可见光和红外图像像素级非对齐,采用一个可学习的仿射变换模块LATM对红外模态特征fI1进行仿射变换得到f′I1,使其尽可能地与可见光图像特征fv1在特征空间上实现对齐,有益于后面的模态融合操作,仿射变换的计算公式如下:
式中,xi,yi表示像素点仿射变换前的x,y坐标,x′i,y′i表示该像素点经过仿射变换后对应的x,y坐标,Aθ表示仿射变换矩阵,θ为的LATM模块生成的仿射变换系数;
步骤3,由于特征fv1和f′I1分别来自可见光图像和红外图像,它们具有不同的风格属性,风格属性由特征的均值μ和标准差α表征;为了更好的对两个模态特征进行融合,设计了一个风格迁移融合模块;将可见光特征fv1和经过仿射变换后的红外特征f′I1输入风格迁移融合模块,分别对特征去掉原来的风格属性,即减去特征的均值μ除以特征标准差α,这里的操作是采用实例标准化而非批量标准化,即对每一个特征通道进行计算;然后迁移到一个新的统一的风格,即乘上新风格标准差再加上新风格的均值;将可见光特征fv1和f′I1输入风格迁移融合模块,最后融合在一起得到融合特征ffusion1,风格迁移融合模块的具体公式如下:
式中,conv表示卷积操作,用于将融合特征的通道数减少至融合前;concat表示特征拼接操作;μ(fv1)、α(fv1)、μ(f′I1)、α(f′I1)分别表示图像特征和红外特征的均值、标准差;μ,α是的风格迁移融合网络生成的新风格的均值和方差;
步骤4、将融合的特征ffusion1分别与融合前的图像特征fv1、红外特征fI1执行对应元素相加,得到的结果再分别采用n=1的公式1.1的方法进行特征提取,分别得到fv2和fI2;
步骤5:针对fv2和fI2,再依次采用步骤2和步骤3的方法得到ffusion2;
步骤6:针对ffusion2,分别与融合前的图像特征fv2、红外特征fI2执行对应元素相加,得到的结果再分别采用n=1的公式1.1的方法进行特征提取,分别得到fv3和fI3;再依次采用步骤2和步骤3的方法得到ffusion3;
步骤7:将ffusion1、ffusion2、ffusion3送入YOLOv5目标检测网络的检测头进行训练,基于风格迁移的非对齐可见光和红外模态融合目标检测方法的总体损失函数如下:
式中,Ltotal,Lbbox,Lclass,Lobject分别表示网络总损失、检测框损失、类别损失、目标置信度损失,IoU表示检测框与真实框的交并比,GIoU表示由IoU改进而来的带距离度量的广义交并比,s表示分辨率,B表示批量大小,表示类别标签值,pi(c)表示类别预测概率,/>表示对象标签,ci表示对象预测置信度,/>表示该预测为正例时值为1,/>表示该预测为负例时值为1;
步骤8:实际检测时,采用训练好的YOLOv5目标检测网络进行目标检测。
2.如权利要求1所述的基于风格迁移的非对齐可见光和红外模态融合目标检测方法,其特征在于,所述步骤2中的可学习仿射变换模块LATM的详细方法为:对于输入特征f,首先终止梯度回传并通过多个卷积和多个全连接层计算出仿射变换矩阵θ,然后根据θ得到采样网格,再根据采样网络对f进行重采样;该过程等价于对f按θ作仿射变换;LATM的总的运算公式如下:
其中,fc()表示全连接层,Grid()根据仿射变换参数生成采样网格即输入输出矩阵的位置坐标映射关系,Sampler()根据采样网格Grid对输入特征f进行重采样。
3.如权利要求1所述的基于风格迁移的非对齐可见光和红外模态融合目标检测方法,其特征在于,所述步骤3中的风格迁移融合模块的详细方法包括:风格生成、去风格化、迁移到新风格,
所述风格生成部分,随机生成一个服从正态分布的向量X作为输入,通过多个全连接层进行编码,生成一个新风格的均值μ和标准差α用于风格迁移;去风格化和迁移到新风格的方法如式(1.3)所示;风格生成不设额外的损失,都采用最终的目标检测损失作为约束,以生成一种有利于目标检测任务的风格。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211335202.2A CN115578246B (zh) | 2022-10-28 | 2022-10-28 | 基于风格迁移的非对齐可见光和红外模态融合目标检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211335202.2A CN115578246B (zh) | 2022-10-28 | 2022-10-28 | 基于风格迁移的非对齐可见光和红外模态融合目标检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115578246A CN115578246A (zh) | 2023-01-06 |
CN115578246B true CN115578246B (zh) | 2023-08-04 |
Family
ID=84586281
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211335202.2A Active CN115578246B (zh) | 2022-10-28 | 2022-10-28 | 基于风格迁移的非对齐可见光和红外模态融合目标检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115578246B (zh) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114764889A (zh) * | 2022-04-22 | 2022-07-19 | 西安电子科技大学 | 基于风格迁移的sar图像融合检测方法 |
CN114973164A (zh) * | 2022-06-17 | 2022-08-30 | 西北工业大学 | 一种基于图像风格迁移的舰船目标融合识别方法 |
CN115171148A (zh) * | 2022-04-18 | 2022-10-11 | 西安电子科技大学 | 一种基于特定模态特征补偿的跨模态行人重识别方法 |
-
2022
- 2022-10-28 CN CN202211335202.2A patent/CN115578246B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115171148A (zh) * | 2022-04-18 | 2022-10-11 | 西安电子科技大学 | 一种基于特定模态特征补偿的跨模态行人重识别方法 |
CN114764889A (zh) * | 2022-04-22 | 2022-07-19 | 西安电子科技大学 | 基于风格迁移的sar图像融合检测方法 |
CN114973164A (zh) * | 2022-06-17 | 2022-08-30 | 西北工业大学 | 一种基于图像风格迁移的舰船目标融合识别方法 |
Non-Patent Citations (3)
Title |
---|
Improving Object Detection in Art Images Using Only Style Transfer;David Kadish;2021 International Joint Conference on Neural Networks (IJCNN);1-8 * |
基于伪模态转换的红外目标融合检测算法;安浩南;赵明;潘胜达;林长青;;光子学报(08);176-188 * |
基于红外和可见光图像逐级自适应融合的场景深度估计;李宇琦;赵海涛;;应用光学(01);24-32 * |
Also Published As
Publication number | Publication date |
---|---|
CN115578246A (zh) | 2023-01-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6842520B2 (ja) | 物体検出方法、装置、機器、記憶媒体及び車両 | |
CN108734210B (zh) | 一种基于跨模态多尺度特征融合的对象检测方法 | |
CN108447060B (zh) | 基于rgb-d图像的前后景分离方法及其前后景分离装置 | |
Cho et al. | Semantic segmentation with low light images by modified CycleGAN-based image enhancement | |
CN113723377A (zh) | 一种基于ld-ssd网络的交通标志检测方法 | |
CN115293992B (zh) | 基于无监督权重深度模型的偏振图像去雾方法及装置 | |
CN117274388B (zh) | 基于视觉文本关系对齐的无监督三维视觉定位方法及系统 | |
CN117975418A (zh) | 一种基于改进rt-detr的交通标识检测方法 | |
CN109523570A (zh) | 运动参数计算方法及装置 | |
CN114596548A (zh) | 目标检测方法、装置、计算机设备及计算机可读存储介质 | |
CN112597996B (zh) | 基于任务驱动的自然场景中交通标志显著性检测方法 | |
Gao et al. | Research on multitask model of object detection and road segmentation in unstructured road scenes | |
Zhang et al. | License plate recognition model based on CNN+ LSTM+ CTC | |
CN115578246B (zh) | 基于风格迁移的非对齐可见光和红外模态融合目标检测方法 | |
CN111860084B (zh) | 图像特征的匹配、定位方法及装置、定位系统 | |
CN117058641A (zh) | 一种基于深度学习的全景驾驶感知方法 | |
CN112434591B (zh) | 车道线确定方法、装置 | |
CN116704518A (zh) | 一种文本识别方法及装置、电子设备、存储介质 | |
CN112926585B (zh) | 一种基于再生核希尔伯特空间的跨域语义分割方法 | |
CN114170431A (zh) | 一种基于边缘特征的复杂场景车架号识别方法及设备 | |
CN113159153A (zh) | 一种基于卷积神经网络的车牌识别方法 | |
CN113449629A (zh) | 基于行车视频的车道线虚实识别装置、方法、设备及介质 | |
CN112766068A (zh) | 一种基于网格化标注的车辆检测方法及系统 | |
CN112633089A (zh) | 一种视频行人重识别方法、智能终端及存储介质 | |
CN112580424A (zh) | 一种复杂车路环境的偏振特征多尺度池化分类算法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |