CN114462622B - 一种用于众包数据的深度学习模型部署与训练方法 - Google Patents

一种用于众包数据的深度学习模型部署与训练方法 Download PDF

Info

Publication number
CN114462622B
CN114462622B CN202210120179.9A CN202210120179A CN114462622B CN 114462622 B CN114462622 B CN 114462622B CN 202210120179 A CN202210120179 A CN 202210120179A CN 114462622 B CN114462622 B CN 114462622B
Authority
CN
China
Prior art keywords
image
coordinates
fisheye
deep learning
learning model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202210120179.9A
Other languages
English (en)
Other versions
CN114462622A (zh
Inventor
王潇
宗文豪
赵浩南
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Helmin Intelligent Technology Suzhou Co ltd
Original Assignee
Helmin Intelligent Technology Suzhou Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Helmin Intelligent Technology Suzhou Co ltd filed Critical Helmin Intelligent Technology Suzhou Co ltd
Priority to CN202210120179.9A priority Critical patent/CN114462622B/zh
Publication of CN114462622A publication Critical patent/CN114462622A/zh
Application granted granted Critical
Publication of CN114462622B publication Critical patent/CN114462622B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

本发明提供了一种用于众包数据的深度学习模型部署与训练方法,属于深度学习模型部署与训练技术领域。该方法包括:众包数据输入;相机自标定;生成投影变换查找表;图像投影变换;深度学习模型部署;标注数据投影变换;深度学习模型训练。本发明解决了深度学习模型在众包数据上高性能低成本适配的问题。

Description

一种用于众包数据的深度学习模型部署与训练方法
技术领域
本发明属于深度学习模型部署与训练技术领域,尤其涉及一种用于众包数据的深度学习模型部署与训练方法。
背景技术
随着辅助驾驶系统与自动驾驶车辆的普及,越来越多的交通场景数据通过众包方式采集。由于车辆搭载的相机类型各异,这种众包数据包含了多种车载相机类型和多种相机安装位置。例如,常见的车载相机类型包括小孔相机、鱼眼相机等,小孔相机基于小孔成像模型获取图像,以下统称小孔图像,鱼眼相机基于鱼眼成像模型获取图像,以下统称鱼眼图像;相机的安装位置包括前挡风玻璃上方、前保险杠上方、左右后视镜下方、后保险杠上方等。如何统一这些异构相机获取的图像信息,将已有的深度学习模型用于众包数据,实现低成本、高效率的深度学习模型部署与优化迭代,成为当前辅助驾驶与自动驾驶系统面对的关键问题。目前,针对包含异构相机的众包数据的深度学习模型部署与训练方法暂无相关专利,现有的技术思路包括:
1)直接将众包数据作为已有的深度学习模型的输入。
2)将众包数据统一矫正为小孔图像作为已有的深度学习模型的输入。
3)不对图像进行矫正,针对不同类型的相机训练不同的深度学习模型。
但存在以下缺点:
1)直接将众包数据作为已有的深度学习模型的输入。已有深度学习模型多采用小孔图像作为输入,众包数据中的鱼眼图像与小孔图像存在较大差异,导致深度学习模型表现不佳。若进行2D目标检测,检测结果中会有部分目标由于鱼眼图像中存在大畸变而无法被检出。若进行3D目标检测,检测结果中不仅会有部分目标由于鱼眼图像中存在畸变而无法被检出,并且检测结果中的物体空间点坐标和朝向角也会由于畸变的存在而无法被正确计算。如图1所示,直接将鱼眼图像作为已有的目标检测深度学习模型的输入,会导致检测结果错误。
2)将众包数据图像统一矫正为小孔图像,会导致部分图像矫正后变形严重。例如,将鱼眼图像完全矫正为小孔图像后,图片边缘变形严重。若将这样的图片作为已有的目标检测深度学习模型的输入,则图片边缘处的目标会由于存在大幅度的变形而无法被检出。如图2所示,鱼眼图像被完全矫正后,由于图像边缘存在大幅度的变形,导致图片边缘的车辆无法被检出。
3)若针对不同类型的相机分别训练深度学习模型,则会由于非小孔图像难以标注、无法有效利用已有的深度学习模型、需要重新训练多个模型等原因,导致工作量大,多个模型运算量大,模型迭代优化成本高,难以实际应用。
发明内容
针对现有技术中的上述不足,本发明提供的一种用于众包数据的深度学习模型部署与训练方法,解决了深度学习模型在众包数据上高性能低成本适配的问题。
为了达到以上目的,本发明采用的技术方案为:
本方案提供一种用于众包数据的深度学习模型部署与训练方法,包括以下步骤:
S1、众包数据输入:分别将鱼眼相机数据、小孔相机数据以及全景相机数据作为众包数据输入;
S2、相机自标定:分别对鱼眼相机、小孔相机以及全景相机的内外参进行自动标定;
S3、生成投影变换查找表:根据输入的众包数据的种类,分别生成鱼眼图像、小孔图像的投影变换查找表,并将全景图像作为柱面投影图像;
S4、图像投影变换:根据得到的投影变换查找表,将鱼眼图像、小孔图像的像素移动至投影后的位置,以及根据全景图像,得到柱面投影转换后的新图像;
S5、深度学习模型部署:将所述柱面投影转换后的新图像作为深度学习模型的输入,完成对深度学习模型的部署;
S6、标注数据投影变换:根据所述柱面投影转换后的新图像,对标注数据进行投影变换,以将深度学习模型的训练样本统一变换至柱面投影图像上;
S7、深度学习模型训练:利用经统一变换后的深度学习模型的训练样本,对深度学习模型进行训练,完成对深度学习模型的训练。
进一步地,所述步骤S3包括以下步骤:
S301、根据输入的众包数据的种类,基于鱼眼相机成像模型和柱面投影模型,计算得到原始鱼眼图像的像素点与目标鱼眼图像的像素点之间的映射关系,生成鱼眼图像的投影变换查找表;
S302、根据输入的众包数据的种类,基于小孔成像模型和柱面投影模型,计算得到原始小孔图像的像素点与目标小孔图像的像素点之间的映射关系,生成小孔图像的投影变换查找表;
S303、将全景图像作为柱面投影图像。
再进一步地,所述步骤S301包括以下步骤:
S3011、根据输入的众包数据的种类,生成一个含有所有目标鱼眼图像像素点坐标(u'f,v'f)的矩阵;
S3012、基于柱面投影模型,计算得到目标鱼眼图像像素点坐标(u'f,v'f)对应的三维空间坐标(Xf,Yf,Zf);
S3013、基于鱼眼相机模型,计算得到每一个三维空间坐标(Xf,Yf,Zf)对应的二维图像坐标,其中,所述二维图像坐标为目标鱼眼图像像素点对应的原始鱼眼图像像素坐标(uf,vf);
S3014、将原始鱼眼图像像素坐标(uf,vf)投影至目标鱼眼图像像素点坐标(u'f,v'f),生成鱼眼图像的投影变换查找表。
再进一步地,所述步骤S3012中三维空间坐标(Xf,Yf,Zf)的表达式如下:
Figure GDA0004116548680000041
Figure GDA0004116548680000042
Figure GDA0004116548680000043
其中,(u'f,v'f)表示目标鱼眼图像像素点坐标,(Xf,Yf,Zf)表示目标鱼眼图像像素点对应的三维空间坐标,fx和fy分别表示柱面投影在水平和垂直方向上的焦距,u0和v0分别表示柱面投影在水平和垂直方向上的光心坐标。
再进一步地,所述步骤S3013中原始鱼眼图像像素坐标(uf,vf)与目标鱼眼图像像素点对应的三维空间坐标(Xf,Yf,Zf)之间的表达式如下:
Figure GDA0004116548680000044
θ=arctan(r)
θd=θ(1+k1θ2+k2θ4+k3θ6+k4θ8)
Figure GDA0004116548680000045
Figure GDA0004116548680000051
其中,r表示中间变量,θ表示入射角,θd表示鱼眼镜头畸变后的入射角,k1,k2,k3和k4均表示鱼眼镜头畸变系数,
Figure GDA0004116548680000052
Figure GDA0004116548680000053
分别表示鱼眼相机在水平方向上和垂直方向上的焦距,
Figure GDA0004116548680000054
Figure GDA0004116548680000055
表示鱼眼相机在水平和垂直方向上的光心坐标。
再进一步地,所述步骤S302包括以下步骤:
S3021、根据输入的众包数据的种类,生成一个含有所有小孔图像像素点坐标(up',vp')的矩阵;
S3022、基于柱面投影模型,计算得到目标小孔图像像素点坐标(up',vp')对应的三维空间坐标(Xp,Yp,Zp);
S3023、基于小孔成像模型,计算得到每一个三维空间坐标(Xp,Yp,Zp)对应的二维图像坐标,其中,所述二维图像坐标为目标小孔图像像素点对应的原始小孔图像像素坐标(up,vp);
S3024、将原始小孔图像像素坐标(up,vp)投影至目标小孔图像像素点坐标(up',vp'),生成柱面投影查找表。
再进一步地,所述步骤S3022中目标小孔图像像素点坐标(up',vp')对应的三维空间坐标(X1,Y1,Z1)的表达式如下:
Figure GDA0004116548680000056
Figure GDA0004116548680000057
Figure GDA0004116548680000058
其中,(u'p,v'p)表示目标小孔图像像素点坐标,(Xp,Yp,Zp)表示目标小孔图像像素点对应的三维空间坐标,fx和fy分别表示柱面投影在水平和垂直方向上的焦距,u0和v0分别表示柱面投影在水平和垂直方向上的光心坐标。
再进一步地,所述步骤S3023中原始小孔图像像素坐标(up,vp)与目标小孔图像像素点对应的三维空间坐标(Xp,Yp,Zp)之间的表达式如下:
Figure GDA0004116548680000061
Figure GDA0004116548680000062
其中,fx p和fy p分别表示小孔相机在水平方向上和垂直方向上的焦距,u0 p和v0p表示分别小孔相机在水平和垂直方向上的光心坐标。
本发明的有益效果:
(1)效果好。相比于直接使用众包数据或将众包数据完全矫正为小孔图像,本发明提出的方案所能获得的目标2D和3D检测结果更准确。
(2)成本低。本发明提出的部署方案通过柱面投影统一众包数据中的图像格式,可使用已有模型完成深度学习任务,这使得本发明提出的方案应用成本低。同时,本方案还可使用众包数据对已有深度学习模型进行训练与迭代优化。
(3)适用范围广。通过本发明提出的方案可以适配使用任意车辆、任意车载相机类型、任意相机安装位置采集的众包数据。
附图说明
图1为背景技术中将鱼眼图像作为已有深度学习模型的输入的单目3D目标检测结果示意图。
图2为背景技术中将鱼眼图像完全矫正后的2D目标检测结果示意图。
图3为本发明的方法流程图。
图4为本实施例中检测结果中的B点三维空间坐标与真实的B点三维空间坐标示意图。
图5为本实施例中鱼眼图像矫正后的柱面投影图像示意图。
图6为本实施例中2D目标检测结果示意图。
图7为本实施例中3D目标检测结果示意图。
具体实施方式
下面对本发明的具体实施方式进行描述,以便于本技术领域的技术人员理解本发明,但应该清楚,本发明不限于具体实施方式的范围,对本技术领域的普通技术人员来讲,只要各种变化在所附的权利要求限定和确定的本发明的精神和范围内,这些变化是显而易见的,一切利用本发明构思的发明创造均在保护之列。
实施例1
如图3所示,本发明提供了一种用于众包数据的深度学习模型部署与训练方法,其包括部署阶段和训练阶段,本实施例1主要阐述基于众包数据的深度学习模型部署,其实现方法如下:
S1、众包数据输入:分别将鱼眼相机数据、小孔相机数据以及全景相机数据作为众包数据输入;
本实施例中,目前普遍使用相机传感器的种类通常包括小孔相机、鱼眼相机、全景相机等,因此流程图中以小孔相机数据、鱼眼相机数据、全景相机数据作为众包数据输入。
S2、相机自标定:分别对鱼眼相机、小孔相机以及全景相机的内外参进行自动标定;
本实施例中,由于相机类型和安装位置不同,众包数据中相机的内外参也各不相同。为了低成本获取相机的内参和外参,需要完成相机自动标定。相机内参可通过读取镜头参数或出厂时标定获取;相机外参可基于众包数据,使用任意已有的自动化外参标定方法获取。自标定完成后,记录数据标识和标定结果,后续处理时读取数据标识对应的标定结果即可,无需重复标定。
S3、生成投影变换查找表:根据输入的众包数据的种类,分别生成鱼眼图像、小孔图像的投影变换查找表,并将全景图像作为柱面投影图像,其实现方法如下:
S301、根据输入的众包数据的种类,基于鱼眼相机成像模型和柱面投影模型,计算得到原始鱼眼图像的像素点与目标鱼眼图像的像素点之间的映射关系,生成鱼眼图像的投影变换查找表,其实现方法如下:
S3011、根据输入的众包数据的种类,生成一个含有所有目标鱼眼图像像素点坐标(u'f,v'f)的矩阵;
S3012、基于柱面投影模型,计算得到目标鱼眼图像像素点坐标(u'f,v'f)对应的三维空间坐标(Xf,Yf,Zf);
S3013、基于鱼眼相机模型,计算得到每一个三维空间坐标(Xf,Yf,Zf)对应的二维图像坐标,其中,所述二维图像坐标为目标鱼眼图像像素点对应的原始鱼眼图像像素坐标(uf,vf);
S3014、将原始鱼眼图像像素坐标(uf,vf)投影至目标鱼眼图像像素点坐标(u'f,v'f),生成鱼眼图像的投影变换查找表;
S302、根据输入的众包数据的种类,基于小孔成像模型和柱面投影模型,计算得到原始小孔图像的像素点与目标小孔图像的像素点之间的映射关系,生成小孔图像的投影变换查找表,其实现方法如下:
S3021、根据输入的众包数据的种类,生成一个含有所有小孔图像像素点坐标(up',vp')的矩阵;
S3022、基于柱面投影模型,计算得到目标小孔图像像素点坐标(up',vp')对应的三维空间坐标(Xp,Yp,Zp);
S3023、基于小孔成像模型,计算得到每一个三维空间坐标(Xp,Yp,Zp)对应的二维图像坐标,其中,所述二维图像坐标为目标小孔图像像素点对应的原始小孔图像像素坐标(up,vp);
S3024、将原始小孔图像像素坐标(up,vp)投影至目标小孔图像像素点坐标(up',vp'),生成柱面投影查找表;
S303、将全景图像作为柱面投影图像。
本实施例中,众包数据种类为鱼眼图像时,本发明通过图片预处理,将鱼眼图像if转换为柱面投影图像ic。为了实现这个功能,需要基于鱼眼相机成像模型和柱面投影模型,计算出原本图片if中的像素点与想获得的图片ic中的像素点(即目标像素点)之间的映射关系。本发明中,为了实现原始像素点(uf,vf)和目标像素点(u'f,v'f)的映射关系的计算,首先生成了一个含有所有目标像素点坐标(u'f,v'f)的矩阵,假设这个矩阵中的坐标是期待生成的柱面投影图片的所有像素点坐标,然后基于柱面投影模型,计算出这些目标像素点坐标对应的三维空间坐标(Xf,Yf,Zf),再基于鱼眼相机模型,计算出获得的每一个三维空间坐标(Xf,Yf,Zf)所对应的二维图片坐标(此处得到的二维图片坐标即为目标像素点对应的原始像素点坐标(uf,vf))。这样便得到了目标像素点(u'f,v'f)与原始像素点(uf,vf)的对应关系。然后再利用此对应关系,将原始像素点(uf,vf)投影到目标坐标,生成柱面投影查找表,之后便能够依据查找表将鱼眼图像转换为柱面投影图像。
本实施例中,基于柱面投影模型,计算目标鱼眼图像像素点坐标(u'f,v'f)对应的三维空间坐标(Xf,Yf,Zf)的原理式如式(1)至式(3)所示。
Figure GDA0004116548680000101
Figure GDA0004116548680000102
Figure GDA0004116548680000103
上式中,fx和fy分别表示柱面投影在水平和垂直方向上的焦距,u0和v0分别表示柱面投影在水平和垂直方向上的光心坐标,u0和v0的值通常分别取二分之一的图像宽度(单位:像素个数)和二分之一的图像高度,(u'f,v'f)表示目标鱼眼图像像素点坐标,(Xf,Yf,Zf)表示目标鱼眼图像像素点对应的三维空间坐标。
本实施例中,基于鱼眼相机模型,计算三维空间坐标(Xf,Yf,Zf)对应的原始像素点坐标(uf,vf)的原理式如式(7)至式(8)所示:
Figure GDA0004116548680000104
θ=arctan(r) (5)
θd=θ(1+k1θ2+k2θ4+k3θ6+k4θ8) (6)
Figure GDA0004116548680000105
Figure GDA0004116548680000106
其中,r表示中间变量,θ表示入射角,θd表示鱼眼镜头畸变后的入射角,k1,k2,k3和k4均表示鱼眼镜头畸变系数,
Figure GDA0004116548680000107
Figure GDA0004116548680000108
分别表示鱼眼相机在水平方向上和垂直方向上的焦距,
Figure GDA0004116548680000109
Figure GDA00041165486800001010
表示鱼眼相机在水平和垂直方向上的光心坐标。
本实施例中,根据所使用的鱼眼相机的种类,鱼眼相机模型的表达式也会有所不同。式(4)至式(8)代表的鱼眼相机模型为本专利中使用的鱼眼相机模型。
本实施例中,众包数据种类为小孔图像时,需要将小孔图像ip转换为柱面投影图像ic。为了实现这个功能,同样需要生成ip向ic的柱面投影查找表。此步骤与前述处理鱼眼图像的步骤仅有一处不同,即基于小孔成像模型式,计算三维空间坐标(Xp,Yp,Zp)对应的原始像素点坐标(up,vp)的原理式变为式(9)(10)。
Figure GDA0004116548680000111
Figure GDA0004116548680000112
其中,
Figure GDA0004116548680000113
Figure GDA0004116548680000114
分别表示小孔相机在水平方向上和垂直方向上的焦距,
Figure GDA0004116548680000115
和v0 p表示分别小孔相机在水平和垂直方向上的光心坐标。
其中,所述目标小孔图像像素点坐标(up',vp')对应的三维空间坐标(X1,Y1,Z1)的表达式如下:
Figure GDA0004116548680000116
Figure GDA0004116548680000117
Figure GDA0004116548680000118
其中,(u'p,v'p)表示目标小孔图像像素点坐标,(Xp,Yp,Zp)表示目标小孔图像像素点对应的三维空间坐标,fx和fy分别表示柱面投影在水平和垂直方向上的焦距,u0和v0分别表示柱面投影在水平和垂直方向上的光心坐标。
本实施例中,全景图像投影模型与柱面投影相同,可认为是360度柱面投影图像,因此,全景图像可直接作为输入。
S4、图像投影变换:根据得到的投影变换查找表,将鱼眼图像、小孔图像的像素移动至投影后的位置,以及根据全景图像,得到柱面投影转换后的新图像;
本实施例中,根据求出的查找表,将鱼眼图像、小孔图像或全景图像的像素移动到投影后的位置,即可得到柱面投影转换后新的图像。
S5、深度学习模型部署:将所述柱面投影转换后的新图像作为深度学习模型的输入,完成对深度学习模型的部署;
本实施例中,已有深度学习模型是基于开源数据集训练的,并已被证实在测试集上表现优秀的成熟模型。本发明中,将经过前述步骤处理过后的柱面投影图像作为这些已有深度学习模型的输入。
本实施例中,针对2D检测结果,2D检测结果中包含目标检测、实例分割、语义分割等图像平面上的二维结果。2D检测结果可直接使用无需后续处理。
本实施例中,针对3D位置姿态矫正,使用柱面投影图片作为已有深度学习模型的输入后,相比于以原始图像直接作为输入,3D目标检测的效果得到改善,但检测结果中的物体三维空间坐标和真实的物体三维空间坐标并不相同。在图4所示的相机坐标系中,原点O为相机所在位置,Z轴为相机光轴,Y轴垂直于纸面。若点B为柱面投影图片上的一点,已有深度学习模型能够检测到其像素点坐标为(u,v),并预测其深度为depth,按照原算法,已有深度学习模型能够依照小孔成像原理利用u,v和depth计算得到点B。但由于柱面投影的畸变,点B的真实三维空间点是点B’。因此,需要基于柱面投影模型,而非小孔成像原理,利用检测结果的u,v和depth值将点B’的三维空间坐标(Xw,Yw,Zw)解算出来,才能得到点B的真实坐标。
本实施例中,基于式(2)所示的柱面投影模型,在已知柱面投影图片中一点的像素点坐标u,v和深度depth的情况下,能够推导出该点对应的真实的三维空间坐标。计算该点真实的三维空间坐标的方法如式(14)(15)(16)所示。
Figure GDA0004116548680000131
Figure GDA0004116548680000132
Figure GDA0004116548680000133
其中,(Xw,Yw,Zw)表示目标的真实三维空间坐标,u和v均表示深度模型检测目标的像素坐标,depth表示深度模型预测目标的深度,即目标距离相机光心的距离,fx和fy分别表示柱面投影在水平和垂直方向上的焦距,u0和v0是柱面投影在水平和垂直方向上的光心坐标。
本实施例中,由于在执行3D目标检测时,已有深度学习模型能够准确检测出柱面投影图片中目标的中心点的像素点坐标u,v和深度depth,因此在使用柱面投影图片作为已有深度学习模型的输入时,将已有深度学习模型利用u,v和depth计算真实三维空间坐标的方法从基于小孔成像原理的方法改为式(14)(15)(16)所示的基于柱面投影模型方法,便能够得到柱面投影图片中目标的中心点的真实空间坐标。
本实施例中,3D检测结果,3D检测结果包括三维空间内的目标属性信息、目标中心点坐标、目标外接框位置、目标朝向角等结果。也包括稠密深度、三维重建等结果。
本实施例中,以2D/3D目标检测任务为例,但不限于2D/3D目标检测。
本实施例中,3D检测结果包括三维空间内的目标属性信息、目标中心点坐标、目标外接框位置、目标朝向角等结果。也包括稠密深度、三维重建等结果。
实施例2
如图3所示,本发明提供了一种用于众包数据的深度学习模型部署与训练方法,其包括部署阶段和训练阶段,本实施例2主要阐述基于众包数据的深度学习模型训练,本发明提供了一个用于众包数据的深度学习模型训练方法,能够基于任何已有深度学习模型训练出适用于众包数据的模型,优化迭代提升2D检测、3D检测、语义分割、深度恢复等性能,其实现方法如下:
本实施例提供的训练流程中的相机外标定、生成投影变换查找表、图像投影变换与前述部署阶段的流程相同,这里不再赘述。下面对不同的步骤进行介绍;
S6、标注数据投影变换:根据所述柱面投影转换后的新图像,对标注数据进行投影变换,以将深度学习模型的训练样本统一变换至柱面投影图像上。
本实施例中,将众包数据图像用于训练深度学习模型时,由于前置步骤将异构图像统一转换为了柱面投影图像,需要相应地对标注数据进行投影变换。2D标注数据根据投影查找表变换即可。3D标注数据需要进行投影变换,以小孔标注为例,如图4所示,若B点为小孔图像上的一点,其标注的空间点坐标为(X,Y,Z),则需要将其坐标投影变换为柱面投影后对应的B’点坐标(X’,Y’,Z’)。
计算方式如式(17)(18)所示。
Figure GDA0004116548680000141
Figure GDA0004116548680000142
本实施例中,本发明可使用任意已有深度学习模型。通过图像投影和数据标注投影步骤将训练样本统一变换到柱面投影图像上,进而对已有深度学习模型进行训练,实现在众包数据上的优化迭代,不断提升模型性能。
S7、深度学习模型训练:利用经统一变换后的深度学习模型的训练样本,对深度学习模型进行训练,完成对深度学习模型的训练。
本实施例中,本发明可使用任意已有深度学习模型,通过图像投影和数据标注投影步骤将训练样本统一变换到柱面投影图像上,进而对已有深度学习模型进行训练,实现在众包数据上的优化迭代,不断提升模型性能。
本实施例中,以使用已有深度学习模型和鱼眼图像完成2D目标检测和3D目标检测为例,以阐明本专利的技术效果。
1)图像投影变换效果
通过将柱面投影算法应用于鱼眼图像,实现鱼眼图像转换为柱面投影图片的效果。
2)2D检测效果
已有深度学习模型对柱面投影图像的2D检测结果,如图6所示。
3)3D检测效果
已有深度学习模型对柱面投影图像的3D检测结果,如图7所示。经过对比在真实空间中获得的实际测量数据和改进后的算法的预测数据,发现改进后的空间点坐标算法预测出的物体中心点空间坐标与实际测量的物体中心点空间坐标基本吻合。
本实施例中,对于众包数据中的小孔图像,可以选择不进行柱面投影变换,直接作为输入完成后续的深度学习模型部署与训练流程。

Claims (6)

1.一种用于众包数据的深度学习模型部署与训练方法,其特征在于,包括以下步骤:
S1、众包数据输入:分别将鱼眼相机数据、小孔相机数据以及全景相机数据作为众包数据输入;
S2、相机自标定:分别对鱼眼相机、小孔相机以及全景相机的内外参进行自动标定;
S3、生成投影变换查找表:根据输入的众包数据的种类,分别生成鱼眼图像、小孔图像的投影变换查找表,并将全景图像作为柱面投影图像;
S4、图像投影变换:根据得到的投影变换查找表,将鱼眼图像、小孔图像的像素移动至投影后的位置,以及根据全景图像,得到柱面投影转换后的新图像;
S5、深度学习模型部署:将所述柱面投影转换后的新图像作为深度学习模型的输入,完成对深度学习模型的部署;
S6、标注数据投影变换:根据所述柱面投影转换后的新图像,对标注数据进行投影变换,以将深度学习模型的训练样本统一变换至柱面投影图像上;
S7、深度学习模型训练:利用经统一变换后的深度学习模型的训练样本,对深度学习模型进行训练,完成对深度学习模型的训练;
所述步骤S3包括以下步骤:
S301、根据输入的众包数据的种类,基于鱼眼相机成像模型和柱面投影模型,计算得到原始鱼眼图像的像素点与目标鱼眼图像的像素点之间的映射关系,生成鱼眼图像的投影变换查找表;
S302、根据输入的众包数据的种类,基于小孔成像模型和柱面投影模型,计算得到原始小孔图像的像素点与目标小孔图像的像素点之间的映射关系,生成小孔图像的投影变换查找表;
S303、将全景图像作为柱面投影图像;
所述步骤S301包括以下步骤:
S3011、根据输入的众包数据的种类,生成一个含有所有目标鱼眼图像像素点坐标(u'f,v'f)的矩阵;
S3012、基于柱面投影模型,计算得到目标鱼眼图像像素点坐标(u'f,v'f)对应的三维空间坐标(Xf,Yf,Zf);
S3013、基于鱼眼相机模型,计算得到每一个三维空间坐标(Xf,Yf,Zf)对应的二维图像坐标,其中,所述二维图像坐标为目标鱼眼图像像素点对应的原始鱼眼图像像素坐标(uf,vf);
S3014、将原始鱼眼图像像素坐标(uf,vf)投影至目标鱼眼图像像素点坐标(u'f,v'f),生成鱼眼图像的投影变换查找表。
2.根据权利要求1所述的用于众包数据的深度学习模型部署与训练方法,其特征在于,所述步骤S3012中三维空间坐标(Xf,Yf,Zf)的表达式如下:
Figure FDA0004116548670000021
Figure FDA0004116548670000022
Figure FDA0004116548670000023
其中,(u'f,v'f)表示目标鱼眼图像像素点坐标,(Xf,Yf,Zf)表示目标鱼眼图像像素点对应的三维空间坐标,fx和fy分别表示柱面投影在水平和垂直方向上的焦距,u0和v0分别表示柱面投影在水平和垂直方向上的光心坐标。
3.根据权利要求2所述的用于众包数据的深度学习模型部署与训练方法,其特征在于,所述步骤S3013中原始鱼眼图像像素坐标(uf,vf)与目标鱼眼图像像素点对应的三维空间坐标(Xf,Yf,Zf)之间的表达式如下:
Figure FDA0004116548670000031
θ=arctan(r)
θd=θ(1+k1θ2+k2θ4+k3θ6+k4θ8)
Figure FDA0004116548670000032
Figure FDA0004116548670000033
其中,r表示中间变量,θ表示入射角,θd表示鱼眼镜头畸变后的入射角,k1,k2,k3和k4均表示鱼眼镜头畸变系数,
Figure FDA0004116548670000034
Figure FDA0004116548670000035
分别表示鱼眼相机在水平方向上和垂直方向上的焦距,
Figure FDA0004116548670000036
Figure FDA0004116548670000037
表示鱼眼相机在水平和垂直方向上的光心坐标。
4.根据权利要求3所述的用于众包数据的深度学习模型部署与训练方法,其特征在于,所述步骤S302包括以下步骤:
S3021、根据输入的众包数据的种类,生成一个含有所有小孔图像像素点坐标(up',vp')的矩阵;
S3022、基于柱面投影模型,计算得到目标小孔图像像素点坐标(up',vp')对应的三维空间坐标(Xp,Yp,Zp);
S3023、基于小孔成像模型,计算得到每一个三维空间坐标(Xp,Yp,Zp)对应的二维图像坐标,其中,所述二维图像坐标为目标小孔图像像素点对应的原始小孔图像像素坐标(up,vp);
S3024、将原始小孔图像像素坐标(up,vp)投影至目标小孔图像像素点坐标(up',vp'),生成柱面投影查找表。
5.根据权利要求4所述的用于众包数据的深度学习模型部署与训练方法,其特征在于,所述步骤S3022中目标小孔图像像素点坐标(up',vp')对应的三维空间坐标(X1,Y1,Z1)的表达式如下:
Figure FDA0004116548670000041
Figure FDA0004116548670000042
Figure FDA0004116548670000043
其中,(u'p,v'p)表示目标小孔图像像素点坐标,(Xp,Yp,Zp)表示目标小孔图像像素点对应的三维空间坐标,fx和fy分别表示柱面投影在水平和垂直方向上的焦距,u0和v0分别表示柱面投影在水平和垂直方向上的光心坐标。
6.根据权利要求5所述的用于众包数据的深度学习模型部署与训练方法,其特征在于,所述步骤S3023中原始小孔图像像素坐标(up,vp)与目标小孔图像像素点对应的三维空间坐标(Xp,Yp,Zp)之间的表达式如下:
Figure FDA0004116548670000044
Figure FDA0004116548670000045
其中,
Figure FDA0004116548670000046
Figure FDA0004116548670000047
分别表示小孔相机在水平方向上和垂直方向上的焦距,
Figure FDA0004116548670000048
Figure FDA0004116548670000049
表示分别小孔相机在水平和垂直方向上的光心坐标。
CN202210120179.9A 2022-02-07 2022-02-07 一种用于众包数据的深度学习模型部署与训练方法 Active CN114462622B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210120179.9A CN114462622B (zh) 2022-02-07 2022-02-07 一种用于众包数据的深度学习模型部署与训练方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210120179.9A CN114462622B (zh) 2022-02-07 2022-02-07 一种用于众包数据的深度学习模型部署与训练方法

Publications (2)

Publication Number Publication Date
CN114462622A CN114462622A (zh) 2022-05-10
CN114462622B true CN114462622B (zh) 2023-04-07

Family

ID=81412623

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210120179.9A Active CN114462622B (zh) 2022-02-07 2022-02-07 一种用于众包数据的深度学习模型部署与训练方法

Country Status (1)

Country Link
CN (1) CN114462622B (zh)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108053373A (zh) * 2017-12-05 2018-05-18 长沙全度影像科技有限公司 一种基于深度学习模型鱼眼图像校正方法
CN111260539A (zh) * 2020-01-13 2020-06-09 魔视智能科技(上海)有限公司 鱼眼图目标识别方法及其系统

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9225942B2 (en) * 2012-10-11 2015-12-29 GM Global Technology Operations LLC Imaging surface modeling for camera modeling and virtual view synthesis
US20170127045A1 (en) * 2015-10-28 2017-05-04 Toppano Co., Ltd. Image calibrating, stitching and depth rebuilding method of a panoramic fish-eye camera and a system thereof
CN108122191B (zh) * 2016-11-29 2021-07-06 成都美若梦景科技有限公司 鱼眼图像拼接成全景图像和全景视频的方法及装置
CN112001266B (zh) * 2020-07-30 2023-01-17 上海交通大学 一种大型无人运输车监控方法及系统
CN112712037A (zh) * 2020-12-31 2021-04-27 苏州清研微视电子科技有限公司 基于全景图像和目标检测的车载环境感知方法和系统
CN113888645A (zh) * 2021-09-29 2022-01-04 上海商汤临港智能科技有限公司 一种行驶设备、计算机视觉处理方法、装置和电子设备

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108053373A (zh) * 2017-12-05 2018-05-18 长沙全度影像科技有限公司 一种基于深度学习模型鱼眼图像校正方法
CN111260539A (zh) * 2020-01-13 2020-06-09 魔视智能科技(上海)有限公司 鱼眼图目标识别方法及其系统

Also Published As

Publication number Publication date
CN114462622A (zh) 2022-05-10

Similar Documents

Publication Publication Date Title
CN109919911B (zh) 基于多视角光度立体的移动三维重建方法
CN107729893B (zh) 一种合模机的视觉定位方法、系统和存储介质
CN111784778B (zh) 基于线性求解非线性优化的双目相机外参标定方法和系统
CN111524194B (zh) 一种激光雷达和双目视觉相互融合的定位方法及终端
CN113920205B (zh) 一种非同轴相机的标定方法
CN112767546B (zh) 移动机器人基于双目图像的视觉地图生成方法
CN116433737A (zh) 一种激光雷达点云与图像配准的方法、装置及智能终端
CN111461963A (zh) 一种鱼眼图像拼接方法及装置
CN112017248B (zh) 一种基于点线特征的2d激光雷达相机多帧单步标定方法
JP2023505891A (ja) 環境のトポグラフィを測定するための方法
KR102268094B1 (ko) 동적 입체 캘리브레이션을 위한 시스템 및 방법
CN115222884A (zh) 一种基于人工智能的空间对象分析及建模优化方法
CN114462622B (zh) 一种用于众包数据的深度学习模型部署与训练方法
CN112712566A (zh) 基于结构参数在线校正的双目立体视觉传感器测量方法
CN113763481B (zh) 一种移动场景中多相机视觉三维地图构建与自标定方法
CN115546716A (zh) 一种基于双目视觉的输电线路周边火灾源头定位方法
CN102968784B (zh) 一种多视角拍摄进行孔径合成成像方法
JPH1055446A (ja) 物体認識装置
CN114779272A (zh) 一种垂直约束增强的激光雷达里程计方法及装置
CN111754587B (zh) 一种基于单焦距聚焦拍摄图像的变焦镜头快速标定方法
Iida et al. High-accuracy Range Image Generation by Fusing Binocular and Motion Stereo Using Fisheye Stereo Camera
WO2023062994A1 (ja) 学習装置、学習方法、学習プログラム、カメラパラメータ算出装置、カメラパラメータ算出方法及びカメラパラメータ算出プログラム
Ravindranath et al. 3D-3D Self-Calibration of Sensors Using Point Cloud Data
Ahn Calibration of stereo fish-eye camera for Driver Assistance Systems
CN116529758A (zh) 图像和/或图像点的矫正方法,基于摄像装置的系统和车辆

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant