CN111259950A - 一种基于3d模型训练yolo神经网络的方法 - Google Patents
一种基于3d模型训练yolo神经网络的方法 Download PDFInfo
- Publication number
- CN111259950A CN111259950A CN202010034052.6A CN202010034052A CN111259950A CN 111259950 A CN111259950 A CN 111259950A CN 202010034052 A CN202010034052 A CN 202010034052A CN 111259950 A CN111259950 A CN 111259950A
- Authority
- CN
- China
- Prior art keywords
- data set
- model
- neural network
- image
- yolo
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于3D模型训练YOLO神经网络的方法,首先、构建待测物体3D模型及场景背景模型并结合形成场景图,随机化物体3D模型的中心点所在坐标、Euler角、纹理参数及场景背景模型,对场景图渲染多次得到原始数据集;其次、由原始数据集中标记五元组中边框界的左上顶点坐标、右下顶点坐标与图像宽高计算得到边界框的中心点坐标、宽、高与图像宽高的相对比例,从而转换得到YOLO神经网络标准数据集;最后,建立所得数据集与YOLO神经网络结合后的损失函数,使用随机梯度下降算法求损失函数近似最小值,得到待检测物体的YOLO目标检测模型,本发明可减少YOLO神经网络数据集获取成本。
Description
技术领域
本发明属于计算机视觉技术领域,具体涉及了一种基于3D模型训练YOLO神经网络的方法。
背景技术
近年来,随着卷积神经网络和深度学习的不断发展,目标检测技术迅猛兴起,目标检测是指能够正确识别图像中的指定物体并能够对其进行定位,由于目标检测技术的实用性和通用性,其应用领域十分广泛。
当今目标检测技术主要基于深度卷积神经网络,目前较流行的一种网络结构是YOLO(You Only Look Once)网络,其特点是检测速度快,检测精度高,训练YOLO神经网络一般需要大量带物体位置标注的图片,所以在应用YOLO神经网络时第一步就是采集和标注大量的包含待检测目标图片,为了保证最后取得的深度学习模型的泛化性,收集数据时需要结合具体应用场景,需要考虑到数据的多样性,导致数据的采集难度增加,此外在标记数据时,则要通过人工一一辨识图片中的物体,效率低下,成本高昂,这也成为了将目标检测技术应用于具体业务时的一大障碍。
发明内容
发明目的:为了克服训练数据采集和标注成本高的问题,本发明提供一种基于3D模型训练YOLO神经网络的方法,并通过在场景图渲染过程中,随机化物体3D模型的中心点所在坐标、Euler角、纹理参数及场景背景模型,使得YOLO模型的泛化性得到提高,并降低了YOLO模型的过拟合,采用此方案后,训练图片及物体标注信息获取的成本将极大的降低。
技术方案:为实现上述目的,本发明采用的技术方案为:
一种基于3D模型训练YOLO神经网络的方法,首先、构建待测物体3D模型及场景背景模型并结合形成场景图,随机化物体3D模型的中心点所在坐标、Euler角、纹理参数及场景背景模型,对场景图渲染多次得到原始数据集;其次、由原始数据集中标记五元组中边框界的左上顶点坐标、右下顶点坐标与图像宽高计算得到边界框的中心点坐标、宽、高与图像宽高的相对比例,从而转换得到YOLO神经网络标准数据集;最后,建立所得数据集与YOLO神经网络结合后的损失函数,使用随机梯度下降算法求损失函数近似最小值,得到待检测物体的YOLO目标检测模型。具体包括以下步骤:
步骤1、收集待测物体信息及场景信息,构建待测物体3D模型及场景背景模型,将两者结合形成完整的场景图(Sense Graph),在渲染过程中,随机化待测物体3D模型的中心点所在坐标、Euler角、纹理参数及场景背景模型,每次随机化后进行场景渲染将得到一张图片和对应的标注,进行N(N>10000)次随机化后得到的图片集与对应的标注集构成原始数据集;
构建原始数据集的方法如下:
步骤11,建立输出图像的渲染模型:
输出图像的渲染模型如下:
I=R(Mo,Mb,po,eo,to,pw,ew,hi,wi,L)
式中,I是输出图像,R为场景渲染函数,Mo为待测物体模型,Mb为去除去待测物体之外的整个场景背景模型,Mo和Mb共同构成场景图M,po,eo,to分别为Mo在M中的中心点坐标、Euler角、纹理参数,pw,ew分别为图像窗口(Image Window)在M中的中心点坐标,Euler角。hi,wi为输出图像I的高度与宽度,也即图像窗口的高度与宽度,L为场景图M的光照条件;
步骤12,根据渲染模型构建图片集和标注集,从而得到原始数据集:
在渲染模型中,对参数pw,ew,hi,wi取定值,对参数Mo,Mb,po,eo,to,L分别取其预定义值域中的随机值,则对于特定的Mo,Mb,po,eo,to,L,由渲染模型中可得一张唯一的输出图像I,I中包含Mo所对应的物体,进行N次随机取值,可得到N张不同的含有对应待检测物体的输出图像。
对于任意一张输出图像,以图像左上顶点为原点O,竖直方向为X轴,向下为X轴正方向,水平方向为Y轴,向右为Y轴正方向,以X轴为图像的高度方向,以Y轴为图像的宽度方向建立坐标系;图像的高度为hi,宽度为wi,图像右上顶点的坐标为(0,wi),左下顶点的坐标为(hi,0),图像中待检测物体的外接边界框高度为hb,宽度为wb,边界框的左上顶点,右下顶点,中点坐标分别为p1=(x1,y1),p2=(x2,y2),pc=(xc,yc)。
待测物体一共有n个类别,将其编号为0~n-1。在渲染过程中,对于任意一张输出图片I,同时可得到图片I对应的标注信息,标注信息由一个五元组构成,形式为(c,x1,y1,x2,y2),其中c为对应物体的类别编号,x1,y1为物体的边界框左上坐标,x2,y2为物体的边界框右下顶点坐标,由N张输出图片和对应的N个标注五元组构成原始数据集Sraw。
步骤2、由原始数据集中标记五元组中边框界的左上顶点、右下顶点坐标与图像宽高计算得到边界框的中点坐标、宽、高与图像宽高的相对比例,形成新的标注五元组,对标注集中的每个标记五元组都进行转换,得到YOLO神经网络标准数据集;
数据集的转换方法如下:
步骤21,求解单个标记五元组的转换关系;
在YOLO神经网络标准数据集格式中,每张图片对应的标注五元组的形式为(c,x′c,y′c,h'b,w′b),其中c为对应物体的类别编号,对步骤2中所得原始数据集Sraw中的标注五元组进行转换得到新的标注五元组,解得转换关系为:
步骤22,对原始数据集Sraw中的所有标记五元组执行转化算法,转换后将得到YOLO神经网络标准数据集S。
步骤3、建立所得数据集与YOLO神经网络结合后对应的损失函数,使用随机梯度下降算法求损失函数取近似最小值时的权重参数,根据权重参数得到待检测物体的YOLO目标检测模型。
优选的:步骤3中使用所得数据集S训练YOLO神经网络的方法如下:
步骤31,建立数据集S在YOLO神经网络下的损失函数;
YOLO神经网络模型为:
式中,为YOLO网络结构所表示的非线性函数,θ为YOLO神经网络权重,即要学习的参数,I为输入YOLO神经网络的图像,t为网络输出的标记五元组。数据集S中的图片Ii在下的误差函数为其中Li为Ii对应的标注,则数据集S在下的总误差函数为:
步骤32,θ为可学习权重参数,数据集S固定,使用随机梯度下降法求误差函数Losstotal(θ,S)取得近似最小值时θ的取值,方法如下:
步骤321,对数据集S进行随机打乱,然后将其划分成n个大小为m的mini batch,令i=1;
步骤322,计算第i个mini batch的平均误差函数梯度:
式中,gradi是第i个mini batch的平均误差函数梯度,Iij为第i个mini batch中的第j张图片,Lij为Iij对应的标注;
步骤323,使用gradi更新网络权重参数θ:
θ←θ-η·gradi#(9)
式中,η为学习率大小。
步骤324,对i进行递增:i←i+1,若i>n,则跳转到步骤325,否则跳转到步骤322。
步骤325,若θ基本收敛,则算法结束,否则跳转到步骤321;
算法执行结束后θ基本收敛,权重为θ的YOLO神经网络即为所求目标检测模型。
本发明相比现有技术,具有以下有益效果:
本发明是基于3D模型训练YOLO神经网络,在能够得到充足的带标记的训练图片时大大地降低了成本,此外通过随机化场景图中物体3D模型的中心点所在坐标、Euler角、纹理参数及场景背景模型,能够保证YOLO神经网络能够学习到物体的本质结构特征。
附图说明
图1为基于3D模型训练YOLO神经网络的流程图;
图2为YOLO神经网络结构图;
图3为图像坐标系建立示意图。
具体实施方式
下面结合附图和具体实施例,进一步阐明本发明,应理解这些实例仅用于说明本发明而不用于限制本发明的范围,在阅读了本发明之后,本领域技术人员对本发明的各种等价形式的修改均落于本申请所附权利要求所限定的范围。
YOLO是一种基于深度神经网络的物体识别和定位算法,能够识别并定位图片中的指定物体,其最大的特点是运行速度很快,可以用于实时系统,应用YOLO前一般需要收集大量待检测物体的图片并进行标记,然后将标记信息和图片同时送入神经网络进行训练,由于收集和标记工作繁琐且成本高昂,所以在实际应用中,基于YOLO的方法通常不易实现,因此我们考虑到使用物体的3D模型来构建数据集,通过在渲染输出图片时随机化场景图中物体3D模型的中心点所在坐标、Euler角、纹理参数及场景背景模型,迫使在使用构建的数据集训练YOLO神经网络时网络能够学习到物体的本质结构特征,采用此方案将大大减少获取训练数据的成本。
如图1所示,本发明提出一种基于3D模型训练YOLO神经网络的方法,具体步骤如下:
(一)使用物体3D模型构建原始数据集;
(二)对原始数据集进行格式转换得到YOLO标准数据集;
(三)用得到的标准数据集结合随机梯度下降算法训练YOLO神经网络;
步骤一的具体说明:
收集待测物体信息及场景信息,构建待测物体3D模型及场景背景模型,将两者结合形成完整的场景图,对场景图进行渲染。在3D计算机图形学中,最终呈现给用户的图像主要是通过对场景图进行渲染得到,渲染过程即为模拟光线在场景图中的折射与反射过程,场景图与渲染过程通常使用成熟的商业软件完成,我们在实现时并使用自行车作为待检测物体,使用游戏设计软件虚幻引擎4来构建场景图构建与渲染模型:
输出图像的渲染模型如下:
I=R(Mo,Mb,po,eo,to,pw,ew,hi,wi,L) (1)
式中,I是输出图像,R为场景渲染函数,Mo为待测物体模型,Mb为去除去待测物体之外的整个场景背景模型,Mo和Mb共同构成场景图M,po,eo,to分别为Mo在M中的中心点坐标、Euler角、纹理参数,pw,ew分别为图像窗口(Image Window)在M中的中心点坐标,Euler角。hi,wl为输出图像I的高度与宽度,也即图像窗口的高度与宽度,L为场景图M的光照条件;
在式(1)中,对参数pw,ew,hi,wi取定值,对参数Mo,Mb,po,eo,to,L分别取其预定义值域中的随机值,则对于特定的Mo,Mb,po,eo,to,L,由(1)式中所表示的渲染过程模型可得一张唯一的输出图像I,I中包含Mo所对应的物体,进行N次随机取值,可得到N张不同的含有对应待检测物体的输出图像。
对于任意一张输出图像,如图3所示:以图像左上顶点为原点O,竖直方向为X轴,向下为X轴正方向,水平方向为Y轴,向右为Y轴正方向,建立坐标系,以X轴为图像的高度方向,以Y轴为图像的宽度方向。则图像的高度为hi,宽度为wi,图像右上顶点的坐标为(0,wi),左下顶点的坐标为(hi,0),图像中待检测物体的外接边界框高度为hb,宽度为wb,边界框的左上顶点,右下顶点,中点坐标分别为p1=(x1,y1),p2=(x2,y2),pc=(xc,yc)。
待测物体一共有n个类别,将其编号为0~n-1。在渲染过程中,对于任意一张输出图片I,同时可得到图片I对应的标注信息,标注信息由一个五元组构成,形式为(c,x1,y1,x2,y2),其中c为对应物体的类别编号,x1,y1为物体的边界框左上坐标,x2,y2为物体的边界框右下顶点坐标,由N张输出图片和对应的N个标注五元组构成原始数据集Sraw。
我们使用了虚幻引擎4的一款插件NDDS(NVIDIA Deep learning DatasetSynthesizer)来完成了对参数Mo,Mb,po,eo,to,L随机化的具体实现,此外还使用NDDS来完成图片集和标注五元组的生成。
步骤二的具体说明:
如图2所示,YOLO神经网络对输入的数据标注格式有严格的限制,步骤一所得的原始数据集Sraw无法直接用来训练YOLO神经网络,需要对其进行格式转换,转换步骤如下:
首先需要求解单个标记五元组的转换关系;
在YOLO神经网络标准数据集格式中,每张图片对应的标注五元组的形式为(c,x′c,y′c,h′b,w′b),其中c为对应物体的类别编号,对步骤2中所得原始数据集Sraw中的标注五元组进行转换得到新的标注五元组,解得转换关系为:
我们使用Python程序语言对转换算法进行了编程实现,并对原始数据集Sraw中的所有标记五元组执行转化算法,得到了YOLO神经网络标准数据集S。
步骤三的具体说明:
由标准数据集S和YOLO神经网络得到最终的目标检测模型需要执行训练过程,具体过程如下:
首先需要建立数据集S在YOLO神经网络下的损失函数;
YOLO神经网络模型为:
式中,为YOLO网络结构所表示的非线性函数,θ为YOLO神经网络权重,即要学习的参数,I为输入YOLO神经网络的图像,t为网络输出的标记五元组。数据集S中的图片Ii在下的误差函数为其中Li为Ii对应的标注,则数据集S在下的总误差函数为:
式中,θ为可学习权重参数,数据集S固定,使用随机梯度下降法求误差函数Losstotal(θ,S)取得近似最小值时θ的取值,算法如下:
步骤321,对数据集S进行随机打乱,然后将其划分成n个大小为m的mini batch,令i=1;
步骤322,计算第i个mini batch的平均误差函数梯度:
式中,gradi是第i个mini batch的平均误差函数梯度,Iij为第i个mini batch中的第j张图片,Lij为Iij对应的标注;
步骤323,使用gradi更新网络权重参数θ:
θ←θ-η·gradi (9)
式中,η为学习率大小。
步骤324,对i进行递增:i←i+1,若i>n,则跳转到步骤325,否则跳转到步骤322。
步骤325,若θ基本收敛,则算法结束,否则跳转到步骤321;
算法执行结束后θ基本收敛,权重为θ的YOLO神经网络即为所求目标检测模型,我们使用了Darknet深度学习框架具体实现了整个YOLO神经网络对数据集S的训练过程,另外在训练时使用了GPU来实现并行计算加速。
本发明主要利用物体3D模型构建YOLO神经网络数据集,用此数据集对YOLO神经网络进行训练,通过在渲染场景图时随机化场景图中物体3D模型的中心点所在坐标、Euler角、纹理参数及场景背景模型,保证YOLO神经网络在训练是能够学习到物体的本质结构特征,疏略掉不相干因素。使用该发明的方法将大大减少收集和标记数据集的成本。
以上所述仅是本发明的优选实施方式,应当指出:对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (4)
1.一种基于3D模型训练YOLO神经网络的方法,其特征在于,包括以下步骤:
步骤1、收集待测物体信息及场景信息,构建待测物体3D模型及场景背景模型,将两者结合形成完整的场景图,对场景图进行渲染,渲染模型如下:
I=R(Mo,Mb,po,eo,to,pw,ew,hi,wi,L)
式中,I是输出图像,R为场景渲染函数,Mo为待测物体3D模型,Mb为场景背景模型,Mo和Mb共同构成场景图M,po,eo,to分别为Mo在M中的中心点坐标、Euler角、纹理参数,pw,ew分别为图像窗口在M中的中心点坐标和Euler角;hi,wi为输出图像I的高度与宽度,L为场景图M的光照条件;
对参数pw,ew,hi,wi取定值,对参数Mo,Mb,po,eo,to,L分别取其预定义值域中的随机值,则对于特定的Mo,Mb,po,eo,to,L,由渲染模型得一张唯一的输出图像I,输出图像I中包含Mo所对应的物体,进行N次随机取值,得到N张不同的含有对应待检测物体的输出图像;
对于任意一张输出图像,以图像左上顶点为原点O,竖直方向为X轴,向下为X轴正方向,水平方向为Y轴,向右为Y轴正方向,建立坐标系;以X轴为图像的高度方向,以Y轴为图像的宽度方向,则图像的高度为hi,宽度为wi,图像右上顶点的坐标为(0,wi),左下顶点的坐标为(hi,0),图像中待检测物体的外接边界框高度为hb,宽度为wb,边界框的左上顶点,右下顶点,中点坐标分别为p1=(x1,y1),p2=(x2,y2),pc=(xc,yc);待检测物体一共有n个类别,将其编号为0~n-1;在渲染过程中,对于任意一张输出图片I,同时可得到图片I对应的标注信息,标注信息由一个五元组构成,形式为(c,x1,y1,x2,y2),其中c为对应物体的类别编号,x1,y1为物体的边界框左上坐标,x2,y2为物体的边界框右下顶点坐标,由N张输出图片和对应的N个标注五元组构成原始数据集Sraw;
步骤2、由原始数据集中标记五元组中边框界的左上顶点、右下顶点坐标与图像宽高计算得到边界框的中点坐标、宽、高与图像宽高的相对比例,形成新的标注五元组,然后对新的新的标注五元组形成的标注集中的每个标记五元组都进行转换,得到YOLO神经网络标准数据集S,转换关系如下:
对原始数据集Sraw中的所有标记五元组根据转换关系进行转化,转换后将得到标准数据集S;
步骤3、根据标准数据集S和YOLO神经网络建立标准数据集S与YOLO神经网络结合后对应的损失函数:
其中,表示数据集S中的图片Ii在下的误差函数,表示YOLO神经网络模型,t为网络输出的标记五元组,为YOLO网络结构所表示的非线性函数,θ为YOLO神经网络权重,即要学习的参数,I为输入YOLO神经网络的图像,Li为Ii对应的标注;
使用随机梯度下降算法求损失函数取近似最小值时的权重参数,根据权重参数得到待检测物体的YOLO目标检测模型。
3.根据权利要求2所述基于3D模型训练YOLO神经网络的方法,其特征在于:使用随机梯度下降算法求损失函数取近似最小值时的权重参数的步骤如下:
步骤321,对数据集S进行随机打乱,然后将其划分成n个大小为m的mini batch,令i=1;
步骤322,计算第i个mini batch的平均误差函数梯度:
式中,gradi是第i个mini batch的平均误差函数梯度,Iij为第i个mini batch中的第j张图片,Lij为Iij对应的标注;
步骤323,使用gradi更新网络权重参数θ:
θ←θ-η·gradi#(9)
式中,η为学习率大小;
步骤324,对i进行递增:i←i+1,若i>n,则跳转到步骤325,否则跳转到步骤322;
步骤325,若θ小于预定收敛阈值,表示θ基本收敛,则结束,否则跳转到步骤321。
4.根据权利要求3所述基于3D模型训练YOLO神经网络的方法,其特征在于:使用虚幻引擎4对参数Mo,Mb,po,eo,to,L随机化的具体实现。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010034052.6A CN111259950B (zh) | 2020-01-13 | 2020-01-13 | 一种基于3d模型训练yolo神经网络的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010034052.6A CN111259950B (zh) | 2020-01-13 | 2020-01-13 | 一种基于3d模型训练yolo神经网络的方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111259950A true CN111259950A (zh) | 2020-06-09 |
CN111259950B CN111259950B (zh) | 2022-07-05 |
Family
ID=70950404
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010034052.6A Active CN111259950B (zh) | 2020-01-13 | 2020-01-13 | 一种基于3d模型训练yolo神经网络的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111259950B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112990121A (zh) * | 2021-04-25 | 2021-06-18 | 中国人民解放军国防科技大学 | 一种目标检测方法、装置、电子设备及存储介质 |
CN113342914A (zh) * | 2021-06-17 | 2021-09-03 | 重庆大学 | 一种用于地球仪区域检测的数据集获取及自动标注的方法 |
CN113505653A (zh) * | 2021-06-15 | 2021-10-15 | 杭州飞步科技有限公司 | 目标检测方法、装置、设备、介质及程序产品 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107690672A (zh) * | 2017-07-25 | 2018-02-13 | 深圳前海达闼云端智能科技有限公司 | 训练数据生成方法、生成装置及其图像语义分割方法 |
CN109448086A (zh) * | 2018-09-26 | 2019-03-08 | 青岛中科慧畅信息科技有限公司 | 基于稀疏实采数据的分拣场景平行数据集构建方法 |
US20190147642A1 (en) * | 2017-11-15 | 2019-05-16 | Google Llc | Learning to reconstruct 3d shapes by rendering many 3d views |
CN110084304A (zh) * | 2019-04-28 | 2019-08-02 | 北京理工大学 | 一种基于合成数据集的目标检测方法 |
CN110298265A (zh) * | 2019-06-10 | 2019-10-01 | 东南大学 | 一种基于yolo神经网络的电梯中特定目标检测方法 |
CN110503716A (zh) * | 2019-08-12 | 2019-11-26 | 中国科学技术大学 | 一种机动车车牌合成数据生成方法 |
-
2020
- 2020-01-13 CN CN202010034052.6A patent/CN111259950B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107690672A (zh) * | 2017-07-25 | 2018-02-13 | 深圳前海达闼云端智能科技有限公司 | 训练数据生成方法、生成装置及其图像语义分割方法 |
US20190147642A1 (en) * | 2017-11-15 | 2019-05-16 | Google Llc | Learning to reconstruct 3d shapes by rendering many 3d views |
CN109448086A (zh) * | 2018-09-26 | 2019-03-08 | 青岛中科慧畅信息科技有限公司 | 基于稀疏实采数据的分拣场景平行数据集构建方法 |
CN110084304A (zh) * | 2019-04-28 | 2019-08-02 | 北京理工大学 | 一种基于合成数据集的目标检测方法 |
CN110298265A (zh) * | 2019-06-10 | 2019-10-01 | 东南大学 | 一种基于yolo神经网络的电梯中特定目标检测方法 |
CN110503716A (zh) * | 2019-08-12 | 2019-11-26 | 中国科学技术大学 | 一种机动车车牌合成数据生成方法 |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112990121A (zh) * | 2021-04-25 | 2021-06-18 | 中国人民解放军国防科技大学 | 一种目标检测方法、装置、电子设备及存储介质 |
CN113505653A (zh) * | 2021-06-15 | 2021-10-15 | 杭州飞步科技有限公司 | 目标检测方法、装置、设备、介质及程序产品 |
CN113505653B (zh) * | 2021-06-15 | 2023-06-30 | 杭州飞步科技有限公司 | 目标检测方法、装置、设备、介质及程序产品 |
CN113342914A (zh) * | 2021-06-17 | 2021-09-03 | 重庆大学 | 一种用于地球仪区域检测的数据集获取及自动标注的方法 |
CN113342914B (zh) * | 2021-06-17 | 2023-04-25 | 重庆大学 | 一种用于地球仪区域检测的数据集获取及自动标注的方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111259950B (zh) | 2022-07-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111259950B (zh) | 一种基于3d模型训练yolo神经网络的方法 | |
CN102999942B (zh) | 三维人脸重建方法 | |
CN106920243A (zh) | 改进的全卷积神经网络的陶瓷材质件序列图像分割方法 | |
CN109816725A (zh) | 一种基于深度学习的单目相机物体位姿估计方法及装置 | |
CN110414432A (zh) | 对象识别模型的训练方法、对象识别方法及相应的装置 | |
CN107506722A (zh) | 一种基于深度稀疏卷积神经网络人脸情感识别方法 | |
CN106780592A (zh) | 基于相机运动和图像明暗的Kinect深度重建算法 | |
CN107688856B (zh) | 基于深度强化学习的室内机器人场景主动识别方法 | |
CN109446970A (zh) | 一种基于深度学习的变电站巡检机器人道路场景识别方法 | |
CN104408760B (zh) | 一种基于双目视觉的高精度虚拟装配系统算法 | |
CN107967463B (zh) | 一种基于合成图像和深度学习的虚拟人脸识别方法 | |
CN102831427B (zh) | 一种融合视觉显著性和灰度共生矩的纹理特征提取方法 | |
CN107808129A (zh) | 一种基于单个卷积神经网络的面部多特征点定位方法 | |
CN109145900A (zh) | 一种基于深度学习的车牌识别方法 | |
CN107808376B (zh) | 一种基于深度学习的举手检测方法 | |
CN109934847A (zh) | 弱纹理三维物体姿态估计的方法和装置 | |
CN109214298B (zh) | 一种基于深度卷积网络的亚洲女性颜值评分模型方法 | |
CN110827312B (zh) | 一种基于协同视觉注意力神经网络的学习方法 | |
CN105096311A (zh) | 基于gpu的深度图修复和虚实场景结合技术 | |
CN106228109A (zh) | 一种基于骨骼运动轨迹的动作识别方法 | |
CN110135277B (zh) | 一种基于卷积神经网络的人体行为识别方法 | |
CN113159232A (zh) | 一种三维目标分类、分割方法 | |
CN110942110A (zh) | 一种三维模型的特征提取方法和装置 | |
CN114092697A (zh) | 注意力融合全局和局部深度特征的建筑立面语义分割方法 | |
CN114663880A (zh) | 基于多层级跨模态自注意力机制的三维目标检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information | ||
CB02 | Change of applicant information |
Address after: 210000, 66 new model street, Gulou District, Jiangsu, Nanjing Applicant after: NANJING University OF POSTS AND TELECOMMUNICATIONS Address before: Yuen Road Ya Dong Qixia District of Nanjing City, Jiangsu province 210000 New District No. 9 Applicant before: NANJING University OF POSTS AND TELECOMMUNICATIONS |
|
GR01 | Patent grant | ||
GR01 | Patent grant |