CN112509110A - 一种陆地对抗智能体的图像数据集自动采取与标注框架 - Google Patents
一种陆地对抗智能体的图像数据集自动采取与标注框架 Download PDFInfo
- Publication number
- CN112509110A CN112509110A CN202011492370.3A CN202011492370A CN112509110A CN 112509110 A CN112509110 A CN 112509110A CN 202011492370 A CN202011492370 A CN 202011492370A CN 112509110 A CN112509110 A CN 112509110A
- Authority
- CN
- China
- Prior art keywords
- image
- labeling
- framework
- land
- bounding box
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/50—Lighting effects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/30—Clipping
Abstract
本发明公开一种陆地对抗智能体的图像数据集自动采取与标注框架,该框架主要包括:参数初始化部件,负责读取配置文件,并设置框架的基本参数;图像标注部件,图像标注部件由深度信息标注,语义分割标注,物体包围框标注三个小部件组成,分别负责标注图像的深度信息,语义分割信息和图像中物体的包围框信息;数据存储部件,数据存储部件负责将图像标注部件的标注信息存储到磁盘。本发明所提的框架,能够针对陆地对抗的不同环境来建立合适的虚拟场景,然后实时并且精确地获得该陆地对抗场景下的图像数据集,利用得到的数据集可以训练陆地对抗智能体,提升其对抗素质和能力。
Description
技术领域
本发明涉及机器学习与深度学习领域,特别涉及一种陆地对抗智能体的图像数据集自动采取与标注框架。该框架可以给陆地对抗智能体场景下的目标检测、语义分割、深度估计等各种深度学习任务提供合成的对抗智能体图像数据集。
背景技术
神经网络的进步极大地推动了计算机视觉的发展,改变了计算机视觉领域的研究面貌和思维方式。特征工程的思维模式几乎被利用神经网络自动从大量图像中提取特征的方式所取代。这也意味着图像数据成为了计算机视觉领域最重要的资源。计算机视觉领域的一些重要任务如:人脸识别,目标检测,目标追踪,语义分割,场景识别都需要大数据的支撑。所以,图像数据集的数量和质量就成为了计算机视觉关键技术进一步发展并真正走入社会生活和生产的关键。
目前,专门针对智能体对抗方面的图像数据集很少,而直接将现有的数据集应用到智能体对抗领域上去会产生数据分布不吻合,深度模型收敛慢,模型泛化能力低以及深度学习算法不鲁棒等各种问题。直接重新收集专门的智能体对抗数据集需要耗费大量的时间,人力和财力,并且还会由于各种特定问题难以进展下去。这些问题限制了人工智能在智能体对抗领域的发展。本发明提出的基于Unity3D的陆地对抗智能体图像数据集自动采取和标注的框架能够非常方便,准确地自动实时收集图片并自动标注图片的深度信息,图片中的物体包围框和图片的语义分割真值,最终得到高质量的智能体对抗合成图像数据集。可以推动人工智能在智能体对抗领域的发展。
发明内容
针对现在智能体对抗领域内收集数据集的一些困难,本发明的目的是提供一种陆地对抗智能体的图像数据集自动采取与标注框架,其特征在于,包括:自动实时标注图像深度信息的方法,自动实时标注图像的语义分割标签的方法,自动实时标注图像中物体包围框的方法,图片与图片标签信息的自动实时存储的方法。
所述自动实时标注图像深度信息的方法包括以下步骤:
步骤S1,从场景中得到各个物体到相机的距离信息d;
步骤S2,将距离信息编码为灰度值;
步骤S3,Unity3D利用步骤S2得到的灰度值进行渲染得到的场景图片即为深度信息标注图;
所述自动实时标注图像的语义分割标签的方法包括以下步骤:
步骤S1,给不同类别的物体设置好不同的标签;
步骤S2,通过哈希映射的方式,将不同的标签编码为不同的颜色;
步骤S3,将物体渲染的颜色参数值设置为步骤S2所得到的颜色值;
步骤S4,渲染后的图片就是图像语义分割的标签真值;
所述自动实时标注图像中物体包围框的方法包括以下步骤:
步骤S1,获取物体在三维场景中的三维包围框和物体的类别标签与类别名称;
步骤S2,根据物体间的遮挡关系,利用二分法对步骤S1所得的三维包围框进行裁剪;
步骤S3,利用坐标变换关系式将三维包围框的八个顶点投影到相机的二维屏幕上,得到屏幕上的8个点,记为D1-8,每个点Di的坐标为(xi,yi),根据D1-8可以得到二维屏幕上的包围框Rect(Xmin,Xmax,Ymin,Ymax),然后根据如下式子得到二维包围框的标注真值;
其中,Cid为包围框所属物体的类别标签;
所述步骤S2进一步包括以下步骤:
步骤S21,对于步骤S1所得的三维包围框的每个面,如果面上的四个顶点均被遮挡,就反复执行十次步骤S22,如果面上的四个顶点没有完全被遮挡,则不做处理;
步骤S22,记当前所处理的面为Fi,与它相对的面为Fj,Fi与Fj的距离为d,判断Fi的四个顶点是否都被遮挡,如果是,就将Fi朝靠近Fj的方向移动d/2,如果否,则将Fi朝远离Fj的方向移动d/2;
步骤S3所述的坐标变换关系式为:
其中n和f分别为相机视锥的近平面距离和远平面距离,而t和r可以由相机的垂直视野角fovY及投影屏幕的宽高比aspect得出,具体关系由如下式子给出:
所述图片与图片标签自动实时存储的方法包括以下步骤:
步骤S1,设置自动图像与标注存储的间隔时间;
步骤S2,根据步骤S1的间隔时间,将渲染后的图片,深度信息图片和语义分割标注图片存储到磁盘,并将所标注的物体包围框,物体类别标签和类别名称统一转为Json格式存储到磁盘。
由于本发明可以自己创建专门针对陆地对抗的各种虚拟场景,并且可以在虚拟场景中事先设置好物体的类别标签,然后根据类别标签设置好物体的渲染特征,因此在获取图片的时候同时也得到了图片的标签信息。因此本发明提供的框架能够方便,准确而迅速地获取专门针对陆地对抗各种虚拟场景的图片和图片标注信息,从而得到高质量的陆地对抗智能体合成数据集。
附图说明
图1是本发明提出的陆地对抗智能体的图像数据集自动采取与标注框架的结构图。
具体实施方式
为使本发明所提的框架的特点更加清楚,框架所用的自动标注方法和自动存储方法的优点更加明显,下面结合附图和具体实施方式做进一步的详细说明。
本发明的目的是提出一种陆地对抗智能体的图像数据集自动采取与标注框架,它能够非常方便,准确而迅速地自动收集专门针对陆地对抗各种场景的图像并自动标注图像的深度信息,图像中的物体包围框和图像的语义分割真值,最终得到高质量的陆地对抗智能体合成数据集。
图1是本发明提出的基于Unity3D的陆地对抗智能体图像数据集自动采取和标注框架的架构图,该框架可以用在各种专门针对陆地对抗的Unity3D虚拟场景中,下面以一个虚拟的城市坦克智能体对抗场景为例对本发明进行介绍。如图1所示,本发明所提的框架主要包括三大部分:参数初始化部件,图像标注部件和数据存储部件;而图像标注部件又由深度信息标注、语义分割标注、物体包围框标注三个小部件组成,数据存储部件由图像格式存储和文本格式存储两个小部件组成;图中的箭头代表数据流的方向。以下逐个具体地介绍框架的各个部件。
参数初始化部件,参数初始化部件的功能是读取配置文件并根据配置文件中的参数设置好框架的基本参数,框架的基本参数包括:数据存储的时间间隔tI,存储图片总数N,导出图片的宽度w,导出图片的高度h,需要标注包围框的物体类别名称列表NameArray(如[soldier,tank])。然后参数初始化部件将w,h,NameArray传递给图像标注部件,将tI,N传递给数据存储部件。
图像标注部件,接收了从参数初始化部件传来的w,h,NameArray后,图像标注部件就开始进行图像的标注。图像标注部件由深度信息标注、语义分割标注、物体包围框标注三个小部件组成,每个小部件都有一个虚拟相机,三个虚拟相机的位置和角度完全一样。下面分别介绍这三个小部件。
深度信息标注部件,深度信息标注部件根据自动实时标注图像的深度信息标签的方法对图像进行标注,自动实时标注图像的深度信息标签的方法包括以下步骤:
步骤S1,从场景中得到各个物体到相机的距离信息d;
步骤S2,将距离信息编码为灰度值;
步骤S3,Unity3D利用步骤S2得到的灰度值进行渲染得到的场景图片即为深度信息标注图;
语义分割标注部件,语义分割标注部件根据自动实时标注图像的语义分割标签的方法对图像进行标注,自动实时标注图像的语义分割标签的方法包括以下步骤:
步骤S1,给不同类别的物体设置好不同的标签,这一步在框架运行前搭建虚拟场景的时候完成,搭建虚拟场景的时候给不同类别的物体设置不同的标签。
步骤S2,通过哈希映射的方式,将不同的标签映射到不同的颜色。具体地,首先利用Rabin-Karp算法将标签字符串映射为32位的整数H,然后将整数H的第0-7位作为RGBA的B值,将整数H的8-15位作为RGBA的G值,将整数H的16-23位作为RGBA的R值,将整数H的24-31位作为RGBA的A值。
步骤S3,对于Unity虚拟场景下的每个物体,将其渲染模式的颜色值设置为该物体的类别标签映射得到的颜色值RGBA。
步骤S4,经过Unity渲染完所有的物体后,虚拟相机所显示的图片就是语义分割的标签真值。
物体包围框部件,物体包围框部件根据从参数初始化传来的NameArray(在当前虚拟的城市坦克大战的场景中,NameArray=[soldier,tank]),根据自动实时标注图像中物体包围框的方法,将所有类别标签为soldier或者tank的物体在图片中的包围框标注出来,自动实时标注图像中物体包围框的方法包括以下步骤:
步骤S1,对每个士兵和坦克,查询Unity后台,得到他们在虚拟场景世界坐标系下的三维包围框BBox,记三维包围框BBox;
步骤S2,对于每个包围框BBox,先检查对于相机来说是否可见,如果不可见,就舍弃;如果可见,就根据物体间的遮挡关系,对BBox进行裁剪得到BBoxf。
该步骤中对BBox进行裁剪得到BBoxf的步骤进一步包括:
步骤S21,记BBox的6个面为F1-6,对6个面中的每个面都用二分法进行裁剪;以Fi为例来,记其四个顶点为V1-4,依次检查四个顶点是否被其他物体遮挡;具体地,从相机位置沿相机与顶点的连线方向发射一条射线,进行碰撞检测,如果射线在到达顶点之前与其他物体相碰,则说明该顶点被其他物体所遮挡了,否则就说明该顶点未被其他物体遮挡。如果面Fi的四个顶点均被其他物体所遮挡,则执行步骤S22;否则就不做任何处理。
步骤S22,记目前所处理的面为Fi,与它相对的面为Fj,Fi与Fj的距离为d,判断Fi的四个顶点是否都被遮挡,如果是,就将Fi朝靠近Fj的方向移动d/2;如果否,则将Fi朝远离Fj的方向移动d/2;如此反复执行10次。
步骤S3,利用(3)式将裁剪后的三维包围框BBoxf投影到相机的二维屏幕上。具体地,记BBoxf的八个顶点为A1-9,利用Unity3D的坐标变换,分别将A1-8投影相机的二维屏幕上,得到二维屏幕上的8个点,记为D1-8,每个点Di的坐标为(xi,yi);根据以下式子:
可以得到二维屏幕上的包围框Rect(Xmin,Xmax,Ymin,Ymax)。然后根据式(2)得到二维包围框的标注真值
其中Cid为包围框所属物体的类别标签。
其中n和f分别为相机视锥的近平面距离和远平面距离,而t和r可以由相机的垂直视野角fovY及投影屏幕的宽高比aspect得出,具体关系由如下式子给出:
数据存储部件,数据存储部件从参数初始化部件获得数据存储时间间隔参数tI和所需存储图片总数N,并根据tI来确定当前时间是否需要将图像标注部件的标注信息存储到磁盘。如果当前时间需要存储,数据存储部件则将原图片,图片的深度信息标注,图片的语义分割标注以图片格式存储到磁盘。将图片的物体包围框标注真值(Cid,Xc,Yc,W,H)以Json文本格式存储到磁盘。然后数据存储部件判断当前已经存储的图片数目是否超过所需存储图片总数N,如果超过,则框架停止运行,如果没有超过,则框架继续运行。
最后我们就得到了虚拟城市坦克智能体对抗场景的图像数据集,包含RGBA图片,图像深度信息标签,图像语义分割标签和图像中物体包围框标签。
以上所述的具体实施方法,对本发明的目的,技术方案和有益效果进行了详细说明,所应理解的是,以上所述仅为本发明的具体实施例而已,并不用于限制本发明,凡在本发明的精神原则之内,所做的任何修改、等同替换,改进等,均应包含在本发明的保护范围之内。
Claims (5)
1.一种陆地对抗智能体的图像数据集自动采取与标注框架,其特征在于,包括:自动实时标注图像深度信息的方法,自动实时标注图像的语义分割标签的方法,自动实时标注图像中物体包围框的方法,图像与图像标注自动实时存储的方法。
2.根据权利要求1所述的框架,其特征在于,所述自动实时标注图像深度信息的方法包括以下步骤:
步骤S1,从场景中得到各个物体到相机的距离信息d;
步骤S2,将距离信息编码为灰度值;
步骤S3,Unity3D利用步骤S2得到的灰度值进行渲染得到的场景图片即为深度信息标注图。
3.根据权利要求1所述的框架,其特征在于,所述自动实时标注图像的语义分割标签的方法包括以下步骤:
步骤S1,给不同类别的物体设置好不同的标签;
步骤S2,通过哈希映射的方式,将不同的标签编码为不同的颜色;
步骤S3,将物体渲染的颜色参数值设置为步骤S2所得到的颜色值;
步骤S4,Unity3D渲染后的图片就是图像语义分割的标签真值。
4.根据权利要求1所述的框架,其特征在于,所述自动实时标注图像中物体包围框的方法包括以下步骤:
步骤S1,获取物体在三维场景中的三维包围框和物体的类别标签与类别名称;
步骤S2,根据物体间的遮挡关系,利用二分法对步骤S1所得的三维包围框进行裁剪;
步骤S3,利用坐标变换关系式将三维包围框的八个顶点投影到相机的二维屏幕上,得到屏幕上的8个点,记为D1-8,每个点Di的坐标为(xi,yi),根据D1-8可以得到二维屏幕上的包围框Rect(Xmin,Xmax,Ymin,Ymax),然后根据如下式子得到二维包围框的标注真值;
其中,Cid为包围框所属物体的类别标签;
所述步骤S2进一步包括以下步骤:
步骤S21,对于步骤S1所得的三维包围框的每个面,如果面上的四个顶点均被遮挡,就反复执行十次步骤S22,如果面上的四个顶点没有完全被遮挡,则不做处理;
步骤S22,记当前所处理的面为Fi,与它相对的面为Fj,Fi与Fj的距离为d,判断Fi的四个顶点是否都被遮挡,如果是,就将Fi朝靠近Fj的方向移动d/2,如果否,则将Fi朝远离Fj的方向移动d/2;
步骤S3所述的坐标变换关系式为:
其中n和f分别为相机视锥的近平面距离和远平面距离,而t和r可以由相机的垂直视野角fovY及投影屏幕的宽高比aspect得出,具体关系由如下式子给出:
5.根据权利要求1所述的框架,其特征在于,所述图像与图像标注的自动存储的方法包括以下步骤:
步骤S1,设置自动存储图像与图像标注的间隔时间;
步骤S2,根据步骤S1的间隔时间,将渲染后的图片,深度信息图片和语义分割标注图片存储到磁盘,然后将所标注的物体包围框,物体类别标签和类别名称统一转为Json格式存储到磁盘。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011492370.3A CN112509110A (zh) | 2020-12-16 | 2020-12-16 | 一种陆地对抗智能体的图像数据集自动采取与标注框架 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011492370.3A CN112509110A (zh) | 2020-12-16 | 2020-12-16 | 一种陆地对抗智能体的图像数据集自动采取与标注框架 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112509110A true CN112509110A (zh) | 2021-03-16 |
Family
ID=74921701
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011492370.3A Pending CN112509110A (zh) | 2020-12-16 | 2020-12-16 | 一种陆地对抗智能体的图像数据集自动采取与标注框架 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112509110A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113222070A (zh) * | 2021-06-03 | 2021-08-06 | 中国科学院软件研究所 | 一种仿真图像数据自动标注方法及系统 |
CN115018975A (zh) * | 2022-05-20 | 2022-09-06 | 北京火山引擎科技有限公司 | 数据集生成方法、装置、电子设备及存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106503170A (zh) * | 2016-10-31 | 2017-03-15 | 清华大学 | 一种基于遮挡维度的图像库构建方法 |
CN111783525A (zh) * | 2020-05-20 | 2020-10-16 | 中国人民解放军93114部队 | 基于风格迁移的航空摄影图像目标样本生成方法 |
CN111798475A (zh) * | 2020-05-29 | 2020-10-20 | 浙江工业大学 | 一种基于点云深度学习的室内环境3d语义地图构建方法 |
-
2020
- 2020-12-16 CN CN202011492370.3A patent/CN112509110A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106503170A (zh) * | 2016-10-31 | 2017-03-15 | 清华大学 | 一种基于遮挡维度的图像库构建方法 |
CN111783525A (zh) * | 2020-05-20 | 2020-10-16 | 中国人民解放军93114部队 | 基于风格迁移的航空摄影图像目标样本生成方法 |
CN111798475A (zh) * | 2020-05-29 | 2020-10-20 | 浙江工业大学 | 一种基于点云深度学习的室内环境3d语义地图构建方法 |
Non-Patent Citations (1)
Title |
---|
XUAN LI 等: "The ParallelEye Dataset: A Large Collection of Virtual Images for Traffic Vision Research", 《 IEEE TRANSACTIONS ON INTELLIGENT TRANSPORTATION SYSTEMS》, vol. 20, no. 6, 30 June 2019 (2019-06-30), pages 2072 - 2083, XP011726165, DOI: 10.1109/TITS.2018.2857566 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113222070A (zh) * | 2021-06-03 | 2021-08-06 | 中国科学院软件研究所 | 一种仿真图像数据自动标注方法及系统 |
CN115018975A (zh) * | 2022-05-20 | 2022-09-06 | 北京火山引擎科技有限公司 | 数据集生成方法、装置、电子设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109872397B (zh) | 一种基于多目立体视觉的飞机零件的三维重建方法 | |
WO2020207512A1 (zh) | 三维对象建模方法、图像处理方法、图像处理装置 | |
CN111462135B (zh) | 基于视觉slam与二维语义分割的语义建图方法 | |
CN110568447B (zh) | 视觉定位的方法、装置及计算机可读介质 | |
CN108648269B (zh) | 三维建筑物模型的单体化方法和系统 | |
WO2022088982A1 (zh) | 三维场景构建方法、装置、系统和存储介质 | |
CN104330074B (zh) | 一种智能测绘平台及其实现方法 | |
JP2006053694A (ja) | 空間シミュレータ、空間シミュレート方法、空間シミュレートプログラム、記録媒体 | |
CN105719352B (zh) | 人脸三维点云超分辨率融合方法及应用其的数据处理装置 | |
US20200258309A1 (en) | Live in-camera overlays | |
Li et al. | Read: Large-scale neural scene rendering for autonomous driving | |
CN110567441B (zh) | 基于粒子滤波的定位方法、定位装置、建图及定位的方法 | |
CN111292408B (zh) | 一种基于注意力机制的阴影生成方法 | |
CN112991534B (zh) | 一种基于多粒度物体模型的室内语义地图构建方法及系统 | |
CN112509110A (zh) | 一种陆地对抗智能体的图像数据集自动采取与标注框架 | |
CN115937461A (zh) | 多源融合模型构建及纹理生成方法、装置、介质及设备 | |
CN112529498B (zh) | 一种仓储物流管理方法及系统 | |
CN113763438B (zh) | 一种点云配准方法、装置、设备及存储介质 | |
Yin et al. | Virtual reconstruction method of regional 3D image based on visual transmission effect | |
CN117115358A (zh) | 数字人自动建模方法及装置 | |
Tian et al. | Registration and occlusion handling based on the FAST ICP-ORB method for augmented reality systems | |
CN115482339A (zh) | 人脸五官贴图生成方法 | |
CN115272450A (zh) | 一种基于全景分割的目标定位方法 | |
CN114387351A (zh) | 一种单目视觉标定方法及计算机可读存储介质 | |
CN113223146A (zh) | 一种基于三维仿真场景的数据标注方法、装置及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20210316 |
|
WD01 | Invention patent application deemed withdrawn after publication |