CN111783525B - 基于风格迁移的航空摄影图像目标样本生成方法 - Google Patents
基于风格迁移的航空摄影图像目标样本生成方法 Download PDFInfo
- Publication number
- CN111783525B CN111783525B CN202010427963.5A CN202010427963A CN111783525B CN 111783525 B CN111783525 B CN 111783525B CN 202010427963 A CN202010427963 A CN 202010427963A CN 111783525 B CN111783525 B CN 111783525B
- Authority
- CN
- China
- Prior art keywords
- image
- sample
- target
- style migration
- aerial photographic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/13—Satellite images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/04—Indexing scheme for image data processing or generation, in general involving 3D image data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Astronomy & Astrophysics (AREA)
- Remote Sensing (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Processing Or Creating Images (AREA)
- Image Analysis (AREA)
Abstract
本发明公开一种基于风格迁移的航空摄影图像目标样本生成方法,包括以下步骤:S1:在航空摄影图像中,选取具有代表性的多种地物场景的图像并裁剪;S2:随机选取S1中的航空摄影图像,将其设置为虚拟场景的背景图像;S3:对三维模型进行预处理;S4:将三维模型导入虚拟场景中;S5:输出合成样本图像;S6:输出标签文件;S7:构建风格迁移算法的训练数据集;S8:构造循环一致生成对抗网络;S9:利用训练完成的风格迁移网络模型,推理得到逼真合成样本图像,并将S6中得到的标签数据与逼真合成样本图像对应,构成逼真合成样本。本发明为航空摄影图像目标检测的合成样本图像的生成和标注提供了一种高效的手段。
Description
技术领域
本发明涉及一种基于风格迁移的航空摄影图像目标样本生成方法,属于遥感图像处理技术领域。
背景技术
近年来依赖于大规模标记训练数据的深度卷积神经网络在遥感目标检测方面取得了良好的性能,但是目前遥感数据集大多是手工标注的,这种构建训练数据集的方法效率较低,特别是当标签难以手动指定或者难以获得丰富的样本时,这些局限性使得训练神经网络成本很高。
众包三维模型可以在互联网上快速获取,为生成无限量的训练数据提供了新的思路。通过绘制虚拟场景中的三维模型,可以自动生成带有训练标签的二维合成样本图像。一般来说,合成样本图像通常缺乏纹理和上下文,而真实样本图像通常具有丰富的视觉细节。为了减少合成图像到真实图像的差距,一种流行的方法是域随机化,其特点是创建具有随机化特性(例如颜色、纹理、光源)的各种模拟环境。与传统的模拟器相比,域随机化在增加合成数据的可样性方面非常有效,然而利用域随机化方法得到样本图像与真实样本图像依然有较大的差距。
发明内容
本发明的目的是提供一种基于风格迁移的航空摄影图像目标样本生成方法,该方法为航空摄影图像目标检测的合成样本图像的生成和标注提供了一种高效的手段。
为达到上述目的,本发明采用的技术方案是:一种基于风格迁移的航空摄影图像目标样本生成方法,包括以下步骤:
S1:在航空摄影图像中,选取具有代表性的多种地物场景的图像并裁剪;
S2:基于Three.js渲染库构建虚拟场景,随机选取S1中的航空摄影图像,将其设置为虚拟场景的背景图像;
S3:在三维模型中,选取典型地物目标,利用Sketch Up软件对三维模型进行预处理,所述预处理包括坐标归零、尺寸归一化和文件格式转换;
S4:将经过S3预处理后的三维模型导入至S2中构建的虚拟场景中,随机设置三维模型的材质、颜色、位置、大小及姿态参数;
S5:模仿航空遥感,设置虚拟场景中的相机视角,在虚拟场景中加入点光源与环境光,输出合成样本图像;
S6:根据相机的姿态和位置信息,计算三维模型包围盒在S5中得到的合成样本图像上的投影,获得二维包围盒的设备坐标系下的坐标,再将获得的坐标由设备坐标系下转换到屏幕坐标系下,并与S5中得到的合成样本图像对应,输出标签文件,所述标签文件包括图像名称、图像尺寸、图像包含的目标类别、边界框数据;
S7:以S5中得到的合成样本图像作为源域数据,选取包含典型地物目标的真实样本图像作为目标域数据,构建风格迁移算法的训练数据集;
S8:构造循环一致生成对抗网络,设置网络的超参数(如图像大小、学习率、迭代次数、批量大小、对抗损失和循环一致损失的比例参数等),训练得到将真实样本图像风格迁移至合成样本图像的网络模型参数;
S9:利用训练完成的风格迁移网络模型,推理得到逼真合成样本图像,并将S6中得到的标签数据与逼真合成样本图像对应,构成逼真合成样本。
上述技术方案中进一步改进的方案如下:
1.上述方案中,S1中所述的地物场景图像对应的地物场景中不包含S3中所述的典型地物目标。
2.上述方案中,在S4中,采用随机化的方式设置虚拟场景中的三维模型参数。
3.上述方案中,在S5中,采用随机化的方式设置虚拟场景中的渲染成像参数。
4.上述方案中,选取真实样本图像作为风格迁移的目标域数据,使得选取区域包含所述的典型地物目标。
5.上述方案中,在S8中,使用循环一致生成对抗网络对合成样本图像和真实样本图像进行训练,将合成样本图像的风格从合成域迁移至真实域。
6.上述方案中,所述方法得到的逼真合成样本用于航空摄影图像目标检测的训练。
由于上述技术方案的运用,本发明与现有技术相比具有下列优点:
本发明基于风格迁移的航空摄影图像目标样本生成方法,其针对航空摄影图像,采用循环一致生成对抗网络算法,将真实场景的图像风格迁移至合成样本图像,将域随机化和风格迁移应用于减小合成样本图像与真实样本图像的差距中,为航空摄影图像目标检测的合成样本图像的生成和标注提供一种高效的方法,可应用于不同场景、不同条件下的遥感影像目标识别,是对特殊场景下稀缺的真实样本的有效补充手段,同时自动生成的对应标签减少了样本标注的成本。
附图说明
附图1为本发明的流程示意图;
附图2为本发明实施例中所选取的典型三维目标模型;
附图3为本发明实施例中所选取的典型遥感图像区域;
附图4为本发明实施例中得到的合成样本风格迁移前后对比。
具体实施方式
实施例:一种基于风格迁移的航空摄影图像目标样本生成方法,可基于遥感图像和三维模型,生成内容丰富、风格逼真且带有标签数据的合成样本,用于基于深度学习的真实场景遥感影像目标检测的训练、构建航空摄影图像目标检测算法的训练数据集,相较于传统域随机化的样本生成更具有针对性;
具体包括以下步骤:
1、选取三维目标模型和背景图像
选取典型地物目标的三维模型,如图2所示,如汽车、飞机、轮船等,并使用SketchUp软件对三维模型进行预处理,具体如下:
首先,将选取的三维模型的中心平移至坐标原点,选中三维模型,点击移动工具,设置起始点(模型中心点)后输入[0,0,0];
再设置三维模型尺寸:选中三维模型,点击窗口->模型信息->单位,设置长度单位为十进制米,点击工具->尺寸,选中三维模型中心点;
再选中三维模型端点,输入1m;
最后,点击文件->导出->三维模型,选择输出obj格式文件;
选取具有代表性的多种地物场景的图像,如图3所示,如水体、道路、建筑物、裸地、植被区等的图像,将选取的图像裁剪为固定尺寸,如512*512。
2、构建虚拟场景及设置渲染参数
使用3D渲染JS引擎Three.js作为虚拟场景的开发平台,首先,构建一个带有天空盒的场景,渲染的背景图像通过天空盒随机加载上述步骤中裁剪后的具有代表性的多种地物场景图像生成;
然后,导入预处理后的三维模型,为方便模型的包围盒计算,将模型的geometry合并,合并后模型的geometry形成一个完整的几何体;
之后,设置三维模型的材质及颜色,选用Three.MeshStandardMaterial,其优点为将Three.MeshLambertMaterial和Three.MeshPhoneMaterial结合成一种材质,既有粗糙度又具有金属性和反光性,材质的反光特性和粗糙度可以通过metalness和roughness两个属性设置;
设置光源和相机视角:
利用点光源与环境光协同工作,环境光设置了场景的整体照明效果,这种光线全局均匀地照亮场景中的所有物体,因此不会产生阴影;点光源的光线覆盖各个方向,亮度线性下降,使场景形成明暗效果;
固定环境光,随机设置点光源的位置和数量;
设置投影模式为透视投影,设置相机的视角模仿航空摄影视角;
使用3D渲染JS引擎Three.js作为开发平台,将随机数量的汽车三维模型放置在一个随机背景图像的三维场景中,随机设置模型的姿态、位置、纹理等,并随机设置灯光的数量、类型、位置,最后模仿航空摄影视角渲染场景,自动生成带有真值标签(如边界框)的多样化合成样本图像,使得合成数据分布足够广泛。
3、包围盒计算及标签数据输出
通过包围盒计算,得到合成样本图像对应的目标标签数据,Three.js提供了包围盒函数可以方便的获得模型的边界框,获得包围盒八个角点坐标后,再根据相机的姿态和位置等信息计算三维包围盒在图像上的投影;
由于场景中有较多的目标,需要计算每个目标的投影区域与成像区域的重叠部分,若重叠度低于0.5,则认为该目标没有出现在合成图像中,不输出其对应的标签数据;
获得二维包围盒的设备坐标系下的坐标后,再将坐标由设备坐标系转换到屏幕坐标系下;
记Canvas画布宽度为width,高度为height,记屏幕坐标系坐标为(SX,SY),单位为像素;记标准设备坐标系坐标为(x,y),则由标准设备坐标转换到屏幕坐标公式如下:
获得边界框坐标之后即可输出标签文件和合成图像,输出的标签文件主要记录了对应的图像名称、图像尺寸、目标类别等信息。
4、构建风格迁移的训练数据集
以一万张合成样本图像作为源域数据,选取典型地物目标的真实样本图像作为目标域数据,将所有图像均裁剪至统一尺寸512*512像素,构建风格迁移算法的训练数据集。
5、构建循环一致生成对抗网络并训练
循环一致生成对抗网络CycleGAN与传统的pixel2pixel算法相比的一个典型优点是,它可以在两个域之间进行转换,而无需成对的输入输出示例,因此,使用这种无监督的方法来优化合成图像;
记合成域数据为S,真实域数据域为R,生成器GS→R旨在将合成图像映射到真实图像,而鉴别器DS试图区分真实域和合成域;相反,生成器GR→S将真实图像映射到合成图像,而鉴别器DR区分样本来自哪个域;从本质上讲,它由两个对称映射组成,使得网络不仅能够学习从源域到目标域的传输,而且能够学习从目标域到源域的传输;
从合成数据到真实数据的对抗性损失计算公式如下:
其中,s~pdata(s)是合成数据分布,r~pdata(r)是真实数据分布;
从真实图像到合成图像的对抗性损失计算公式如下:
引入循环一致性损失来保持图像在转换和逆转换后的一致性,并在保持对象几何结构的同时迁移图像风格;因此,直接将合成图像的边界框数据赋给逼真的合成图像;
循环一致性损失计算公式如下:
Lcyc=||GR→S(GS→R(s))-s||l+||GS→R(GR→S(r))-r||1;
综上所述,总体损失函数计算公式如下:
其中,λ是平衡两个目标的权重,设置λ=10;
训练过程中使用Adam优化器,在前10万步(约10个阶段)中学习率为0.0002,在接下来的10万步中将学习率线性衰减率为零。
6、基于CycleGAN转换合成样本的风格
使用训练完成的CycleGAN模型,将合成样本图像作为源域输入,推理得到风格迁移后的逼真合成样本图像;
合成样本风格迁移前后的对比如图4所示,风格迁移后的目标的纹理比合成图像更真实,目标与周围环境融为一体,用于生成合成图像的背景来自真实场景,但不限于目标经常出现的地方,如飞机出现在机场;
采用循环一致生成对抗网络来细化合成图像,将合成样本图像的风格从合成域转换到真实域,以减少域偏移,在保持图像内容的同时迁移图像的风格,得到逼真合成样本图像,假设循环一致生成对抗网络(CycleGAN)不会改变合成图像中物体的几何结构,因此逼真合成样本的标签可以从合成样本中直接继承。
采用上述基于风格迁移的航空摄影图像目标样本生成方法时,其可基于遥感图像和三维模型,生成内容丰富、风格逼真且带有标签数据的合成样本,用于基于深度学习的真实场景遥感影像目标检测的训练、构建航空摄影图像目标检测算法的训练数据集,相较于传统域随机化的样本生成更具有针对性,可应用于不同场景、不同条件下的遥感影像目标识别,是对特殊场景下稀缺的真实样本的有效补充手段,同时自动生成的对应标签减少了样本标注的成本;
其针对航空摄影图像,采用循环一致生成对抗网络算法,将真实场景的图像风格迁移至合成样本图像,将域随机化和风格迁移应用于减小合成样本图像与真实样本图像的差距中,为航空摄影图像目标检测的合成样本图像的生成和标注提供一种高效的方法。
上述实施例只为说明本发明的技术构思及特点,其目的在于让熟悉此项技术的人士能够了解本发明的内容并据以实施,并不能以此限制本发明的保护范围。凡根据本发明精神实质所作的等效变化或修饰,都应涵盖在本发明的保护范围之内。
Claims (7)
1.一种基于风格迁移的航空摄影图像目标样本生成方法,其特征在于,包括以下步骤:
S1:在航空摄影图像中,选取具有代表性的多种地物场景的图像并裁剪;
S2:基于Three.js渲染库构建虚拟场景,随机选取S1中的航空摄影图像,将其设置为虚拟场景的背景图像;
S3:在三维模型中,选取典型地物目标,利用Sketch Up软件对三维模型进行预处理,所述预处理包括坐标归零、尺寸归一化和文件格式转换;
S4:将经过S3预处理后的三维模型导入至S2中构建的虚拟场景中,随机设置三维模型的材质、颜色、位置、大小及姿态参数;
S5:模仿航空遥感,设置虚拟场景中的相机视角,在虚拟场景中加入点光源与环境光,输出合成样本图像;
S6:根据相机的姿态和位置信息,计算三维模型包围盒在S5中得到的合成样本图像上的投影,获得二维包围盒的设备坐标系下的坐标,再将获得的坐标由设备坐标系下转换到屏幕坐标系下,并与S5中得到的合成样本图像对应,输出标签文件,所述标签文件包括图像名称、图像尺寸、图像包含的目标类别、边界框数据;
S7:以S5中得到的合成样本图像作为源域数据,选取包含典型地物目标的真实样本图像作为目标域数据,构建风格迁移算法的训练数据集;
S8:构造循环一致生成对抗网络,设置网络的超参数,训练得到将真实样本图像风格迁移至合成样本图像的网络模型参数;
S9:利用训练完成的风格迁移网络模型,推理得到逼真合成样本图像,并将S6中得到的标签数据与逼真合成样本图像对应,构成逼真合成样本。
2.根据权利要求1所述的基于风格迁移的航空摄影图像目标样本生成方法,其特征在于:S1中所述的地物场景图像对应的地物场景中不包含S3中所述的典型地物目标。
3.根据权利要求1所述的基于风格迁移的航空摄影图像目标样本生成方法,其特征在于:在S4中,采用随机化的方式设置虚拟场景中的三维模型参数。
4.根据权利要求1所述的基于风格迁移的航空摄影图像目标样本生成方法,其特征在于:在S5中,采用随机化的方式设置虚拟场景中的渲染成像参数。
5.根据权利要求1所述的基于风格迁移的航空摄影图像目标样本生成方法,其特征在于:选取真实样本图像作为风格迁移的目标域数据,使得选取区域包含所述的典型地物目标。
6.根据权利要求1所述的基于风格迁移的航空摄影图像目标样本生成方法,其特征在于:在S8中,使用循环一致生成对抗网络对合成样本图像和真实样本图像进行训练,将合成样本图像的风格从合成域迁移至真实域。
7.根据权利要求1所述的基于风格迁移的航空摄影图像目标样本生成方法,其特征在于:所述方法得到的逼真合成样本用于航空摄影图像目标检测的训练。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010427963.5A CN111783525B (zh) | 2020-05-20 | 2020-05-20 | 基于风格迁移的航空摄影图像目标样本生成方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010427963.5A CN111783525B (zh) | 2020-05-20 | 2020-05-20 | 基于风格迁移的航空摄影图像目标样本生成方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111783525A CN111783525A (zh) | 2020-10-16 |
CN111783525B true CN111783525B (zh) | 2022-10-18 |
Family
ID=72754240
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010427963.5A Active CN111783525B (zh) | 2020-05-20 | 2020-05-20 | 基于风格迁移的航空摄影图像目标样本生成方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111783525B (zh) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112348737B (zh) * | 2020-10-28 | 2023-03-24 | 达闼机器人股份有限公司 | 模拟图像生成的方法、电子设备及存储介质 |
CN112487999A (zh) * | 2020-12-02 | 2021-03-12 | 西安邮电大学 | 一种基于CycleGAN的遥感图像鲁棒特征提取方法 |
CN112509110A (zh) * | 2020-12-16 | 2021-03-16 | 清华大学 | 一种陆地对抗智能体的图像数据集自动采取与标注框架 |
CN112613397B (zh) * | 2020-12-21 | 2022-11-29 | 中国人民解放军战略支援部队航天工程大学 | 多视角光学卫星遥感影像目标识别训练样本集构建方法 |
CN112651881B (zh) * | 2020-12-30 | 2023-08-01 | 北京百度网讯科技有限公司 | 图像合成方法、装置、设备、存储介质以及程序产品 |
CN112907734B (zh) * | 2021-03-09 | 2023-04-11 | 中南大学 | 基于虚拟crh380a模型和深度学习的teds故障检测方法 |
CN112884758B (zh) * | 2021-03-12 | 2023-01-10 | 国网四川省电力公司电力科学研究院 | 一种基于风格迁移方法的缺陷绝缘子样本生成方法及系统 |
CN113538218B (zh) * | 2021-07-14 | 2023-04-07 | 浙江大学 | 基于位姿自监督对抗生成网络的弱配对图像风格迁移方法 |
CN114004905B (zh) * | 2021-10-25 | 2024-03-29 | 北京字节跳动网络技术有限公司 | 人物风格形象图的生成方法、装置、设备及存储介质 |
CN114022602B (zh) * | 2021-11-09 | 2024-02-23 | 西安交通大学 | 一种基于渲染的三维物体检测器训练方法 |
CN114419399B (zh) * | 2022-03-22 | 2022-10-21 | 杭州利珀科技有限公司 | 机器视觉深度学习样本自动生成方法、计算机及存储介质 |
CN114898076B (zh) * | 2022-03-29 | 2023-04-21 | 北京城市网邻信息技术有限公司 | 模型标签的添加方法、装置、电子设备及存储介质 |
CN115588070B (zh) * | 2022-12-12 | 2023-03-14 | 南方科技大学 | 一种三维图像风格化迁移方法及终端 |
CN116310659B (zh) * | 2023-05-17 | 2023-08-08 | 中数元宇数字科技(上海)有限公司 | 训练数据集的生成方法及设备 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110490960A (zh) * | 2019-07-11 | 2019-11-22 | 阿里巴巴集团控股有限公司 | 一种合成图像生成方法及装置 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11543830B2 (en) * | 2017-12-06 | 2023-01-03 | Petuum, Inc. | Unsupervised real-to-virtual domain unification for end-to-end highway driving |
US20190377981A1 (en) * | 2018-06-11 | 2019-12-12 | Venkata Subbarao Veeravasarapu | System and Method for Generating Simulated Scenes from Open Map Data for Machine Learning |
-
2020
- 2020-05-20 CN CN202010427963.5A patent/CN111783525B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110490960A (zh) * | 2019-07-11 | 2019-11-22 | 阿里巴巴集团控股有限公司 | 一种合成图像生成方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN111783525A (zh) | 2020-10-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111783525B (zh) | 基于风格迁移的航空摄影图像目标样本生成方法 | |
CN112509151B (zh) | 一种教学场景中虚拟对象的真实感生成方法 | |
Zhang et al. | Image engineering | |
CN108648269B (zh) | 三维建筑物模型的单体化方法和系统 | |
CN108919944B (zh) | 一种基于数字城市模型实现在显示端进行数据无损交互的虚拟漫游方法 | |
Shan et al. | Research on landscape design system based on 3D virtual reality and image processing technology | |
CN109410321A (zh) | 基于卷积神经网络的三维重建方法 | |
CN114972617B (zh) | 一种基于可导渲染的场景光照与反射建模方法 | |
CN110490917A (zh) | 三维重建方法及装置 | |
CN109816784B (zh) | 三维重构人体的方法和系统及介质 | |
Wang et al. | Construction of a virtual reality platform for UAV deep learning | |
Liu et al. | Synthetic data augmentation using multiscale attention CycleGAN for aircraft detection in remote sensing images | |
Zhang et al. | The discussion on interior design mode based on 3D virtual vision technology | |
CN111402403B (zh) | 高精度三维人脸重建方法 | |
Liu et al. | Can Synthetic Data Improve Object Detection Results for Remote Sensing Images? | |
CN116894922A (zh) | 一种基于实时图形引擎的夜视图像生成方法 | |
CN113673567B (zh) | 基于多角度子区域自适应的全景图情感识别方法及系统 | |
CN114491694A (zh) | 一种基于虚幻引擎的空间目标数据集构建方法 | |
Schnürer et al. | Inferring implicit 3D representations from human figures on pictorial maps | |
CN113838199A (zh) | 一种三维地形生成方法 | |
RU2771442C1 (ru) | Способ обработки изображений сверточными нейронными сетями | |
Zou et al. | Research on Multi-source Data Fusion of 3D Scene in Power Grid | |
RU2771442C9 (ru) | Способ обработки изображений сверточными нейронными сетями | |
CN116912433B (zh) | 三维模型骨骼绑定方法、装置、设备及存储介质 | |
Dyachenko et al. | Overview of Possible Applications for the Complex 3D Objects Restoration Technologies |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |