CN113537401B - 一种基于改进的生成对抗网络的水下图像翻译方法 - Google Patents
一种基于改进的生成对抗网络的水下图像翻译方法 Download PDFInfo
- Publication number
- CN113537401B CN113537401B CN202110930109.5A CN202110930109A CN113537401B CN 113537401 B CN113537401 B CN 113537401B CN 202110930109 A CN202110930109 A CN 202110930109A CN 113537401 B CN113537401 B CN 113537401B
- Authority
- CN
- China
- Prior art keywords
- underwater
- content
- loss
- air
- attribute
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
- G06F18/2132—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on discrimination criteria, e.g. discriminant analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Evolutionary Biology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于改进的生成对抗网络的水下图像翻译方法,包括以下步骤:步骤S1:针对具体的检测任务,制作目标模型,将其放在空气中进行空气中目标数据集的采取,得到空气中数据集;步骤S2:在已公开的各个水下数据集中制作不同水域的水下数据集;步骤S3:根据空气中数据集以及不同水域的水下数据集构建改进的DRIT生成对抗网络;步骤S4:训练对抗网络参数;步骤S5:将空气目标图片与水下风格图片放进对抗网络,得到具有水下风格的目标图片;本发明将空气中的目标图像翻译成水下风格的图像,以此来节省时间与经济制作水下数据集。
Description
技术领域
本发明涉及水下图像翻译领域,特别是一种基于改进的生成对抗网络的水下图像翻译方法。
背景技术
随着深度学习在水下领域的应用,水下数据集的需求越来越大,但由于水下设备的有限性以及经济因素(水下摄像头要搭载水下机器人等设备来进行图片采集),水下数据集的获取及扩展显得尤为迫切。
近些年,图像翻译技术风靡于各领域(例如,灰度到颜色,图像到语义标签,边缘地图到照片,陆地风格图像到水下风格图像),将图像翻译技术应用于水下数据集拓展是一个可行的方法,对于图像翻译,目前,有两大主流的研究方向:
1.在成对数据的监督环境下的图像翻译技术(Image-to-Image Translationwith Conditional Adversarial Networks(pix2pix));
2.非成对数据的无监督图像翻译(Unpaired Image-to-Image Translationusing Cycle-Consistent Adversarial Networks(CycleGAN),Unsupervised Image-to-Image Translation Networks(UNIT),Diverse Image-to-Image Translation viaDisentangled Representations(DRIT)),在水下领域,获得与空气中相匹配的数据集是不现实的,另外,水下环境是多种多样的,对于不同的水下数据集,输入图像需要输出不同的输出图像。
发明内容
为解决现有技术中存在的问题,本发明提供了一种基于改进的生成对抗网络的水下图像翻译方法,本发明将空气中的目标图像翻译成水下风格的图像,以此来节省时间与经济制作水下数据集。
一种基于改进的生成对抗网络的水下图像翻译方法,包括以下步骤:
步骤S1:针对具体的检测任务,制作目标模型,将其放在空气中进行空气中目标数据集的采取,得到空气中数据集;
步骤S2:在已公开的各个水下数据集中制作不同水域的水下数据集;
步骤S3:根据空气中数据集以及不同水域的水下数据集构建改进的DRIT生成对抗网络;
步骤S4:训练对抗网络参数;
步骤S5:将空气目标图片与水下风格图片放进对抗网络,得到具有水下风格的目标图片。
优选地,S3包括以下子步骤:
子步骤S31:该网络训练模型是在没有成对训练数据的情况下,学习两个域X和Y之间的映射;
子步骤S35:生成器Gx将内容空间与属性空间结合生成新的图片(Gx:{C,A}→X)。
优选地,本方法涉及到的多域问题体现在不同水域的数据集中,当把空气目标图片与不同水域图片放进训练好的网络中,会得到不同水下风格的目标图片,在这里,实现的方法是将不同水下风格与空气看作不同分类,将水下生物与空气目标视为不同分类,除了属性判别器与内容判别器的损失函数外,添加两个分类损失函数来优化翻译图像域转化问题。
优选地,两个分类损失函数来优化翻译图像域转化问题包括以下步骤:
S7:通过权重共享,强制将内容表示映射到相同的空间;
S8:将对抗性损失的内容表述为图像的自我重建损失要求将内容和风格的重组成翻译后的图像,其损失函数为
S9:当缺少成对训练样本进行监督学习时,针对对抗损失进行训练生成器,并不能保证翻译后的图像保留给定图像的内容,而只改变风格,为了缓解这个问题,对每个生成器应用循环一致性损失;
S10:共同训练风格和内容编码器和生成器对,独立训练鉴别器,最终目标函数为:
其中,LG为最终生成损失,LD为最终对抗损失;
S11:训练好参数后,将空气目标数据集传入内容编码网络,得到内容特征图,将水下数据传入属性编码网络,得到属性特征图,将内容特征图与属性特征图传入生成器二,就可以得到水下风格的目标图片,以此来达到拓展水下目标数据集的目的。
本发明基于改进的生成对抗网络的水下图像翻译方法的有益效果如下:
1.本发明采用一种基于改进的DRIT方法,实现空气图像到水下图像的翻译以及水下数据集的拓展。
2.本发明将空气中的目标图像翻译成水下风格的图像,以此来节省时间与经济制作水下数据集。
附图说明
图1为本发明的流程图。
图2为本发明的训练过程图。
具体实施方式
下面对本发明的具体实施方式进行描述,以便于本技术领域的技术人员理解本发明,但应该清楚,本发明不限于具体实施方式的范围,对本技术领域的普通技术人员来讲,只要各种变化在所附的权利要求限定和确定的本发明的精神和范围内,这些变化是显而易见的,一切利用本发明构思的发明创造均在保护之列。
随着水下视觉的发展,水下目标检测,水下图形分割等技术越发成熟,但在水下环境下缺少全面可靠的样本数据,另外根据检测任务不同,自行制作的大数量,多覆盖的目标数据样本往往存在制作周期长,采集困难大等问题。所以本文提出一种基于改进的生成对抗网络的水下图像翻译方法,将空气中的目标图像翻译成水下风格的图像,以此来节省时间与经济制作水下数据集。具体方案如下:
步骤一:针对具体的检测任务,制作目标模型,将其放在空气中进行空气中目标数据集的采取,得到空气中数据集,
步骤二:在已公开的各个水下数据集中制作不同水域的水下数据集
步骤三:构建改进的DRIT生成对抗网络
步骤四:训练网络参数
步骤五:将空气目标图片与水下风格图片放进网络,得到具有水下风格的目标图片。
如图1所示,该网络训练模型是在没有成对训练数据的情况下,学习两个域X和Y之间的映射。如图2所示,该框架包括两个内容编码器(例如,空气目标数据集中的目标特征或水下数据集中的生物特征),属性编码器(例如,空气目标数据集中的环境特征或水下数据集中的环境特征),两个生成器Gx,Gy,域判别器Dx,Dy,一个属性判别器Da,一个内容判别器Dc。以域X为例,内容编码器一将图像映射到内容空间属性编码器一将图像映射到的属性空间生成器一Gx将内容空间与属性空间结合生成新的图片(Gx:{C,A}→X)。判别器旨在区分真实图像和翻译图像。
对于输入图片,我们将其变换为256*256*3大小,我们采用下采样网络对其进行编码,即内容编码与属性编码,编码网络的第一层首先使用大小为3的ReflectionPad2d函数对其进行扩边,随后使用通道数为64,卷积核大小为7,步长为1的卷积操作对其进行卷积,然后对其进行归一化以及RELU激活处理,得到大小为(256*256*64)的特征层一,第二层使用通道数为128,卷积核大小为3,步长为2的卷积操作对其进行卷积,然后对其进行归一化以及RELU激活处理,得到大小为(128*128*128)的特征层二,第三层使用通道数为256,卷积核大小为3,步长为2的卷积操作对其进行卷积,然后对其进行归一化以及RELU激活处理,得到大小为(64*64*256)的特征层三,除此之外,加入了9层残差模块,增加网络深度,同时解决网络退化问题,最终得到内容特征图或属性特征图(64*64*256)。
对于生成器网络,采用上采样网络对其进行解码部分,由于生成图片是要由内容特征图或属性特征图一起生成,所以输入网络的特征图大小为(64*64*512),生成网络的第一层使用通道数为256,卷积核大小为3,步长为2的逆卷积操作对其进行逆卷积,然后对其进行归一化以及RELU激活处理,得到大小为(128*128*256),第二层使用通道数为128,卷积核大小为3,步长为1的卷积操作对其进行卷积,然后对其进行归一化以及RELU激活处理,得到大小为(128*128*128),第3层使用通道数为64,卷积核大小为3,步长为2的逆卷积操作对其进行逆卷积,然后对其进行归一化以及RELU激活处理,得到大小为(128*128*64),第四层,首先使用大小为3的ReflectionPad2d函数对其进行扩边,随后使用通道数为3,卷积核大小为7,步长为1的卷积操作对其进行卷积,然后对其进行Tanh激活处理,得到大小为(256*256*3)的生成图像。
对于判别器网络,结构比生成器更加简单,输入的为编码器生成的大小为(64*64*256)的特征层,首先第一层使用通道数为512,卷积核大小为4,步长为2的卷积操作对其进行卷积,然后对其进行归一化以及LeakyRELU激活处理,其中LeakyRELU激活函数的斜率为0.2,第二层使用通道数为512,卷积核大小为4,步长为2的卷积操作对其进行卷积,然后对其进行归一化以及LeakyRELU激活处理,其中LeakyRELU激活函数的斜率为0.2,对于正常的过程,我们使用通道数为1,卷积核大小为4,步长为1的卷积操作对其进行卷积,得到大小为(15*15*1),最后进行池化平均处理,尺寸也缩减为1x1,判别结果。除此之外,我们另加了一个分类网络,来对属性及内容进行分类,在第二层之后,对特征层进行Dropout处理,来缓解过拟合的问题,最后对应两个全连接层,第一个全连接层的输出通道数为1024,然后对其进行RELU激活处理以及Dropout处理,第二个全连接层的输出通道数为数据集属性数量或者内容数量,得到输出结果。
经过5层卷积,通道数缩减为1,最后池化平均,尺寸也缩减为1x1,除了一个二分类的损失之外,另外加一个分类损失。
本发明中损失函数:
本方法涉及到的多域问题体现在不同水域的数据集中,当把空气目标图片与不同水域图片放进训练好的网络中,会得到不同水下风格的目标图片,在这里,实现的方法是将不同水下风格与空气看作不同分类,将水下生物与空气目标视为不同分类,除了属性判别器与内容判别器的损失函数外,添加两个分类损失函数来优化翻译图像域转化问题,另外,在的最后一层与Gx,Gy的第一层之间共享权重。通过权重共享,强制将内容表示映射到相同的空间。
当缺少成对训练样本进行监督学习时,针对对抗损失进行训练生成器,并不能保证翻译后的图像保留给定图像的内容,而只改变风格。为了缓解这个问题,我们对每个生成器应用循环一致性损失:
最终,共同训练风格和内容编码器和生成器对,独立训练鉴别器,最终目标函数为:
LG为最终生成损失,LD为最终对抗损失
训练好参数后,将空气目标数据集传入内容编码网络,得到内容特征图,将水下数据传入属性编码网络,得到属性特征图,将内容特征图与属性特征图传入生成器二,就可以得到水下风格的目标图片,以此来达到拓展水下目标数据集的目的。
Claims (2)
1.一种基于改进的生成对抗网络的水下图像翻译方法,其特征在于,包括以下步骤:
步骤S1:针对具体的检测任务,制作目标模型,将其放在空气中进行空气中目标数据集的采取,得到空气中数据集;
步骤S2:在已公开的各个水下数据集中制作不同水域的水下数据集;
步骤S3:根据空气中数据集以及不同水域的水下数据集构建改进的DRIT生成对抗网络;
步骤S4:训练对抗网络参数;
步骤S5:将空气目标图片与水下风格图片放进对抗网络,得到具有水下风格的目标图片;
所述S3包括以下子步骤:
子步骤S31:网络训练模型是在没有成对训练数据的情况下,学习两个域X和Y之间的映射;
子步骤S35:生成器Gx将内容空间与属性空间结合生成新的图片(Gx:{C,A}→X);
除了属性判别器与内容判别器的损失函数外,添加两个分类损失函数来优化翻译图像域转化问题;
两个分类损失函数来优化翻译图像域转化问题包括以下步骤:
S7:通过权重共享,强制将内容表示映射到相同的空间;
S8:将对抗性损失的内容表述为图像的自我重建损失要求将内容和风格的重组成翻译后的图像,其损失函数为
S9:当缺少成对训练样本进行监督学习时,针对对抗损失进行训练生成器,并不能保证翻译后的图像保留给定图像的内容,而只改变风格,为了缓解这个问题,对每个生成器应用循环一致性损失;
S10:共同训练风格和内容编码器和生成器对,独立训练鉴别器,最终目标函数为:
其中,LG为最终生成损失,LD为最终对抗损失,Lcc为循环一致性损失,为自我重建损失,表示内容对抗损失;表示属性对抗损失;表示内容分类损失;表示属性分类损失;λcc,是一组超参数,旨在控制各个损失在总损失中的重要程度;
S11:训练好参数后,将空气目标数据集传入内容编码网络,得到内容特征图,将水下数据传入属性编码网络,得到属性特征图,将内容特征图与属性特征图传入生成器二,就可以得到水下风格的目标图片,以此来达到拓展水下目标数据集的目的。
2.根据权利要求1所述的基于改进的生成对抗网络的水下图像翻译方法,其特征在于,本方法涉及到的多域问题体现在不同水域的数据集中,当把空气目标图片与不同水域图片放进训练好的网络中,会得到不同水下风格的目标图片,在这里,实现的方法是将不同水下风格与空气看作不同分类,将水下生物与空气目标视为不同分类。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110930109.5A CN113537401B (zh) | 2021-08-13 | 2021-08-13 | 一种基于改进的生成对抗网络的水下图像翻译方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110930109.5A CN113537401B (zh) | 2021-08-13 | 2021-08-13 | 一种基于改进的生成对抗网络的水下图像翻译方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113537401A CN113537401A (zh) | 2021-10-22 |
CN113537401B true CN113537401B (zh) | 2022-08-02 |
Family
ID=78091066
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110930109.5A Active CN113537401B (zh) | 2021-08-13 | 2021-08-13 | 一种基于改进的生成对抗网络的水下图像翻译方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113537401B (zh) |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE3612260A1 (de) * | 1986-04-11 | 1987-11-19 | Hydroacoustic Inc | Seismische quelle zur verwendung unter wasser |
CN109993710A (zh) * | 2019-03-20 | 2019-07-09 | 西北工业大学 | 一种基于生成对抗网络的水下图像去噪方法 |
CN110189268A (zh) * | 2019-05-23 | 2019-08-30 | 西安电子科技大学 | 基于gan网络的水下图像色彩校正方法 |
CN110211148A (zh) * | 2019-06-04 | 2019-09-06 | 哈尔滨工程大学 | 一种基于目标状态预估的水下图像预分割方法 |
CN110310221A (zh) * | 2019-06-14 | 2019-10-08 | 大连理工大学 | 一种基于生成对抗网络的多域图像风格迁移方法 |
CN111275691A (zh) * | 2020-01-22 | 2020-06-12 | 北京邮电大学 | 一种基于深度学习的小样本肿瘤坏死率分类预测装置 |
CN111461997A (zh) * | 2020-03-09 | 2020-07-28 | 厦门大学 | 水下图像增强生成对抗网络的训练方法、介质及装置 |
CN112766079A (zh) * | 2020-12-31 | 2021-05-07 | 北京航空航天大学 | 一种基于内容风格分离的无监督图像到图像翻译方法 |
CN112819687A (zh) * | 2021-01-21 | 2021-05-18 | 浙江大学 | 基于无监督神经网络的跨域图像转换方法、装置、计算机设备和存储介质 |
CN113205468A (zh) * | 2021-06-01 | 2021-08-03 | 桂林电子科技大学 | 一种基于自注意力机制和gan的水下图像实时复原模型 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110852970A (zh) * | 2019-11-08 | 2020-02-28 | 南京工程学院 | 基于深度卷积生成对抗网络的水下机器人图像增强方法 |
CN113191962A (zh) * | 2021-03-30 | 2021-07-30 | 大连智慧渔业科技有限公司 | 基于环境背景光的水下图像颜色恢复方法、装置及存储介质 |
-
2021
- 2021-08-13 CN CN202110930109.5A patent/CN113537401B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE3612260A1 (de) * | 1986-04-11 | 1987-11-19 | Hydroacoustic Inc | Seismische quelle zur verwendung unter wasser |
CN109993710A (zh) * | 2019-03-20 | 2019-07-09 | 西北工业大学 | 一种基于生成对抗网络的水下图像去噪方法 |
CN110189268A (zh) * | 2019-05-23 | 2019-08-30 | 西安电子科技大学 | 基于gan网络的水下图像色彩校正方法 |
CN110211148A (zh) * | 2019-06-04 | 2019-09-06 | 哈尔滨工程大学 | 一种基于目标状态预估的水下图像预分割方法 |
CN110310221A (zh) * | 2019-06-14 | 2019-10-08 | 大连理工大学 | 一种基于生成对抗网络的多域图像风格迁移方法 |
CN111275691A (zh) * | 2020-01-22 | 2020-06-12 | 北京邮电大学 | 一种基于深度学习的小样本肿瘤坏死率分类预测装置 |
CN111461997A (zh) * | 2020-03-09 | 2020-07-28 | 厦门大学 | 水下图像增强生成对抗网络的训练方法、介质及装置 |
CN112766079A (zh) * | 2020-12-31 | 2021-05-07 | 北京航空航天大学 | 一种基于内容风格分离的无监督图像到图像翻译方法 |
CN112819687A (zh) * | 2021-01-21 | 2021-05-18 | 浙江大学 | 基于无监督神经网络的跨域图像转换方法、装置、计算机设备和存储介质 |
CN113205468A (zh) * | 2021-06-01 | 2021-08-03 | 桂林电子科技大学 | 一种基于自注意力机制和gan的水下图像实时复原模型 |
Non-Patent Citations (5)
Title |
---|
Diverse Image-to-Image Translation via Disentangled Representations;Hsin-Ying Lee等;《European Conference on Computer Vision》;SpringerLink;20190717;第36–52页 * |
Fine-grained facial image-to-image translation with an attention based pipeline generative adversarial framework;Yan Zhao等;《Multimedia Tools and Applications 》;SpringerLink;20200109;第79卷;第14981–15000页 * |
不平衡数据集下的水下目标快速识别方法;刘有用等;《计算机工程与应用》;20190719(第17期);第236-242页 * |
基于Retinex和生成对抗网络的水下图像增强算法的研究与应用;张婷婷;《中国优秀硕士学位论文全文数据库 信息科技辑》;20210415(第4期);I138-411 * |
深度学习驱动的水下图像增强与复原研究进展;丛润民等;《信号处理》;20200915(第09期);第1377-1389页 * |
Also Published As
Publication number | Publication date |
---|---|
CN113537401A (zh) | 2021-10-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108875935B (zh) | 基于生成对抗网络的自然图像目标材质视觉特征映射方法 | |
CN109410307B (zh) | 一种场景点云语义分割方法 | |
CN110503680A (zh) | 一种基于非监督的卷积神经网络单目场景深度估计方法 | |
CN112967178B (zh) | 一种图像转换方法、装置、设备及存储介质 | |
CN112085836A (zh) | 一种基于图卷积神经网络的三维人脸重建方法 | |
CN110910486A (zh) | 室内场景光照估计模型、方法、装置、存储介质以及渲染方法 | |
CN111242844B (zh) | 图像处理方法、装置、服务器和存储介质 | |
CN111950649A (zh) | 基于注意力机制与胶囊网络的低照度图像分类方法 | |
CN113313644B (zh) | 一种基于残差双注意力网络的水下图像增强方法 | |
CN113344806A (zh) | 一种基于全局特征融合注意力网络的图像去雾方法与系统 | |
CN108647560A (zh) | 一种基于cnn的保持表情信息的人脸转移方法 | |
CN113362250B (zh) | 一种基于双树四元小波与深度学习的图像去噪方法及系统 | |
CN112837210B (zh) | 一种基于特征图分块的多形变风格人脸漫画自动生成方法 | |
CN111598968A (zh) | 一种图像处理方法、装置、存储介质和电子设备 | |
CN111833360B (zh) | 一种图像处理方法、装置、设备以及计算机可读存储介质 | |
CN104408697B (zh) | 基于遗传算法和正则先验模型的图像超分辨重建方法 | |
CN112560624B (zh) | 基于模型深度集成的高分遥感影像语义分割方法 | |
Sun et al. | Underwater image enhancement with reinforcement learning | |
CN113077554A (zh) | 一种基于任意视角图片的三维结构化模型重建的方法 | |
CN109711411B (zh) | 一种基于胶囊神经元的图像分割识别方法 | |
CN111462324A (zh) | 一种在线时空语义融合方法和系统 | |
CN112257727B (zh) | 一种基于深度学习自适应可变形卷积的特征图像提取方法 | |
CN113361387A (zh) | 人脸图像融合方法及装置、存储介质及电子设备 | |
CN113724134A (zh) | 一种基于残差蒸馏网络的航拍图像盲超分辨率重建方法 | |
CN116385667B (zh) | 三维模型的重建方法、纹理重构模型的训练方法以及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |