CN114529484B - 针对成像中直流分量变化的深度学习样本增强方法 - Google Patents
针对成像中直流分量变化的深度学习样本增强方法 Download PDFInfo
- Publication number
- CN114529484B CN114529484B CN202210436124.9A CN202210436124A CN114529484B CN 114529484 B CN114529484 B CN 114529484B CN 202210436124 A CN202210436124 A CN 202210436124A CN 114529484 B CN114529484 B CN 114529484B
- Authority
- CN
- China
- Prior art keywords
- training
- image
- histogram
- sample
- network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003384 imaging method Methods 0.000 title claims abstract description 37
- 238000000034 method Methods 0.000 title claims abstract description 36
- 238000013135 deep learning Methods 0.000 title claims abstract description 17
- 230000008859 change Effects 0.000 title claims abstract description 14
- 238000012549 training Methods 0.000 claims abstract description 80
- 239000013598 vector Substances 0.000 claims description 46
- 230000002708 enhancing effect Effects 0.000 claims description 6
- 238000009826 distribution Methods 0.000 claims description 3
- 238000013528 artificial neural network Methods 0.000 abstract description 14
- 230000000694 effects Effects 0.000 abstract description 14
- 238000012545 processing Methods 0.000 abstract description 4
- 238000006243 chemical reaction Methods 0.000 abstract description 2
- 238000000605 extraction Methods 0.000 abstract description 2
- 238000001514 detection method Methods 0.000 description 6
- 238000013178 mathematical model Methods 0.000 description 6
- 238000004519 manufacturing process Methods 0.000 description 5
- 238000013461 design Methods 0.000 description 4
- 230000003042 antagnostic effect Effects 0.000 description 3
- 230000004075 alteration Effects 0.000 description 1
- 230000008485 antagonism Effects 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000005693 optoelectronics Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000004904 shortening Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/40—Image enhancement or restoration using histogram techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明涉及一种针对成像中直流分量变化的深度学习样本增强方法,包括以下步骤,S1、样本选取;S2、特征提取;S3、训练图像集数据处理;S4、目标图像集数据处理;S5、网络设计;S6、网络训练;S7、迭代训练;S8、网络使用。本发明利用在不同成像环境下得到的样本图像,进行直方图统计,利用对抗神经网络训练出不同成像环境下的直方图转换网络;然后利用网络输出的直方图对原图进行直方图规定化,从而生成模拟不同成像环境下,且效果接近真实的样本图像,实现样本增强,用于设备上深度学习网络模型的训练,从而提高模型的泛化能力,无需重新训练。
Description
技术领域
本发明涉及图像视觉检测技术领域,尤其是一种针对成像中直流分量变化的深度学习样本增强方法。
背景技术
自动化机器视觉行业一直以来存在不同机台成像效果存在差异的问题,尤其是量产机台,每台机器可能是由不同光电人员调试并定型的,不同光电人员的经验,能力,评价标准等存在差异,使得成像效果差异更大。
这种差异直接导致在样机上的算法无法在新机台上直接复制使用,对于传统算法,可以通过参数设计,调整参数的方法完成快速复制;但对于使用到深度学习算法的设备,由于深度学习是一个端到端的过程,在使用阶段几乎没有中间参数可供调节,检出效果主要由网络设计以及训练样本及训练方法决定,无法像传统算法那样通过设计中间参数,在使用的时候调节中间参数,使算法能快速复用到其他机台上。
对于这个问题,现有的已知的解决办法都是从样本增强上着手解决,通常有以下三种方式;
(1)最原始的办法是直接将图像全局各通道的灰度分别加上或者减去一个恒定值,用来模拟不同成像环境下的样本图片;
(2)后来又有人研究光照变化导致灰度变化的数学模型,试图通过数学建模来进行样本增强;
(3)近年来,出现了使用对抗神经网络来生成训练样本的办法,使用的是传统对抗神经网络,即将高斯随机序列信号作为输入,以样本图像作为标签,来训练对抗神经网络,最终利用训练好的网络来生成样本。
但是,上述三种方式分别存在以下问题:
(1)全局灰度加减恒定值的方法较为简单,只考虑到了图像的全局亮暗变化,与真正的成像亮度变化效果有较大差别,所以生成的样本往往与真实的成像效果像差很大;
(2)基于数学建模的方法提供了一个解决该问题的理论方向,但由于该数学模型过于复杂,很难设计出有效的数学模型,目前也没有已知的该类方法用于实际生产;
(3)基于常规对抗神经网络生成样本的方法,针对性不强,缺乏可控性,且效果很不稳定,很难针对不同的成像环境生成相应环境下的样本图像。
并且,在基于机器视觉的检测设备量产时,由于每台设备的光电系统都是由人工调试,会造成不稳定性,从而影响算法检出效果,尤其是深度学习,可能因此需要针对每台机器的成像重新训练模型,从而带来的增加生产周期以及成本的问题。
发明内容
本发明要解决的技术问题是:提供一种针对成像中直流分量变化的深度学习样本增强方法,解决由于成像环境的改变导致的深度学习模型需要在新生产的机台上重新训练的问题,使得在样机上训练的模型可以直接复用到其他机台,从而缩短机台的生产周期,节约生产成本。
本发明解决其技术问题所采用的技术方案是:一种针对成像中直流分量变化的深度学习样本增强方法,包括以下步骤,
S1、收集同一种产品在各种成像环境下的样本,作为不同的子集,分别为训练图像集与目标图像集;
S2、提取训练图像集每张图像的各通道的直方图,并对直方图向量进行归一化;
S3、针对每张训练图像集中的图像,生成高斯随机信号,并将这个高斯随机信号分别与该幅图像的各通道的经过归一化的直方图进行一维拼接,形成向量,作为一个训练样本,最终由获得的训练样本组成训练集;
S4、提取目标图像集每张图像的各通道的直方图,并对直方图向量进行归一化,构成一个目标样本,最终由获得的目标样本组成目标集;
S5、将训练集中的样本输入GAN中的生成网络,生成网络由若干个全连接层构成,其中输出层为SoftMax层,最终输出直方图向量;将生成网络输出的直方图向量输入GAN中的判别网络,其标签为0;将目标集中的样本输入GAN中的判别网络,其标签为1;
S6、按照以上的GAN输入和标注,对GAN进行训练;
S7、将步骤1中得到的各个子集轮流两两组合,将每个组合中的2个子集轮流作为训练集与目标集,按照步骤S2与步骤S6来继续训练同一个GAN网络,在该GAN网络上不断的重复训练,直到所有组合训练完成;
S8、训练完成后,将生成网络应用于样本增强,将待增强样本图像参照步骤S3的方法,构成输入向量集,将输入向量集中的每个向量集输入到生成网络,生成一个直方图向量,将该直方图结合它对应的原样本图像,进行直方图规定化,得到生成的增强样本;循环将待增强样本图像进行该操作,每次用于拼接,来生成输入信号的高斯信号均为重新随机生成,直到生成的增强样本数达到规定数量。
进一步的说,本发明所述的步骤S2中,提取训练图像集每张图像的各通道的直方图,设每张图像的通道数为n_channel,则每张图像获得n_channel个由256个数据组成的直方图向量,将其归一化。
进一步的说,本发明所述的步骤S3中,针对每张训练图像集中的图像,生成一个由64个数据组成的符合N(0,1)分布的高斯随机信号,将这个一维高斯随机信号分别与该幅图像的n_channel个通道的经过归一化的直方图进行一维拼接,形成n_channel个分别由320个数据组成的向量,作为一个训练样本,将训练图像集中的每幅图像都做此操作,每幅图像获得一个训练样本,最终由获得的训练样本组成训练集。
进一步的说,本发明所述的步骤S4中,提取目标图像集每张图像的各通道的直方图,每张图像获得n_channel个分别由256个数据组成的直方图向量,将其归一化,构成一个目标样本,将目标图像集中的每幅图像都做此操作,每幅图像获得一个目标样本,最终由获得的目标样本组成目标集。
进一步的说,本发明所述的步骤S6中,当满足以下任一条件时:
训练轮数大于epoch_min,且判别网络的准确率在0.5±t之内时;
训练轮数大于epoch_max时;
结束训练;
其中:
epoch_min为最小训练轮数;
epoch_max为最大训练轮数;
t为准确率偏差阈值。
本发明的有益效果是,解决了背景技术中存在的缺陷,利用在不同成像环境下得到的样本图像,进行直方图统计,利用对抗神经网络训练出不同成像环境下的直方图转换网络;然后利用网络输出的直方图对原图进行直方图规定化,从而生成模拟不同成像环境下,且效果接近真实的样本图像,实现样本增强,用于设备上深度学习网络模型的训练,从而提高模型的泛化能力,无需重新训练。
附图说明
图1是本发明的流程示意图。
具体实施方式
现在结合附图和优选实施例对本发明作进一步详细的说明。这些附图均为简化的示意图,仅以示意方式说明本发明的基本结构,因此其仅显示与本发明有关的构成。
如图1所示的一种针对成像中直流分量变化的深度学习样本增强方法,利用不同成像环境下的图像,轮流作为待增强样本与目标样本,利用直方图均衡化来进行样本增强的方案;直方图结合随机信号作为输入,结合对抗神经网络GAN,最终输出直方图,再利用输出直方图通过直方图来进行样本增强的整体流程框架。
具体包括以下步骤:
1、样本选取
收集同一种产品在各种成像环境下的样本,作为不同的子集,选择2个子集,即2种成像环境下的样本图像,分别作为训练图像集与目标图像集;
2、特征提取
提取训练图像集每张图像的各通道的直方图,设每张图像的通道数为n_channel,则每张图像获得n_channel个由256个数据组成的直方图向量,将其归一化;
3、训练图像集数据处理
针对每张训练图像集中的图像,生成一个由64个数据组成的符合N(0,1)分布的高斯随机信号,将这个一维高斯随机信号分别与该幅图像的n_channel个通道的经过归一化的直方图进行一维拼接,形成n_channel个分别由320个数据组成的向量,作为一个训练样本,将训练图像集中的每幅图像都做此操作,每幅图像获得一个训练样本,最终由获得的训练样本组成训练集;
4、目标图像集数据处理
提取目标图像集每张图像的各通道的直方图,每张图像获得n_channel个分别由256个数据组成的直方图向量,将其归一化,构成一个目标样本,将目标图像集中的每幅图像都做此操作,每幅图像获得一个目标样本,最终由获得的目标样本组成目标集;
5、网络设计
将训练集中的样本输入GAN中的生成网络,生成网络由若干个全连接层构成,其中输出层为SoftMax层,最终输出为256个数据组成的直方图向量,将生成网络输出的直方图向量作为负样本输入GAN中的判别网络,其标签为0,将目标集中的样本作为正样本输入GAN中的判别网络,其标签为1;本实施例中,采用一个检测网络来作为判别网络,如图1中所示。
6、网络训练
按照以上的GAN输入和标注,对GAN进行训练;
当满足以下任一条件时:
训练轮数大于epoch_min,且判别网络的准确率在0.5±t之内时;
训练轮数大于epoch_max时;
结束训练,其中:
epoch_min为最小训练轮数,本实施例中取5000;
epoch_max为最大训练轮数,本实施例中取50000;
t为准确率偏差阈值,本实施例中取0.1;
7、迭代训练
将步骤1中得到的各个子集轮流两两组合,将每个组合中的2个子集轮流作为训练集与目标集,按照步骤2与步骤6来继续训练同一个GAN网络,在该GAN网络上不断fintue(不断的重复训练,同权重);
按照该方法两两组合训练GAN,直到所有组合训练完成;
8、网络使用
训练完成后,将生成网络应用于样本增强,将待增强样本图像参照步骤3的方法,构成输入向量集,将输入向量集中的每个向量集输入到生成网络,生成一个直方图向量,将该直方图结合它对应的原样本图像,进行直方图规定化,得到生成的增强样本;
循环将待增强样本图像进行该操作,每次用于拼接,来生成输入信号的高斯信号均为重新随机生成,直到生成的增强样本数达到规定数量。
本发明针对基于人工数学建模的方法过于复杂,难以推导的问题;采用对抗神经网络,利用神经网络超强的数学拟合能力来形成具有一定复杂度的成像数学模型,使用神经网络训练的方法来解决复杂的数学模型难以推导的问题。
本发明针对常规对抗神经网络方向性不强,缺乏可控性的问题;采用对抗神经网络,将输入由高斯随机信号改为图像的直方图结合高斯随机信号,将输出由二维图像改为一维直方图信号,将正样本由不同成像环境下的样本图像改为它们的一维直方图信号;
直方图直接反应成像环境变化,从而解决了常规对抗神经网络针对性不强,缺乏可控性的问题。
本发明针对使用全局灰度加减恒定值的数学模型较为简单,效果失真的问题;根据输出的直方图将原图进行直方图规定化,从而生成接近真实效果的,在不同成像环境下的样本图像,从而解决了简单的全局灰度加减恒定值生成的样本效果与真实成像效果差别大的问题。
本发明不仅解决了以上列出的其他方法存在的问题,训练出的模型还可用于不同的被测产品,从而解决了在首次做某种产品检测项目时,产品在不同成像环境下的样本缺乏问题,增强了模型的通用性,从而缩短了项目周期,节约项目成本。
以上说明书中描述的只是本发明的具体实施方式,各种举例说明不对本发明的实质内容构成限制,所属技术领域的普通技术人员在阅读了说明书后可以对以前所述的具体实施方式做修改或变形,而不背离发明的实质和范围。
Claims (5)
1.一种针对成像中直流分量变化的深度学习样本增强方法,其特征在于:包括以下步骤,
S1、收集同一种产品在各种成像环境下的样本,作为不同的子集,分别为训练图像集与目标图像集;
S2、提取训练图像集每张图像的各通道的直方图,并对直方图向量进行归一化;
S3、针对每张训练图像集中的图像,生成高斯随机信号,并将这个高斯随机信号分别与该幅图像的各通道的经过归一化的直方图进行一维拼接,形成向量,作为一个训练样本,最终由获得的训练样本组成训练集;
S4、提取目标图像集每张图像的各通道的直方图,并对直方图向量进行归一化,构成一个目标样本,最终由获得的目标样本组成目标集;
S5、将训练集中的样本输入GAN中的生成网络,生成网络由若干个全连接层构成,其中输出层为SoftMax层,最终输出直方图向量;将生成网络输出的直方图向量输入GAN中的判别网络,其标签为0;将目标集中的样本输入GAN中的判别网络,其标签为1;
S6、按照以上的GAN输入和标注,对GAN进行训练;
S7、将步骤1中得到的各个子集轮流两两组合,将每个组合中的2个子集轮流作为训练集与目标集,按照步骤S2与步骤S6来继续训练同一个GAN网络,在该GAN网络上不断的重复训练,直到所有组合训练完成;
S8、训练完成后,将生成网络应用于样本增强,将待增强样本图像参照步骤S3的方法,构成输入向量集,将输入向量集中的每个向量集输入到生成网络,生成一个直方图向量,将该直方图结合它对应的原样本图像,进行直方图规定化,得到生成的增强样本;循环将待增强样本图像进行该操作,每次用于拼接,来生成输入信号的高斯信号均为重新随机生成,直到生成的增强样本数达到规定数量。
2.如权利要求1所述的针对成像中直流分量变化的深度学习样本增强方法,其特征在于:所述的步骤S2中,提取训练图像集每张图像的各通道的直方图,设每张图像的通道数为n_channel,则每张图像获得n_channel个由256个数据组成的直方图向量,将其归一化。
3.如权利要求1所述的针对成像中直流分量变化的深度学习样本增强方法,其特征在于:所述的步骤S3中,针对每张训练图像集中的图像,生成一个由64个数据组成的符合N(0,1)分布的高斯随机信号,将这个一维高斯随机信号分别与该幅图像的n_channel个通道的经过归一化的直方图进行一维拼接,形成n_channel个分别由320个数据组成的向量,作为一个训练样本,将训练图像集中的每幅图像都做此操作,每幅图像获得一个训练样本,最终由获得的训练样本组成训练集。
4.如权利要求1所述的针对成像中直流分量变化的深度学习样本增强方法,其特征在于:所述的步骤S4中,提取目标图像集每张图像的各通道的直方图,每张图像获得n_channel个分别由256个数据组成的直方图向量,将其归一化,构成一个目标样本,将目标图像集中的每幅图像都做此操作,每幅图像获得一个目标样本,最终由获得的目标样本组成目标集。
5.如权利要求1所述的针对成像中直流分量变化的深度学习样本增强方法,其特征在于:所述的步骤S6中,当满足以下任一条件时:
训练轮数大于epoch_min,且判别网络的准确率在0.5±t之内时;
训练轮数大于epoch_max时;
结束训练;
其中:
epoch_min为最小训练轮数;
epoch_max为最大训练轮数;
t为准确率偏差阈值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210436124.9A CN114529484B (zh) | 2022-04-25 | 2022-04-25 | 针对成像中直流分量变化的深度学习样本增强方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210436124.9A CN114529484B (zh) | 2022-04-25 | 2022-04-25 | 针对成像中直流分量变化的深度学习样本增强方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114529484A CN114529484A (zh) | 2022-05-24 |
CN114529484B true CN114529484B (zh) | 2022-07-12 |
Family
ID=81628158
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210436124.9A Active CN114529484B (zh) | 2022-04-25 | 2022-04-25 | 针对成像中直流分量变化的深度学习样本增强方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114529484B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI836972B (zh) * | 2023-04-27 | 2024-03-21 | 國立政治大學 | 水下影像增強方法及使用該方法的影像處理系統 |
CN117557912A (zh) * | 2023-12-18 | 2024-02-13 | 大连海事大学 | 一种基于改进YoloV7模型的冰山场景识别方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109859172A (zh) * | 2019-01-08 | 2019-06-07 | 浙江大学 | 基于眼底造影图像深度学习的糖网病变无灌注区识别方法 |
CN110516561A (zh) * | 2019-08-05 | 2019-11-29 | 西安电子科技大学 | 基于dcgan和cnn的sar图像目标识别方法 |
CN111047543A (zh) * | 2019-12-31 | 2020-04-21 | 腾讯科技(深圳)有限公司 | 图像增强方法、装置和存储介质 |
CN111325236A (zh) * | 2020-01-21 | 2020-06-23 | 南京大学 | 一种基于卷积神经网络的超声图像分类方法 |
CN112348747A (zh) * | 2019-08-08 | 2021-02-09 | 苏州科达科技股份有限公司 | 图像增强方法、装置及存储介质 |
CN112614077A (zh) * | 2020-12-30 | 2021-04-06 | 北京航空航天大学杭州创新研究院 | 一种基于生成对抗网络的非监督低照度图像增强方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3404611A1 (en) * | 2017-05-19 | 2018-11-21 | RetinAI Medical GmbH | Reducing noise in an image |
KR102641116B1 (ko) * | 2018-08-23 | 2024-02-27 | 삼성전자주식회사 | 데이터 증강에 기초한 인식 모델 트레이닝 방법 및 장치, 이미지 인식 방법 및 장치 |
CN110853035B (zh) * | 2020-01-15 | 2020-04-28 | 征图新视(江苏)科技股份有限公司 | 工业视觉检测中基于深度学习的样本生成方法 |
-
2022
- 2022-04-25 CN CN202210436124.9A patent/CN114529484B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109859172A (zh) * | 2019-01-08 | 2019-06-07 | 浙江大学 | 基于眼底造影图像深度学习的糖网病变无灌注区识别方法 |
CN110516561A (zh) * | 2019-08-05 | 2019-11-29 | 西安电子科技大学 | 基于dcgan和cnn的sar图像目标识别方法 |
CN112348747A (zh) * | 2019-08-08 | 2021-02-09 | 苏州科达科技股份有限公司 | 图像增强方法、装置及存储介质 |
CN111047543A (zh) * | 2019-12-31 | 2020-04-21 | 腾讯科技(深圳)有限公司 | 图像增强方法、装置和存储介质 |
CN111325236A (zh) * | 2020-01-21 | 2020-06-23 | 南京大学 | 一种基于卷积神经网络的超声图像分类方法 |
CN112614077A (zh) * | 2020-12-30 | 2021-04-06 | 北京航空航天大学杭州创新研究院 | 一种基于生成对抗网络的非监督低照度图像增强方法 |
Non-Patent Citations (4)
Title |
---|
Unsupervised data to content transformation with histogram-matching cycle-consistent generative adversarial networks;Srephan J;《nature》;20190916;1-9 * |
基于深度学习的图像增强算法研究;周腾威;《中国优秀硕士学位论文全文数据库》;20210215(第2021年02期);I138-2343 * |
基于生成对抗网络的高动态范围逆色调映射算法研究;宁士钰;《中国优秀硕士学位论文全文数据库》;20200615(第2020年06期);I136-285 * |
基于直方图均衡化的水下图像增强方法研究;王潇;《中国优秀硕士学位论文全文数据库》;20220315(第2022年03期);I138-1718 * |
Also Published As
Publication number | Publication date |
---|---|
CN114529484A (zh) | 2022-05-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109345507B (zh) | 一种基于迁移学习的大坝图像裂缝检测方法 | |
CN114529484B (zh) | 针对成像中直流分量变化的深度学习样本增强方法 | |
CN107123111B (zh) | 一种用于手机屏幕缺陷检测的深度残差网络构造方法 | |
CN105046277B (zh) | 特征显著性在图像质量评价中的鲁棒机理研究方法 | |
CN107016413B (zh) | 一种基于深度学习算法的烟叶在线分级方法 | |
CN108021947B (zh) | 一种基于视觉的分层极限学习机目标识别方法 | |
CN107092926A (zh) | 基于深度学习的服务机器人物体识别算法 | |
CN107316035A (zh) | 基于深度学习神经网络的对象识别方法及装置 | |
CN107194371A (zh) | 基于层次化卷积神经网络的用户专注度识别方法及系统 | |
CN109448061A (zh) | 一种无需摄像机标定的水下双目视觉定位方法 | |
CN107169417A (zh) | 基于多核增强和显著性融合的rgbd图像协同显著性检测方法 | |
CN111047543A (zh) | 图像增强方法、装置和存储介质 | |
WO2021219835A1 (en) | Pose estimation method and apparatus | |
CN109754006A (zh) | 一种视图及点云融合的立体视觉内容分类方法与系统 | |
CN115131492A (zh) | 目标对象的重光照方法、装置及存储介质和背景替换方法 | |
CN116524183A (zh) | 一种基于多任务适配器微调的伪装目标检测方法 | |
CN114724218A (zh) | 视频检测方法、装置、设备及介质 | |
CN116385758A (zh) | 基于YOLOv5网络对传送带表面损伤的检测方法 | |
CN113781352B (zh) | 去光照方法、装置、电子设备与存储介质 | |
CN111291780B (zh) | 一种跨域网络训练及图像识别方法 | |
CN110111332A (zh) | 基于深度卷积神经网络的胶原蛋白肠衣缺陷检测模型、检测方法及系统 | |
CN111898525B (zh) | 烟雾识别模型的构建方法、进行烟雾检测的方法及装置 | |
JP2023508641A (ja) | データ増強基盤事物分析モデル学習装置及び方法 | |
KR102652117B1 (ko) | 이미지 보정 방법 및 이미지 보정 시스템 | |
CN108960285B (zh) | 一种分类模型生成方法、舌体图像分类方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |