CN116757971B - 一种基于周围光的图像自动调整方法 - Google Patents
一种基于周围光的图像自动调整方法 Download PDFInfo
- Publication number
- CN116757971B CN116757971B CN202311051742.2A CN202311051742A CN116757971B CN 116757971 B CN116757971 B CN 116757971B CN 202311051742 A CN202311051742 A CN 202311051742A CN 116757971 B CN116757971 B CN 116757971B
- Authority
- CN
- China
- Prior art keywords
- image
- model
- efficientnet
- information
- adjustment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 51
- 238000012549 training Methods 0.000 claims abstract description 56
- 230000008569 process Effects 0.000 claims abstract description 19
- 238000012545 processing Methods 0.000 claims abstract description 17
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 12
- 238000005457 optimization Methods 0.000 claims abstract description 10
- 238000009434 installation Methods 0.000 claims abstract description 4
- 238000002360 preparation method Methods 0.000 claims abstract description 4
- 238000005286 illumination Methods 0.000 claims description 51
- 230000008859 change Effects 0.000 claims description 32
- 238000012795 verification Methods 0.000 claims description 23
- 230000006870 function Effects 0.000 claims description 18
- 230000003287 optical effect Effects 0.000 claims description 16
- 238000007781 pre-processing Methods 0.000 claims description 15
- 238000012360 testing method Methods 0.000 claims description 9
- 238000013136 deep learning model Methods 0.000 claims description 7
- 238000005516 engineering process Methods 0.000 claims description 6
- 238000011156 evaluation Methods 0.000 claims description 6
- 238000012805 post-processing Methods 0.000 claims description 6
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 4
- 230000002708 enhancing effect Effects 0.000 claims description 3
- 238000000605 extraction Methods 0.000 claims description 3
- 230000009466 transformation Effects 0.000 claims description 3
- 230000033764 rhythmic process Effects 0.000 abstract description 3
- 238000013480 data collection Methods 0.000 abstract 1
- 238000004364 calculation method Methods 0.000 description 5
- 230000006978 adaptation Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 3
- 230000002238 attenuated effect Effects 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000001105 regulatory effect Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Studio Devices (AREA)
Abstract
本发明公开了一种基于周围光的图像自动调整方法,属于图像调节处理技术领域。一种基于周围光的图像自动调整方法,包括以下步骤:S1、安装准备,S2、收集数据,S3、导入模型,S4、模型训练,S5、模型调整优化,S6、实际应用,S7:自动调整。该方法中,在移动过程中,结合GPS定位、全方位光传感、图像处理、计算机视觉和实时算法、导航应用以及日照节律,提前预设接下来的参数调整,做到提前适应光环境,进一步提高光环境信息采集的精细度,有效提高预测的准确性。
Description
技术领域
本发明涉及图像调节处理技术领域,更具体地说,涉及一种基于周围光的图像自动调整方法。
背景技术
基于周围光的图像自动调整方法是一种图像处理技术,它利用图像中周围的光照信息来自动调整图像的亮度、对比度和颜色参数,以达到更好的视觉效果和显示质量。这种方法通常用于改善在不同环境条件下拍摄的照片或图像。
目前的图像自动调整多是根据光传感器采集当下的环境光信息,并根据光照估计和环境光信息,对整个图像进行自动调整,这种方法在定点调整上很适应,但是当面对移动的图像载体设备时,位置、方向时刻改变的同时伴随着环境光信息的不断变化,若是仅利用算法和传感器不停采集计算得出图像光照信息的话,对装置的处理性能要求会提高,且设备的运行负担会加大。
发明内容
本发明的目的在于提供一种基于周围光的图像自动调整方法,以解决上述背景技术中提出的问题:目前的图像自动调整多是根据光传感器采集当下的环境光信息,并根据光照估计和环境光信息,对整个图像进行自动调整,这种方法在定点调整上很适应,但是当面对移动的图像载体设备时,位置、方向时刻改变的同时伴随着环境光信息的不断变化,若是仅利用算法和传感器不停采集计算得出图像光照信息的话,对装置的处理性能要求会提高,且设备的运行负担会加大。
一种基于周围光的图像自动调整方法,包括以下步骤:
S1、安装准备:安装GPS定位装置、地图导航软件以及全方位光传感器,且采用轻量级的EfficientNet-Lite深度学习模型进行图像参数的调节;
S2、收集数据:根据GPS定位显示和全方位光传感器,测量不同方向、不同时间点的光线强度、方向以及颜色温度;
S3、导入模型:将这些采集到的图像数据集输入到EfficientNet-Lite模型中,并进行预处理;
S4、模型训练:在建立数据集后,对EfficientNet-Lite模型初始化,选择合适的损失函数,并选择合适的优化器,之后使用之前采集建立的数据集对EfficientNet-Lite模型进行训练;
S5、模型调整优化:采用学习率调度策略,并使用验证集来监控模型的性能;
S6、实际应用:通过GPS定位,同时利用全方位光传感器实时采集周围环境的光照信息,并结合GPS定位和光信息采集,利用EfficientNet-Lite模型计算出当下移动设备受到的环境光信息,且利用EfficientNet-Lite模型对剩余路段的环境光信息进行分析;
S7:自动调整:基于实时光照估计,利用计算机视觉技术和图像处理算法,动态调整图像的亮度、对比度、饱和度以及色彩平衡参数,同时根据EfficientNet-Lite模型推算预先设定接下来的图像变化参数;
优选地,所述S4还包括如下步骤:
数据预处理:收集适合任务的图像数据集,并进行预处理,以便提高模型的泛化能力;
网络架构选择:根据任务的复杂性和资源限制,选择适合的EfficientNet-Lite网络结构;
模型初始化:使用预训练权重对EfficientNet-Lite模型进行初始化;
损失函数选择:选择交叉熵损失函数;
优化器选择:选择Adam作为优化器来更新模型的权重;
训练过程:在每个训练步骤中,从数据集中随机抽取一个小批量的样本,通过前向传播计算交叉熵损失函数,并使用反向传播更新模型的参数,采用轻量级的EfficientNet-Lite深度学习模型可以在资源有限的移动设备上实现快速的图像参数调节,且EfficientNet-Lite深度学习模型具有较少的参数和计算复杂度,以便在移动设备上高效运行,保证了实时性和计算的效率。
优选地,所述S5还包括如下步骤:
学习率调整:使用学习率衰减,在训练过程中逐渐减小学习率,以动态地调整学习率,有效帮助模型更快地收敛;
验证和测试:在训练过程中,将数据集划分为训练集和验证集,在每个训练周期结束时,通过EfficientNet-Lite模型在验证集上进行验证;
模型评估和优化:根据模型在测试集上的性能,进一步进行模型优化、调整和调试,并进行二次训练。
优选地,所述S6还包括如下步骤:
GPS定位:使用设备上的GPS功能获取当前设备的地理位置信息;
光信息采集:利用设备上的全方位光传感器,实时采集周围环境的光照强度、颜色和方向;
数据对齐:将采集到的环境光信息数据与GPS定位数据进行对齐,以便将光信息与路段位置关联起来;
特征提取:利用EfficientNet-Lite模型对采集到的光信息进行处理;
数据标注:对环境光信息数据进行标注;
模型验证:使用标注的环境光信息数据,对EfficientNet-Lite模型进行训练,并在训练过程中,利用验证集对模型的性能进行评估;
模型预测:利用之前训练好的EfficientNet-Lite模型,根据输入的光信息以及GPS定位装置中预测的日出日落规律,输出接下来时间段预测的光照强度、颜色和方向信息,从而有效帮助对环境光的变化进行分析和理解。
优选地,所述S7还包括如下步骤:
图像获取:从移动设备的图像源获取待处理的图像;
图像预处理:对获取到的图像进行预处理;
亮度调整:根据实时光照估计结果,通过线性调整的方法调整图像的亮度;
对比度调整:基于实时光照估计结果,调整图像的对比度,包括使用直方图均衡化和对比度拉伸来增强图像的对比度;
饱和度调整:根据实时光照估计结果,调整图像的饱和度,包括使用色彩空间变换或颜色增益方法来调整图像的饱和度;
色彩平衡调整:根据实时光照估计结果,调整图像的色彩平衡,包括使用颜色平衡算法来调整图像的色调和色彩均衡;
预测图像变化参数:根据接下来的方向变化和日出日落信息,推测每个时间段的光照信息,并同EfficientNet-Lite模型训练集中数据比较得出相近的图像变化参数;
图像变化:根据模型预测的图像变化参数,对输入图像进行相应的变化;
图像后处理:根据需要,对处理后的图像进行后处理。
相比于现有技术,本发明的优点在于:
(1)本发明中,在当下对图像调节的同时,根据GPS定位装置中预测的日出日落规律分析接下来的环境光信息,并将分析得出的信息通过EfficientNet-Lite模型计算出图像变化参数,并提前预设接下来的参数调整,做到提前适应光环境,提高适应调整的效率。
(2)本发明中,通过提前训练EfficientNet-Lite模型,并在实际应用中结合地图导航应用提前确定移动路线,之后在移动过程中,通过GPS定位获取移动设备的实时位置信息,并利用全方位光传感器实时采集周围环境的光照信息,能够很快得出位置改变前后的光环境信息参数,从而有效对比进行调整,提高适应性,减少图像识别延后情况的发生。
(3)本发明中,结合GPS定位、全方位光传感、图像处理、计算机视觉和实时算法以及导航应用,进一步提高光环境信息采集的精细度,并结合日照节律,将不同时段采集到的信息同日照节律点一一对应,方便后期预测时进行比对,有效提高预测的准确性。
附图说明
图1为本发明的整体方法流程图。
具体实施方式
实施例
请参阅图1,一种基于周围光的图像自动调整方法,包括以下步骤:
S1、安装准备:安装GPS定位装置、地图导航软件以及全方位光传感器,且采用轻量级的EfficientNet-Lite深度学习模型进行图像参数的调节;
S2、收集数据:根据GPS定位显示和全方位光传感器,测量不同方向、不同时间点的光线强度、方向以及颜色温度;
S3、导入模型:将这些采集到的图像数据集输入到EfficientNet-Lite模型中,EfficientNet-Lite是EfficientNet的轻量级版本,EfficientNet是一系列具有优秀性能的CNN模型,且EfficientNet-Lite在保持高准确性的同时,可以大幅减少了模型的参数和计算量,适合移动设备的应用,并进行预处理;
综上方法步骤,安装GPS定位装置、地图导航软件以及全方位光传感器,利用全方位光传感器实时采集周围环境的光照信息,包括设备所在位置的光照强度、颜色和方向数据,并将这些信息导入到EfficientNet-Lite模型中,用于模型训练,提供数据集,有利于之后实际使用时进行数据比对,分析模拟。
S4、模型训练:在建立数据集后,对EfficientNet-Lite模型初始化,选择合适的损失函数,并选择合适的优化器,之后使用之前采集建立的数据集对EfficientNet-Lite模型进行训练;
S4还包括如下步骤:
数据预处理:收集适合任务的图像数据集,并进行预处理,其中预处理的步骤包括图像大小调整、数据增强(如随机裁剪、翻转、旋转)和归一化,以便提高模型的泛化能力;
网络架构选择:根据任务的复杂性和资源限制,选择适合的EfficientNet-Lite网络结构,EfficientNet-Lite模型有不同版本,根据需要选择其中一个即可;
模型初始化:使用预训练权重对EfficientNet-Lite模型进行初始化,预训练权重通常来源于ImageNet等大规模数据集;
损失函数选择:选择交叉熵损失函数,交叉熵损失函数用于分类任务,适合图像亮度、对比度、饱和度以及色彩的分类;
优化器选择:选择Adam作为优化器来更新模型的权重;
训练过程:在每个训练步骤中,从数据集中随机抽取一个小批量的样本,通过前向传播计算交叉熵损失函数,并使用反向传播更新模型的参数,训练过程需要多个轮次(epochs),直到模型收敛或达到预定的训练迭代次数,采用轻量级的EfficientNet-Lite深度学习模型可以在资源有限的移动设备上实现快速的图像参数调节,且EfficientNet-Lite深度学习模型具有较少的参数和计算复杂度,以便在移动设备上高效运行,保证了实时性和计算的效率。
S5、模型调整优化:采用学习率调度策略,并使用验证集来监控模型的性能;
S5还包括如下步骤:
学习率调整:使用学习率衰减,在训练过程中逐渐减小学习率,按照固定的衰减率每个epoch进行衰减,以动态地调整学习率,有效帮助模型更快地收敛;
验证和测试:在训练过程中,将数据集划分为训练集和验证集,在每个训练周期(epoch)结束时,通过EfficientNet-Lite模型在验证集上进行验证,验证集的数据是模型在训练过程中没有见过的数据,用于评估模型在未知数据上的性能,且验证集的评估结果用于监控模型的训练过程;
模型评估和优化:根据模型在测试集上的性能,进一步进行模型优化、调整和调试,并进行二次训练,以达到最佳的性能和泛化能力。
综上方法步骤,使用预训练权重对EfficientNet-Lite模型进行初始化,在每个训练步骤中,从数据集中随机抽取一个小批量的样本,通过前向传播计算交叉熵损失函数,并使用反向传播更新模型的参数,训练过程需要多个轮次(epochs),直到模型收敛或达到预定的训练迭代次数,之后在每个训练周期结束后,模型在验证集上进行验证,计算模型在验证集上的损失函数和评价指标包括准确率、精确率和召回率,且监控验证集上的性能,并根据性能指标来调整模型的学习率、参数,并重复训练周期,直到达到预定的训练迭代次数或满足其他停止条件。而在训练完成后,使用独立的测试集对模型进行测试,用于计算模型在测试集上的损失函数和评价指标,得到最终的性能结果,之后分析测试结果,评估模型的泛化能力和性能。
S6、实际应用:通过GPS定位,同时利用全方位光传感器实时采集周围环境的光照信息,并结合GPS定位和光信息采集,利用EfficientNet-Lite模型计算出当下移动设备受到的环境光信息,且利用EfficientNet-Lite模型对剩余路段的环境光信息进行分析;
S6还包括如下步骤:
GPS定位:使用设备上的GPS功能获取当前设备的地理位置信息;
光信息采集:利用设备上的全方位光传感器,实时采集周围环境的光照强度、颜色和方向;
数据对齐:将采集到的环境光信息数据与GPS定位数据进行对齐,这是为了确保光信息和地理位置的对应关系,以便将光信息与路段位置关联起来;
特征提取:利用EfficientNet-Lite模型对采集到的光信息进行处理,将光信息输入模型中,获取模型对当前环境光的预测值;
数据标注:对环境光信息数据进行标注,标注可以是对光照强度进行分类(例如强、中、弱光照)或回归(预测光照强度值)等;
模型验证:使用标注的环境光信息数据,对EfficientNet-Lite模型进行训练,并在训练过程中,利用验证集对模型的性能进行评估,检查模型的泛化能力;
模型预测:利用之前训练好的EfficientNet-Lite模型,根据输入的光信息以及GPS定位装置中预测的日出日落规律,输出接下来时间段预测的光照强度、颜色和方向信息,从而有效帮助对环境光的变化进行分析和理解。
S7:自动调整:基于实时光照估计,利用计算机视觉技术和图像处理算法,动态调整图像的亮度、对比度、饱和度以及色彩平衡参数,以适应当前环境的光照条件,同时根据EfficientNet-Lite模型推算预先设定接下来的图像变化参数;
S7还包括如下步骤:
图像获取:从移动设备的图像源获取待处理的图像;
图像预处理:对获取到的图像进行预处理,包括调整图像的大小、色彩空间转换等,以便后续处理;
亮度调整:根据实时光照估计结果,通过线性调整的方法调整图像的亮度;
对比度调整:基于实时光照估计结果,调整图像的对比度,包括使用直方图均衡化、对比度拉伸方法来增强图像的对比度;
饱和度调整:根据实时光照估计结果,调整图像的饱和度,包括使用色彩空间变换或颜色增益方法来调整图像的饱和度;
色彩平衡调整:根据实时光照估计结果,调整图像的色彩平衡,包括使用颜色平衡算法来调整图像的色调和色彩均衡;
预测图像变化参数:根据接下来的方向变化和日出日落信息,推测每个时间段的光照信息,并同EfficientNet-Lite模型训练集中数据比较得出相近的图像变化参数;
图像变化:根据模型预测的图像变化参数,对输入图像进行相应的变化,包括根据预测的亮度参数,调整图像的亮度;根据预测的对比度参数,调整图像的对比度;根据预测的饱和度参数,调整图像的饱和度;根据预测的色彩平衡参数,调整图像的色彩平衡;
图像后处理:根据需要,对处理后的图像进行后处理,包括去噪、锐化等步骤,以获得最终的调整后图像。
综上方法步骤,在确保模型在实际应用中能够有效地工作后,将EfficientNet-Lite模型投入实际图像处理应用中,而在实际应用中,提前在地图导航软件中确定目的地以及路线,并预算到达时间和各个路段所需时间,之后在移动过程中,通过GPS定位获取移动设备的实时位置信息,并与预测移动路线和时间比对,之后利用全方位光传感器实时采集周围环境的光照信息,利用EfficientNet-Lite模型计算出当下移动设备受到的环境光信息,并基于实时光照估计,利用计算机视觉技术和图像处理算法,进行动态调整图像参数,以适应当前环境的光照条件,且在当下对图像调节的同时,根据GPS定位装置中预测的日出日落规律分析接下来的环境光信息,并将分析得出的信息通过EfficientNet-Lite模型计算出图像变化参数,并提前预设接下来的参数调整,做到提前适应光环境,提高适应调整的效率。
以上显示和描述了本发明的基本原理、主要特征和本发明的优点。本行业的技术人员应该了解,本发明不受上述实施例的限制,上述实施例和说明书中描述的仅为本发明的优选例,并不用来限制本发明,在不脱离本发明精神和范围的前提下,本发明还会有各种变化和改进,这些变化和改进都落入要求保护的本发明范围内。本发明要求保护范围由所附的权利要求书及其等效物界定。
Claims (5)
1.一种基于周围光的图像自动调整方法,其特征在于,包括以下步骤:
S1、安装准备:安装GPS定位装置、地图导航软件以及全方位光传感器,且采用轻量级的EfficientNet-Lite深度学习模型进行图像参数的调节;
S2、收集数据:根据GPS定位显示和全方位光传感器,测量不同方向、不同时间点的光线强度、方向以及颜色温度;
S3、导入模型:将这些采集到的图像数据集输入到EfficientNet-Lite模型中,并进行预处理;
S4、模型训练:在建立数据集后,对EfficientNet-Lite模型初始化,选择交叉熵损失函数,并选择Adam优化器,之后使用之前采集建立的数据集对EfficientNet-Lite模型进行训练;
S5、模型调整优化:采用学习率调度策略,并使用验证集来监控模型的性能;
S6、实际应用:通过GPS定位获取移动设备的实时位置信息,同时利用全方位光传感器实时采集周围环境的光照信息,并结合GPS定位和光信息采集,利用EfficientNet-Lite模型计算出当下移动设备受到的环境光信息,且利用EfficientNet-Lite模型对剩余路段的环境光信息进行分析,利用之前训练好的EfficientNet-Lite模型,根据输入的光信息以及GPS定位装置中预测的日出日落规律,输出接下来时间段预测的光照强度、颜色和方向信息;
S7:自动调整:基于实时光照估计,利用计算机视觉技术和图像处理算法,动态调整图像的亮度、对比度、饱和度以及色彩平衡参数,同时根据EfficientNet-Lite模型推算预先设定接下来的图像变化参数,根据接下来的方向变化和日出日落信息,推测每个时间段的光照信息,并同EfficientNet-Lite模型训练集中数据比较得出相近的图像变化参数,在实际应用中,提前在地图导航软件中确定目的地以及路线,并预算到达时间和各个路段所需时间,之后在移动过程中,通过GPS定位获取移动设备的实时位置信息,并与预测移动路线和时间比对,之后利用全方位光传感器实时采集周围环境的光照信息,利用EfficientNet-Lite模型计算出当下移动设备受到的环境光信息,并基于实时光照估计,利用计算机视觉技术和图像处理算法,进行动态调整图像参数,以适应当前环境的光照条件,且在当下对图像调节的同时,根据GPS定位装置中预测的日出日落规律分析接下来的环境光信息,并将分析得出的信息通过EfficientNet-Lite模型计算出图像变化参数,并提前预设接下来的参数调整,做到提前适应光环境,提高适应调整的效率。
2.根据权利要求1所述的一种基于周围光的图像自动调整方法,其特征在于,所述S4还包括如下步骤:
数据预处理:收集适合任务的图像数据集,并进行预处理;
网络架构选择:根据任务的复杂性和资源限制,选择适合的EfficientNet-Lite网络结构;
模型初始化:使用预训练权重对EfficientNet-Lite模型进行初始化;
损失函数选择:选择交叉熵损失函数;
优化器选择:选择Adam作为优化器来更新模型的权重;
训练过程:在每个训练步骤中,从数据集中随机抽取一个小批量的样本,通过前向传播计算交叉熵损失函数,并使用反向传播更新模型的参数。
3.根据权利要求1所述的一种基于周围光的图像自动调整方法,其特征在于,所述S5还包括如下步骤:
学习率调整:使用学习率衰减,在训练过程中逐渐减小学习率;
验证和测试:在训练过程中,将数据集划分为训练集和验证集,在每个训练周期结束时,通过EfficientNet-Lite模型在验证集上进行验证;
模型评估和优化:根据模型在测试集上的性能,进一步进行模型优化、调整和调试,并进行二次训练。
4.根据权利要求1所述的一种基于周围光的图像自动调整方法,其特征在于,所述S6还包括如下步骤:
光信息采集:利用设备上的全方位光传感器,实时采集周围环境的光照强度、颜色和方向;
数据对齐:将采集到的环境光信息数据与GPS定位数据进行对齐;
特征提取:利用EfficientNet-Lite模型对采集到的光信息进行处理;
数据标注:对环境光信息数据进行标注;
模型验证:使用标注的环境光信息数据,对EfficientNet-Lite模型进行训练,并在训练过程中,利用验证集对模型的性能进行评估。
5.根据权利要求1所述的一种基于周围光的图像自动调整方法,其特征在于,所述S7还包括如下步骤:
图像获取:从移动设备的图像源获取待处理的图像;
图像预处理:对获取到的图像进行预处理;
亮度调整:根据实时光照估计结果,通过线性调整的方法调整图像的亮度;
对比度调整:基于实时光照估计结果,调整图像的对比度,包括使用直方图均衡化和对比度拉伸来增强图像的对比度;
饱和度调整:根据实时光照估计结果,调整图像的饱和度,包括使用色彩空间变换或颜色增益方法来调整图像的饱和度;
色彩平衡调整:根据实时光照估计结果,调整图像的色彩平衡,包括使用颜色平衡算法来调整图像的色调和色彩均衡;
预测图像变化参数:根据接下来的方向变化和日出日落信息,推测每个时间段的光照信息,并同EfficientNet-Lite模型训练集中数据比较得出相近的图像变化参数;
图像变化:根据模型预测的图像变化参数,对输入图像进行相应的变化;
图像后处理:根据需要,对处理后的图像进行后处理。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311051742.2A CN116757971B (zh) | 2023-08-21 | 2023-08-21 | 一种基于周围光的图像自动调整方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311051742.2A CN116757971B (zh) | 2023-08-21 | 2023-08-21 | 一种基于周围光的图像自动调整方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116757971A CN116757971A (zh) | 2023-09-15 |
CN116757971B true CN116757971B (zh) | 2024-05-14 |
Family
ID=87948268
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311051742.2A Active CN116757971B (zh) | 2023-08-21 | 2023-08-21 | 一种基于周围光的图像自动调整方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116757971B (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103575917A (zh) * | 2013-10-15 | 2014-02-12 | 中国农业大学 | 一种多光谱图像采集方法和装置 |
KR20140105165A (ko) * | 2013-02-22 | 2014-09-01 | 나비스오토모티브시스템즈 주식회사 | 네비게이션 장치 및 그의 일출 및 일몰에 따른 배경 표시방법 |
CN107077826A (zh) * | 2014-10-15 | 2017-08-18 | 英特尔公司 | 基于周围光的图像调整 |
CN112435237A (zh) * | 2020-11-24 | 2021-03-02 | 山西三友和智慧信息技术股份有限公司 | 一种基于数据增强与深度网络的皮肤病变分割方法 |
CN112634343A (zh) * | 2020-12-23 | 2021-04-09 | 北京百度网讯科技有限公司 | 图像深度估计模型的训练方法、图像深度信息的处理方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020070834A1 (ja) * | 2018-10-03 | 2020-04-09 | 株式会社島津製作所 | 学習済みモデルの製造方法、輝度調整方法および画像処理装置 |
-
2023
- 2023-08-21 CN CN202311051742.2A patent/CN116757971B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20140105165A (ko) * | 2013-02-22 | 2014-09-01 | 나비스오토모티브시스템즈 주식회사 | 네비게이션 장치 및 그의 일출 및 일몰에 따른 배경 표시방법 |
CN103575917A (zh) * | 2013-10-15 | 2014-02-12 | 中国农业大学 | 一种多光谱图像采集方法和装置 |
CN107077826A (zh) * | 2014-10-15 | 2017-08-18 | 英特尔公司 | 基于周围光的图像调整 |
CN112435237A (zh) * | 2020-11-24 | 2021-03-02 | 山西三友和智慧信息技术股份有限公司 | 一种基于数据增强与深度网络的皮肤病变分割方法 |
CN112634343A (zh) * | 2020-12-23 | 2021-04-09 | 北京百度网讯科技有限公司 | 图像深度估计模型的训练方法、图像深度信息的处理方法 |
Also Published As
Publication number | Publication date |
---|---|
CN116757971A (zh) | 2023-09-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110084221B (zh) | 一种基于深度学习的带中继监督的序列化人脸关键点检测方法 | |
CN109509187B (zh) | 一种针对大分辨率布匹图像中的小瑕疵的高效检验算法 | |
CN112634292A (zh) | 一种基于深度卷积神经网络的沥青路面裂缝图像分割方法 | |
CN108876021B (zh) | 一种中长期径流预报方法及系统 | |
CN113065653B (zh) | 面向移动端图像分类的轻量级卷积神经网络的设计方法 | |
CN112990082B (zh) | 一种水声脉冲信号的检测识别方法 | |
CN109948429A (zh) | 图像分析方法、装置、电子设备及计算机可读介质 | |
CN111178438A (zh) | 一种基于ResNet101的天气类型识别方法 | |
CN110659682A (zh) | 一种基于MCWD-KSMOTE-AdaBoost-DenseNet算法的数据分类方法 | |
CN113189014A (zh) | 一种融合卫星遥感和地面监测数据的臭氧浓度估算方法 | |
CN111414951B (zh) | 用于图像的细分类方法及装置 | |
CN116757971B (zh) | 一种基于周围光的图像自动调整方法 | |
CN112215301B (zh) | 基于卷积神经网络的影像直线探测方法 | |
CN110321528B (zh) | 一种基于半监督地理空间回归分析的高光谱影像土壤重金属浓度评估方法 | |
CN112084941A (zh) | 一种基于遥感图像的目标检测与识别方法 | |
CN117197057A (zh) | 一种基于深度学习的钢铁材料腐蚀程度自动化检测方法 | |
CN113450321B (zh) | 基于边缘检测的单阶段目标检测方法 | |
CN109993218A (zh) | 一种基于卷积神经网络的玉米病害的识别和分类模型 | |
CN112508946B (zh) | 一种基于对抗神经网络的电缆隧道异常检测方法 | |
CN114120359A (zh) | 一种基于堆叠沙漏网络的群养猪体尺测量方法 | |
CN112132088A (zh) | 一种巡检点位漏巡识别方法 | |
CN111914751A (zh) | 一种图像人群密度识别检测方法及系统 | |
CN112348700A (zh) | 一种结合som聚类与ifou方程的线路容量预测方法 | |
CN110988803A (zh) | 一种高置信度动态调整的雷达辐射源个体识别系统 | |
CN117192063B (zh) | 基于耦合卡尔曼滤波数据同化的水质预测方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |