CN111724297A - 图像处理方法及装置 - Google Patents
图像处理方法及装置 Download PDFInfo
- Publication number
- CN111724297A CN111724297A CN201910217425.0A CN201910217425A CN111724297A CN 111724297 A CN111724297 A CN 111724297A CN 201910217425 A CN201910217425 A CN 201910217425A CN 111724297 A CN111724297 A CN 111724297A
- Authority
- CN
- China
- Prior art keywords
- value
- hue
- image
- network
- pixel point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 16
- 238000000034 method Methods 0.000 claims abstract description 43
- 238000006243 chemical reaction Methods 0.000 claims abstract description 27
- 238000001514 detection method Methods 0.000 claims description 24
- 238000012545 processing Methods 0.000 claims description 22
- 238000005070 sampling Methods 0.000 claims 1
- 230000008569 process Effects 0.000 abstract description 20
- 238000012549 training Methods 0.000 description 15
- 238000010586 diagram Methods 0.000 description 7
- 238000012544 monitoring process Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- PEDCQBHIVMGVHV-UHFFFAOYSA-N Glycerine Chemical compound OCC(O)CO PEDCQBHIVMGVHV-UHFFFAOYSA-N 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 238000012806 monitoring device Methods 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/04—Context-preserving transformations, e.g. by using an importance map
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本申请提供一种图像处理方法及装置,方法包括:将灰度图输入已训练的网络模型,由网络模型确定灰度图中每个像素点的饱和度值、亮度值、每个像素点所属的色调数值段和灰度图所属的场景类别;从已存储的各场景类别的对照表中获取该场景类别的对照表;针对灰度图的每个像素点,从对照表中查找像素点所属的色调数值段对应的色调值并作为该像素点的色调值;依据该像素点的色调值、饱和度值、亮度值确定该像素点的彩色值。整个彩色化转换过程对每帧灰度图都是独立转换,无需依赖前一帧的转换结果,因此来自各种场景的灰度图都可实现彩色转换,对采集场景没有限制,实用性高。
Description
技术领域
本申请涉及图像处理技术领域,尤其涉及一种图像处理方法及装置。
背景技术
一些老旧视频图像受当时的摄像设备限制只能保存成黑白图像(即灰度图像),但是黑白图像缺乏颜色信息,用户在查看时体验不佳,由此人们越来越关注黑白图像的颜色重建问题。
目前是利用一种基于双通道循环生成对抗网络模型实现黑白图像彩色化,在训练该网络模型时,需要在实际所要应用的场景中采集黑白图像和彩色图像作为训练样本,在训练完成后,该网络模型只能处理在该场景中采集的黑白图像,并且需要依赖前一帧的转换结果,对当前输入的黑白图像进行彩色化转换,如果需要应用在其他场景,还需要到该其他场景采集训练样本,重新训练该网络模型,因此目前的彩色转换方式场景限制很大,算法实用性低。
发明内容
有鉴于此,本申请提供一种图像处理方法及装置,以解决目前的彩色转换方式对场景有严格限制,算法实用性低的问题。
根据本申请实施例的第一方面,提供一种图像处理方法,所述方法包括:
将待处理的灰度图输入已训练的网络模型中,以由所述网络模型确定所述灰度图中每个像素点的饱和度值、亮度值、每个像素点所属的色调数值段以及所述灰度图所属的场景类别;
从已存储的各场景类别的对照表中获取所述场景类别的对照表,所述对照表包含色调数值段与色调值之间的对应关系;
针对所述灰度图中的每个像素点,从获取的对照表中查找该像素点所属的色调数值段对应的色调值并作为该像素点的色调值;
依据该像素点的色调值、饱和度值、亮度值确定该像素点的彩色值,以得到所述灰度图的彩色图。
根据本申请实施例的第二方面,提供一种图像处理装置,所述装置包括:
确定模块,用于将待处理的灰度图输入已训练的网络模型中,以由所述网络模型确定所述灰度图中每个像素点的饱和度值、亮度值、每个像素点所属的色调数值段以及所述灰度图所属的场景类别;
获取模块,用于从已存储的各场景类别的对照表中获取所述场景类别的对照表,所述对照表包含色调数值段与色调值之间的对应关系;
查找模块,用于针对所述灰度图中的每个像素点,从获取的对照表中查找该像素点所属的色调数值段对应的色调值并作为该像素点的色调值;
彩色转换模块,用于依据该像素点的色调值、饱和度值、亮度值确定该像素点的彩色值,以得到所述灰度图的彩色图。
根据本申请实施例的第三方面,提供一种电子设备,所述设备包括可读存储介质和处理器;
其中,所述可读存储介质,用于存储机器可执行指令;
所述处理器,用于读取所述可读存储介质上的所述机器可执行指令,并执行所述指令以实现上述第一方面所述方法的步骤。
应用本申请实施例,通过将一帧待处理的灰度图输入已训练的网络模型中,由网络模型确定灰度图中每个像素点的饱和度值、亮度值、每个像素点所属的色调数值段以及灰度图所属的场景类别,然后从已存储的各场景类别的对照表中获取灰度图所属的场景类别的对照表(包含色调数值段与色调值之间的对应关系),并针对灰度图中的每个像素点,从获取的对照表中查找该像素点所属的色调数值段对应的色调值并作为该像素点的色调值,最后依据该像素点的色调值、饱和度值、亮度值确定该像素点的彩色值,以得到灰度图的彩色图。
基于上述描述可知,整个彩色化转换过程对每帧灰度图都是独立转换,无需依赖前一帧的转换结果,因此对灰度图的采集场景没有任何限制,该彩色化转换过程具有很好的实用性。例如可以应用于安防领域,以将红外图像或黑白图像转换为更为直观彩色图像,提高使用者发现监控场景内不易发现的问题的概率。
附图说明
图1A为本申请根据一示例性实施例示出的一种图像处理方法的实施例流程图;
图1B为本申请根据图1A所示实施例示出的一种网络模型的结构图;
图2为本申请根据一示例性实施例示出的另一种图像处理方法的实施例流程图;
图3为本申请根据一示例性实施例示出的一种电子设备的硬件结构图;
图4为本申请根据一示例性实施例示出的一种图像处理装置的实施例结构图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本申请相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本申请的一些方面相一致的装置和方法的例子。
在本申请使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本申请。在本申请和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。还应当理解,本文中使用的术语“和/或”是指并包含一个或多个相关联的列出项目的任何或所有可能组合。
应当理解,尽管在本申请可能采用术语第一、第二、第三等来描述各种信息,但这些信息不应限于这些术语。这些术语仅用来将同一类型的信息彼此区分开。例如,在不脱离本申请范围的情况下,第一信息也可以被称为第二信息,类似地,第二信息也可以被称为第一信息。取决于语境,如在此所使用的词语“如果”可以被解释成为“在……时”或“当……时”或“响应于确定”。
一些老旧黑白电影(如魂断蓝桥、罗马假日等经典电影)以及视频(如人类登月),受当时的摄像设备所限只能保存黑白视频图像,由于黑白图像缺乏颜色信息,因而不能展现出影像的绚丽色彩,这给观看者造成了不好的观影体验。另外,一些用于特殊条件下的监控设备(如红外摄像机、近红外摄像机等),由于受到使用条件的限制,也只能保存黑白视频图像,由于在黑白视频图像下很多物体、场景和事件都难以区分,这对使用者检索视频造成了很大障碍。
而目前的黑白图像彩色化方式由于需要依赖前一帧的转换结果,对当前黑白图像进行彩色化转换,无法实现场景切换,因此场景限制大,算法实用性低。
为解决上述问题,本申请提出一种图像处理方法,通过将待处理的灰度图输入已训练的网络模型中,由网络模型确定灰度图中每个像素点的饱和度值、亮度值、每个像素点所属的色调数值段以及灰度图所属的场景类别,然后从已存储的各场景类别的对照表中获取灰度图所属的场景类别的对照表(包含色调数值段与色调值之间的对应关系),并针对灰度图中的每个像素点,从获取的对照表中查找该像素点所属的色调数值段对应的色调值并作为该像素点的色调值,最后依据该像素点的色调值、饱和度值、亮度值确定该像素点的彩色值,以得到灰度图的彩色图。
基于上述描述可知,整个彩色化转换过程对每帧灰度图都是独立转换,无需依赖前一帧的转换结果,因此对灰度图的采集场景没有任何限制,该彩色化转换过程具有很好的实用性。例如可以应用于安防领域,以将红外图像或黑白图像转换为更为直观彩色图像,提高使用者发现监控场景内不易发现的问题的概率。
下面以具体实施例对本申请的技术方案进行详细阐述。
图1A为本申请根据一示例性实施例示出的一种图像处理方法的实施例流程图,该图像处理方法可以应用于电子设备上,如图1A所示,该图像处理方法包括如下步骤:
步骤101:将一帧待处理的灰度图输入已训练的网络模型中,以由网络模型确定灰度图中每个像素点的饱和度值、亮度值、每个像素点所属的色调数值段以及灰度图所属的场景类别。
在一实施例中,如图1B所示的网络模型的结构图,通过网络模型中的卷积网络对灰度图进行下采样处理得到第一特征,并输出给网络模型中的反卷积网络和场景检测网络,场景检测网络基于第一特征确定灰度图所属的场景类别,反卷积网络利用第一特征进行上采样处理得到第二特征,并输出本网络模型中的分类网络和回归网络,分类网络基于第二特征进行分类处理得到灰度图中每个像素点所属的色调数值段,回归网络基于第二特征进行回归处理得到灰度图中每个像素点的饱和度值和亮度值。
示例性的,卷积网络和反卷积网络可以是基于编码器-解码器结构的网络。通过网络模型中的回归网络先感知得到灰度图中每个像素点的饱和度值(S通道的数值)和亮度值(V通道的数值),对于H通道,由于通过回归网络无法感知到具体色调值,因此通过分类网络先确定出像素点属于的色调数值段,以及通过场景检测网络确定出灰度图所属的场景类别,后续根据场景类别和色调数值段确定出像素点的色调值,从而将H通道的色调值的生成由回归问题转化为分类问题,避免了回归网络训练H通道的色调值无法收敛的问题。
需要说明的是,由于任意颜色块都可以形成相同的灰度图,如无论是红色的物体还是绿色的物体在灰度图中的灰度值相差很小,因此在重建颜色时,无论重建为任一颜色都没有错,只要便于用户区分即可,如果直接使用灰度图重建RGB图,网络模型是无法收敛的。本实施例借助神经网络模型先将灰度图转换到HSV空间(即由色调值、饱和度值以及亮度值组成的空间)再生成彩色图,即RGB图。
针对网络模型的训练过程可以参见下述图2所示实施例的描述,在此暂不详述。
步骤102:从已存储的各场景类别的对照表中获取该场景类别的对照表,所述对照表包含色调数值段与色调值之间的对应关系。
在执行步骤102之前,可以确定出各场景类别的对照表:获取多帧彩色图,将获取的每帧彩色图转换为HSV图,并将色调的最大取值范围划分为预设数量个色调数值段,然后针对每帧HSV图,基于该HSV图中各像素点的色调值进行聚类运算,得到该HSV图所属的场景类别,并针对聚类得到的每一场景类别,统计属于该场景类别的所有HSV图的色调直方图,并针对每个色调数值段,从色调直方图中获取该色调数值段包含的像素点的色调值,并依据获取的各像素点的色调值确定该色调数值段的色调值与该色调数值段添加到该场景类别的对照表中。
示例性的,HSV图中每个像素点由H通道的色调值、S通道的饱和度值、V通道的亮度值组成,通常色调的最大取值范围为0度~360度,为了便于分类网络对灰度图中每个像素点进行色调分类,可以将色调的最大取值范围划分为预设数量个色调数值段,预设数量可以根据实践经验设置,每个色调数值段对应一个色调类型,例如通常将色调取值范围划分为90个色调类型,用户便可区分出彩色化后的图中的不同物体。可以将获取的各像素点的色调值的均值作为该色调数值段的色调值,也可以将各像素点的色调值的中值作为该色调数值段的色调值。不同的场景类别,每个色调数值段的色调值是不同的,因此通过聚类得到的每个场景类别都有一个色调数值段与色调值之间的对照表。
在一个例子中,针对基于该HSV图中各像素点的色调值进行聚类运算,得到该HSV图所属的场景类别的过程,可以将该HSV图划分成预设数量个图像块,并统计每个图像块的色调直方图,并对各图像块的色调直方图进行聚类运算,得到该HSV图所属的场景类别。
示例性的,预设数量可以根据实践经验设置,例如32*32,通过将图像分块进行聚类运算,可以提高运算效率。在聚类运算过程中,可以先对每个图像块的色调直方图进行归一化处理,聚类运算的算法可以采用ISODATA算法。
步骤103:针对灰度图中的每个像素点,从获取的对照表中查找该像素点所属的色调数值段对应的色调值并作为该像素点的色调值。
作为一种例子,在通过网络模型确定出每个像素点所属的色调数值段(即色调类型)后,通过查找该灰度图所属的场景类别的对照表,得到色调数值段对应的色调值,进而为该像素点的H通道赋值为该色调值。
步骤104:依据该像素点的色调值、饱和度值、亮度值确定该像素点的彩色值,以得到灰度图的彩色图。
本领域技术人员可以理解的是,彩色图即为RGB图,由HSV到RGB的转换方式可以通过相关技术实现,本申请对此不进行限定。
在本申请实施例中,通过将待处理的灰度图输入已训练的网络模型中,由网络模型确定灰度图中每个像素点的饱和度值、亮度值、每个像素点所属的色调数值段以及灰度图所属的场景类别,然后从已存储的各场景类别的对照表中获取灰度图所属的场景类别的对照表(包含色调数值段与色调值之间的对应关系),并针对灰度图中的每个像素点,从获取的对照表中查找该像素点所属的色调数值段对应的色调值并作为该像素点的色调值,最后依据该像素点的色调值、饱和度值、亮度值确定该像素点的彩色值,以得到灰度图的彩色图。
基于上述描述可知,整个彩色化转换过程对每帧灰度图都是独立转换,无需依赖前一帧的转换结果,因此来自各种场景的灰度图都可以实现彩色化转换,对灰度图的采集场景没有任何限制,具有很好的实用性。例如可以应用于安防领域,以将红外图像或黑白图像转换为更为直观彩色图像,提高使用者发现监控场景内不易发现的问题的概率。
图2为本申请根据一示例性实施例示出的另一种图像处理方法的实施例流程图,基于上述图1A所示实施例的基础上,本实施例以网络模型的训练过程为例进行示例性说明,如图2所示,该图像处理方法进一步包括:
步骤201:针对获取到的每帧彩色图,将该彩色图转换为灰度图,基于该彩色图的HSV图标记该灰度图中每个像素点的饱和度值、亮度值以及每个像素点所属的色调数值段,并基于聚类得到的该HSV图所属的场景类别标记该灰度图的场景类别。
步骤202:利用每帧灰度图对已生成的网络模型中的卷积网络、反卷积网络、分类网络以及回归网络进行优化,直至分类网络的损失值和回归网络的损失值均小于预设阈值。
在本申请的可能的一种实施方式中,分类网络的训练方式可以采用softmax+cross encropy方式,回归网络的训练方式可以采用L2 Norm方式。分类网络的损失值是由分类网络输出的灰度图中每个像素点所属的色调数值段与标记的色调数值段计算得到,分类网络的损失值公式为:
其中,n表示本次训练所用的灰度图数量,w*h表示每帧灰度图包含的像素点的数量,c表示色调数值段的数量,yijk表示第k帧灰度图中第j个像素点第i个色调数值段的概率(为该像素点标记的色调数值段的概率为1,其他色调数值段的概率为0),表示分类网络预测的第k帧灰度图中第j个像素点第i个色调数值段的概率(分类网络在训练过程中预测像素点属于每个色调数值段的概率)。
回归网络的损失值是由回归网络输出的灰度图中每个像素点的饱和度值和亮度值与标记的饱和度值和亮度值计算得到,回归网络的损失值公式为:
其中,n表示本次训练所用的灰度图数量,w*h表示每帧灰度图包含的像素点的数量,skj表示标记的第k帧灰度图中第j个像素点的饱和度值,表示回归网络预测的第k帧灰度图中第j个像素点的饱和度值,vkj表示标记的第k帧灰度图中第j个像素点的亮度值,表示回归网络预测的第k帧灰度图中第j个像素点的亮度值。
步骤203:将每帧灰度图输入已训练的卷积网络,以由卷积网络得到每帧灰度图的第一特征,并利用每帧灰度图的第一特征对本网络模型中的场景检测网络进行优化,直至场景检测网络的损失值小于预设阈值。
示例性的,场景检测网络的损失值是由场景检测网络输出的灰度图的场景类别与标记的场景类别计算得到,场景检测网络的损失值公式为:
其中,n表示本次训练所用的灰度图数量,c表示场景类别的数量,yik表示第k帧灰度图属于第i个场景类别的概率(为该灰度图标记的场景类别的概率为1,其他场景类别的概率为0),表示场景检测网络预测的第k帧灰度图属于第i个场景类别的概率(场景检测网络在训练过程中预测灰度图属于每个场景类别的概率)。
至此,完成上述图2所示的网络模型训练,通过上述图2流程可以实现网络模型的训练。
图3为本申请根据一示例性实施例示出的一种电子设备的硬件结构图,该电子设备包括:通信接口301、处理器302、机器可读存储介质303和总线304;其中,通信接口301、处理器302和机器可读存储介质303通过总线304完成相互间的通信。处理器302通过读取并执行机器可读存储介质302中与图像处理方法的控制逻辑对应的机器可执行指令,可执行上文描述的图像处理方法,该方法的具体内容参见上述实施例,此处不再累述。
本申请中提到的机器可读存储介质303可以是任何电子、磁性、光学或其它物理存储装置,可以包含或存储信息,如可执行指令、数据,等等。例如,机器可读存储介质可以是:易失存储器、非易失性存储器或者类似的存储介质。具体地,机器可读存储介质303可以是RAM(Radom Access Memory,随机存取存储器)、闪存、存储驱动器(如硬盘驱动器)、任何类型的存储盘(如光盘、DVD等),或者类似的存储介质,或者它们的组合。
图4为本申请根据一示例性实施例示出的一种图像处理装置的实施例结构图,所述图像处理装置包括:
确定模块410,用于将待处理的灰度图输入已训练的网络模型中,以由所述网络模型确定所述灰度图中每个像素点的饱和度值、亮度值、每个像素点所属的色调数值段以及所述灰度图所属的场景类别;
获取模块420,用于从已存储的各场景类别的对照表中获取所述场景类别的对照表,所述对照表包含色调数值段与色调值之间的对应关系;
查找模块430,用于针对所述灰度图中的每个像素点,从获取的对照表中查找该像素点所属的色调数值段对应的色调值并作为该像素点的色调值;
彩色转换模块440,用于依据该像素点的色调值、饱和度值、亮度值确定该像素点的彩色值,以得到所述灰度图的彩色图。
在一可选实现方式中,所述确定模块410,具体用于通过所述网络模型中的卷积网络对所述灰度图进行下采样处理得到第一特征,并输出给所述网络模型中的反卷积网络和场景检测网络;所述场景检测网络基于所述第一特征确定所述灰度图所属的场景类别;所述反卷积网络利用所述第一特征进行上采样处理得到第二特征,并输出给所述网络模型中的分类网络和回归网络;所述分类网络基于所述第二特征进行分类处理得到所述灰度图中每个像素点所属的色调数值段;所述回归网络基于所述第二特征进行回归处理得到所述灰度图中每个像素点的饱和度值和亮度值。
在一可选实现方式中,所述装置还包括(图4中未示出):
对照表确定模块,用于获取多帧彩色图,将获取到的每帧彩色图转换为HSV图,并将色调的最大取值范围划分为预设数量个色调数值段;针对每帧HSV图,基于该HSV图中各像素点的色调值进行聚类运算,得到该HSV图所属的场景类别;针对聚类得到的每一场景类别,统计属于该场景类别的所有HSV图的色调直方图,并针对每个色调数值段,从所述色调直方图中获取该色调数值段包含的像素点的色调值,并依据获取的各像素点的色调值确定该色调数值段的色调值与该色调数值段添加到该场景类别的对照表中。
在一可选实现方式中,所述装置还包括(图4中未示出):
模型训练模块,用于针对获取到的每帧彩色图,将该彩色图转换为灰度图,基于该彩色图的HSV图标记该灰度图中每个像素点的饱和度值、亮度值以及每个像素点所属的色调数值段,并基于聚类得到的该HSV图所属的场景类别标记该灰度图的场景类别;利用每帧灰度图对已生成的网络模型中的卷积网络、反卷积网络、分类网络以及回归网络进行优化,直至所述分类网络的损失值和所述回归网络的损失值均小于预设阈值;将每帧灰度图输入已训练的卷积网络,以由所述卷积网络得到每帧灰度图的第一特征,并利用每帧灰度图的第一特征对本网络模型中的场景检测网络进行优化,直至所述场景检测网络的损失值小于预设阈值。
在一可选实现方式中,所述分类网络的损失值由所述分类网络输出的灰度图中每个像素点所属的色调数值段与标记的色调数值段计算得到;所述回归网络的损失值由所述回归网络输出的灰度图中每个像素点的饱和度值和亮度值与标记的饱和度值和亮度值计算得到;所述场景检测网络的损失值由所述场景检测网络输出的灰度图的场景类别与标记的场景类别计算得到。
在一可选实现方式中,所述对照表确定模块,具体用于在基于该HSV图中各像素点的色调值进行聚类运算,得到该HSV图所属的场景类别过程中,将该HSV图划分成预设数量个图像块,并统计每个图像块的色调直方图;对各图像块的色调直方图进行聚类运算,得到该HSV图所属的场景类别。
上述装置中各个单元的功能和作用的实现过程具体详见上述方法中对应步骤的实现过程,在此不再赘述。
对于装置实施例而言,由于其基本对应于方法实施例,所以相关之处参见方法实施例的部分说明即可。以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本申请方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本申请的其它实施方案。本申请旨在涵盖本申请的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本申请的一般性原理并包括本申请未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本申请的真正范围和精神由下面的权利要求指出。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
以上所述仅为本申请的较佳实施例而已,并不用以限制本申请,凡在本申请的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本申请保护的范围之内。
Claims (10)
1.一种图像处理方法,其特征在于,所述方法包括:
将待处理的灰度图输入已训练的网络模型中,以由所述网络模型确定所述灰度图中每个像素点的饱和度值、亮度值、每个像素点所属的色调数值段以及所述灰度图所属的场景类别;
从已存储的各场景类别的对照表中获取所述场景类别的对照表,所述对照表包含色调数值段与色调值之间的对应关系;
针对所述灰度图中的每个像素点,从获取的对照表中查找该像素点所属的色调数值段对应的色调值并作为该像素点的色调值;
依据该像素点的色调值、饱和度值、亮度值确定该像素点的彩色值,以得到所述灰度图的彩色图。
2.根据权利要求1所述的方法,其特征在于,所述网络模型确定所述灰度图中每个像素点的饱和度值、亮度值、每个像素点所属的色调数值段以及所述灰度图所属的场景类别,包括:
通过所述网络模型中的卷积网络对所述灰度图进行下采样处理得到第一特征,并输出给所述网络模型中的反卷积网络和场景检测网络;
所述场景检测网络基于所述第一特征确定所述灰度图所属的场景类别;
所述反卷积网络利用所述第一特征进行上采样处理得到第二特征,并输出给所述网络模型中的分类网络和回归网络;
所述分类网络基于所述第二特征进行分类处理得到所述灰度图中每个像素点所属的色调数值段;
所述回归网络基于所述第二特征进行回归处理得到所述灰度图中每个像素点的饱和度值和亮度值。
3.根据权利要求2所述的方法,其特征在于,通过如下方式确定各场景类别的对照表:
获取多帧彩色图,将获取到的每帧彩色图转换为HSV图,并将色调的最大取值范围划分为预设数量个色调数值段;
针对每帧HSV图,基于该HSV图中各像素点的色调值进行聚类运算,得到该HSV图所属的场景类别;
针对聚类得到的每一场景类别,统计属于该场景类别的所有HSV图的色调直方图,并针对每个色调数值段,从所述色调直方图中获取该色调数值段包含的像素点的色调值,并依据获取的各像素点的色调值确定该色调数值段的色调值与该色调数值段添加到该场景类别的对照表中。
4.根据权利要求3所述的方法,其特征在于,通过如下方式训练所述网络模型:
针对获取到的每帧彩色图,将该彩色图转换为灰度图,基于该彩色图的HSV图标记该灰度图中每个像素点的饱和度值、亮度值以及每个像素点所属的色调数值段,并基于聚类得到的该HSV图所属的场景类别标记该灰度图的场景类别;
利用每帧灰度图对已生成的网络模型中的卷积网络、反卷积网络、分类网络以及回归网络进行优化,直至所述分类网络的损失值和所述回归网络的损失值均小于预设阈值;
将每帧灰度图输入已训练的卷积网络,以由所述卷积网络得到每帧灰度图的第一特征,并利用每帧灰度图的第一特征对本网络模型中的场景检测网络进行优化,直至所述场景检测网络的损失值小于预设阈值。
5.根据权利要求4所述的方法,其特征在于,所述分类网络的损失值由所述分类网络输出的灰度图中每个像素点所属的色调数值段与标记的色调数值段计算得到;
所述回归网络的损失值由所述回归网络输出的灰度图中每个像素点的饱和度值和亮度值与标记的饱和度值和亮度值计算得到;
所述场景检测网络的损失值由所述场景检测网络输出的灰度图的场景类别与标记的场景类别计算得到。
6.根据权利要求3所述的方法,其特征在于,基于该HSV图中各像素点的色调值进行聚类运算,得到该HSV图所属的场景类别,包括:
将该HSV图划分成预设数量个图像块,并统计每个图像块的色调直方图;
对各图像块的色调直方图进行聚类运算,得到该HSV图所属的场景类别。
7.一种图像处理装置,其特征在于,所述装置包括:
确定模块,用于将待处理的灰度图输入已训练的网络模型中,以由所述网络模型确定所述灰度图中每个像素点的饱和度值、亮度值、每个像素点所属的色调数值段以及所述灰度图所属的场景类别;
获取模块,用于从已存储的各场景类别的对照表中获取所述场景类别的对照表,所述对照表包含色调数值段与色调值之间的对应关系;
查找模块,用于针对所述灰度图中的每个像素点,从获取的对照表中查找该像素点所属的色调数值段对应的色调值并作为该像素点的色调值;
彩色转换模块,用于依据该像素点的色调值、饱和度值、亮度值确定该像素点的彩色值,以得到所述灰度图的彩色图。
8.根据权利要求7所述的装置,其特征在于,
所述确定模块,具体用于通过所述网络模型中的卷积网络对所述灰度图进行下采样处理得到第一特征,并输出给所述网络模型中的反卷积网络和场景检测网络;所述场景检测网络基于所述第一特征确定所述灰度图所属的场景类别;所述反卷积网络利用所述第一特征进行上采样处理得到第二特征,并输出给所述网络模型中的分类网络和回归网络;所述分类网络基于所述第二特征进行分类处理得到所述灰度图中每个像素点所属的色调数值段;所述回归网络基于所述第二特征进行回归处理得到所述灰度图中每个像素点的饱和度值和亮度值。
9.根据权利要求8所述的装置,其特征在于,所述装置还包括:
对照表确定模块,用于获取多帧彩色图,将获取到的每帧彩色图转换为HSV图,并将色调的最大取值范围划分为预设数量个色调数值段;针对每帧HSV图,基于该HSV图中各像素点的色调值进行聚类运算,得到该HSV图所属的场景类别;针对聚类得到的每一场景类别,统计属于该场景类别的所有HSV图的色调直方图,并针对每个色调数值段,从所述色调直方图中获取该色调数值段包含的像素点的色调值,并依据获取的各像素点的色调值确定该色调数值段的色调值与该色调数值段添加到该场景类别的对照表中。
10.一种电子设备,其特征在于,所述设备包括可读存储介质和处理器;
其中,所述可读存储介质,用于存储机器可执行指令;
所述处理器,用于读取所述可读存储介质上的所述机器可执行指令,并执行所述指令以实现权利要求1-6任一所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910217425.0A CN111724297B (zh) | 2019-03-21 | 2019-03-21 | 图像处理方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910217425.0A CN111724297B (zh) | 2019-03-21 | 2019-03-21 | 图像处理方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111724297A true CN111724297A (zh) | 2020-09-29 |
CN111724297B CN111724297B (zh) | 2023-07-25 |
Family
ID=72562650
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910217425.0A Active CN111724297B (zh) | 2019-03-21 | 2019-03-21 | 图像处理方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111724297B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114897783A (zh) * | 2022-04-14 | 2022-08-12 | 西安邮电大学 | 基于对抗神经网络rtgan的内窥镜下曝光帧修复方法 |
CN116912348A (zh) * | 2023-07-24 | 2023-10-20 | 水木蓝鲸(南宁)半导体科技有限公司 | 伪彩色图像生成方法、装置、计算机设备和存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0302454A2 (en) * | 1987-08-03 | 1989-02-08 | American Film Technologies, Inc. | System and method for color image enhancement |
US4984072A (en) * | 1987-08-03 | 1991-01-08 | American Film Technologies, Inc. | System and method for color image enhancement |
US5093717A (en) * | 1987-08-03 | 1992-03-03 | American Film Technologies, Inc. | System and method for digitally coloring images |
US20140267361A1 (en) * | 2013-03-15 | 2014-09-18 | L-3 Communications Cincinnati Electronics Corporation | System and Method for Converting an Image to an Intensity Based Colormap |
US20150170389A1 (en) * | 2013-12-13 | 2015-06-18 | Konica Minolta Laboratory U.S.A., Inc. | Automatic selection of optimum algorithms for high dynamic range image processing based on scene classification |
CN108090879A (zh) * | 2017-12-12 | 2018-05-29 | 上海顺久电子科技有限公司 | 一种对输入的高动态范围图像进行处理的方法和显示设备 |
-
2019
- 2019-03-21 CN CN201910217425.0A patent/CN111724297B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0302454A2 (en) * | 1987-08-03 | 1989-02-08 | American Film Technologies, Inc. | System and method for color image enhancement |
US4984072A (en) * | 1987-08-03 | 1991-01-08 | American Film Technologies, Inc. | System and method for color image enhancement |
US5093717A (en) * | 1987-08-03 | 1992-03-03 | American Film Technologies, Inc. | System and method for digitally coloring images |
US20140267361A1 (en) * | 2013-03-15 | 2014-09-18 | L-3 Communications Cincinnati Electronics Corporation | System and Method for Converting an Image to an Intensity Based Colormap |
US20150170389A1 (en) * | 2013-12-13 | 2015-06-18 | Konica Minolta Laboratory U.S.A., Inc. | Automatic selection of optimum algorithms for high dynamic range image processing based on scene classification |
CN108090879A (zh) * | 2017-12-12 | 2018-05-29 | 上海顺久电子科技有限公司 | 一种对输入的高动态范围图像进行处理的方法和显示设备 |
Non-Patent Citations (2)
Title |
---|
刘勇: "关于彩色化灰度图像的算法研究及实现", 中国优秀硕士学位论文全文数据库信息科技辑 * |
刘爱平等: "一种高灰度级红外遥感图像的伪彩色增强方法", 空军预警学院学报 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114897783A (zh) * | 2022-04-14 | 2022-08-12 | 西安邮电大学 | 基于对抗神经网络rtgan的内窥镜下曝光帧修复方法 |
CN116912348A (zh) * | 2023-07-24 | 2023-10-20 | 水木蓝鲸(南宁)半导体科技有限公司 | 伪彩色图像生成方法、装置、计算机设备和存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN111724297B (zh) | 2023-07-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10666873B2 (en) | Exposure-related intensity transformation | |
Zhao et al. | Pixelated semantic colorization | |
JP4708909B2 (ja) | デジタル画像の対象物検出方法および装置並びにプログラム | |
CN108647641B (zh) | 基于双路模型融合的视频行为分割方法和装置 | |
WO2019233147A1 (en) | Method and device for image processing, computer readable storage medium, and electronic device | |
Hwang et al. | Context-based automatic local image enhancement | |
CN111292264A (zh) | 一种基于深度学习的图像高动态范围重建方法 | |
CN102592109B (zh) | 用于视频对象检测的方法和系统 | |
CN111274987B (zh) | 人脸表情识别方法及人脸表情识别装置 | |
AU2015201623A1 (en) | Choosing optimal images with preference distributions | |
AU2006252252A1 (en) | Image processing method and apparatus | |
CN107273870A (zh) | 一种监控场景下融合上下文信息的行人位置检测方法 | |
CN111080746B (zh) | 图像处理方法、装置、电子设备和存储介质 | |
CN108806638B (zh) | 一种图像的显示方法及其装置 | |
CN111079864A (zh) | 一种基于优化视频关键帧提取的短视频分类方法及系统 | |
CN112383824A (zh) | 视频广告过滤方法、设备及存储介质 | |
KR20200092492A (ko) | 의미 인식 기반의 이미지 보정 방법 및 그를 위한 장치 | |
CN110533027B (zh) | 一种基于移动设备的文本检测和识别方法与系统 | |
CN113743378B (zh) | 一种基于视频的火情监测方法和装置 | |
CN111898448B (zh) | 一种基于深度学习的行人属性识别方法和系统 | |
CN111815529B (zh) | 一种基于模型融合和数据增强的低质图像分类增强方法 | |
CN111724297B (zh) | 图像处理方法及装置 | |
JP2011170890A (ja) | 顔検出方法および装置並びにプログラム | |
CN116843561A (zh) | 一种图像增强方法及设备 | |
WO2023110878A1 (en) | Image processing methods and systems for generating a training dataset for low-light image enhancement using machine learning models |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |