CN110909696A - 一种场景检测方法、装置、存储介质及终端设备 - Google Patents

一种场景检测方法、装置、存储介质及终端设备 Download PDF

Info

Publication number
CN110909696A
CN110909696A CN201911184203.XA CN201911184203A CN110909696A CN 110909696 A CN110909696 A CN 110909696A CN 201911184203 A CN201911184203 A CN 201911184203A CN 110909696 A CN110909696 A CN 110909696A
Authority
CN
China
Prior art keywords
image
processed
information
infrared
color
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201911184203.XA
Other languages
English (en)
Other versions
CN110909696B (zh
Inventor
王琳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong Oppo Mobile Telecommunications Corp Ltd
Original Assignee
Guangdong Oppo Mobile Telecommunications Corp Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong Oppo Mobile Telecommunications Corp Ltd filed Critical Guangdong Oppo Mobile Telecommunications Corp Ltd
Priority to CN201911184203.XA priority Critical patent/CN110909696B/zh
Publication of CN110909696A publication Critical patent/CN110909696A/zh
Application granted granted Critical
Publication of CN110909696B publication Critical patent/CN110909696B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/35Categorising the entire scene, e.g. birthday party or wedding scene
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • G06V10/464Salient features, e.g. scale invariant feature transforms [SIFT] using a plurality of salient features, e.g. bag-of-words [BoW] representations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)
  • Color Television Image Signal Generators (AREA)

Abstract

本申请实施例公开了一种场景检测方法、装置、存储介质及终端设备,该方法包括:基于待处理图像,确定所述待处理图像对应的红外特征信息以及在弱梯度范围内对应的颜色特征信息;将所述红外特征信息和所述颜色特征信息输入预设模型,输出所述待处理图像对应的预测值;基于所输出的预测值,确定当前所处场景的检测结果。

Description

一种场景检测方法、装置、存储介质及终端设备
技术领域
本申请涉及图像处理技术领域,尤其涉及一种场景检测方法、装置、存储介质及终端设备。
背景技术
针对室内/室外的场景检测,目前已经存在很多解决方案。例如,既可以基于外部器件(比如WIFI、光感、红外等)进行场景检测,也可以基于图像自身的处理方法进行场景检测;这里,基于图像自身的处理方法又可以区分为传统阈值的分类方法和基于机器学习(Marchine Learning)的分类方法。其中,针对室内外的场景检测,良好的室内外分类方法可以得到较好的色彩还原。
在目前的室内外分类方法中,特征(feature)的提取需要依赖全尺寸图像,而智能手机等移动终端通常只能够提供缩减后的小尺寸图像,从而使得采用基于全尺寸图像的提取方法所得到的feature精度大为降低;另外,从图像中提取得到的feature数量过多,使得移动终端很难做到实时处理,并且根据目前所提取的feature在进行室内外的场景检测时,错判率还比较高。
发明内容
本申请实施例提出一种场景检测方法、装置、存储介质及终端设备,可以更好地区分室内/室外的场景,并且能够提高室内外场景检测的准确率。
为达到上述目的,本申请的技术方案是这样实现的:
第一方面,本申请实施例提供了一种场景检测方法,该方法包括:
基于待处理图像,确定所述待处理图像对应的红外特征信息以及在弱梯度范围内对应的颜色特征信息;
将所述红外特征信息和所述颜色特征信息输入预设模型,输出所述待处理图像对应的预测值;
基于所输出的预测值,确定当前所处场景的检测结果。
第二方面,本申请实施例提供了一种场景检测装置,该场景检测装置包括确定单元、预测单元和检测单元,其中,
确定单元,配置为基于待处理图像,确定所述待处理图像对应的红外特征信息以及在弱梯度范围内对应的颜色特征信息;
预测单元,配置为将所述红外特征信息和所述颜色特征信息输入预设模型,输出所述待处理图像对应的预测值;
检测单元,配置为基于所输出的预测值,确定当前所处场景的检测结果。
第三方面,本申请实施例提供了一种场景检测装置,该场景检测装置包括存储器和处理器;其中,
存储器,用于存储能够在所述处理器上运行的计算机程序;
处理器,用于在运行所述计算机程序时,执行如第一方面所述的方法。
第四方面,本申请实施例提供了一种计算机存储介质,该计算机存储介质存储有场景检测程序,所述场景检测程序被至少一个处理器执行时实现如第一方面所述的方法。
第五方面,本申请实施例提供了一种终端设备,该终端设备至少包括如第二方面或第三方面所述的场景检测装置。
本申请实施例所提供的一种场景检测方法、装置、存储介质及终端设备,其中,基于待处理图像,确定待处理图像对应的红外特征信息以及在弱梯度范围内对应的颜色特征信息;将红外特征信息和颜色特征信息输入预设模型,输出待处理图像对应的预测值;再基于所输出的预测值,确定当前所处场景的检测结果;这样,由于将光谱中的红外波段的feature信息和弱梯度范围内的颜色feature信息共同参与到场景分类中,可以更好地区分室内/室外的场景,并且能够提高室内外场景检测的准确率;如此,在提高场景检测的准确率之后,更准确的室内外检测对AWB算法的应用非常重要,当场景检测为室外场景时,AWB算法通过简单的色温设置就可以得到比较理想的白平衡效果,尤其是针对低亮度下室外缺乏天空参考的场景和大面积的纯色场景,这时候可以得到更好的白平衡效果;另外,更准确的室内外检测对AE算法的应用也非常重要,当场景检测为室外场景时,AE算法在调节亮度时无需考虑闪频的影响,通过减少曝光时间可以抑制图像拍摄时的运动模糊现象。
附图说明
图1为相关技术方案提供的一种色温传感器的应用位置示意图;
图2为相关技术方案提供的一种色温传感器的光谱响应曲线示意图;
图3为相关技术方案提供的一种ISP Pipeline的简易数据流向示意图;
图4为本申请实施例提供的一种场景检测方法的流程示意图;
图5A为本申请实施例提供的一种典型荧光灯光源的光谱能量分布示意图;
图5B为本申请实施例提供的一种典型日光光源的光谱能量分布示意图;
图5C为本申请实施例提供的一种典型白炽灯光源的光谱能量分布示意图;
图6为本申请实施例提供的一种颜色关系的分布示意图;
图7A为本申请实施例提供的一种典型室外场景的图片示意图;
图7B为本申请实施例提供的一种典型室内场景的图片示意图;
图8为本申请实施例提供的另一种场景检测方法的流程示意图;
图9为本申请实施例提供的一种合页损失函数的曲线示意图;
图10A为本申请实施例提供的一种场景检测为室外场景的效果示意图;
图10B为本申请实施例提供的一种无室内外场景检测的效果示意图;
图11A为本申请实施例提供的另一种场景检测为室外场景的效果示意图;
图11B为本申请实施例提供的另一种无室内外场景检测的效果示意图;
图12为本申请实施例提供的又一种场景检测方法的流程示意图;
图13为本申请实施例提供的一种场景检测方法的详细流程示意图;
图14为本申请实施例提供的一种待处理图像的JPEG数据示意图;
图15为本申请实施例提供的一种待处理图像的stats数据示意图;
图16为本申请实施例提供的一种待处理图像的梯度图像示意图;
图17为本申请实施例提供的一种场景检测装置的组成结构示意图;
图18为本申请实施例提供的一种场景检测装置的具体硬件结构示意图;
图19为本申请实施例提供的一种终端设备的组成结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述。可以理解的是,此处所描述的具体实施例仅仅用于解释相关申请,而非对该申请的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关申请相关的部分。
针对室内/室外的场景检测,目前行业内已经存在很多解决方案。其中,既可以基于外部器件进行场景检测,比如无线保真(Wireless Fidelity,WIFI)、光感、红外等外部器件,也可以基于图像自身的处理方法进行场景检测;这里,基于图像自身的处理方法又可以区分为传统阈值的分类方法和基于机器学习(Marchine Learning)的分类方法。从效果角度来看,比如室内场景下,自动曝光(Automatic Exposure,AE)算法需要时刻考虑开启抗工频闪策略;而针对低亮度的室外场景,良好的室内外分类方法可以帮助自动白平衡(Automatic White Balance,AWB)算法得到漂亮的色彩还原结果。
可以理解,色温(Color Temperature)是可见光在摄影、录像等领域具有重要应用的特征。理论上,色温是指绝对黑体从绝对零度(-273℃)开始加温后所呈现的颜色。黑体在受热后,逐渐由黑变红,转黄,发白,最后发出蓝色光。当加热到一定的温度,黑体发出的光所包含的光谱成分,就称为这一温度下的色温,计量单位为开尔文(用K表示)。其中,光源发射光的颜色和黑体在某一温度下辐射光色相同时,黑体的温度即是光源的色温;相关色温(Correlated Color Temperature,CCT)则是指最接近黑体辐射温度的相对值。本申请实施例中,通过色温传感器可以确定出当前光源中红光波段(用R表示)、绿光波段(用G表示)、蓝光波段(用B表示)、可见光波段(用C表示)及全范围波段(用W表示)等光谱分量信息、相关色温以及两个通道分别对应的闪烁频率(Flicker Frequency)(用FD1、FD2表示)及强度(用FM1、FM2表示)。
具体地,参见图1,其示出了相关技术方案提供的一种色温传感器的应用位置示意图。在图1中,(a)提供了在前置摄像头附近所配置色温传感器(用1a表示)的应用位置示例,(b)提供了在后置摄像头附近所配置色温传感器(用1b表示)的应用位置示例。其中,通过色温传感器进行测量,可以得到的测量信息包括有R、G、B、C、W等五个波段的光谱分量信息,以及还包括有相关色温以及两个通道分别对应的Flicker Frequency(用FD1、FD2表示)及强度(用FM1、FM2表示)。如图2所示,其示出了相关技术方案提供的一种色温传感器的光谱响应曲线示意图。在图2中,水平坐标轴(即X轴)表示波长(Wave length),可以用λ表示,单位为纳米(nanometre,nm);垂直坐标轴(即Y轴)表示归一化响应度比例(Scaled NormalizedResponsivity),其分别给出了R、G、B、C、W、FD1、FD2等光谱响应曲线。
进一步地,图3提供了相关技术方案提供的一种ISP Pipeline的简易数据流向示意图。如图3所示的图像信号处理(Image Signal Processing,ISP)流程,在从前端的图像传感器获取到待处理图像之后,首先通过AE模块301进行自动曝光处理,然后通过AWB/自动对焦(Automatic Focus,AF)模块302进行自动白平衡处理或自动对焦处理;其中,在AE模块301处理之后且在AWB/AF模块302处理之前,可以获取待处理图像的原始(RAW)数据303,本申请实施例所描述的feature的提取就是在该RAW数据303中进行的。另外,在ISP流程的具体处理过程中,还包括有去马赛克(Demosaic)模块304、颜色空间转换(Color SpaceConvert,CSC)模块305、降噪(Noise Reduction,NR)模块306和人工智能(ArtificialIntelligence,AI)算法模块307;这里,Demosaic模块304主要是从获得的数据中恢复出完整的RGB数据,即在得到RAW数据之后,可以经过Demosaic模块304将其转成RGB数据;CSC模块305则是用于将颜色空间由RGB域转换到YUV域,然后通过NR模块306将颜色信号中的杂质或噪声(多余的颜色信息)进行去除;经过一系列的处理模块之后,可以提供给后端的AI算法模块307进行图像识别,从而实现较好的识别效果和主观体验。
在AWB算法中,如果可以判定当前光源为室外光源,那么可以简单的将色温设定到D55的位置,这时候图像就可以得到很好的色彩还原效果。对于低亮度的室外场景或高亮度的室内场景,由于降低了AWB算法自身的还原难度,对于色彩调试(tuning)来说,能够拥有更多的精力来雕琢色彩风格,从而使得整体上得到更好的色彩效果。但是在AE算法中,如果可以判定当前为室外场景,那么还可以完全不需要考虑抗闪的问题,能够为色彩调试提供更多的灵活性。另外,通过AI算法(YUV域)来区分室内及其他场景(绿植/天空/人像),目前AI算法可以提供较多的分类结果。然而由于针对室内和室外这两种场景的识别率并不高(一般为85%左右),而且RAW数据与YUV数据的时域偏差等原因还导致并不适合提供给AWB/AE算法使用。
也就是说,在目前的解决方案中,feature的提取需要依赖全尺寸图像,比如图像尺寸为4000*3000,这时候应用多尺度的提取方法可以提取出大量的结构性的feature;然而,移动终端的ISP则通常只能提供缩减(downscale)后的小尺寸图像,比如图像尺寸为120*90,从而使得采用基于全尺寸图像的提取方法所得到的feature精度大为降低。Feature的提取方法可以包括方向梯度直方图(Histogram of Oriented Gradient,HOG)、局部二值模式(Local Binary Patterns,LBP)和方向(direction)等方式从图像中提取出高维的结构性相关的feature;由于所提取得到的feature数量经常超过3000个,使得移动终端很难做到实时处理;并且从实际效果来看,复杂的结构性feature在面对不规则分割的天空、纯色场景、室内人造建筑时,这时候错判率还比较高(正确率不足80%)。另外,基于YUV数据的场景识别算法在ISP Pipeline的数据流向中位于demosaic算法之后,倾向于最终看到的图像,这时候由于RAW数据与YUV数据之间存在时域上的偏差而导致无法很好的为AE/AWB/AF算法所使用。
本申请实施例提供了一种场景检测方法,其中,基于待处理图像,确定待处理图像对应的红外特征信息以及在弱梯度范围内对应的颜色特征信息;将红外特征信息和颜色特征信息输入预设模型,输出待处理图像对应的预测值;再基于所输出的预测值,确定当前所处场景的检测结果;这样,由于将光谱中的红外波段的feature信息和弱梯度范围内的颜色feature信息共同参与到场景分类中,可以更好地区分室内/室外的场景,并且能够提高室内外场景检测的准确率;如此,在提高场景检测的准确率之后,更准确的室内外检测对AWB算法的应用非常重要,当场景检测为室外场景时,AWB算法通过简单的色温设置就可以得到比较理想的白平衡效果,尤其是针对低亮度下室外缺乏天空参考的场景和大面积的纯色场景,这时候可以得到更好的白平衡效果;另外,更准确的室内外检测对AE算法的应用也非常重要,当场景检测为室外场景时,AE算法在调节亮度时无需考虑闪频的影响,通过减少曝光时间可以抑制图像拍摄时的运动模糊现象。
下面将结合附图对本申请各实施例进行详细说明。
本申请的一实施例中,参见图4,其示出了本申请实施例提供的一种场景检测方法的流程示意图。如图4所示,该方法可以包括:
S401:基于待处理图像,确定所述待处理图像对应的红外特征信息以及在弱梯度范围内对应的颜色特征信息;
需要说明的是,在进行场景检测时,可以将光谱中红外(Infrared,IR)特征信息和弱梯度范围内的颜色特征信息参与到该场景检测中,以提高场景检测的准确率。如此,针对待处理图像,首先需要从待处理图像中确定出对应的红外特征信息和在弱梯度范围内对应的颜色特征信息。
实际应用中,由于光谱中存在双红外波段,也就是说,所确定的红外特征信息可以包括有2个,即第一红外特征子信息和第二红外特征子信息;另外,颜色特征信息也可以包括有多个颜色特征子信息,比如颜色特征信息可以是根据构建64个二机制(bin)的颜色空间所得到,这时候颜色特征信息可以包括有64个颜色特征子信息。
具体地,在一些实施例中,针对红外特征信息的确定,所述基于待处理图像,确定所述待处理图像对应的红外特征信息,可以包括:
通过所配置的色温传感器对所述待处理图像进行测量,得到多个测量信息;其中,所述多个测量信息至少包括第一通道时域信息、第二通道时域信息和可见光波段的分量信息;
对所述第一通道时域信息和所述第二通道时域信息分别进行时频变换处理,得到变换后的第一通道直流分量信息和变换后的第二通道直流分量信息;
根据所述第一通道直流分量信息、所述第二通道直流分量信息和所述可见光波段的分量信息,确定出所述待处理图像对应的红外特征信息;其中,所述红外特征信息包括第一红外子特征信息和第二红外子特征信息。
需要说明的是,在终端设备中可以配置有色温传感器;其中,在前置摄像头附近所配置的色温传感器如图1中(a)所示的应用位置,在后置摄像头附近所配置的色温传感器如图1中(b)所示的应用位置。
实际应用中,光谱中处于380nm~780nm的光线可以被人眼所察觉,这部分的光线通常可以称为可见光,即可见光波段的范围为380nm~780nm;而800nm之后的光线不会被人眼所察觉,这部分的光线通常可以称为红外光,即红外波段的范围为大于800nm。
示例性地,图5A示出了本申请实施例提供的典型荧光灯光源的光谱能量分布示意图;在图5A中,水平坐标轴表示波长,单位为nm;垂直坐标轴表示光强度(Intensity),单位为数量(count),光强度定义为单位时间内接收到的光子数,图5A给出了荧光灯光源的光谱能量分布示例,从图5A可以看出,荧光灯场景下800nm~900nm的红外波段能量非常微弱。图5B示出了本申请实施例提供的典型日光光源的光谱能量分布示意图;在图5B中,水平坐标轴表示波长,单位为nm;垂直坐标轴表示光谱辐照度(Spectral Irradiance),单位为瓦特每平方米每纳米(W·m-2·nm-1);图5B给出了日光光源的光谱能量分布示例,从图5B可以看出,日光光源下800nm~900nm的红外波段能量还是比较强的,但是从950nm之后开始剧烈衰减。图5C示出了本申请实施例提供的典型白炽灯光源的光谱能量分布示意图,在图5C中,水平坐标轴表示波长,单位为nm;垂直坐标轴表示相对辐射能量(Relative radiantenergy);图5C给出了白炽灯光源的光谱能量分布示例,从图5C可以看出,白炽灯光源下800nm~1000nm的红外波段能量呈现越来越强的趋势。
也就是说,从这三种光源的光谱能量分布示例中可以看出,室内荧光灯场景下800nm~900nm的红外波段能量非常微弱,而室外日光光源下800nm~900nm的红外波段能量还是比较强的,但是从950nm之后开始剧烈衰减;而白炽灯光源在红外波段800nm~1000nm的能量呈现越来越强的趋势。因此,可以根据色温传感器所反馈的红外波段信息来获得差别性的红外feature。
这样,通过所配置的色温传感器对待处理图像进行测量,可以得到多个测量信息;其中,多个测量信息至少包括有第一通道时域信息、第二通道时域信息和可见光波段的分量信息;由于第一通道时域信息和第二通道时域信息均属于时域,这时候需要对第一通道时域信息和第二通道时域信息分别进行时频变换处理,将其变换到频率域,从而得到变换后的第一通道直流分量信息和变换后的第二通道直流分量信息;根据第一通道直流分量信息、第二通道直流分量信息和可见光波段的分量信息,可以确定出所述待处理图像对应的第一红外子特征信息和第二红外子特征信息。
进一步地,所述根据所述第一通道直流分量信息、所述第二通道直流分量信息和所述可见光波段的分量信息,确定出所述待处理图像对应的红外特征信息,可以包括:
将所述第二通道直流分量信息和所述可见光波段的分量信息输入第一计算模型进行计算,得到所述第一红外子特征信息;
将所述第一通道直流分量信息和所述第二通道直流分量信息输入第二计算模型进行计算,得到所述第二红外子特征信息。
需要说明的是,第一计算模型为预先设置的用于计算第一红外子特征信息的模型,第二计算模型为预先设置的用于计算第二红外子特征信息的模型;其中,第一计算模型可以为IR1=(DC(FD2)-C)/DC(FD2),第二计算模型可以为IR2=(DC(FD1)-DC(FD2))/DC(FD1);但是本申请实施例不作具体限定。
这里,假定C表示可见光波段的分量信息,FD1表示第一通道时域信息,FD2表示第二通道时域信息,DC操作符表示获取对应通道的直流分量,即FD1DC=DC(FD1),FD2DC=DC(FD2)。如此,可以将(DC(FD2)-C)/DC(FD2)的计算结果作为第一红外子特征信息(用IRfeature1表示),主要用于衡量800nm~900nm的红外波段强度,简称为IR1;可以将(DC(FD1)-DC(FD2))/DC(FD1)的计算结果作为第二红外子特征信息(用IR feature2表示),主要用于衡量950nm~1000nm的红外波段强度,简称为IR2;根据第一红外子特征信息和第二红外子特征信息,可以更准确地判断荧光灯光源、日光光源和白炽灯光源,从而能够提高室内外场景检测的准确率。
具体地,在一些实施例中,针对颜色特征信息的确定,所述基于待处理图像,确定所述待处理图像在弱梯度范围内对应的颜色特征信息,可以包括:
根据所述待处理图像,确定弱梯度范围对应的子图像;其中,所述子图像包含在所述待处理图像中,且所述子图像的梯度值处于预设梯度范围之内;
构建颜色空间,确定所述子图像在所述颜色空间对应的第一参数信息和第二参数信息;
对所述第一参数信息和所述第二参数信息进行离散化处理,得到所述待处理图像在弱梯度范围内对应的颜色特征信息;其中,所述颜色特征信息包括有多个颜色子特征信息。
需要说明的是,预设梯度范围为预先设置的用于衡量图像是否属于弱梯度的梯度范围。其中,假定梯度的取值范围处于0~510,可以用区间[0,510]表示;那么预设梯度范围可以定义为0~100(用区间[0,100]表示),也可以定义为10~100(用区间[10,100]表示),本申请实施例不作具体限定。
这里,子图像表示待处理图像中的弱梯度范围;即子图像包含在待处理图像中,而且子图像的梯度值处于预设梯度范围之内。也就是说,所述根据所述待处理图像,确定弱梯度范围对应的子图像,可以包括:
对所述待处理图像进行梯度计算,获得所述待处理图像对应的梯度值;
将所述待处理图像对应的梯度值与预设梯度范围进行比较;
当所述待处理图像对应的梯度值处于预设梯度范围之内时,确定弱梯度范围对应的子图像。
进一步地,所述对所述待处理图像进行梯度计算,获得所述待处理图像对应的梯度值,可以包括:
利用第一空间滤波模型对所述待处理图像沿着水平方向进行卷积处理,得到所述待处理图像的第一梯度值;
利用第二空间滤波模型对所述待处理图像沿着垂直方向进行卷积处理,得到所述待处理图像的第二梯度值;
将所述第一梯度值和所述第二梯度值进行相加处理,得到所述待处理图像对应的梯度值。
需要说明的是,第一空间滤波模型表示用于对待处理图像沿着水平方向(即横方向)进行梯度计算的模型,第二空间滤波模型表示用于对待处理图像沿着垂直方向(即纵方向)进行梯度计算的模型。这里,第一空间滤波模型可以用[-1,0,1]表示,第二空间滤波模型可以用[1,0,-1]表示,但是本申请实施例不作具体限定。
也就是说,从反射模型可以了解到,光滑物体的弱边缘有可能反射更多的光源色;这时候可以利用两个空间滤波模型(包括第一空间滤波模型和第二空间滤波模型)分别与待处理图像的横、纵方向进行卷积处理,可以得到待处理图像对应的横方向的第一梯度值和纵方向的第二梯度值。假定待处理图像为8比特(bit),那么横方向的梯度范围为gx=[0,255],纵方向的梯度范围为gy=[0,255];此时如果忽略梯度方向,只考虑梯度强度,那么梯度强度可以用横、纵方向的梯度值之和表示,即g=gx+gy,如此梯度范围g=[0,510]。本申请实施例中,定义g=[0,100]为弱梯度范围,可以根据弱梯度来模拟物体的弱边缘,从而能够方便避免大面积纯色干扰。
从图6所示的颜色分布示例中可以看出,室外光源分布集中在D65和D50附近,而室内光源分布复杂,从8000K~2300K均有分布;这时候可以利用该特性来构建颜色feature。这样,首先构建64bin的颜色空间(可以称为UV空间),利用下式表示,
Figure BDA0002292012870000081
其中,M(u,v)内存储的是每个bin对应的点数,Iu=log(R/G),Iv=log(B/G),
Figure BDA0002292012870000082
表示为指示(indicator)函数,ε根据经验可以设定为0.18。
这样,在构建64bin的颜色空间之后,可以确定出弱梯度范围内的子图像对应的第一参数信息(用Iu表示)和第二参数信息(用Iv表示),然后针对Iu和Iv进行离散化处理;也就是说,根据上述的式(1),可以得到待处理图像在弱梯度范围内对应的颜色特征信息,该颜色特征信息包括有64个颜色子特征信息;如此,利用64bin弱梯度范围内的颜色特征信息对室内外检测进行辅助判断,从而能够提高室内外场景检测的准确率。
示例性地,以图7A所示的典型室外场景的图片为例,在构建颜色空间之后,所得到的室外场景64bin值的分布示例如表1所示;以图7B所示的典型室内场景的图片为例,在构建颜色空间之后,所得到的室内场景64bin值的分布示例如表2所示。
表1
Figure BDA0002292012870000083
Figure BDA0002292012870000091
表2
0 3 0 0 0 0 0 0
0 4 0 0 0 0 0 0
0 2 0 0 0 0 0 0
0 3 0 0 0 0 0 0
14 28 2 8 2 0 0 0
190 779 36 10 3 1 0 0
1538 477 3 0 0 0 0 0
2978 192 0 0 0 0 0 0
S402:将所述红外特征信息和所述颜色特征信息输入预设模型,输出所述待处理图像对应的预测值;
需要说明的是,预设模型表示利用样本数据进行模型训练后所得到的模型。通常来说,预设模型可以是基于支持向量机(Support Vector Machine,SVM)的机器学习模型,也可以是其他机器学习模型,例如包括有基于贝叶斯分类其、集成学习和决策树等机器学习模型,本申请实施例不作具体限定。
这样,在获得到红外特征信息和颜色特征信息之后,通常有66个feature;这时候可以利用预设模型进行计算,从而能够得到待处理图像对应的预测值。这里,feature数量总共有66个,与现有解决方案中所提取的3000个feature数量相比,feature数量大幅度降低,从而可以做到实时处理,同时还提高了处理速度。
S403:基于所输出的预测值,确定当前所处场景的检测结果。
需要说明的是,根据所得到的预测值,可以确定出当前所处场景为室内场景还是室外场景。具体地,在一些实施例中,所述基于所输出的预测值,确定当前所处场景的检测结果,可以包括:
若所输出的预测值为第一值,则确定前所处场景为室内场景;
若所输出的预测值为第二值,则确定前所处场景为室外场景。
这里,第一值与第二值是不同的。其中,第一值可以用数字或字母表示,第二值也可以用数字或字母表示;本申请实施例中,第一值可以为0,第二值可以为1;或者,第一值可以为1,第二值可以为0;或者,第一值可以为ture,第二值可以为false;或者,第一值可以为false,第二值可以为ture;但是本申请实施例不作具体限定。
如此,在得到所输出的预测值之后,如果该预测值为第一值,那么可以确定出当前所处场景为室内场景;如果该预测值为第二值,那么可以确定出当前所处场景为室外场景;由于将光谱中的红外波段的feature信息和弱梯度范围内的颜色feature信息共同参与到场景分类中,可以更好地区分室内/室外的场景,从而能够提高室内外场景检测的准确率。
在本申请实施例中,除了可以考虑红外波段的feature信息和弱梯度范围内的颜色feature信息之外,还可以考虑其他类型的feature信息,比如基于不同亮度等级的纹理feature,本申请实施例不作具体限定。另外,本申请实施例中feature的确定是基于待处理图像的RAW数据来实施的,从而避免了利用YUV数据进行场景识别所存在的时域偏差,可以保证很好的被AE/AWB/AF算法所使用。
本实施例提供了一种场景检测方法,其中,基于待处理图像,确定待处理图像对应的红外特征信息以及在弱梯度范围内对应的颜色特征信息;将红外特征信息和颜色特征信息输入预设模型,输出待处理图像对应的预测值;再基于所输出的预测值,确定当前所处场景的检测结果;这样,由于将光谱中的红外波段的feature信息和弱梯度范围内的颜色feature信息共同参与到场景分类中,可以更好地区分室内/室外的场景,并且能够提高室内外场景检测的准确率;如此,在提高场景检测的准确率之后,更准确的室内外检测对AWB算法的应用非常重要,当场景检测为室外场景时,AWB算法通过简单的色温设置就可以得到比较理想的白平衡效果,尤其是针对低亮度下室外缺乏天空参考的场景和大面积的纯色场景,这时候可以得到更好的白平衡效果;另外,更准确的室内外检测对AE算法的应用也非常重要,当场景检测为室外场景时,AE算法在调节亮度时无需考虑闪频的影响,通过减少曝光时间可以抑制图像拍摄时的运动模糊现象。
本申请的另一实施例中,在利用预设模型对待处理图像当前所处场景进行预测之前,还可以利用样本图像集进行模型训练,以得到该预设模型。参见图8,其示出了本申请实施例另一种场景检测方法的流程示意图。如图8所示,该方法可以包括:
S801:获取样本图像集;
S802:基于所述样本图像集,确定与所述样本图像集相关联的红外特征样本集合以及颜色特征样本集合;
需要说明的是,样本图像集可以是终端设备中已经存储的多幅图像,也可以是云数据库中已经存储的多幅图像。例如,目前云数据库中拥有室内图像1024张,室外图像1134张,这时候可以将其全部图像作为样本图像集,或者随机选择其中的部分图像作为样本图像集。
在得到样本图像集之后,可以确定出与该样本图像集相关联的红外特征样本集合以及颜色特征样本集合。具体地,在一些实施例中,所述基于所述样本图像集,确定与所述样本图像集相关联的红外特征样本集合以及颜色特征样本集合,可以包括:
基于所述样本图像集,确定每一幅样本图像对应的红外特征样本信息以及在弱梯度范围内对应的颜色特征样本信息;
根据每一幅样本图像对应的红外特征样本信息,得到所述样本图像集对应的多组红外特征样本信息,将所得到的多组红外特征样本信息组成所述红外特征样本集合;
根据每一幅样本图像在弱梯度范围内对应的颜色特征样本信息,得到所述样本图像集在弱梯度范围内对应的多组颜色特征样本信息,将所得到的多组颜色特征样本信息组成所述颜色特征样本集合。
也就是说,针对该样本图像集所包括的所有样本图像,可以分别确定出每一幅样本图像对应的红外特征样本信息以及每一幅样本图像在弱梯度范围内对应的颜色特征样本信息,如此可以得到样本图像集对应的多组红外特征样本信息,并且将所得到的多组红外特征样本信息组成红外特征样本集合;还可以得到样本图像集在弱梯度范围内对应的多组颜色特征样本信息,并且将所得到的多组颜色特征样本信息组成颜色特征样本集合。
这样,在得到红外特征样本集合和颜色特征样本集合之后,就可以根据红外特征样本集合和颜色特征样本集合进行模型训练,以得到预设模型。
S803:根据所述红外特征样本集合和所述颜色特征样本集合进行模型训练,将训练后的模型确定为预设模型;
需要说明的是,以SVM模型为例,通常SVM模型所使用的损失函数为合页损失(Hinge Loss)。该损失函数的形式如下所示,
Figure BDA0002292012870000111
其中,式(2)所示函数的第1项表示经验损失或经验风险,下标“+”表示如式(3)所示的取正值的函数,
Figure BDA0002292012870000112
也就是说,当样本点(xi,yi)被正确分类且函数间隔(确信度)yi(w·xi+b)大于1时,损失为0;否则,损失为1-yi(w·xi+b)。式(2)所示函数的第2项表示系数为λ的w的L2范数,是正则化项。
如此,模型训练的目标即为最小化合页损失的前提下计算出w和b。具体地,根据所得到的特征信息(包括红外特征样本集合和颜色特征样本集合),利用线性核即可达到理想效果,其中,设定训练参数为步长=0.01,λ=40000,以此进行模型训练;在计算出w和b之后,可以得到预设模型,即yi=w·xi+b。
如图9所示,由于该函数形状像一个合页,故可以命名为合页损失函数;在图9中,水平坐标轴表示函数间隔,垂直坐标轴表示损失;图9中的虚线显示的是感知机的损失函数[yi(w·xi+b)]+,这时候当样本点(xi,yi)被正确分类时,损失为0;否则,损失为-yi(w·xi+b)。相比之下,合页损失函数不仅需要分类正确,而且还需要确信度足够高时损失才为0;也就是说,合页损失函数对训练学习具有更高的要求。
S804:基于待处理图像,确定所述待处理图像对应的红外特征信息以及在弱梯度范围内对应的颜色特征信息;
需要说明的是,在获得预设模型之后,针对待处理图像,这时候可以确定待处理图像对应的红外特征信息以及待处理图像在弱梯度范围内对应的颜色特征信息。本申请实施例中,针对待处理图像,红外特征信息和颜色特征信息通常可以包括有66个feature。
S805:将所述红外特征信息和所述颜色特征信息输入所述预设模型,输出所述待处理图像对应的预测值;
S806:基于所输出的预测值,确定当前所处场景的检测结果。
需要说明的是,在得到待处理图像对应的红外特征信息和颜色特性信息之后,可以利用该预设模型进行预测,从而得到待处理图像对应的预测值;根据所得到的预测值,可以确定出当前所处场景为室内场景还是室外场景。这样,由于将光谱中的红外波段的feature信息和弱梯度范围内的颜色feature信息共同参与到场景分类中,可以更好地区分室内/室外的场景,从而能够提高室内外场景检测的准确率。
示例性地,假定云数据库中存储有室内图片1024张,室外图片1134张,而且红外比率(IR ratio)的分布从1%~83%;这时候随机选择其中的80%作为样本图像集进行模型训练,剩余的20%作为待处理图像进行场景测试。其中,测试结果如下表3所示;从表3中可以看出,根据本申请实施例的场景检测方法,所得到场景检测的正确率很高,基本上高达97%以上。
表3
测试轮数 室内正确率 室外正确率 综合正确率
1 97.28% 98.34% 97.81%
2 98.14% 97.52% 97.83%
3 97.81% 97.73% 97.77%
4 97.63% 97.12% 97.37%
5 97.43% 98.15% 97.79%
平均值 97.65% 97.77% 97.71%
如此,在提高场景检测的准确率之后,准确的室内外检测对AWB算法的应用非常重要;当场景检测确定为室外时,AWB算法可以简单的将色温设置为5000K~5500K,duv设置为0.001~0.005,就可以得到比较理想的白平衡效果;尤其是针对低亮度下室外缺乏天空参考的场景以及大面积的纯色场景,这时候也可以得到更好的白平衡效果。示例性地,如图10A所示,其示出了本申请实施例提供的场景检测为室外场景时的白平衡效果示例,其中,R/G=1.000,B/G=1.008;如图10B所示,其示出了本申请实施例提供的无室内外场景检测的白平衡效果示例,其中,R/G=0.9721,B/G=1.0594;从图10A和图10B可以看出,图10A所示的白平衡效果更佳。
在提高场景检测的准确率之后,准确的室内外检测对AE算法的应用也非常重要;当场景检测确定为室外时,AE算法在调节亮度时无需考虑闪频的影响,通过减少曝光时间可以抑制图像拍摄时的运动模糊现象。示例性地,如图11A所示,其示出了本申请实施例提供的场景检测为室外场景时的拍摄效果示例,;如图11B所示,其示出了本申请实施例提供的无室内外场景检测的拍摄效果示例;从图11A和图11B可以看出,图11B所示的拍摄效果存在运动模型现象,而图11A所示的拍摄效果更佳。
本实施例提供了一种场景检测方法,通过上述实施例对前述实施例的具体实现进行了详细阐述,从中可以看出,由于该预测模型时通过样本图像集进行模型训练得到的,可以使得合页损失函数的损失最小化;而且在利用该预测模型对待处理图像进行场景检测时,同时将待处理图像所对应的红外波段的feature信息和弱梯度范围内的颜色feature信息共同参与到场景分类中,可以更好地区分室内/室外的场景,从而能够提高室内外场景检测的准确率;如此,在提高场景检测的准确率之后,还可以在AWB算法中得到更好的白平衡效果,而在AE算法中无需考虑闪频的影响,通过减少曝光时间能够抑制图像拍摄时的运动模糊现象。
本申请的又一实施例中,针对待处理图像,首先需要从待处理图像中确定出对应的红外特征信息和在弱梯度范围内对应的颜色特征信息。针对红外特征信息和颜色特征信息的确定,参见图12,其示出了本申请实施例提供的又一种场景检测方法的流程示意图。如图12所示,该方法包括:
S1201:获取待处理图像;
S1202:通过所配置的色温传感器对所述待处理图像进行测量,得到多个测量信息;其中,所述多个测量信息至少包括第一通道时域信息、第二通道时域信息和可见光波段的分量信息;
S1203:对所述第一通道时域信息和所述第二通道时域信息分别进行时频变换处理,得到第一通道直流分量信息和第二通道直流分量信息;
需要说明的是,在终端设备中可以配置有色温传感器;其中,在前置摄像头附近所配置的色温传感器如图1中(a)所示的应用位置,在后置摄像头附近所配置的色温传感器如图1中(b)所示的应用位置。
实际应用中,光谱中处于380nm~780nm的光线可以被人眼所察觉,这部分的光线通常可以称为可见光,即可见光波段的范围为380nm~780nm;而800nm之后的光线不会被人眼所察觉,这部分的光线通常可以称为红外光,即红外波段的范围为大于800nm。根据图5A、图5B和图5C所提供的三种光源的光谱能量分布示例可以看出,室内荧光灯场景下800nm~900nm的红外波段能量非常微弱,而室外日光光源下800nm~900nm的红外波段能量还是比较强的,但是从950nm之后开始剧烈衰减;而白炽灯光源在红外波段800nm~1000nm的能量呈现越来越强的趋势。因此,可以根据色温传感器所反馈的红外波段信息来获得差别性的红外feature。
这样,通过所配置的色温传感器对待处理图像进行测量,可以得到多个测量信息;其中,多个测量信息至少包括有第一通道时域信息、第二通道时域信息和可见光波段的分量信息;由于第一通道时域信息和第二通道时域信息均属于时域,这时候需要对第一通道时域信息和第二通道时域信息分别进行时频变换处理,将其变换到频率域,从而得到变换后的第一通道直流分量信息和变换后的第二通道直流分量信息;然后根据第一通道直流分量信息、第二通道直流分量信息和可见光波段的分量信息,可以确定出所述待处理图像对应的红外特征信息。
S1204:根据所述第一通道直流分量信息、所述第二通道直流分量信息和所述可见光波段的分量信息,确定出所述待处理图像对应的红外特征信息;
需要说明的是,红外特征信息可以包括第一红外子特征信息和第二红外子特征信息。具体地,可以将第二通道直流分量信息和可见光波段的分量信息输入第一计算模型进行计算,能够得到第一红外子特征信息;将第一通道直流分量信息和第二通道直流分量信息输入第二计算模型进行计算,能够得到第二红外子特征信息。其中,第一计算模型可以为IR1=(DC(FD2)-C)/DC(FD2),第二计算模型可以为IR2=(DC(FD1)-DC(FD2))/DC(FD1),但是本申请实施例不作具体限定。
这里,假定C表示可见光波段的分量信息,FD1表示第一通道时域信息,FD2表示第二通道时域信息,DC操作符表示获取对应通道的直流分量,即FD1DC=DC(FD1),FD2DC=DC(FD2)。如此,可以将(DC(FD2)-C)/DC(FD2)的计算结果作为第一红外子特征信息,主要用于衡量800nm~900nm的红外波段强度,简称为IR1;可以将(DC(FD1)-DC(FD2))/DC(FD1)的计算结果作为第二红外子特征信息,主要用于衡量950nm~1000nm的红外波段强度,简称为IR2;根据第一红外子特征信息和第二红外子特征信息,可以更准确地判断荧光灯光源、日光光源和白炽灯光源,从而能够提高室内外场景检测的准确率。
S1205:对所述待处理图像进行梯度计算,获得所述待处理图像对应的梯度值;
需要说明的是,对所述待处理图像进行梯度计算,具体可以包括:利用第一空间滤波模型对待处理图像沿着水平方向进行卷积处理,得到待处理图像的第一梯度值;利用第二空间滤波模型对待处理图像沿着垂直方向进行卷积处理,得到所述待处理图像的第二梯度值;再将所述第一梯度值和所述第二梯度值进行相加处理,得到所述待处理图像对应的梯度值。
这里,第一空间滤波模型表示用于对待处理图像沿着水平方向(即横方向)进行梯度计算的模型,第二空间滤波模型表示用于对待处理图像沿着垂直方向(即纵方向)进行梯度计算的模型。其中,第一空间滤波模型可以用[-1,0,1]表示,第二空间滤波模型可以用[1,0,-1]表示,本申请实施例不作具体限定。
也就是说,从反射模型可以了解到,光滑物体的弱边缘有可能反射更多的光源色;这时候可以利用两个空间滤波模型(包括第一空间滤波模型和第二空间滤波模型)分别与待处理图像的横、纵方向进行卷积处理,可以得到待处理图像对应的横方向的第一梯度值和纵方向的第二梯度值。假定待处理图像为8比特(bit),那么横方向的梯度范围为gx=[0,255],纵方向的梯度范围为gy=[0,255];此时如果忽略梯度方向,只考虑梯度强度,那么梯度强度可以用横、纵方向的梯度值之和表示,即g=gx+gy,如此梯度范围g=[0,510]。本申请实施例中,定义g=[0,100]为弱梯度范围,可以根据弱梯度来模拟物体的弱边缘,从而能够方便避免大面积纯色干扰。
S1206:根据所述待处理图像对应的梯度值,确定弱梯度范围对应的子图像;
S1207:构建颜色空间,确定所述子图像在所述颜色空间对应的第一参数信息和第二参数信息;
S1208:对所述第一参数信息和所述第二参数信息进行离散化处理,得到所述待处理图像在弱梯度范围内对应的颜色特征信息;
需要说明的是,颜色特征信息包括有多个颜色子特征信息。子图像表示待处理图像中的弱梯度范围;即子图像包含在待处理图像中,而且子图像的梯度值处于预设梯度范围之内。具体地,可以将待处理图像对应的梯度值与预设梯度范围进行比较;当待处理图像对应的梯度值处于预设梯度范围之内时,确定出弱梯度范围对应的子图像。这里,假定梯度的取值范围处于0~510(用区间[0,510]表示);那么预设梯度范围可以定义为0~100(用区间[0,100]表示),也可以定义为10~100(用区间[10,100]表示),本申请实施例不作具体限定。
通过对待处理图像进行梯度计算,可以确定出弱梯度范围对应的子图像;然后在构建64bin的颜色空间之后,可以确定出弱梯度范围内的子图像对应的第一参数信息(用Iu表示)和第二参数信息(用Iv表示),然后针对Iu和Iv进行离散化处理;也就是说,根据上述的式(1),可以得到待处理图像在弱梯度范围内对应的颜色特征信息,该颜色特征信息包括有64个颜色子特征信息;如此,利用这64个颜色子特征信息对室内外检测进行辅助判断,从而能够提高室内外场景检测的准确率。
S1209:将所述红外特征信息和所述颜色特征信息输入预设模型,输出所述待处理图像对应的预测值;
S1210:基于所输出的预测值,确定当前所处场景的检测结果。
需要说明的是,在得到待处理图像对应的红外特征信息和颜色特性信息之后,可以利用该预设模型进行预测,从而得到待处理图像对应的预测值;根据所得到的预测值,可以确定出当前所处场景为室内场景还是室外场景。这样,由于将光谱中的红外波段的feature信息和弱梯度范围内的颜色feature信息共同参与到场景分类中,可以更好地区分室内/室外的场景,从而能够提高室内外场景检测的准确率。
本实施例提供了一种场景检测方法,通过上述实施例对前述实施例的具体实现进行了详细阐述,从中可以看出,由于在利用该预测模型对待处理图像进行场景检测时,同时将待处理图像所对应的红外波段的feature信息和弱梯度范围内的颜色feature信息共同参与到场景分类中,可以更好地区分室内/室外的场景,从而能够提高室内外场景检测的准确率;如此,在提高场景检测的准确率之后,还可以在AWB算法中得到更好的白平衡效果,而在AE算法中无需考虑闪频的影响,通过减少曝光时间能够抑制图像拍摄时的运动模糊现象。
本申请的再一实施例中,基于前述实施例相同的发明构思,参见图13,其示出了本申请实施例提供的一种场景检测方法的详细流程示意图。如图13所示,该详细流程可以包括:
S1301:读入JPEG数据;
S1302:从EXIF中解析出ISP所写入的stats数据;
其中,可交换图像文件格式(Exchangeable Image File Format,EXIF),是专门为数码相机的照片或图片设定的,可以记录数码照片的属性信息和拍摄数据。具体地,针对待处理图像,读入的JPEG数据如图14所示,所写入的stats数据如图15所示。以120*90的待处理图像为例,待处理图像中每一个像素点都对应有R、G、B值。
S1303:对stats数据进行clip分割处理,生成更多的样本图像;
S1304:对120*90待处理图像的stats数据进行梯度计算,获得横向梯度值和纵向梯度值,通过将横向梯度值和纵向梯度值进行相加,得到实际梯度值;
S1305:根据实际梯度值,确定弱梯度范围对应的子图像;
需要说明的是,样本图像主要用于进行模型训练,通过使得损失函数最小化,从而能够得到训练后的预设模型。这里,子图像表示待处理图像中的弱梯度范围;即子图像包含在待处理图像中,而且子图像的梯度值处于预设梯度范围之内。
也就是说,从反射模型可以了解到,光滑物体的弱边缘有可能反射更多的光源色;这时候可以利用两个空间滤波模型(包括第一空间滤波模型和第二空间滤波模型)分别与待处理图像的横、纵方向进行卷积处理,可以得到待处理图像对应的横方向的第一梯度值和纵方向的第二梯度值,其对应的梯度图像如图16所示。假定待处理图像为8比特(bit),那么横方向的梯度范围为gx=[0,255],纵方向的梯度范围为gy=[0,255];此时如果忽略梯度方向,只考虑梯度强度,那么梯度强度可以用横、纵方向的梯度值之和表示,即g=gx+gy,如此梯度范围g=[0,510]。本申请实施例中,定义g=[0,100]为弱梯度范围,可以根据弱梯度来模拟物体的弱边缘,从而能够方便避免大面积纯色干扰。
S1306:构建64bin的颜色空间,确定所述子图像在颜色空间对应的第一参数信息和第二参数信息;
S1307:对所述第一参数信息和所述第二参数信息进行离散化处理并分布到所述颜色空间,得到64个颜色子特征信息;
需要说明的是,通过在确定出弱梯度范围对应的子图像之后,可以构建64bin的颜色空间,然后确定出弱梯度范围内子图像对应的第一参数信息(用Iu表示)和第二参数信息(用Iv表示),然后针对Iu和Iv进行离散化处理;也就是说,根据上述的式(1),可以得到待处理图像在弱梯度范围内对应的颜色特征信息,该颜色特征信息包括有64个颜色子特征信息。
S1308:通过色温传感器获取FD1时域信息,并针对FD1时域信息进行时频变换处理,得到直流分量FD1DC;
S1309:通过色温传感器获取FD2时域信息,并针对FD2时域信息进行时频变换处理,得到直流分量FD2DC;
S1310:通过色温传感器获取可见光波段分量C;
S1311:第一红外子特征信息IR1=(FD2DC-C)/FD2DC;
S1312:第二红外子特征信息IR2=(FD1DC-FD2DC)/FD1DC;
需要说明的是,步骤S1304~S1307与步骤S1308~S1312可以并行处理,两者的执行并没有先后顺序之分。
还需要说明的是,红外特征信息可以包括第一红外子特征信息和第二红外子特征信息。其中,假定C表示可见光波段的分量信息,FD1表示第一通道时域信息,FD2表示第二通道时域信息,DC操作符表示获取对应通道的直流分量,即FD1DC=DC(FD1),FD2DC=DC(FD2)。如此,可以将(DC(FD2)-C)/DC(FD2)的计算结果作为第一红外子特征信息,主要用于衡量800nm~900nm的红外波段强度,简称为IR1;可以将(DC(FD1)-DC(FD2))/DC(FD1)的计算结果作为第二红外子特征信息,主要用于衡量950nm~1000nm的红外波段强度,简称为IR2;根据第一红外子特征信息和第二红外子特征信息,可以更准确地判断荧光灯光源、日光光源和白炽灯光源,从而能够提高室内外场景检测的准确率。
S1313:选取损失函数,并设定训练参数;
S1314:通过模型训练,获得预设模型;
需要说明的是,以SVM模型为例,通常SVM模型所使用的损失函数为合页损失(Hinge Loss)。训练参数设定为步长=0.01,λ=40000,这时候利用样本图像所得到的特征信息进行模型训练,在合页损失最小的前提下计算出w和b,从而能够得到预设模型,即yi=w·xi+b。
S1315:基于所述待处理图像对应的特征信息,通过所述预设模型进行预测,输出待处理图像对应的预测值;
S1316:基于所输出的预测值,确定当前所处场景为室内场景还是室外场景。
需要说明的是,待处理图像对应的特征信息包括红外特征信息和颜色特征信息,其中,红外特征信息包括第一红外子特征信息和第二红外子特征信息,颜色特征信息包括有64个颜色子特征信息;也就是说,得到66个子特征信息之后,可以根据预设模型进行预测计算,可以得到待处理图像对应的预测值;根据所得到的预测值,可以确定出当前所处场景为室内场景还是室外场景。例如,假定所输出的预测值为第一值,那么可以确定前所处场景为室内场景;假定所输出的预测值为第二值,那么可以确定前所处场景为室外场景。
本申请实施例中,由于将光谱中的红外波段的feature信息和弱梯度范围内的颜色feature信息共同参与到场景分类中,可以更好地区分室内/室外的场景,从而能够提高室内外场景检测的准确率。
本实施例提供了一种场景检测方法,通过上述实施例对前述实施例的具体实现进行了详细阐述,从中可以看出,由于该预测模型时通过样本图像进行模型训练得到的,可以使得合页损失函数的损失最小化;而且在利用该预测模型对待处理图像进行场景检测时,同时将待处理图像所对应的红外波段的feature信息和弱梯度范围内的颜色feature信息共同参与到场景分类中,可以更好地区分室内/室外的场景,从而能够提高室内外场景检测的准确率;如此,在提高场景检测的准确率之后,还可以在AWB算法中得到更好的白平衡效果,而在AE算法中无需考虑闪频的影响,通过减少曝光时间能够抑制图像拍摄时的运动模糊现象。
基于前述实施例相同的发明构思,参见图17,其示出了本申请实施例提供的一种场景检测装置170的组成结构示意图。如图17所示,场景检测装置170可以包括:确定单元1701、预测单元1702和检测单元1703,其中,
确定单元1701,配置为基于待处理图像,确定所述待处理图像对应的红外特征信息以及在弱梯度范围内对应的颜色特征信息;
预测单元1702,配置为将所述红外特征信息和所述颜色特征信息输入预设模型,输出所述待处理图像对应的预测值;
检测单元1703,配置为基于所输出的预测值,确定当前所处场景的检测结果。
在上述方案中,参见图17,场景检测装置170还可以包括获取单元1704和训练单元1705,其中,
获取单元1704,配置为获取样本图像集;
确定单元1701,还配置为基于所述样本图像集,确定与所述样本图像集相关联的红外特征样本集合以及颜色特征样本集合;
训练单元1705,配置为根据所述红外特征样本集合和所述颜色特征样本集合进行模型训练,将训练后的模型确定为所述预设模型。
在上述方案中,确定单元1701,具体配置为基于所述样本图像集,确定每一幅样本图像对应的红外特征样本信息以及在弱梯度范围内对应的颜色特征样本信息;以及根据每一幅样本图像对应的红外特征样本信息,得到所述样本图像集对应的多组红外特征样本信息,将所得到的多组红外特征样本信息组成所述红外特征样本集合;根据每一幅样本图像在弱梯度范围内对应的颜色特征样本信息,得到所述样本图像集在弱梯度范围内对应的多组颜色特征样本信息,将所得到的多组颜色特征样本信息组成所述颜色特征样本集合。
在上述方案中,参见图17,场景检测装置170还可以包括测量单元1706和处理单元1707,其中,
测量单元1706,配置为通过所配置的色温传感器对所述待处理图像进行测量,得到多个测量信息;其中,所述多个测量信息至少包括第一通道时域信息、第二通道时域信息和可见光波段的分量信息;
处理单元1707,配置为对所述第一通道时域信息和所述第二通道时域信息分别进行时频变换处理,得到变换后的第一通道直流分量信息和变换后的第二通道直流分量信息;
确定单元1701,还配置为根据所述第一通道直流分量信息、所述第二通道直流分量信息和所述可见光波段的分量信息,确定出所述待处理图像对应的红外特征信息;其中,所述红外特征信息包括第一红外子特征信息和第二红外子特征信息。
在上述方案中,参见图17,场景检测装置170还可以包括计算单元1708,配置为将所述第二通道直流分量信息和所述可见光波段的分量信息输入第一计算模型进行计算,得到所述第一红外子特征信息;以及将所述第一通道直流分量信息和所述第二通道直流分量信息输入第二计算模型进行计算,得到所述第二红外子特征信息。
在上述方案中,确定单元1701,还配置为根据所述待处理图像,确定弱梯度范围对应的子图像;其中,所述子图像包含在所述待处理图像中,且所述子图像的梯度值处于预设梯度范围之内;以及构建颜色空间,确定所述子图像在所述颜色空间对应的第一参数信息和第二参数信息;
处理单元1707,还配置为对所述第一参数信息和所述第二参数信息进行离散化处理,得到所述待处理图像在弱梯度范围内对应的颜色特征信息;其中,所述颜色特征信息包括有多个颜色子特征信息。
在上述方案中,计算单元1708,还配置为对所述待处理图像进行梯度计算,获得所述待处理图像对应的梯度值;
确定单元1701,还配置为将所述待处理图像对应的梯度值与预设梯度范围进行比较;当所述待处理图像对应的梯度值处于预设梯度范围之内时,确定弱梯度范围对应的子图像。
在上述方案中,处理单元1707,还配置为利用第一空间滤波模型对所述待处理图像沿着水平方向进行卷积处理,得到所述待处理图像的第一梯度值;以及利用第二空间滤波模型对所述待处理图像沿着垂直方向进行卷积处理,得到所述待处理图像的第二梯度值;以及将所述第一梯度值和所述第二梯度值进行相加处理,得到所述待处理图像对应的梯度值。
在上述方案中,检测单元1703,具体配置为若所输出的预测值为第一值,则确定前所处场景为室内场景;以及若所输出的预测值为第二值,则确定前所处场景为室外场景;其中,所述第一值与所述第二值不同。
可以理解地,在本实施例中,“单元”可以是部分电路、部分处理器、部分程序或软件等等,当然也可以是模块,还可以是非模块化的。而且在本实施例中的各组成部分可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。
所述集成的单元如果以软件功能模块的形式实现并非作为独立的产品进行销售或使用时,可以存储在一个计算机可读取存储介质中,基于这样的理解,本实施例的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或processor(处理器)执行本实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
因此,本实施例提供了一种计算机存储介质,该计算机存储介质存储有场景检测程序,该场景检测程序被至少一个处理器执行时实现前述实施例中任一项所述的方法的步骤。
基于上述场景检测装置170的组成以及计算机存储介质,参见图18,其示出了本申请实施例提供的场景检测装置1180的具体硬件结构示例,可以包括:通信接口1801、存储器1802和处理器1803;各个组件通过总线系统1804耦合在一起。可理解,总线系统1804用于实现这些组件之间的连接通信。总线系统1804除包括数据总线之外,还包括电源总线、控制总线和状态信号总线。但是为了清楚说明起见,在图18中将各种总线都标为总线系统1804。其中,
通信接口1801,用于在与其他外部网元之间进行收发信息过程中,信号的接收和发送;
存储器1802,用于存储能够在处理器1803上运行的计算机程序;
处理器1803,用于在运行所述计算机程序时,执行:
基于待处理图像,确定所述待处理图像对应的红外特征信息以及在弱梯度范围内对应的颜色特征信息;
将所述红外特征信息和所述颜色特征信息输入预设模型,输出所述待处理图像对应的预测值;
基于所输出的预测值,确定当前所处场景的检测结果。
可以理解,本申请实施例中的存储器1802可以是易失性存储器或非易失性存储器,或可包括易失性和非易失性存储器两者。其中,非易失性存储器可以是只读存储器(Read-Only Memory,ROM)、可编程只读存储器(Programmable ROM,PROM)、可擦除可编程只读存储器(Erasable PROM,EPROM)、电可擦除可编程只读存储器(Electrically EPROM,EEPROM)或闪存。易失性存储器可以是随机存取存储器(Random Access Memory,RAM),其用作外部高速缓存。通过示例性但不是限制性说明,许多形式的RAM可用,例如静态随机存取存储器(Static RAM,SRAM)、动态随机存取存储器(Dynamic RAM,DRAM)、同步动态随机存取存储器(Synchronous DRAM,SDRAM)、双倍数据速率同步动态随机存取存储器(Double DataRate SDRAM,DDRSDRAM)、增强型同步动态随机存取存储器(Enhanced SDRAM,ESDRAM)、同步链动态随机存取存储器(Synchronous link DRAM,SLDRAM)和直接内存总线随机存取存储器(Direct Rambus RAM,DRRAM)。本申请描述的系统和方法的存储器1802旨在包括但不限于这些和任意其它适合类型的存储器。
而处理器1803可能是一种集成电路芯片,具有信号的处理能力。在实现过程中,上述方法的各步骤可以通过处理器1803中的硬件的集成逻辑电路或者软件形式的指令完成。上述的处理器1803可以是通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。可以实现或者执行本申请实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。结合本申请实施例所公开的方法的步骤可以直接体现为硬件译码处理器执行完成,或者用译码处理器中的硬件及软件模块组合执行完成。软件模块可以位于随机存储器,闪存、只读存储器,可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。该存储介质位于存储器1802,处理器1803读取存储器1802中的信息,结合其硬件完成上述方法的步骤。
可以理解的是,本申请描述的这些实施例可以用硬件、软件、固件、中间件、微码或其组合来实现。其中,对于硬件实现,处理单元可以实现在一个或多个专用集成电路(Application Specific Integrated Circuits,ASIC)、数字信号处理器(Digital SignalProcessing,DSP)、数字信号处理设备(DSP Device,DSPD)、可编程逻辑设备(ProgrammableLogic Device,PLD)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)、通用处理器、控制器、微控制器、微处理器、用于执行本申请所述功能的其它电子单元或其组合中。对于软件实现,可通过执行本申请所述功能的模块(例如过程、函数等)来实现本申请所述的技术。软件代码可存储在存储器中并通过处理器执行。存储器可以在处理器中或在处理器外部实现。
可选地,作为另一个实施例,处理器1803还配置为在运行所述计算机程序时,执行前述实施例中任一项所述的方法的步骤。
本申请实施例中的终端设备可以以各种形式来实施。例如,该终端设备可以包括诸如智能手机、平板电脑、笔记本电脑、掌上电脑、个人数字助理(Personal DigitalAssistant,PDA)、便捷式媒体播放器(Portable Media Player,PMP)、导航装置、可穿戴设备、数码相机、摄像机等移动终端,以及诸如数字TV、台式计算机等固定终端。参见图19,其示出了本申请实施例提供的一种终端设备的组成结构示意图。如图19所示,终端设备190至少可以包括前述实施例中任一项所述的场景检测装置170。
需要说明的是,在本申请中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素。
上述本申请实施例序号仅仅为了描述,不代表实施例的优劣。
本申请所提供的几个方法实施例中所揭露的方法,在不冲突的情况下可以任意组合,得到新的方法实施例。
本申请所提供的几个产品实施例中所揭露的特征,在不冲突的情况下可以任意组合,得到新的产品实施例。
本申请所提供的几个方法或设备实施例中所揭露的特征,在不冲突的情况下可以任意组合,得到新的方法实施例或设备实施例。
以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以所述权利要求的保护范围为准。

Claims (13)

1.一种场景检测方法,其特征在于,所述方法包括:
基于待处理图像,确定所述待处理图像对应的红外特征信息以及在弱梯度范围内对应的颜色特征信息;
将所述红外特征信息和所述颜色特征信息输入预设模型,输出所述待处理图像对应的预测值;
基于所输出的预测值,确定当前所处场景的检测结果。
2.根据权利要求1所述的方法,其特征在于,在将所述红外特征信息和所述颜色特征信息输入预设模型,输出所述待处理图像对应的预测值之前,所述方法还包括:
获取样本图像集;
基于所述样本图像集,确定与所述样本图像集相关联的红外特征样本集合以及颜色特征样本集合;
根据所述红外特征样本集合和所述颜色特征样本集合进行模型训练,将训练后的模型确定为所述预设模型。
3.根据权利要求2所述的方法,其特征在于,所述基于所述样本图像集,确定与所述样本图像集相关联的红外特征样本集合以及颜色特征样本集合,包括:
基于所述样本图像集,确定每一幅样本图像对应的红外特征样本信息以及在弱梯度范围内对应的颜色特征样本信息;
根据每一幅样本图像对应的红外特征样本信息,得到所述样本图像集对应的多组红外特征样本信息,将所得到的多组红外特征样本信息组成所述红外特征样本集合;
根据每一幅样本图像在弱梯度范围内对应的颜色特征样本信息,得到所述样本图像集在弱梯度范围内对应的多组颜色特征样本信息,将所得到的多组颜色特征样本信息组成所述颜色特征样本集合。
4.根据权利要求1所述的方法,其特征在于,所述基于待处理图像,确定所述待处理图像对应的红外特征信息,包括:
通过所配置的色温传感器对所述待处理图像进行测量,得到多个测量信息;其中,所述多个测量信息至少包括第一通道时域信息、第二通道时域信息和可见光波段的分量信息;
对所述第一通道时域信息和所述第二通道时域信息分别进行时频变换处理,得到变换后的第一通道直流分量信息和变换后的第二通道直流分量信息;
根据所述第一通道直流分量信息、所述第二通道直流分量信息和所述可见光波段的分量信息,确定出所述待处理图像对应的红外特征信息;其中,所述红外特征信息包括第一红外子特征信息和第二红外子特征信息。
5.根据权利要求4所述的方法,其特征在于,所述根据所述第一通道直流分量信息、所述第二通道直流分量信息和所述可见光波段的分量信息,确定出所述待处理图像对应的红外特征信息,包括:
将所述第二通道直流分量信息和所述可见光波段的分量信息输入第一计算模型进行计算,得到所述第一红外子特征信息;
将所述第一通道直流分量信息和所述第二通道直流分量信息输入第二计算模型进行计算,得到所述第二红外子特征信息。
6.根据权利要求1所述的方法,其特征在于,所述基于待处理图像,确定所述待处理图像在弱梯度范围内对应的颜色特征信息,包括:
根据所述待处理图像,确定弱梯度范围对应的子图像;其中,所述子图像包含在所述待处理图像中,且所述子图像的梯度值处于预设梯度范围之内;
构建颜色空间,确定所述子图像在所述颜色空间对应的第一参数信息和第二参数信息;
对所述第一参数信息和所述第二参数信息进行离散化处理,得到所述待处理图像在弱梯度范围内对应的颜色特征信息;其中,所述颜色特征信息包括有多个颜色子特征信息。
7.根据权利要求6所述的方法,其特征在于,所述根据所述待处理图像,确定弱梯度范围对应的子图像,包括:
对所述待处理图像进行梯度计算,获得所述待处理图像对应的梯度值;
将所述待处理图像对应的梯度值与预设梯度范围进行比较;
当所述待处理图像对应的梯度值处于预设梯度范围之内时,确定弱梯度范围对应的子图像。
8.根据权利要求7所述的方法,其特征在于,所述对所述待处理图像进行梯度计算,获得所述待处理图像对应的梯度值,包括:
利用第一空间滤波模型对所述待处理图像沿着水平方向进行卷积处理,得到所述待处理图像的第一梯度值;
利用第二空间滤波模型对所述待处理图像沿着垂直方向进行卷积处理,得到所述待处理图像的第二梯度值;
将所述第一梯度值和所述第二梯度值进行相加处理,得到所述待处理图像对应的梯度值。
9.根据权利要求1至8任一项所述的方法,其特征在于,所述基于所输出的预测值,确定当前所处场景的检测结果,包括:
若所输出的预测值为第一值,则确定前所处场景为室内场景;
若所输出的预测值为第二值,则确定前所处场景为室外场景;其中,所述第一值与所述第二值不同。
10.一种场景检测装置,其特征在于,所述场景检测装置包括确定单元、预测单元和检测单元,其中,
所述确定单元,配置为基于待处理图像,确定所述待处理图像对应的红外特征信息以及在弱梯度范围内对应的颜色特征信息;
所述预测单元,配置为将所述红外特征信息和所述颜色特征信息输入预设模型,输出所述待处理图像对应的预测值;
所述检测单元,配置为基于所输出的预测值,确定当前所处场景的检测结果。
11.一种场景检测装置,其特征在于,所述场景检测装置包括存储器和处理器;其中,
所述存储器,用于存储能够在所述处理器上运行的计算机程序;
所述处理器,用于在运行所述计算机程序时,执行如权利要求1至9任一项所述的方法。
12.一种计算机存储介质,其特征在于,所述计算机存储介质存储有场景检测程序,所述场景检测程序被至少一个处理器执行时实现如权利要求1至9任一项所述的方法。
13.一种终端设备,其特征在于,所述终端设备至少包括如权利要求10或11所述的场景检测装置。
CN201911184203.XA 2019-11-27 2019-11-27 一种场景检测方法、装置、存储介质及终端设备 Active CN110909696B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911184203.XA CN110909696B (zh) 2019-11-27 2019-11-27 一种场景检测方法、装置、存储介质及终端设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911184203.XA CN110909696B (zh) 2019-11-27 2019-11-27 一种场景检测方法、装置、存储介质及终端设备

Publications (2)

Publication Number Publication Date
CN110909696A true CN110909696A (zh) 2020-03-24
CN110909696B CN110909696B (zh) 2022-09-30

Family

ID=69818508

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911184203.XA Active CN110909696B (zh) 2019-11-27 2019-11-27 一种场景检测方法、装置、存储介质及终端设备

Country Status (1)

Country Link
CN (1) CN110909696B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112288008A (zh) * 2020-10-29 2021-01-29 四川九洲电器集团有限责任公司 一种基于深度学习的马赛克多光谱图像伪装目标检测方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101779109A (zh) * 2007-07-25 2010-07-14 Nxp股份有限公司 室内/室外检测
US20190095713A1 (en) * 2017-09-28 2019-03-28 Gopro, Inc. Scene classification for image processing
CN110233971A (zh) * 2019-07-05 2019-09-13 Oppo广东移动通信有限公司 一种拍摄方法及终端、计算机可读存储介质

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101779109A (zh) * 2007-07-25 2010-07-14 Nxp股份有限公司 室内/室外检测
US20190095713A1 (en) * 2017-09-28 2019-03-28 Gopro, Inc. Scene classification for image processing
CN110233971A (zh) * 2019-07-05 2019-09-13 Oppo广东移动通信有限公司 一种拍摄方法及终端、计算机可读存储介质

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112288008A (zh) * 2020-10-29 2021-01-29 四川九洲电器集团有限责任公司 一种基于深度学习的马赛克多光谱图像伪装目标检测方法
CN112288008B (zh) * 2020-10-29 2022-03-01 四川九洲电器集团有限责任公司 一种基于深度学习的马赛克多光谱图像伪装目标检测方法

Also Published As

Publication number Publication date
CN110909696B (zh) 2022-09-30

Similar Documents

Publication Publication Date Title
US10237527B2 (en) Convolutional color correction in digital images
US11475238B2 (en) Keypoint unwarping for machine vision applications
Wan et al. Benchmarking single-image reflection removal algorithms
WO2019233341A1 (zh) 图像处理方法、装置、计算机可读存储介质和计算机设备
US9672604B2 (en) Convolutional color correction
EP3542347B1 (en) Fast fourier color constancy
CN113518210B (zh) 图像自动白平衡的方法及装置
KR20170019359A (ko) 국부적 적응형 히스토그램 등화
CN111027489B (zh) 图像处理方法、终端及存储介质
CN108419028A (zh) 图像处理方法、装置、计算机可读存储介质和电子设备
EP4264563A1 (en) Semantic refinement of image regions
CN108717530A (zh) 图像处理方法、装置、计算机可读存储介质和电子设备
CN109461186A (zh) 图像处理方法、装置、计算机可读存储介质和电子设备
CN107704798A (zh) 图像虚化方法、装置、计算机可读存储介质和计算机设备
CN108012135B (zh) 图像处理方法及装置、计算机可读存储介质和计算机设备
Zhao et al. Adaptive light estimation using dynamic filtering for diverse lighting conditions
Li et al. Color constancy using achromatic surface
CN107920205A (zh) 图像处理方法、装置、存储介质和电子设备
CN110909696B (zh) 一种场景检测方法、装置、存储介质及终端设备
Qian et al. A benchmark for burst color constancy
Kınlı et al. Modeling the lighting in scenes as style for auto white-balance correction
JP3962517B2 (ja) 顔面検出方法及びその装置、コンピュータ可読媒体
CN107424135A (zh) 图像处理方法、装置、计算机可读存储介质和计算机设备
Soori et al. Target recognitions in multiple-camera closed-circuit television using color constancy
Agarwal et al. Specular reflection removal in cervigrams

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant