CN111784780A - 基于深度学习的彩色摄像机的颜色标定方法 - Google Patents

基于深度学习的彩色摄像机的颜色标定方法 Download PDF

Info

Publication number
CN111784780A
CN111784780A CN202010549007.4A CN202010549007A CN111784780A CN 111784780 A CN111784780 A CN 111784780A CN 202010549007 A CN202010549007 A CN 202010549007A CN 111784780 A CN111784780 A CN 111784780A
Authority
CN
China
Prior art keywords
image
color
target
foreground
light source
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010549007.4A
Other languages
English (en)
Other versions
CN111784780B (zh
Inventor
邢冀川
杜仙
聂亮
徐记伟
张树峰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Institute of Technology BIT
Original Assignee
Beijing Institute of Technology BIT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Institute of Technology BIT filed Critical Beijing Institute of Technology BIT
Priority to CN202010549007.4A priority Critical patent/CN111784780B/zh
Publication of CN111784780A publication Critical patent/CN111784780A/zh
Application granted granted Critical
Publication of CN111784780B publication Critical patent/CN111784780B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了基于深度学习的彩色摄像机的颜色标定方法,涉及颜色标定技术领域,不完全依赖于人眼对于颜色差异的感受,客观、准确地对彩色摄像机进行颜色标定。该方法具体为:在靶标条纹图像中,设置前景光源和背景光源。前景光源与背景光源的参数初始值完全一致,保持背景光源的参数不变,以1nm为步长调节前景光源的波长,直至背景上出现靶标条纹为止,同时进行图像采集。利用对抗生成网络生成合成靶标图像;包括两类:满足最小可探测色差的合成靶标图像和满足最小可分辨色差的合成靶标图像。提取合成靶标图像以及随机噪声消除后的采集图像的有用信息送入广义回归神经网络中训练得到最小可分辨和最小可探测色差,作为彩色摄像机的颜色标定结果。

Description

基于深度学习的彩色摄像机的颜色标定方法
技术领域
本发明涉及颜色标定技术领域,具体涉及基于深度学习的彩色摄像机的颜色标定方法。
背景技术
典型的颜色精度测试是通过颜色测试卡来进行颜色测试,通过标定的标准色卡对被测系统进行对色、选色和调色实现色彩的重现。色卡可以测量彩色摄像机的颜色还原性,提高颜色精度,但是这种方法工作量大,而且无法实现颜色空间分辨力的测量。
为了解决这个问题,研究人员通过设计新的实验系统和方法测量了颜色的空间分辨力。
例如,文献“连礼泉等.色差分辨力测量[A].第十三届全国光学测试学术讨论会论文(摘要集)[C].中国光学学会光学测试专业委员会,2010:1”以及文献“连礼泉.色彩还原性及色差分辨力的测量[D].北京:北京理工大学,2011”中,北京理工大学连礼泉、周桃庚等人研制了对模拟人眼的探测器进行色差分辨力测量的系统。测量系统由能产生特定颜色共轭像的光路和平行光管组成光学系统、颜色源和具有互补图案的分划板组成。首先使用被测设备观测该系统生成的双色目标图案,不断改变测试目标颜色,直到被测设备恰好分辨不出颜色差异。然后使用光谱仪计算两种双色目标图案的色差,该色差就是被测设备的色差分辨力。该系统可以实现对彩色摄像机、色差计等颜色探测器的色差分辨力的测量和标定。
文献“田冰心.彩色电视成像系统空间分辨力检测技术研究[D].西安:西安工业大学,2015.”、“Xun Yu,Bingxin Tian,Xu Jiang.Design and simulation for a testingsystem of color space resolution[C].TheInternational Conference on Photonicsand OpticalEngineering(icPOE2014),2015”以及“王萌.可见光成像系统色彩分辨力客观评测技术研究[D].西安:西安工业大学,2018.”中,西安工业大学光电学院的于洵、田冰心和聂亮等人在北京理工大学的研究基础上对彩色电视系统色彩空间分辨力的检测在软、硬件方面进行了研究。该团队的彩色摄像机颜色空间分辨力测试系统如附图1所示,由测试靶标生成系统、分析处理系统和测试平台三部分组成。测试靶标生成系统作为获取颜色目标数据的核心模块,由两个OL490光谱光源组成双离散颜色源、颜色分辨力目标靶标和反射式准直光学系统,产生双路颜色可调的单色光照射测试靶标,并通过测试靶标来填充被测彩色图像传感器,由此对彩色摄像机的颜色分辨力进行测试。靶标生成系统中,每一个颜色源都处于闭环控制状态,整个测试系统的输出被精确地校准。系统输出的分辨力目标靶如附图2所示。测试平台和分析处理系统是由彩色摄像机、三维调整平台和数据处理模块组成,实现对颜色目标采集、目标识别和提取等操作。在测试过程中通过调节三维测试平台使彩色摄像机与颜色目标生成光路(如附图3所示)实现对准,通过靶标控制与监视系统改变测试颜色,使用被测彩色相机连续采集目标图像,并将获取的图像导入数据处理模块。数据处理模块根据图像处理技术、颜色科学等知识,设计合理有效的算法对图像数据进行预处理。并给出彩色空间分辨力测评指标,实现对彩色摄像机的客观、精确地测量。针对彩色空间分辨力的评价,该团队提出了彩色电视成像系统的最小可探测色差、最小可分辨色差作为颜色空间分辨力的评测指标。具体做法为首先在LAB颜色空间中计算了靶标条纹区域内每个像素相对于背景区域(条纹以外部分)的色差,然后根据可探测的判定准则标记了可以探测的像素并计算了其所占该条纹总像素数的百分比,将满足以上两个指标的百分数的图像提取出来,计算前景相对于背景的颜色差异即可作为特定空间频率下彩色摄像系统颜色空间分辨力的评价值。
西安工业大学研究团队提出测量方式是通过一组志愿者刚好能看见靶标条纹时前景图像相对于背景图像的颜色差异作为该系统的颜色空间分辨力。由于每个人的视觉感知不同,因此该实验结果不能作为评价彩色摄像系统颜色空间分辨力的客观指标。
因此目前缺少一种不完全依赖于人眼对颜色差异的感受、客观的彩色摄像机颜色标定的方法。
发明内容
有鉴于此,本发明提供了基于深度学习的彩色摄像机的颜色标定方法,能够在不完全依赖于人眼对于颜色差异的感受的基础上,客观、准确地对彩色摄像机进行颜色标定。
为达到上述目的,本发明的技术方案包括如下步骤:
在靶标条纹图像中,设置前景光源和背景光源分别用于照射靶标条纹图像的前景和背景。
首先,令前景光源与背景光源的波长、亮度和带宽参数完全一致,此时获得的前景图像和背景图像的颜色完全相同,靶标条纹不能被识别。
然后,保持背景光源的参数不变,以1nm为步长调节前景光源的波长,直至背景上出现靶标条纹为止;同时在调节前景光源的波长的过程中,用彩色摄像机采集每个1nm步长变化对应波长下的n幅靶标条纹图像;n的数值依经验设定;并对每一幅采集图像进行随机噪声消除。
利用对抗生成网络生成合成靶标图像;合成靶标图像包括两类:一类为满足最小可探测色差的合成靶标图像,另一类为满足最小可分辨色差的合成靶标图像。
提取合成靶标图像以及随机噪声消除后的采集图像的有用信息送入广义回归神经网络中训练得到最小可分辨和最小可探测色差,作为彩色摄像机的颜色标定结果。
进一步地,靶标条纹图像为USAF 1951靶板对应图像。
进一步地,对每一幅采集图像进行随机噪声消除,具体为:对每个1nm步长变化对应波长下的n幅靶标条纹图像进行平均,则实现对随机噪声的消除。
进一步地,利用对抗生成网络生成合成靶标图像,具体为:
S201、分别调节前景光源和背景光源的波长使得靶标条纹图像中的前景和背景的颜色差异值大于设定阈值,通过彩色图像的阈值分割法对此事的靶标条纹图像进行分割,得到前景图像和背景图像。
S202、对前景图像用OpenCV进行颜色转换。
S203、将背景图像以及颜色转换后的前景图像输入至对抗生成网络。
并构建对抗生成网络中的两个损失函数分别为:
第一损失函数:LMDCD=min{argmax|Pi(g(θ,xi;θ')-xs)-0.5|};
第二损失函数:LMRCD=min{argmax|Pi(g(θ,xi;θ')-xs)-0.75|};
其中,Pi是可探测到条纹的百分数,xs是背景图像,xi是i个条纹的图像,i是条纹的数目,θ是颜色变换的参数,θ’是生成网络的参数。
使得第一损失函数最小时,对抗生成网络的输出图像是的满足最小可探测色差的合成靶标图像;使得第二损失函数最小时,对抗生成网络的输出图像为满足最小可分辨色差的合成靶标图像。
进一步地,最小可探测色差是指当靶标条纹中任意一个可探测到条纹的像素个数占该条纹像素总数的50%时,前景图像相对于背景图像的平均颜色差异;最小可分辨色差是指当靶标中所有条纹中可探测条纹的像素个数占该条纹的像素总数的75%时,前景图像相对于背景图像的平均颜色差异。
进一步地,对前景图像用OpenCV进行颜色转换,具体为:首先将前景图像的RGB值进行归一化;然后用OpenCV里的库函数cvtColor进行颜色空间的转换;接着在颜色空间对亮度分量进行随机均匀处理,对饱和度分量进行随机插值;最后将调整后的颜色空间重新转到RGB空间得到前景图像的颜色转换结果。
进一步地,提取合成靶标图像以及随机噪声消除后的采集图像的有用信息送入广义回归神经网络中,具体为:有用信息包括:波长信息以及每个条纹可探测的百分数。
有益效果:
本发明利用靶标条纹图像测量了在一定波长范围内彩色摄像系统在不同空间频率下的颜色空间分辨力。与现有的颜色标定方法不同,本方法没有完全依赖于人眼对颜色差异的感受,而是参考了约翰逊准则和红外系统的最小可分辨温差、最小探测温差中的定义提出了最小可分辨和最小可探测色差这两个客观的指标。针对颜色空间分辨力测量系统的误差,本发明结合生成对抗网络的生成网络模块和广义回归神经网络得到了准确的最小可探测和最小可分辨色差,从一定程度上减小了因系统误差造成的颜色标定偏差。
附图说明
图1为颜色分辨力测试系统原理图。
图2为分辨力目标靶;
图3为离轴抛物面准直光学系统原理图;
图4为合成靶标图像的流程图
图5为广义回归神经网络结构图;
图6为本发明实施例提供的基于深度学习的彩色摄像机的颜色标定方法流程原理图。
具体实施方式
下面结合附图并举实施例,对本发明进行详细描述。
本发明提供了基于深度学习的彩色摄像机的颜色标定方法,其流程原理如图6所示,包括如下步骤:
步骤一、图像采集。
S101、在靶标条纹图像中,设置前景光源和背景光源分别用于照射靶标条纹图像的前景和背景;
S102、首先,令前景光源与背景光源的波长、亮度和带宽参数完全一致,此时获得的前景图像和背景图像的颜色完全相同,靶标条纹不能被识别;
S103、然后,保持背景光源的参数不变,例如本发明实施例中可以设置背景光源的波长为688nm,此时一直保持不变。以1nm为步长调节前景光源的波长,使靶标条纹逐渐地显现,直至背景上出现靶标条纹为止,本发明实施例中背景上出现靶标条纹可以理解为人眼刚好能够分辨出。
同时在调节前景光源的波长的过程中,用彩色摄像机采集每个1nm步长变化对应波长下的n幅靶标条纹图像;n的数值依经验设定;例如本发明实施例中考虑到最终结果的精确度,将n设置为50,实际中设置为20、30或者其他数值均可,可以根据最终结果的精度依经验选择。
本发明实施例中前景光源的波长变化范围为620nm至730nm,即前景光源与背景光源初始波长均为688nm,前景光源可以以1nm的步长增加或减少波长,只要波长在[620nm,730nm]范围内即可。
S104、对每一幅采集图像进行随机噪声消除。本发明实施例中,随机噪声的消除采用如下方法:对每个1nm步长变化对应波长下的n幅靶标条纹图像进行平均,则实现对随机噪声的消除。
步骤二、利用对抗生成网络生成合成靶标图像;合成靶标图像包括两类:一类为满足最小可探测色差的合成靶标图像,另一类为满足最小可分辨色差的合成靶标图像。步骤一和步骤二没有严格的顺序,步骤二和步骤一可以同时进行,也可以限制性步骤二后执行步骤二,或者限制性步骤二后执行步骤一。
合成靶标图像的生成过程如图4所示。
S201、分别调节前景光源和背景光源的波长使得靶标条纹图像中的前景和背景的颜色差异值大于设定阈值,即形成鲜明的颜色差异,此处可以选择颜色RGB通道的某个通道的数值进行差异性计算和阈值比较,阈值可依据经验值设定;通过彩色图像的阈值分割法对此事的靶标条纹图像进行分割,得到前景图像和背景图像;其中前景图像为靶标条纹的图像背景图像为靶标条纹外的图像。
S202、对前景图像用OpenCV进行颜色转换。具体步骤为:首先将前景图像的RGB值进行归一化。然后用OpenCV里的库函数cvtColor进行颜色空间的转换。接着在颜色空间对亮度分量进行随机均匀处理,对饱和度分量进行随机插值。最后将调整后的颜色空间重新转到RGB空间得到前景图像的颜色转换结果。
S203、将背景图像以及颜色转换后的前景图像输入至对抗生成网络。
并构建对抗生成网络中的两个损失函数分别为:
第一损失函数:LMDCD=min{argmax|Pi(g(θ,xi;θ')-xs)-0.5|};
第二损失函数:LMRCD=min{argmax|Pi(g(θ,xi;θ')-xs)-0.75|};
其中,Pi是可探测到条纹的百分数,xs是背景图像(即风格图像),xi是i个条纹的图像,i是条纹的数目,θ是颜色变换的参数,θ’是生成网络的参数。
使得第一损失函数最小时,对抗生成网络的输出图像是的满足最小可探测色差的合成靶标图像;使得第二损失函数最小时,对抗生成网络的输出图像为满足最小可分辨色差的合成靶标图像。
该对抗生成网络在文章“Justin Johnson and Alexandre Alahi and Li Fei-Fei:Perceptual Losses for Real-Time Style Transfer and Super-Resolution.2016.arXiv:1603.08155”中有记载。根据该文献记载,对抗生成网络是一个autoencoder形状的前向传播网络,本发明的生成模块由3个卷积层、5个残差块、2个反卷积和最后1个卷积层构成。第一个卷积层和最后一个卷积层的卷积核大小为9*9,其他的卷据核大小均为3*3。每个残差块中含有2个卷积层,卷积核的大小为3*3。反卷积层的做用是进行上采样,其采样因子为2,表示将通过前3个卷积层后图像的特征图扩大2倍。
根据文献“Montserrat Corbalan-Fuertes,Maria Sagrario Millan Garcia-Verela,Maria Josefa Yzuel,"Color measurement in standard CIELAB coordinatesusing a 3CCD camera:correction for the influence of the light source,"Opt.Eng.39(6)(1June 2000)”中对可探测像素的色差要求,本发明实施例提出了颜色空间分辨力的两个指标最小可探测色差和最小可分辨色差。
参考约翰逊准则,本发明的最小可探测色差是指当靶标中任意一个可探测到条纹的像素个数占该条纹像素总数的50%时,前景相对于背景的平均颜色差异;最小可分辨色差是指当靶标中所有条纹中可探测条纹的像素个数占该条纹的像素总数的75%时,前景相对于背景的平均颜色差异。以上两个指标的测量不依赖人眼对颜色的感知,因此可以作为一种客观的标定方法。
步骤三、提取合成靶标图像以及随机噪声消除后的采集图像的有用信息送入广义回归神经网络中训练得到最小可分辨和最小可探测色差,作为彩色摄像机的颜色标定结果。步骤三在步骤一和步骤二均执行完成之后执行。
有用信息包括:波长信息以及每个条纹可探测的百分数;
广义回归神经网络具有很好的非线性映射能力,较高的容错率和鲁棒性,对于样本数量较少的情况也能产生较高的输出准确率。平均色差。
本发明使用的广义回归神经网络的结构如附图5所示,该广义回归神经网络由输入层、模式层、求和层和输出层组成。本发明中使用了USAF 1951靶板来标定颜色的空间分辨率,因此广义回归神经网络的输入是由N*7的矩阵,其中N为输入样本的个数,7为样本的维度,这7个维度的数据分别是光源的波长,第一至第六个靶标条纹中可探测条纹的像素数分别占该条纹区域总像素数的百分比。模式层和求和层的数目取决于输入样本的大小。输出层为前景相对于背景的颜色差异。为了提高神经网络的泛化能力,在网络训练的过程中使用了交叉验证算法。
综上所述,以上仅为本发明的较佳实施例而已,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (7)

1.基于深度学习的彩色摄像机的颜色标定方法,其特征在于,包括如下步骤:
在靶标条纹图像中,设置前景光源和背景光源分别用于照射靶标条纹图像的前景和背景;
首先,令前景光源与背景光源的波长、亮度和带宽参数初始值完全一致,此时获得的前景图像和背景图像的颜色完全相同,靶标条纹不能被识别;
然后,保持所述背景光源的参数不变,以1nm为步长调节所述前景光源的波长,直至背景上出现所述靶标条纹为止;同时在调节所述前景光源的波长的过程中,用彩色摄像机采集每个1nm步长变化对应波长下的n幅靶标条纹图像;n的数值依经验设定;并对每一幅采集图像进行随机噪声消除;
利用对抗生成网络生成合成靶标图像;所述合成靶标图像包括两类:一类为满足最小可探测色差的合成靶标图像,另一类为满足最小可分辨色差的合成靶标图像;
提取所述合成靶标图像以及随机噪声消除后的采集图像的有用信息送入广义回归神经网络中训练得到最小可分辨和最小可探测色差,作为彩色摄像机的颜色标定结果。
2.如权利要求1所述的方法,其特征在于,所述靶标条纹图像为USAF 1951靶板对应图像。
3.如权利要求1所述的方法,其特征在于,所述对每一幅采集图像进行随机噪声消除,具体为:
对每个1nm步长变化对应波长下的n幅靶标条纹图像进行平均,则实现对随机噪声的消除。
4.如权利要求1所述的方法,其特征在于,所述利用对抗生成网络生成合成靶标图像,具体为:
S201、分别调节前景光源和背景光源的波长使得靶标条纹图像中的前景和背景的颜色差异值大于设定阈值,通过彩色图像的阈值分割法对此事的靶标条纹图像进行分割,得到前景图像和背景图像;
S202、对所述前景图像用OpenCV进行颜色转换;
S203、将背景图像以及颜色转换后的前景图像输入至对抗生成网络;
并构建对抗生成网络中的两个损失函数分别为:
第一损失函数:LMDCD=min{argmax|Pi(g(θ,xi;θ')-xs)-0.5|};
第二损失函数:LMRCD=min{argmax|Pi(g(θ,xi;θ')-xs)-0.75|};
其中,Pi是可探测到条纹的百分数,xs是背景图像,xi是i个条纹的图像,i是条纹的数目,θ是颜色变换的参数,θ’是生成网络的参数;
使得第一损失函数最小时,对抗生成网络的输出图像是的满足最小可探测色差的合成靶标图像;使得第二损失函数最小时,对抗生成网络的输出图像为满足最小可分辨色差的合成靶标图像。
5.如权利要求4所述的方法,其特征在于,所述最小可探测色差是指当靶标条纹中任意一个可探测到条纹的像素个数占该条纹像素总数的50%时,前景图像相对于背景图像的平均颜色差异;所述最小可分辨色差是指当靶标中所有条纹中可探测条纹的像素个数占该条纹的像素总数的75%时,前景图像相对于背景图像的平均颜色差异。
6.如权利要求4或5所述的方法,其特征在于,所述对所述前景图像用OpenCV进行颜色转换,具体为:
首先将所述前景图像的RGB值进行归一化;
然后用OpenCV里的库函数cvtColor进行颜色空间的转换;
接着在颜色空间对亮度分量进行随机均匀处理,对饱和度分量进行随机插值;
最后将调整后的颜色空间重新转到RGB空间得到所述前景图像的颜色转换结果。
7.如权利要求1~5任一所述的方法,其特征在于,所述提取所述合成靶标图像以及随机噪声消除后的采集图像的有用信息送入广义回归神经网络中,具体为:
所述有用信息包括:波长信息以及每个条纹可探测的百分数。
CN202010549007.4A 2020-06-16 2020-06-16 基于深度学习的彩色摄像机的颜色标定方法 Active CN111784780B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010549007.4A CN111784780B (zh) 2020-06-16 2020-06-16 基于深度学习的彩色摄像机的颜色标定方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010549007.4A CN111784780B (zh) 2020-06-16 2020-06-16 基于深度学习的彩色摄像机的颜色标定方法

Publications (2)

Publication Number Publication Date
CN111784780A true CN111784780A (zh) 2020-10-16
CN111784780B CN111784780B (zh) 2023-06-16

Family

ID=72755986

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010549007.4A Active CN111784780B (zh) 2020-06-16 2020-06-16 基于深度学习的彩色摄像机的颜色标定方法

Country Status (1)

Country Link
CN (1) CN111784780B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112367517A (zh) * 2020-10-30 2021-02-12 孝感华中精密仪器有限公司 一种电视摄像机色彩空间分辨率测试设备
CN113436147A (zh) * 2021-06-02 2021-09-24 西安工业大学 一种基于图像处理的彩色成像系统色彩分辨力检测方法
CN116468708A (zh) * 2023-04-25 2023-07-21 安徽农业大学 基于深度学习的单帧正交条纹标靶图像的特征点检测方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102663763A (zh) * 2012-04-25 2012-09-12 南京航空航天大学 一种面向大视场高精度视觉测量的摄像机标定方法
CN103826118A (zh) * 2014-03-18 2014-05-28 西安工业大学 一种彩色电视成像系统空间分辨力检测装置
CN107507250A (zh) * 2017-06-02 2017-12-22 北京工业大学 一种基于卷积神经网络的面色舌色图像颜色校正方法
CN108665496A (zh) * 2018-03-21 2018-10-16 浙江大学 一种基于深度学习的端到端的语义即时定位与建图方法
WO2020036568A1 (ru) * 2018-08-16 2020-02-20 Институт Физики Конденсированных Систем Нан Украины Способ вывода на экран дисплея цветного изображения двумя цветами и белым светом

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102663763A (zh) * 2012-04-25 2012-09-12 南京航空航天大学 一种面向大视场高精度视觉测量的摄像机标定方法
CN103826118A (zh) * 2014-03-18 2014-05-28 西安工业大学 一种彩色电视成像系统空间分辨力检测装置
CN107507250A (zh) * 2017-06-02 2017-12-22 北京工业大学 一种基于卷积神经网络的面色舌色图像颜色校正方法
CN108665496A (zh) * 2018-03-21 2018-10-16 浙江大学 一种基于深度学习的端到端的语义即时定位与建图方法
WO2020036568A1 (ru) * 2018-08-16 2020-02-20 Институт Физики Конденсированных Систем Нан Украины Способ вывода на экран дисплея цветного изображения двумя цветами и белым светом

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
徐记伟等: "彩色摄像机颜色分辨力测量", 《红外技术》 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112367517A (zh) * 2020-10-30 2021-02-12 孝感华中精密仪器有限公司 一种电视摄像机色彩空间分辨率测试设备
CN112367517B (zh) * 2020-10-30 2023-04-11 孝感华中精密仪器有限公司 一种电视摄像机色彩空间分辨率测试设备
CN113436147A (zh) * 2021-06-02 2021-09-24 西安工业大学 一种基于图像处理的彩色成像系统色彩分辨力检测方法
CN116468708A (zh) * 2023-04-25 2023-07-21 安徽农业大学 基于深度学习的单帧正交条纹标靶图像的特征点检测方法

Also Published As

Publication number Publication date
CN111784780B (zh) 2023-06-16

Similar Documents

Publication Publication Date Title
CN111784780B (zh) 基于深度学习的彩色摄像机的颜色标定方法
CN106896069B (zh) 一种基于彩色数码相机单幅rgb图像的光谱重建方法
CN103268499B (zh) 基于多光谱成像的人体皮肤检测方法
Wagadarikar et al. Video rate spectral imaging using a coded aperture snapshot spectral imager
Gavrilovic et al. Blind color decomposition of histological images
CN104318550A (zh) 八通道多光谱成像数据处理方法
CN109325927A (zh) 工业相机摄影测量图像亮度补偿方法
Luo et al. 4D surface shape measurement system with high spectral resolution and great depth accuracy
CN115731191A (zh) 一种基于神经网络的窄波段光谱成像方法
Xie et al. Dual camera snapshot hyperspectral imaging system via physics-informed learning
CN113256733B (zh) 基于置信度投票卷积神经网络的相机光谱灵敏度重建方法
Narea-Jiménez et al. Assessment of a computed tomography imaging spectrometer using an optimized expectation-maximization algorithm
US11935268B2 (en) Construction method and system for visible near-infrared spectrum dictionary
CN108267426A (zh) 基于多光谱成像的绘画颜料识别系统及方法
Guo et al. Revealing architectural order with quantitative label-free imaging and deep neural networks
Zhang et al. Evaluation and consistency calibration of hyperspectral imaging system based on liquid crystal tunable filter for fabric color measurement
Wang et al. Gloss evaluation from soft and hard metrologies
Kong et al. Solution Classification With Portable Smartphone-Based Spectrometer System Under Variant Shooting Conditions by Using Convolutional Neural Network
CN103604499B (zh) 基于反向双光路的光谱重建方法
Mello et al. Method for estimating luminous transmittance using an RGB sensor and ANN
Chatoux et al. Gradient in spectral and color images: from the di zenzo initial construction to a generic proposition
Del Campo et al. Radial basis function neural network for the evaluation of image color quality shown on liquid crystal displays
CN116935222B (zh) 一种遥感影像蓝波段模拟方法、系统及可读存储介质
Zhang et al. Colour correction method of interior decoration engineering based on dense convolution neural network
Wang et al. Detection Model and Correction Method for Quadrant Detector Based Computational Ghost Imaging System

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant