CN108475336A - 采用可调谐功率经由多波长照明的用于实时增强的对比度的机器学习的光学实现 - Google Patents
采用可调谐功率经由多波长照明的用于实时增强的对比度的机器学习的光学实现 Download PDFInfo
- Publication number
- CN108475336A CN108475336A CN201780006659.XA CN201780006659A CN108475336A CN 108475336 A CN108475336 A CN 108475336A CN 201780006659 A CN201780006659 A CN 201780006659A CN 108475336 A CN108475336 A CN 108475336A
- Authority
- CN
- China
- Prior art keywords
- intensity
- image
- classification vector
- illumination
- vector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000002708 enhancing effect Effects 0.000 title description 2
- 238000010801 machine learning Methods 0.000 title description 2
- 230000003287 optical effect Effects 0.000 title description 2
- 238000005286 illumination Methods 0.000 claims abstract description 90
- 238000003384 imaging method Methods 0.000 claims abstract description 66
- 230000003595 spectral effect Effects 0.000 claims abstract description 24
- 238000005457 optimization Methods 0.000 claims description 36
- 238000000034 method Methods 0.000 claims description 29
- 238000012706 support-vector machine Methods 0.000 claims description 8
- 238000013507 mapping Methods 0.000 claims description 7
- 238000001228 spectrum Methods 0.000 claims description 7
- 230000004044 response Effects 0.000 claims description 6
- 238000013519 translation Methods 0.000 claims description 5
- 230000008859 change Effects 0.000 claims description 3
- 210000003484 anatomy Anatomy 0.000 abstract description 7
- 210000000056 organ Anatomy 0.000 abstract description 3
- 238000000605 extraction Methods 0.000 abstract description 2
- 238000012549 training Methods 0.000 description 49
- 210000001508 eye Anatomy 0.000 description 13
- 230000008569 process Effects 0.000 description 10
- 238000002310 reflectometry Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 7
- 241000287828 Gallus gallus Species 0.000 description 6
- 238000000926 separation method Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 230000001678 irradiating effect Effects 0.000 description 4
- 238000003860 storage Methods 0.000 description 4
- 235000014122 turkey meat Nutrition 0.000 description 4
- 239000000284 extract Substances 0.000 description 3
- 108091008695 photoreceptors Proteins 0.000 description 3
- 230000005855 radiation Effects 0.000 description 3
- 238000005033 Fourier transform infrared spectroscopy Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 210000004556 brain Anatomy 0.000 description 2
- 210000005252 bulbus oculi Anatomy 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 235000013372 meat Nutrition 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000013139 quantization Methods 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 241001270131 Agaricus moelleri Species 0.000 description 1
- 241001677188 Coccus viridis Species 0.000 description 1
- 210000001557 animal structure Anatomy 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 238000002059 diagnostic imaging Methods 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 238000005315 distribution function Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 210000003734 kidney Anatomy 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000007480 spreading Effects 0.000 description 1
- 238000003892 spreading Methods 0.000 description 1
- 238000001356 surgical procedure Methods 0.000 description 1
- 210000001519 tissue Anatomy 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/141—Control of illumination
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01J—MEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
- G01J3/00—Spectrometry; Spectrophotometry; Monochromators; Measuring colours
- G01J3/02—Details
- G01J3/10—Arrangements of light sources specially adapted for spectrometry or colorimetry
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01J—MEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
- G01J3/00—Spectrometry; Spectrophotometry; Monochromators; Measuring colours
- G01J3/28—Investigating the spectrum
- G01J3/2823—Imaging spectrometer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/74—Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01J—MEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
- G01J3/00—Spectrometry; Spectrophotometry; Monochromators; Measuring colours
- G01J3/28—Investigating the spectrum
- G01J3/2823—Imaging spectrometer
- G01J2003/2826—Multispectral imaging, e.g. filter imaging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/58—Extraction of image or video features relating to hyperspectral data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/194—Terrestrial scenes using hyperspectral data, i.e. more or other wavelengths than RGB
Abstract
一种成像系统(例如高光谱成像系统)接收比较第一物体和第二物体(例如医疗环境中的两个解剖结构或器官)的指示。所述成像系统访问所述第一物体和第二物体的分类矢量,所述分类矢量已经通过将所述第一物体的多个收集的反射率值与所述第二物体的多个收集的反射率值分离而被提取。基于提取的分类矢量确定成像系统的一个或多个光谱照明源的一组最佳照明强度。采用确定的照明强度照射第一和第二物体。提供第一和第二物体的高对比度图像用于显示,使得可以在图像中容易地区分这两个物体。图像中的像素的强度由照明强度确定。
Description
相关申请的交叉引用
本申请是要求2016年3月18日提交的临时专利申请第62/310539号的优先权的非临时专利申请,其内容通过引用结合于此。
技术领域
本发明总体涉及使用成像系统比如高光谱成像系统生成具有优化对比度的图像。
背景技术
通过成像在视觉上区分不同物体的能力对于许多应用而言是关键的。通常,要辨别的物体在性质上是不同的,但对于肉眼或在常规的成像过程中可能看起来是类似的。例如,在医学成像和手术成像中,外科医生能够区分不同的解剖结构是非常重要的。
在常规的成像过程中,通过在入射光谱照射的光谱和角度尺度上进行物理积分来找到图像传感器中的像素的强度。然而,由于通过对入射光的光谱尺度进行积分来找到像素强度,因此常规的成像过程可能无法检测入射光中的各个光谱分量,这些光谱分量可能能够提供场景特定的或场景通常的对比度以对物体进行区分。
发明内容
成像系统接收比较第一物体和第二物体的指示。成像系统访问第一物体和第二物体的分类矢量。通过将第一物体的多个收集的反射率值与第二物体的多个收集的反射率值分离来提取分类矢量。基于提取的分类矢量确定成像系统的一个或多个光谱照明源的一组最佳照明强度。采用所确定的照明强度照射第一物体和第二物体。提供第一物体和第二物体的高对比度图像用于显示。图像中像素的强度由照明强度确定。
附图说明
图1是根据一个实施例的用于显示物品图像的成像系统。
图2A是根据一个实施例的由常规照明设置生成的示例图像。
图2B是根据一个实施例的由优化照明设置生成的示例图像。
图3是根据一个实施例的示出照明控制器的框图。
图4示出了根据一个实施例的提供给训练模块以识别分类矢量的示例训练数据。
图5示出了根据一个实施例的用于两个物体A和B的分类矢量Vc。
图6是根据一个实施例的由训练模块训练的示例分类器。
图7示出了根据一个实施例的图像中的像素强度Ipixel与对应的表面区域元素(surface area element)反射率在从图6中的分类器检索的分类矢量Vc上的投影之间的关系。
图8示出了常规照明下火鸡肉和鸡肉的未优化图像以及在最佳照明下的优化图像。
图9是根据一个实施例的示出使用图1的成像系统生成具有两个或更多个物体A和B之间的优化对比度的图像的过程的流程图。
图10是根据一个实施例的用于实现照明控制器的计算机的框图。
具体实施方式
附图及以下描述仅通过说明来描述某些实施例。本领域技术人员将从以下描述中容易地认识到,可以采用本文所示的结构和方法的替代实施例而不脱离本文所描述的原理。现在将详细参考几个实施例,其示例在附图中示出。注意,在可行的情况下,可以在附图中使用类似或相似的附图标记,并且可以指示类似或相似的功能。
系统概述
图1是根据一个实施例的用于显示物品150的图像126的成像系统100。在整个申请中将使用高光谱成像系统作为成像系统100的示例,但是也可以使用其他成像系统。
成像系统100包括照明源110、用于支撑物品150的工作台140、成像装置190和照明控制器160。成像装置190还可以包括相机114和用于显示物品150的图像126的监视器122,或者可以是在大脑中产生物品150的图像126的眼睛。成像系统100的一些实施例具有与本文描述的模块不同或附加的模块。类似地,可以以与此处描述的方式不同的方式在模块之间分配功能。某些模块和功能可以合并到成像系统100的其他模块中。
成像系统100通过调节照明源110的每个光谱带的强度来显示具有两个或更多个物体之间的优化对比度的图像126。物品150包括两个或更多个物体,例如物体A和B,它们具有不同的性质,但对于肉眼或常规成像系统来说不易区分。成像系统100显示物品150的图像126B,其具有A的图像部分和B的图像部分之间的优化对比度。也就是说,与常规的成像系统或肉眼相比,物体A和B之间的对比度在图像126B中得到增强。物体之间的这种优化的对比度可以是有用的,例如在外科医生或其他医务人员必须区分身体中的两个解剖结构的医疗或外科手术环境中,该两个解剖结构在常规图像中可能看起来非常相似。相反,解剖结构之间的优化的对比度确保了这两种不同的结构将作为图像中的不同结构而向外科医生分外显眼,确保外科医生能够在手术过程中或者在不同的医疗环境中容易地区分这些结构。
图2A是根据一个实施例的由常规的照明设置生成的示例图像126A。图2B是根据一个实施例的由优化的照明设置生成的示例图像126B。
如图2A所示,常规图像126A示出了包含两个不同物体A和B的物品150的图像126。尽管物体A和B可以是不同的性质的不同材料,但物体A的图像部分和物体B的图像部分具有在常规照明下类似的强度,其使得难以区分这两个物体。相反,如图2B所示,通过调整照明源110的强度产生的优化图像126B示出了相同物品150的图像,其中A的图像部分和物体B的图像部分具有明显不同的强度,这增强了两个物体之间的区分性。
回到图1,系统100利用来自照明源110的入射光130照射物品150(该入射光130具有来自不同光谱带的光的组合),检测来自物品150的反射光134的强度,并通过采用成像装置190分析反射光134的强度来生成物品150的图像126。作为示例,成像装置190可以指相机114,其对显示在监视器122上的图像126的每个像素的反射强度进行积分或求和。将积分或求和值转换成用于在图像126中显示的像素的比例(scale)。在接收到指示要区分的两个或更多个物体A和B的物体设置164之后,系统100调整入射光130中每个光谱带的各个照明强度,使得得到的图像126具有物体A的该部分和物体B的该部分之间的优化对比度。系统100通过分析与物体A和B的其他实例相关的反射率数据来调整照明强度。
照明源110是这样的光源,该光源可以利用来自两个或更多个光谱带的光照射物品150,并且还调整每个光谱带的单独的光强度。在一个实施例中,每个光谱带可以是窄带,其在光的波长谱中具有相对小的光谱范围。即使光谱带可以对应于光的光谱范围,每个光谱带也可以由波长值表征。例如,如图1所示,照明源110发射具有3个光谱带的组合的入射光130,该3个光谱带由λ1、λ2和λ3表征,每个光谱带具有相应的照明强度I(λ1)、I(λ2)和I(λ3)。更一般地,照明源110发射具有m个光谱带的组合的入射光130,其特征在于λj=1,2,…,m,每个具有相应的强度I(λ1)、I(λ2)…I(λm)。
成像装置190是检测来自物品150的反射光134并产生物品150的图像126的任何装置或结构。在一个实施例中,成像装置190可以是指检测反射光134并生成包括像素118阵列的物品150的图像126的相机114,其中每个像素118具有对应的比例或强度Ipixel。在整个说明书其余部分所指的一个特定实施例中,图像126是灰度图像,其中像素118的强度Ipixel对应于量化灰度的水平。例如,像素118的强度Ipixel可对应于从0至255的量度来量化光的强度的8位灰度的水平。如图1所示,灰度图像126具有具有最低强度的若干个黑色像素118、具有最高强度的若干个白色像素118以及具有在白色和黑色像素118之间的强度的若干个灰色像素118。然而,应当理解,在其他实施例中,图像126是彩色图像,其中像素118的颜色是RGB量度上的量化强度的组合。
通过检测来自表面区域元素的反射光134的强度,相机114将物品150的表面区域元素154映射到对应的像素118强度Ipixel。如图1的示例中所示,物品150的表面区域元素154是物品150的一小部分,其可以转化到图像126上的像素。物品150由多个表面区域元素154组成。在接收具有单个光谱带λj的照明130时,由照相机114中的传感器(未示出)检测到的来自表面元素的反射光134的强度由下式给出:
φj=I(λj)·R(λj),
其中,R(λj)是对于光谱带λj的表面区域元素的表面反射率。也就是说,反射光134的强度是由值R(λj)确定的由物品150的表面区域元素154反射的剩余入射光130的比例。
在检测到来自照明源110的所有光谱带(或来自一定数量的光谱带)的反射强度时,图1示例中的相机114逐个波长地将反射强度与对于每个光谱带的相机114的光谱响应T(λ1),T(λ2),…,T(λm)相乘。相机114通过遍及(across)光谱带λj=1,2,…,n对结果求和来产生对应像素118的强度Ipixel。具体地,像素118的强度Ipixel与总和成比例:
上面的等式可以指单个灰度通道的像素强度,或者指相机114的红绿蓝(RGB)通道中的任何一个的像素强度。
在另一实施例中,成像装置190可以指眼睛。也就是说,图像126可以指通过经由眼睛中的结构或细胞处理反射强度来在大脑中产生的物品150的图像126。由于相机114和眼睛的功能类似,所以系统100还可以调整物品150上的光的每个光谱带的各个照明强度,使得观察物品150的人看到被照物体A和B之间的优化对比度。与相机114的实施例类似,相应的表面区域元素154的反射光的强度Isurface可以由下式给出:
其中,T(λj)现在是人眼的光谱响应。例如,上面的等式可以指示通过吸收短(S)、中(M)和长(L)波长的光子来由眼睛的一个或多个光感受器产生的光强度或电信号强度。
如果所有光谱带λj=1,2,…,m的每个元素I(λj)·T(λj)被连接成列矢量V,并且如果所有光谱带λj=1,2,…,m的每个反射率值R(λj)被连接成列矢量R,则像素118(或相应表面区域元素154)的强度可被重新表述为:
Ipixel∝VTR.
也就是说,像素118的强度Ipixel是与量I(λ1)·T(λ1),I(λ2)·T(λ2),…,I(λm)·T(λm)相关的矢量V以及与相应表面区域元素的反射率值R(λ1),R(λ2),…,R(λm)相关的矢量R的点积。
照明控制器160接收指示要区分的两个或更多个物体A和B的物体设置164,并且通过最佳照明设置168调整入射光130的照明强度I(λ1),I(λ2),…,I(λm),使得当通过诸如相机114或眼睛的成像装置190观看时,系统100照射物品150以具有物体A和物体B之间的优化对比度。具体地,当相机114用作成像装置190时,具有用于照明源110的最佳照明强度设置168的系统100可以生成图像126B,使得与常规或未优化的照明强度设置相比,物体A的图像部分与物体B的图像部分之间的像素强度差异更大。
最佳照明设置168通过分析与物体A和B的其他实例相关的过去或当前的反射率数据并提取具有分离物体之间的反射率值的方向的分类矢量而被找到。因此,通过调整成像系统100中的照明强度,系统可以生成这样的图像,其中两个物体看起来不同或者具有比它们在没有以这种方式调整照明强度的图像中具有的对比度更大的对比度。回到医疗环境中的示例,在否则看起来非常相似的解剖结构之间将存在更大的对比度,使得这些结构对于医师而言可清楚地辨别为不同的解剖结构。下面参考图3提供照明控制器160的更详细描述。
照明控制器
图3是示出根据一个实施例的照明控制器160的框图。
照明控制器160包括训练模块350、控制器模块354、用于训练图像310的数据存储器以及用于分类矢量314的数据存储器。照明控制器160的一些实施例具有与本文描述的那些模块不同或附加的模块。类似地,可以以与本文描述的方式不同的方式在模块之间分配功能。某些模块和功能可以合并到照明控制器160的其他模块中。
训练模块
训练模块350接收一组训练数据310,其包含用于两个或更多个物体A和B的多个实例(例如人膀胱与人类肾脏的不同实例)的反射率值,识别沿着分离两个或更多个物体之间的反射率值的方向指向的分类矢量VC,并且将所识别的分类矢量VC存储在分类矢量314中。
训练数据
图4示出了根据一个实施例的提供给训练模块350以识别分类矢量的示例性训练数据310。
训练数据310包含遍及物体的多个实例上的物体实例的表面区域元素的一系列反射率值R(λj)。如图4所示,训练数据310包含一对矩阵(Xtrain,ytrain),其中每一行是对应于物体A或物体B的任一实例的表面区域元素的条目。Xtrain中的每一列是独立的特征,其对应于当用来自光谱带λj的光照射时表面区域元素的所收集的反射率值R(λj)。因此,图4中的矩阵Xtrain包含m列或特征,对应于每个光谱带λj=1,2,…,m的反射率值。矢量ytrain是已知标签的列矢量,指示Xtrain中相应条目的物体类别。也就是说,ytrain中的每个条目指示相应条目中的一组反射率值R(λj)的物体类别。例如,图4中的矢量ytrain包含指示Xtrain中的相应条目是属于物体A还是物体B的标签。
这里,Xtrain中的条目i的一行反射率值R(λ1),R(λ2),…,R(λm)表示为矢量Ri,并且ytrain中的条目的对应物体标签表示为yi。
在一个实施例中,通过利用来自光谱带λ1,λ2,…,λm的光顺序地照射物体的实例(例如物体A或B的实例)来收集训练数据310,从而生成对应于该物体的每个光谱带λj的m个图像,并提取构成物体的表面区域元素的反射率值R(λ1),R(λ2),…,R(λm)。对于物体的多个实例重复该过程。因此,物体的反射率值不仅遍及构成物体的多个表面区域元素而且还遍及物体的多个实例被收集。可以通过积分球测量、傅里叶变换红外光谱(FT-IR)或高光谱成像中的任何一个或组合来收集物体的反射率值,但不限于此。
分类矢量的识别
图5示出了根据一个实施例的用于两个物体A和B的分类矢量VC。
训练模块350识别沿着分离两个或更多个物体A和B之间的反射率值的方向指向的分类矢量VC。也就是说,分类矢量VC的方向从主要与一个物体类别相关的一组反射率值行进到主要与不同物体类别相关的另一组反射率值。由于分类矢量VC跨越m个光谱带λj=1,2,…,m的反射率值,因此分类矢量是光谱带空间中的m维矢量。
图5示出了用于属于物体A(用符号“X”表示)的训练数据310条目的一系列反射率值R(λ1),R(λ2)以及用于属于物体B(用符号“O”表示)的训练数据310条目的反射率值。点510可以对应于由矢量R1给出的训练数据310的第一行中的反射率值。点518可以对应于由矢量R2给出的训练数据310的第二行中的反射率值。
训练模块350识别包含与一个物体类别相关的点的一组反射率值以及包含与不同物体类别相关的点的另一组反射率值。例如,由训练模块350识别的组526包含主要与物体B相关的点,而组530包含主要与物体A相关的点。训练模块350还识别具有分离两组反射率值的方向的分类矢量VC。如图5所示,分类矢量VC沿着分离物体A和B的反射率值的方向指向。换句话说,分类矢量VC的方向从与物体A相关的一组526反射率值行进到与物体B相关的另一组530反射率值。
在一各实施例中,训练模块350通过训练分离两个或更多个物体A和B之间的反射率值的一个或多个分类器来识别分类矢量VC。在说明书的整个其余部分中涉及的一个特定实施例中,分类器是线性支持矢量机分类器(SVM,linear support vector machineclassifier)。然而,应当理解,在其他实施例中,分类器可以是能够将数据点分类到多个类别中的一个的任何分类器。例如,分类器可以是任何分类器,其中分类由内积或一系列内积完成,类似于线性SVM分类器。
图6是根据一个实施例的由训练模块350训练的示例分类器610。
训练模块350通过从训练数据310中提取权重矢量w和阈值参数b来构建被训练分类器610。所得到的分类器是线或超平面形式的边界,其将训练数据310的特征空间分离成两个或更多个不相交的区域,其中一个区域中的一组反射率值与对应的物体类别相关。在图6所示的示例中,分类器610是将二维特征空间划分为主要包含物体A的反射率值的一个区域620以及主要包含物体B的反射率值的另一区域624的线。
由分类器610构造的边界是满足由权重矢量w和阈值参数b的函数指定的条件的点的集合。具体地,图6中的分类器610满足:
wTR=b,
其中,w是权重矢量,b是阈值参数,R是指示特征空间中任何点的矢量变量,并且wTR是仿射分类函数。训练模块350从训练数据310中提取权重矢量w和阈值参数b的数值。
在一个实施例中,训练模块350可以将垂直于分类器610的权重矢量w识别为分类矢量VC。由于分类矢量VC垂直于分类器610,并且分类器610被构造为不同物体的反射率值之间的边界,因此分类矢量VC的方向自然地沿着分离不同组的反射率值的方向指向。
可替代地,训练模块350可以通过除分类器之外的其他手段来识别分类矢量VC。例如,训练模块350可以使用任何聚类算法来训练与物体A相关的一群集(cluster)反射率值以及与物体B相关的另一群集反射率值。在这种情况下,训练模块350可以将分类矢量VC识别为从一群集内的点到另一群集内的点的矢量。作为另一示例,训练模块350可以通过训练数据310的反射率值之间的各种距离度量来识别分类矢量VC,而不是通过分析模型来提取分类矢量VC。
返回图5,关于分类矢量VC上的投影VC TR,由于分类矢量VC的分离方向,与一个物体相关的一组526反射率值的投影VC TR被分组到包括大部分是低值的分类矢量VC的一端,而与不同物体相关的一组530反射率值的投影VC TR被分组到包括大部分更高值的分类矢量VC的相对端。例如,与物体B相关的点510的投影514具有比与物体A相关的点518的投影522更低的值。
此外,当分类矢量VC是分类器610的权重矢量w时,投影VC TR与距分类器610的垂直距离有关。具体地,区域620中的反射率值的投影VC TR随着与分类器610的距离更远而增加,而区域624中的反射率值的投影VC TR随着与分类器610的距离更远而减小。投影VC TR和成像系统100之间的关系将参考下面的控制器模块354更详细地描述。
在一个实施例中,训练模块350可以识别分类矢量的范围而不是一个分类矢量VC。例如,可以通过以VC为中心的区间给出分类矢量的范围:
VC+Δ(VC),
其中,Δ(VC)是包含预定范围内的负或正元素的矢量。在识别用于两个或更多个物体A和B的分类矢量VC或分类矢量的范围之后,训练模块350将所识别的分类矢量或范围存储在分类矢量314中。
控制器模块
返回图3,控制器模块354接收指示要区分的两个或更多个物体A和B的物体设置164,在分类矢量314中检索物体A和B的相应分类矢量,并输出指示照明源110的最佳强度的最佳照明设置168,其将产生具有A的图像部分和B的图像部分之间的优化对比度的物品150的图像126B。优化的照明设置168模仿检索的分类矢量VC的值。物品150可以包括未包括在训练数据310中的物体A和B的新实例,但是具有与训练数据310中使用的那些实例类似的性质。可替代地,物品150可以包括包含在训练数据310中的物体A和B的实例。
最佳照明设置的识别
在检索相应的分类矢量VC之后,控制器模块354通过找到照明强度Iopt(λ1),Iopt(λ2),…,Iopt(λm)来识别最佳照明设置168,该些照明强度导致量T(λj)·I(λj)对于每个光谱带λj=1,2,…,m而言等于分类矢量VC的第j个元素或与分类矢量VC的第j个元素成比例。这种情况由下式给出:
其中,[VC]j表示VC的第j个元素。由于光谱响应T(λj)对于每种类型的成像装置190可以是不同的,因此最佳照明设置168可以根据系统100中使用的成像装置190的类型而不同。例如,相机114的光谱响应可能与眼睛明显不同,导致根据成像装置190的类型而不同的最佳照明设置168。
在一个实施例中,最佳照明强度Iopt(λ1),Iopt(λ2),…,Iopt(λm)可以是分类矢量VC的元素的标量倍数。在另一实施例中,照明强度Iopt(λ1),Iopt(λ2),…,Iopt(λm)可以是分类矢量VC的元素的平移。也就是说,最佳照明强度Iopt(λj)可以由下式给出:
其中,c0j,c1j是常量。例如,如果分类矢量VC包含负元素,则控制器模块354可以偏移分类矢量VC的值。具体地,控制器模块354可以通过VC中的最负元素来偏移分类矢量的元素,使得平移的元素都是正的。作为另一示例,控制器模块354可以在确定最佳照明强度时采用分类矢量VC的绝对值。
控制器模块354还可以识别包含最佳照明强度的范围的最佳照明设置168。例如,光谱带λj的最佳照射强度范围可以由以Iopt(λj)为中心的区间给出:
Iopt(λj)+Δopt(λj),
其中,Δopt(λj)是预定范围内的负值或正值。作为另一示例,控制器模块354可通过平移或缩放从训练模块350接收分类矢量的范围来将最佳照明强度的范围识别为最佳照明设置168。
像素强度与投影之间的关系
在作为成像装置190的相机114的实施例中,使用最佳照明设置168产生的图像126B中的像素的所得强度Ipixel与到分类矢量VC上的其相应表面区域元素反射率的投影VC TR成比例。如参考图7进一步详细描述,对于两个或更多个物体A和B使用最佳照明设置168生成的对应图像126B保持物体A和物体B的像素强度之间的高对比度。
如参考图1所讨论的那样,成像过程本身导致像素强度Ipixel由以下关系确定:
Ipixel∝VTR,
其中,V中的每个元素包含每个光谱带λj的量I(λj)·T(λj),并且R中的每个元素包含对应表面区域元素的每个光谱带λj的反射率值R(λj)。
因此,如果照明强度I(λ1),I(λ2),…,I(λm)被设置在由最佳照明设置168指定的范围内,则图像126中的像素Ipixel的强度将与到分类矢量VC上的其表面区域元素反射率矢量的投影VC TR成比例。这种关系由下式给出:
对于其他类型的成像装置190,比如眼睛,可以推导出光强度和分类矢量之间的类似关系。
图7示出了根据一个实施例的图像126中的像素强度Ipixel与相应的表面区域元素反射率在从图6中的分类器610检索的分类矢量Vc上的投影之间的关系。
如图7所示,点708表示与在最佳照明设置168下照射的物体A相关的表面区域元素的反射率值R(λ1),R(λ2)。类似地,点712表示与物体B相关的元素的反射率值。如上所述,点708和712可以指示在训练数据310中不可获得的物体A和B的新实例的反射率值,或者指示在训练数据310中可获得的物体A和B的实例的反射率值。
在物体A和B的新实例的情况下,到所识别的分类矢量VC TR上的反射率值的投影具有与针对训练数据310所识别的分布类似的分布,因为被最佳照明设置168照射的物品150包含物体A和B的实例,其具有与训练数据310中使用的那些实例类似的性质。
也就是说,对于训练数据310中可获得和不可获得的反射率值二者而言,与一个物体相关的投影VC TR被映射到低值,而与不同物体相关的投影被映射到较高值。此外,由最佳照明设置168产生的像素强度Ipixel与投影VC TR成比例。因此,在成像过程中,与一个物体类别相关的表面区域元素的像素强度Ipixel被映射到低值,而不同物体类别的强度被映射到较高值,从而产生物体的高对比度图像126。
例如,如图7所示,由于相应表面区域元素的反射率分布在区域620内,所以与物体A相关的新点708的投影被映射到高值z1。结果,相应像素的强度是由730表示的浅灰色。作为另一示例,由于相应表面区域元素的反射率分布在区域624内,所以与物体B相关的点712的投影被映射到较低值z3。结果,相应的像素导致由738表示的深灰色。
在一个实施例中,像素Ipixel的强度可被映射到灰度以外的颜色标度。例如,相机114可以将像素强度Ipixel映射到单一颜色(例如红色)的强度而不是灰度。作为另一示例,像素强度Ipixel可被映射到红绿色标度,其中低强度被映射到红色,而高强度被映射到绿色,反之亦然。作为另一示例,可以沿着颜色空间(例如Lab颜色空间、XYZ颜色空间等)的任何维度映射像素强度。
作为反射率值分离的结果,由最佳照明设置168生成的优化图像中的不同物体的图像部分之间的对比度可以高于通过最佳照明设置168的范围之外的常规照明强度设置生成的图像中的不同物体的图像部分之间的对比度。具体地,由最佳照明设置168生成的优化图像中的不同图像部分的像素强度之间的差异可以大于通过最佳照明设置168的范围之外的常规照明强度设置生成的图像中的不同图像部分的像素强度之间的差异。作为另一示例,在最佳照明设置168下针对不同部分由眼睛的一个或多个光感受器产生的电信号之间的差异可以大于在最佳照明设置168的范围之外的常规照明设置下针对不同部分由眼睛的一个或多个光感受器产生的电信号之间的差异。
图8示出了常规照明下火鸡肉和鸡肉的未优化图像810以及在最佳照明下的火鸡肉和鸡肉的优化图像820。
如图8所示,系统100在常规照明下生成鸡肉850和火鸡肉854的低对比度图像810。相反,系统100使用在通过训练模块350提取的分类矢量在最佳照明下生成鸡肉858和火鸡肉862的高对比度图像820。对应于鸡肉858的像素被映射到低强度,而对应于火鸡肉862的像素被映射到较高强度。类似地,在医疗环境中,在常规照明下在低对比度图像中可能看起来相似的不同解剖结构、器官、组织、组织状态或特性等将在使用通过训练模块350提取的分类矢量的照明设置下显得有区别。因此,医师可以立即区分可能超出这些设置而看起来几乎相同的两个器官,从而避免错误并改善患者结果,并且还节省了与医疗程序或诊断相关的时间。
在一个实施例中,照明控制器160可以基于分类矢量元素的幅度来确定仅使用选择光谱照明源。例如,照明控制器160可以利用与具有高于预定阈值的幅度的分类矢量的元素对应的光谱照明源照射物品150。具有高权重的分类矢量元素[VC]j表示不同物体类别之间的反射率值沿着光谱带λj高度分离,因此,表示应该使用光谱带的光谱照明源来增强不同物体之间的对比度。
图9是根据一个实施例的示出使用成像系统比如图1的成像系统或其一个或多个部件生成具有两个或更多个物体A和B之间的优化对比度的图像的过程的流程图。
成像系统100或其部件接收910比较第一物体和第二物体的指示。例如,这可以是用户比如医师给出的比较两个结构(例如两个人或动物器官)的指令或生成两个结构的图像的指令。成像系统100访问912第一物体和第二物体的对应分类矢量。通过将第一物体的反射率值与第二物体的反射率值分离来提取分类矢量。基于检索的分类矢量确定914用于光谱照明源的优化的照明强度。采用具有确定的照明强度的光谱带光照射916第一物体和第二物体。基于从第一物体和第二物体反射的光谱带光的反射强度生成918第一物体和第二物体的图像。提供920第一物体和第二物体的优化对比度图像用于显示。
在另一实施例中,该方法包括成像系统的部件或与成像系统相互作用的与成像系统相关的模块。例如,控制器模块354可以与成像系统分开操作。在这种情况下,控制器模块从成像系统接收910比较两个物体或接收物体设置指示,访问912物体的对应分类矢量,并且基于分类矢量和成像装置190的光谱响应来确定914用于光谱照明源的优化照明强度。然后,模块向成像系统发送适当的照明设置,然后可以将适当的照明设置用作成像系统的照明源在照射物体时的设置,以最终生成物体的图像。因此,步骤916和918由成像系统执行,并且单独的控制器模块简单地向成像系统发送照明强度以用于生成高对比度图像。
图10是根据一个实施例的用于实现照明控制器160的计算机1000的框图。
计算机1000包括联接到芯片组1004的至少一个处理器1002。芯片组1004包括存储器控制器集线器1020和输入/输出(I/O)控制器集线器1022。存储器1006和图形适配器1012联接到存储器控制器集线器1020,并且显示器1018联接到图形适配器1012。存储设备1008、输入设备1014和网络适配器1016联接到I/O控制器集线器1022。计算机1000的其他实施例具有不同的架构。
存储设备1008是非暂时性计算机可读存储介质,比如硬盘驱动器、压缩盘只读存储器(CD-ROM)、DVD或固态存储器设备。存储器1006保存由处理器1002使用的指令和数据。输入接口1014是触摸屏界面、鼠标、轨迹球或其他类型的点击设备、键盘或其某种组合,并用于将数据输入到计算机1000中。在一些实施例中,计算机1000可以配置为经由来自用户的手势从输入接口1014接收输入(例如命令)。图形适配器1012在显示器1018上显示图像和其他信息。网络适配器1016将计算机1000联接到一个或多个计算机网络。
计算机1000的类型可以根据实施例和实体所需的处理能力而变化。计算机1000可以缺少上述的一些部件,比如图形适配器1012和显示器1018。
其他考虑事项
以上描述的一些部分根据算法过程或操作来描述实施例。这些算法描述和表示通常被数据处理领域的技术人员用来有效地将其工作的实质传达给本领域的其他技术人员。尽管在功能上、计算上或逻辑上描述的这些操作被理解为由包括由处理器或等效电路执行的指令的计算机程序、微代码等来实现。此外,有时也证明方便地将功能操作的这些布置称为模块,而不失一般性。所描述的操作及其相关模块可以以软件、固件、硬件或其任何组合来体现。
如本文所用,对“一个实施例”或“一实施例”的任何引用意味着结合该实施例描述的特定元件、特征、结构或特性包括在至少一个实施例中。说明书中各处出现的短语“在一个实施例中”不一定都指同一个实施例。
可以使用表达“联接”和“连接”以及它们的派生词来描述一些实施例。应该理解,这些术语不是旨在作为彼此的同义词。例如,可以使用术语“连接”来描述一些实施例,以指示两个或更多个元件彼此直接物理或电接触。在另一示例中,可以使用术语“联接”来描述一些实施例,以指示两个或更多个元件处于直接的物理或电接触中。然而,术语“联接”也可以表示两个或更多个元件彼此不直接接触,但仍然彼此协作或相互作用。在本上下文中,实施例不受限制。
如本文所用,术语“包括”、“包含”、“具有”或其任何其他变化旨在涵盖非排他性包含。例如,包括元素的列表的过程、方法、物品或装置不一定仅限于那些元素,而是可以包括没有明确列出或者此类过程、方法、物品或装置固有的其他元素。此外,除非有明确的相反说明,否则“或”是指包含性的或而不是排他性的或。例如,条件A或B满足以下任何一个:A为真(或存在),且B为假(或不存在),A为假(或不存在)且B为真(或存在),以及A和B都为真(或存在)。
另外,使用“一”或“一个”来描述本文实施例的元件和部件。这仅仅是为了方便,并且给出了本公开的一般意义。这个描述应被理解为包括一个或至少一个,并且单数也包括复数,除非它明显是另有含义。
在阅读本公开后,本领域技术人员将理解用于使用成像系统产生具有优化对比度的图像的另外的替代结构和功能设计。因此,虽然已经说明和描述了特定实施例和应用,但应当理解,所描述的主题不限于本文公开的精确构造和部件,并且对于本领域技术人员显而易见的各种修改、改变和变化可以在本文公开的方法和装置的布置、操作和细节中进行。
Claims (20)
1.一种方法,包括:
接收利用成像系统生成用于将第一物体与第二物体比较的图像的指示;
访问用于所述第一物体和所述第二物体的分类矢量,所述分类矢量已经通过将所述第一物体的多个收集的反射率值与所述第二物体的多个收集的反射率值分离而被提取;
从所提取的分类矢量确定要应用于所述成像系统的一个或多个光谱照明源的一组优化的照射强度,所述一个或多个光谱照明源中的每一个配置为利用具有所述一组优化的照明强度的一个或多个光谱带光向所述第一物体和所述第二物体提供照明;
利用具有所述一组优化的照明强度的一个或多个光谱带光照射所述第一物体和所述第二物体;
基于所述一个或多个光谱带光的反射强度,利用所述成像系统生成包括图像像素阵列的图像,其中,根据所述一组优化的照明强度确定图像像素中的每个的强度;以及
利用所述成像系统提供所述图像用于显示。
2.根据权利要求1所述的方法,其中,生成所述图像像素阵列还包括:
对于每个图像像素,检测从所述第一物体或所述第二物体上的对应表区域反射的所述一个或多个光谱带光的反射强度;和
组合所述反射强度以产生图像中的图像像素的强度。
3.根据权利要求1所述的方法,其中,确定所述一组优化的照明强度还包括:
从所述分类矢量识别优化的照明强度的范围;和
在优化的照明强度的范围内确定所述一组优化的照明强度。
4.根据权利要求1所述的方法,其中,所述第一物体和所述第二物体的多个收集的反射率值由支持矢量机(SVM)分类器分离。
5.根据权利要求4所述的方法,其中,所述SVM分类器的权重矢量被提取作为所述分类矢量。
6.根据权利要求1所述的方法,其中,通过聚类算法分离所述第一物体和所述第二物体的多个收集的反射率值,以生成与所述第一物体相关的一群集反射率值和与所述第二物体相关的一群集反射率值。
7.根据权利要求6所述的方法,其中,从与所述第一物体相关的群集指向与所述第二物体相关的群集的矢量被提取作为所述分类矢量。
8.根据权利要求1所述的方法,其中,通过将所述分类矢量的元素按第一常数缩放或者通过将所述分类矢量的元素按第二常数平移来确定所述照明强度。
9.根据权利要求1所述的方法,其中,所述分类矢量通过以下来提取:
收集所述第一物体的一个或多个实例和所述第二物体的一个或多个实例;
利用来自所述一个或多个光谱带光的每个单独的光谱带光照射所述第一物体的实例和所述第二物体的实例;
对于所述第一物体的每个实例和所述第二物体的每个实例,产生与所述一个或多个光谱带光对应的一个或多个映射,每个映射包括基于对应光谱带光的反射强度的像素阵列;
在每个映射中识别与所述第一物体的实例或所述第二物体的实例对应的像素子集;以及
从每个映射中识别的像素子集中提取所述第一物体的多个反射率值和所述第二物体的多个反射率值。
10.根据权利要求9所述的方法,其中,生成所述一个或多个映射还包括:
对于每个像素,检测从所述第一物体的实例或所述第二物体的实例的表面区域反射的对应光谱带光的反射强度;和
产生与检测到的反射强度成比例的映射中的像素的强度。
11.根据权利要求9所述的方法,其中,所述第一物体和所述第二物体的多个反射率值是漫反射率值。
12.一种成像系统,包括:
照明控制器,配置为:
接收比较第一物体和第二物体的指示;
访问用于所述第一物体和所述第二物体的分类矢量,所述分类矢量已经通过将所述第一物体的多个收集的反射率值与所述第二物体的多个收集的反射率值分离而被提取;和
从所提取的分类矢量确定一组优化的照明强度;
一个或多个光谱照明源,配置为:
利用具有所述一组优化的照明强度的一个或多个光谱带光向所述第一物体和所述第二物体提供照明;以及
相机,配置为:
基于所述一个或多个光谱带光的反射强度,生成包括图像像素阵列的图像,其中,根据所述一组优化的照明强度确定每个图像像素的强度;和显示所述图像。
13.根据权利要求12所述的系统,其中,所述相机还配置为:
对于每个图像像素,检测从所述第一物体或所述第二物体上的对应表面区域反射的所述一个或多个光谱带光的反射强度;和
组合所述反射强度以产生图像中的图像像素的强度。
14.根据权利要求12所述的系统,其中,所述第一物体和所述第二物体的多个收集的反射率值由支持矢量机(SVM)分类器分离。
15.根据权利要求14所述的系统,其中,所述分类矢量被提取作为所述SVM分类器的权重矢量。
16.根据权利要求12所述的系统,其中,通过聚类算法分离所述第一物体和所述第二物体的多个收集的反射率值,以生成与所述第一物体相关的一群集反射率值和与所述第二物体相关的一群集反射率值。
17.根据权利要求16所述的系统,其中,从与所述第一物体相关的群集指向与所述第二物体相关的群集的矢量被提取作为所述分类矢量。
18.根据权利要求12所述的系统,其中,所述一个或多个光谱照明源的照射强度中的每个具有与所述分类矢量的每个元素的一一对应。
19.根据权利要求12所述的系统,其中,所述照明控制器还配置为通过将所述分类矢量的元素按第一常数缩放和/或通过将所述分类矢量的元素按第二常数平移来确定所述照明强度。
20.一种方法,包括:
接收利用成像系统将第一物体与第二物体比较的指示;
访问用于所述第一物体和所述第二物体的分类矢量,所述分类矢量已经通过将所述第一物体的多个收集的反射率值与所述第二物体的多个收集的反射率值分离而被提取;
基于所述成像系统的成像装置的光谱响应,从所提取的分类矢量确定要应用于所述成像系统的一个或多个光谱照明源的一组优化的照射强度,所述一个或多个光谱照明源中的每一个配置为利用具有所述一组优化的照明强度的一个或多个光谱带光向所述第一物体和所述第二物体提供照明;以及
向所述成像系统提供所述一组优化的照明强度,用于利用具有所述一组优化的照明强度的一个或多个光谱带光照射所述第一物体和所述第二物体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201662310539P | 2016-03-18 | 2016-03-18 | |
US62/310,539 | 2016-03-18 | ||
PCT/US2017/022724 WO2017161128A1 (en) | 2016-03-18 | 2017-03-16 | OPTICAL IMPLEMENTATION OF MACHINE LEARNING FOR REAL TIME INCREASED CONTRAST VIA MULTIPLE WAVELENGTH lLLUMINATION WITH TUNABLE POWER |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108475336A true CN108475336A (zh) | 2018-08-31 |
Family
ID=58548855
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201780006659.XA Pending CN108475336A (zh) | 2016-03-18 | 2017-03-16 | 采用可调谐功率经由多波长照明的用于实时增强的对比度的机器学习的光学实现 |
Country Status (4)
Country | Link |
---|---|
US (2) | US10445607B2 (zh) |
EP (1) | EP3430569A1 (zh) |
CN (1) | CN108475336A (zh) |
WO (1) | WO2017161128A1 (zh) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3057067B1 (en) * | 2015-02-16 | 2017-08-23 | Thomson Licensing | Device and method for estimating a glossy part of radiation |
US20170099476A1 (en) * | 2015-10-01 | 2017-04-06 | Samsung Electronics Co., Ltd. | Photographing device and method of controlling the same |
CN108475336A (zh) * | 2016-03-18 | 2018-08-31 | 威里利生命科学有限责任公司 | 采用可调谐功率经由多波长照明的用于实时增强的对比度的机器学习的光学实现 |
US10806334B2 (en) * | 2017-02-28 | 2020-10-20 | Verily Life Sciences Llc | System and method for multiclass classification of images using a programmable light source |
WO2019094322A1 (en) * | 2017-11-07 | 2019-05-16 | EyeVerify Inc. | Capturing images under coded illumination patterns to reduce effects of ambient lighting conditions |
CN109655233B (zh) * | 2018-12-18 | 2020-02-07 | 厦门大学 | 一种多路光谱成像显示屏光学检测系统及其检测方法 |
WO2022173517A1 (en) * | 2021-02-09 | 2022-08-18 | Verily Life Sciences Llc | Pulsed light imaging using rolling shutter image sensors |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1309376A (zh) * | 2000-02-15 | 2001-08-22 | 史蒂夫·马格鲁 | 用于读取和校验全息图的方法和设备 |
US20090214114A1 (en) * | 2008-02-19 | 2009-08-27 | Diascan Ab | Pixel classification in image analysis |
CN101990786A (zh) * | 2008-01-17 | 2011-03-23 | 皇家飞利浦电子股份有限公司 | 用于光强度控制的方法和装置 |
CN102890144A (zh) * | 2012-10-22 | 2013-01-23 | 辽宁科技大学 | 煤岩镜质组全反射率非线性优化配煤预测焦炭质量的方法 |
US20150219557A1 (en) * | 2013-07-02 | 2015-08-06 | Canon Kabushiki Kaisha | Material classification |
US20150302269A1 (en) * | 2014-04-17 | 2015-10-22 | Canon Kabushiki Kaisha | Material classification using specular gloss |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5751450A (en) * | 1996-05-22 | 1998-05-12 | Medar, Inc. | Method and system for measuring color difference |
US8379197B2 (en) * | 2006-01-05 | 2013-02-19 | Chemimage Corporation | Spectroscopic systems and methods for classifying and pharmaceutically treating cells |
US7733489B2 (en) * | 2006-09-10 | 2010-06-08 | Fujian Ding | Optical method of multi-band mixing |
US9593982B2 (en) * | 2012-05-21 | 2017-03-14 | Digimarc Corporation | Sensor-synchronized spectrally-structured-light imaging |
US9606056B2 (en) * | 2013-12-06 | 2017-03-28 | Canon Kabushiki Kaisha | Selection of spectral bands or filters for material classification under multiplexed illumination |
US20150012226A1 (en) * | 2013-07-02 | 2015-01-08 | Canon Kabushiki Kaisha | Material classification using brdf slices |
US9274052B2 (en) * | 2013-07-10 | 2016-03-01 | Canon Kabushiki Kaisha | Feature vector for classifying specular objects based on material type |
US9367909B2 (en) * | 2013-07-10 | 2016-06-14 | Canon Kabushiki Kaisha | Devices, systems, and methods for classifying materials based on a bidirectional reflectance distribution function |
US10113910B2 (en) * | 2014-08-26 | 2018-10-30 | Digimarc Corporation | Sensor-synchronized spectrally-structured-light imaging |
US9613300B2 (en) * | 2015-06-17 | 2017-04-04 | Canon Kabushiki Kaisha | Material classification using multiview capture |
CN108475336A (zh) * | 2016-03-18 | 2018-08-31 | 威里利生命科学有限责任公司 | 采用可调谐功率经由多波长照明的用于实时增强的对比度的机器学习的光学实现 |
-
2017
- 2017-03-16 CN CN201780006659.XA patent/CN108475336A/zh active Pending
- 2017-03-16 US US15/460,927 patent/US10445607B2/en active Active
- 2017-03-16 WO PCT/US2017/022724 patent/WO2017161128A1/en active Application Filing
- 2017-03-16 EP EP17717924.9A patent/EP3430569A1/en active Pending
-
2019
- 2019-09-18 US US16/574,676 patent/US10878264B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1309376A (zh) * | 2000-02-15 | 2001-08-22 | 史蒂夫·马格鲁 | 用于读取和校验全息图的方法和设备 |
CN101990786A (zh) * | 2008-01-17 | 2011-03-23 | 皇家飞利浦电子股份有限公司 | 用于光强度控制的方法和装置 |
US20090214114A1 (en) * | 2008-02-19 | 2009-08-27 | Diascan Ab | Pixel classification in image analysis |
CN102890144A (zh) * | 2012-10-22 | 2013-01-23 | 辽宁科技大学 | 煤岩镜质组全反射率非线性优化配煤预测焦炭质量的方法 |
US20150219557A1 (en) * | 2013-07-02 | 2015-08-06 | Canon Kabushiki Kaisha | Material classification |
US20150302269A1 (en) * | 2014-04-17 | 2015-10-22 | Canon Kabushiki Kaisha | Material classification using specular gloss |
Non-Patent Citations (3)
Title |
---|
JINWEI GU ET AL.: "Discriminative illumination: Per-pixel classification of raw materials based on optimal projections of spectral BRDF", 《2012 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》 * |
MARKUS JEHLE ET AL.: "learning of optimal illumination for material classification", 《JOINT PATTERN RECOGNITION SYMPOSIUM》 * |
代作晓等: "GaAs/AIGaAs多量子阱材料差分反射光谱", 《半导体学报》 * |
Also Published As
Publication number | Publication date |
---|---|
US20170270382A1 (en) | 2017-09-21 |
EP3430569A1 (en) | 2019-01-23 |
WO2017161128A1 (en) | 2017-09-21 |
US10878264B2 (en) | 2020-12-29 |
US10445607B2 (en) | 2019-10-15 |
US20200012875A1 (en) | 2020-01-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108475336A (zh) | 采用可调谐功率经由多波长照明的用于实时增强的对比度的机器学习的光学实现 | |
CN110337258B (zh) | 使用可编程光源对图像进行多类分类的系统和方法 | |
US11790523B2 (en) | Autonomous diagnosis of a disorder in a patient from image analysis | |
Geisler | Contributions of ideal observer theory to vision research | |
Ho et al. | Conjoint measurement of gloss and surface texture | |
US10074006B2 (en) | Methods and systems for disease classification | |
Doerschner et al. | Visual motion and the perception of surface material | |
Fowlkes et al. | Local figure–ground cues are valid for natural images | |
Neal et al. | Measuring shape | |
US20060013463A1 (en) | System and method for identifying objects of interest in image data | |
Barata et al. | Improving dermoscopy image analysis using color constancy | |
Bannert et al. | Human V4 activity patterns predict behavioral performance in imagery of object color | |
Chen et al. | Examining palpebral conjunctiva for anemia assessment with image processing methods | |
Marques et al. | On the role of texture and color in the classification of dermoscopy images | |
Bosten et al. | Is there a general trait of susceptibility to simultaneous contrast? | |
Priya et al. | Brain tumor types and grades classification based on statistical feature set using support vector machine | |
Fernandez-Granero et al. | Automatic CDR estimation for early glaucoma diagnosis | |
Dai Pra et al. | Dynamic speckle image segmentation using self-organizing maps | |
Bannert et al. | Invariance of surface color representations across illuminant changes in the human cortex | |
Bochko et al. | Lower extremity ulcer image segmentation of visual and near‐infrared imagery | |
Petrov et al. | Model and human observer reproducibility for detection of microcalcification clusters in digital breast tomosynthesis images of three-dimensionally structured test object | |
Liu et al. | Signal to noise ratio quantifies the contribution of spectral channels to classification of human head and neck tissues ex vivo using deep learning and multispectral imaging | |
WO2020072385A1 (en) | Dynamic illumination to identify tissue type | |
Fu | Using thermographic image analysis in detection of canine anterior cruciate ligament rupture disease | |
Jeanne et al. | Automatic detection of body parts in x-ray images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20180831 |