CN105247847B - 图像处理系统 - Google Patents

图像处理系统 Download PDF

Info

Publication number
CN105247847B
CN105247847B CN201480027438.7A CN201480027438A CN105247847B CN 105247847 B CN105247847 B CN 105247847B CN 201480027438 A CN201480027438 A CN 201480027438A CN 105247847 B CN105247847 B CN 105247847B
Authority
CN
China
Prior art keywords
polarization
image
processing system
brightness
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201480027438.7A
Other languages
English (en)
Other versions
CN105247847A (zh
Inventor
笠原亮介
中村孝郎
中村孝一郎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Publication of CN105247847A publication Critical patent/CN105247847A/zh
Application granted granted Critical
Publication of CN105247847B publication Critical patent/CN105247847B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/94Dynamic range modification of images or parts thereof based on local image properties, e.g. for local contrast enhancement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/147Details of sensors, e.g. sensor lenses
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/71Circuitry for evaluating the brightness variation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/741Circuitry for compensating brightness variation in the scene by increasing the dynamic range of the image compared to the dynamic range of the electronic image sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Vascular Medicine (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

一种图像处理系统,包括亮度偏振叠加单元20。亮度偏振叠加单元20将包含偏振信息的图像IMP的偏振信息叠加到亮度图像上,作为每一像素在亮度方面的改变。图像处理系统具有将由亮度偏振叠加单元通过叠加所获取的图像作为输出图像IMO输出的功能。

Description

图像处理系统
技术领域
本发明涉及图像处理系统,并且尤其涉及一种处理包含偏振信息的图像的图像处理系统。
背景技术
已知偏振信息被用于图像处理(日本特开专利公开No.2011-29903、日本专利No.4563513、日本特开专利公开No.2012-185602、日本特开专利公开No.2002-286862等)。
例如,已知的是,在诸如照相机之类的图像捕获设备中,“被划分成区域的偏振滤波器”被安排在图像捕获单元上,并且由像素获取的光的偏振方向被改变以拍摄图像。
此外,已知一种用于通过将所获取的亮度信息使用为亮度图像以及将所获取的偏振信息使用为颜色信息来输出“图片”的方法。
例如,日本特开专利公开No.2011-29903描述了一种方法,该方法包括通过使用偏振滤波器获取“包含偏振信息的图像”以及通过将偏振信息的法向量当作箭头方向输出图像。
日本特开专利公开No.2011-29903也描述了一种方法,其包括根据偏振角度确定可见光谱以及根据偏振角度“通过颜色编码重构每一像素”。
在日本特开专利公开No.2011-29903中描述的方法中,利用“箭头和颜色”来表示偏振信息。从而,当使用偏振信息时,“对亮度图像使用通用处理”是不可能的。
例如,即使一个人意在使用包括用于“识别路面上的白线”的车载照相机的偏振信息的图像,基于“用于使用亮度识别白线的算法”来执行处理也是不可能的。
换句话说,新开发“用于表示成颜色的偏振信息的白线识别处理”是必需的。
发明内容
技术问题
在上文所描述的环境下,存在提供一种使得通过使用对亮度图像的处理来使用偏振信息成为可能的新颖的图像处理系统的需要。
问题的解决方案
一种根据本发明的图像处理系统,包括:亮度偏振叠加单元,其将包含偏振信息的图像的偏振信息叠加到亮度图像上,作为每一像素的亮度方面的变化。图像处理系统具有将由亮度偏振叠加单元通过叠加所获取的图像作为输出图像输出的功能。
本发明的有益效果
根据实施例的图像处理系统,偏振信息被叠加到亮度图像上作为每一像素的亮度方面的变化,并且作为输出图像输出。
从而,可以在要被输出的输出图像上执行关于亮度图像的通用图像处理。
附图说明
图1是示出图像处理系统的实施例的图;
图2是示出通过对象反射的模型的图;
图3是示出图像处理系统的另一实施例的图;
图4A和图4B是示出要被成像的相同对象的亮度图像和叠加了亮度偏振的图像的示例的视图;
图5A和图5B是示出要被成像的相同对象的亮度图像和叠加了亮度偏振的图像的另一示例的视图;
图6A和图6B是示出要成像的相同对象的亮度图像和叠加了亮度偏振的图像的又一示例的图;
图7是用于获取亮度图像的饱和度的流程图;
图8是示出用于控制车辆的图像处理系统的图;以及
图9是示出图像处理系统的硬件的示例的图。
具体实施方式
下文将描述本发明的实施例。
图1(a)是示出图像处理系统的实施例的概念图。
在图1(a)中,参考标记10指示“图像捕获单元”,参考标记20指示“亮度偏振叠加单元”,以及参考标记30指示“图像处理/图像识别单元”。
在图像捕获单元10、亮度偏振叠加单元20和图像处理/图像识别单元30中,亮度偏振叠加单元20对于本发明的图像处理系统而言是必要的。
换句话说,亮度偏振叠加单元20独自可以构成本发明的图像处理系统。
图像捕获单元10可以和与本发明的图像处理系统相分离的亮度偏振叠加单元20组合,或可以构成该图像处理系统的一部分。
类似地,图像处理/图像识别单元30还可以与本发明的图像处理系统相分离,或可以构成图像处理系统的一部分。
图像捕获单元10捕获“包括偏振信息的图像”到由亮度偏振叠加单元20执行的叠加处理上。图1(a)中的符号IMP指示“包含偏振信息的图像”。
图像IMP在下文被称为“偏振图像IMP”。
图像捕获单元10可以使用独立于图像处理系统所提供的所谓的“偏振照相机”。在该情况下,偏振图像IMP可以被获取为偏振照相机的“被捕获的图像”。
图像捕获单元10的配置示例将参考图1(a)、图1(b)和图1(c)进行描述。
如在图1(a)中所示出的,图像捕获单元10包括成像透镜11、图像捕获单元12、以及光学滤波器13。
图1(c)示出了图像捕获单元12和光学滤波器13在横向上看上去如何。
在图像捕获单元12中,像素被二维地排列在基底ST上。在所描述的示例中,像素根据方形矩阵排列。
在光学滤波器13中,偏振滤波器132被夹在透明基底131和填充层133之间。
图1(c)示出了如同光学滤波器13和图像捕获单元12彼此分离。但是,实际上,光学滤波器13紧密地附接在图像捕获单元12上。
特别地,在偏振滤波器132和图像捕获单元12之间的邻近部分被充当“粘结剂”的填充层133填充。因此,光学滤波器13和图像捕获单元12是集成的。
偏振滤波器132是所谓的“区域划分偏振滤波器”。特别地,各自具有不同的偏振方向的不同类型的偏振滤波器单元是根据图像捕获单元12的像素二维排列的。
在图1(b)中,四个相邻的像素PC1、PC2、PC3和PC4分别与对应的偏振滤波器单元POL1、POL2、POL3、和POL4重叠。
两种类型的偏振滤波器单元用于偏振滤波器132。第一类型的偏振滤波器单元发送P偏振。第二类型的偏振滤波器单元发送S偏振。
两种类型的偏振滤波器单元为矩形。偏振滤波器单元的长度方向与图1(b)中的图像捕获单元12的像素阵列的长度方向(二维行列数组的列方向)对应。
具有矩形的偏振滤波器单元在横向方向上(行方向)交替排列。
如在图1(b)中所示出的,像素PC1和PC2在长度方向上排列。发送S偏振的偏振滤波器单元POL1和POL2在长度方向上排列。从而,该偏振滤波器单元POL1和POL2分别与像素PC1和PC2相对应。
类似地,像素PC3和PC4在长度方向上排列。发送P偏振的偏振滤波器单元POL3和POL4在长度方向上排列。从而,偏振滤波器单元POL3和POL4分别与像素PC3和PC4对应。
由图像捕获单元10捕获的主体的图像在偏振滤波器132上形成。该图像通过每一偏振滤波器以成为P或S偏振,然后其由图像捕获单元12接收。
以此方式,P偏振或S偏振的图像由图像捕获单元12针对每一像素捕获。
从而,所捕获的图像是“包括偏振信息的图像”,并且如图1中所示出的被输出为偏振图像IMP。
作为图像上的信息,偏振图像IMP包括“亮度图像和偏振信息”。
偏振图像IMP被输入到亮度偏振叠加单元20。
亮度偏振叠加单元20在物理上包括CPU和微计算机。通过基于稍后描述的算法的程序计算,亮度图像和偏振信息被叠加。
如已经被描述的,作为图像上的信息,偏振图像IMP包括“亮度图像和偏振信息”,并且从偏振图像IMP提取“亮度图像”和“偏振信息”。
从而所提取的偏振信息被叠加在亮度图像上。特别地,偏振图像IMP的偏振信息被“叠加在亮度图像上,作为每一像素的亮度中的变化”。
亮度图像和偏振信息以此方式进行叠加,且然后作为在图1(a)中示出的输出图像IMO被输出。
通过叠加亮度图像和偏振信息获取的图像被称为“叠加了亮度偏振的图像”。
对于输出图像IMO,诸如“对LDW和AHB的处理”之类的“现有技术中的通用亮度图像处理”对于安装在车辆上是可能的。
如上文所描述的,相关技术的亮度图像处理可以在输出图像IMO上执行。在图1(a)的示例中,输出图像IMO被输入到图像处理/图像识别单元30。
当接收输出图像IMO的输入,图像处理/图像识别单元30执行期望的图像处理和图像识别处理。
例如,如果在图1(a)中所示出的图像处理系统被安装“用于车辆控制的目的”,则图像处理/图像识别单元30执行例如提取所识别的对象的处理。
已经接收了上文处理的结果的车辆控制单元执行诸如辅助车辆的刹车和方向盘操作之类的车辆控制。
可以通过“相关技术的亮度图像处理”来处理输出图像IMO。从而,无需“针对偏振图像新开发图像处理或图像识别处理”。
通过使用图1中的图像处理系统,可以改进识别率且可以减小错误检测。
针对图像捕获单元10稍微地进行了另外的描述。图1中示出的图像捕获单元10包括偏振滤波器132。
偏振滤波器132是通过二维排列“发送P偏振的偏振滤波器单元和发送S偏振的偏振滤波器单元”获取的“区域划分偏振滤波器”。
“图像捕获单元”不限于具有上文所描述的结构的图像捕获单元。
例如,图像捕获单元可以具有在日本专利申请特开No.2011-29903中描述的结构,其中“在成像透镜前提供通过组合多个偏振方向的偏振器获取的偏振器板,且当偏振器板被旋转的同时捕获图像”。
可供替换地,“发送S偏振的偏振滤波器”可以与两个成像捕获照相机中的一个组合,且“发送P偏振的偏振滤波器”可以与其他的图像捕获照相机组合。
特别地,照相机中的一个捕获“包含S偏振信息的图像信息”且另一照相机捕获“包括P偏振信息的图像信息”。然后,每一照相机的图像信息被组合成获取偏振图像。
如已经描述的,对于通过各种图像捕获单元获取的“偏振图像”,如在本发明中通过“将偏振信息叠加在亮度图像上”来执行图像处理是可能的。
要注意的是,上文所描述的偏振滤波器132可以具有例如“子波长结构(SWS)”。
在上文的示例中,“黑白图像传感器”被假定为图像捕获单元12。可供替换地,也可以采用彩色图像传感器。
在利用偏振滤波器132形成的图像捕获单元12的区域中,区域P和S的P和S的偏振图像分别成像。
如稍后所描述的,P和S的偏振图像用于将各种类型的信息检测为“包括偏振信息和亮度图像的图像”。
下文将描述偏振信息的基础及其叠加在亮度图像上。
利用双向反射分别函数(在下文中称为“BRDF”)表示对象表面的反射属性。
对象表面上“某一点处的BRDF”取决于入射方向和反射方向两者,且其被定义为在观察方向上反射的光强度与来自照明方向的入射光的强度的比率。
已经提出了描述“偏振现象”的各种反射模型。
“托伦斯麻雀(Torrance Sparrow)模型”用作镜面反射组件且“朗伯模型”用作下文的漫反射组件。
图2示出了利用对象OB的反射模型。在图2中,“N”在对象OB的反射位置处指示“外法向量”。
“L”指示了去往来自反射位置的光源的向量且被称为“光源向量”。“V”指示了去往来自反射位置的观察位置的向量且被称为“视觉方向向量”。
“H”指示了将在光源向量“L”与视觉方向向量“V”之间形成的角度二等分的方向的向量。这样的向量简单地被称为“二等分方向向量”。
向量N、L、V和H中的每一个位于“相同的平面”上。
在相同的平面上,角度ψ、θL、α、θi以及θ如图2中所示出的被定义。
对象OB的“S偏振BRDF:ρs(ψ,θ)”按如下给出。
ρS(ψ,θ)=kSRSi)D+kdcosθL (A)
类似地,“P偏振BRDF:ρP(ψ,θ)”按如下给出。
ρP(ψ,θ)=kPRPi)D+kdcosθL (B)
在公式(A)和(B)右侧的第一项是镜面反射模型项(特伦斯麻雀模型)且右侧的第二项是漫反射模型项(雷伯特模型)。
在公式(A)和(B)中,“ks”指示S偏振的镜面反射系数,“kP”指示P偏振的镜面反射系数,且“kd”指示漫反射系数。
“Rsi)和RPi)”是分别相对于S偏振和P偏振的“菲涅尔反射率”,且其由以下公式给出。
RSi)
={(n1cosθi-n2cosθi’)/(n1cosθi+n2cosθi’)}2
RPi)
={(n1cosθi’-n2cosθi)/(n1cosθi’+n2cosθi)}2
其中,n1和n2分别是空气和对象OB的折射指数。
角度θi’与角度θi和折射指数n1和n2具有以下的关系。
sinθi’=(n1/n2)sinθi
从而,应用θi’=arcsin{(n1/n2)sinθi}。
利用菲涅尔反射率的项,偏振依赖性被反射为反射模型的行为。
上面公式(A)和(B)中的“D”是在反射位置处的小区域的“正常分布项”。
正常分布项D被表示为如下。
D=exp(-α2/2a2)
其中,“α”是分布函数的中心坐标值且与图2中的角度参数“α”相对应。此外,“α”是分布函数中的标准偏差。
要注意的是,“α”是小区域的“关于角度分布的参数”。正常的分布项D是表示正常分布的高斯分布。
接下来,将描述叠加在亮度图像上的偏振信息。可以考虑各种类型的偏振信息。在下文中,将描述以下三种类型的偏振信息。
特别地,三种类型的偏振信息是“偏振角度”、“差分偏振”、以及“偏振比”。
“偏振角度”是通过使用与偏振现象相关的公知的斯托参数S0、S1、S2和S3定义的量,且在下文中,偏振角度被称为“DOP”。
DOP是由使用斯托参数S0到S3的以下公式定义的。
DOP={√(S1 2+S2 2+S3 2)}/S0
“差分偏振(Sub-DOP)的角度”是如下使用斯托参数S0和S1定义的量。在下文中,Sub-DOP被称为“SDOP”。
SDOP=S1/S0={I(0,φ)-I(90,φ)}/{I(0,φ)+I(90,φ)}
其中I(0,φ)是在0度轴向角下“穿过偏振滤波器的光强度”,且I(90,φ)是在90度轴向角下穿过偏振滤波器的光强度。
在上文描述的“区域划分偏振滤波器”的示例中,I(0,φ)是已经接收了已经穿过S组件的光的像素的光接收强度。
类似地,I(90,φ)是已经接收了已经穿过P组件的光的像素的光接收强度。
在斯托克斯参数S2=S3=0的情况下,适用以下关系。
DOP=|SDOP|
从而,在该情况下,SDOP也被称为“偏振角度”。
“偏振比”是在上文的I(0,φ)和I(90,φ)之间的比率,且如下文定义。
偏振比=I(0,φ)/I(90,φ)
如上文所描述的,偏振比是“在I(0,φ)和I(90,φ)之间的比率”。从而,偏振比可以被表示成如下所述而不是上文的。
偏振比=I(90,φ)/I(0,φ)
然后,上文定义的三种类型的偏振信息,即DOP、SDOP、以及任何的偏振比被叠加在亮度图像上。因此,可以获取上文描述的输出图像IMO。
可以如下文所述的获取“亮度图像”。
在上文描述的实施例中,在图像捕获单元10处的偏振滤波器132是“区域划分偏振滤波器”。
即,通过在二维排列发送P偏振的偏振滤波器单元和发送S偏振的偏振滤波器单元获取偏振滤波器132。
在本文中,通过二维坐标(x,y)来表示图像捕获单元12的图像捕获区域,且由像素在位置(x,y)处接收的S偏振和P偏振的各强度被表示为“IS(x,y),IP(x,y)”。
如果使用该强度,则可以通过以下公式(C)来表示亮度图像Ibright(x,y)以便于理解。
Ibright(x,y)={IS(x,y)+IP(x,y)}/2 (C)
假定由符号[SPI]表示“叠加的计算”,亮度图像和偏振信息的叠加可以表示成如下。
Ibright(x,y)[SPI](偏振信息)
作为偏振信息,可以使用上文描述的“DOP、SDOP、以及偏振比”中的任何一个。
可以考虑各种类型的叠加计算,其中简单计算是以下两种类型。
特别地,两种类型中的一个是由“线性和”执行的方法,且其被表示成如下。
Ibright(x,y)[SPI](偏振信息)=Ibright(x,y)+{K×(偏振信息)}
另一种类型是由“乘积”执行的方法且其表示成如下。
Ibright(x,y)[SPI](偏振信息)=Ibright(x,y)×{K×(偏振信息)}
要注意的是,偏振信息作为在每一像素的亮度方面的改变被“叠加在亮度图像上”。
从而,在叠加计算的每一公式的右侧,被加的或被乘的像素具有相等的坐标(x,y)。
在上文的叠加公式中,在右侧的“K”是表示叠加度的常数,且其可以根据特定的叠加条件被适当地设置。
图1中示出的图像处理系统的实施例被配置成如下所述。
特别地,图像处理系统包括将在图像IMP中包含的偏振信息作为在每一像素的亮度方面的变化叠加在亮度图像上的亮度偏振叠加单元20。
此外,图像处理系统具有输出由亮度偏振叠加单元20通过叠加获取的输出图像IMO的功能。
图1中示出的图像处理系统包括图像捕获单元10。图像捕获单元10捕获包含偏振信息的图像IMP且其将受到由亮度偏振叠加单元20进行的叠加处理。
亮度偏振叠加单元20叠加偏振信息和亮度图像。该叠加可以被执行为线性和或乘。
被叠加的偏振信息可以是偏振度(DOP)、差分偏振度(SDOP)、或“偏振比”。
图像处理系统可以包括在叠加到亮度图像上之前将噪声从偏振信息移除的噪声减小单元。
利用上文描述的反射模型,反射光的偏振可以由诸如对象OB的材质之类的变量表示(折射指数、表面条件、以及内部散射系数)、在光源和对象之间形成的角度、以及在对象和观察点之间形成的角度。
换句话说,上文描述的偏振可以由以下公式(D)表示。
偏振=F(光源的条件、材质、以及角度) (D)
其中F指示功能。
在该公式中,每一变量为如下所述。
光源的条件=角度分布ψ
材质=ks、kP、kd、n2
角度=θ
公式(D)将左侧的“偏振信息”与右侧的“光源材料、材质、和角度”关联。
从而,在右侧的“光源、材质、和角度”之间,如果确定了任何两个单元,则剩余的一个单元被确定。
根据上文通过参考图1进行的描述,假定“光源是不变的”。
从而,上文描述的实施例对于叠加通过在“照明是不变的房间”中捕获图像获取的偏振图像是有效的。
在上文描述的反射模型处,表示在对象OB的表面处的“通过常规反射的镜面光”的项(Rs和RP项)是表明偏振特征的重要量。
如果要观察的对象OB与图像捕获单元10和与光源形成相同的角度,则镜面光很难返回。因此,“可能未获取偏振信息”。
当光源无法控制时,这样的困难存在。从而,如果图像处理系统要被应用于诸如在其中光源无法被固定的车载之类的情况下,则下文的考虑是必需的。
偏振位于如公式(D)中所指示的关系中。从而,利用不能投射光照的车载照相机,“偏振图像中包含的偏振信息根据光源的条件改变。”
例如,即使当“由各种材料形成的路面和白线”被区分时,偏振信息(例如,SDOP)也根据光源的条件改变。
虽然偏振信息也根据角度改变,但是如果“图像捕获单元被固定在车辆的预定位置且路面上具有相同角度的对象”被成像,则可以忽略由角度导致的偏振信息的改变。
当使用通过将亮度图像叠加到偏振信息上获取的输出图像IMO“识别对象”时,使用某一种表明该对象的特征的“特征量”识别该对象是必需的。
在该情况下,如果对象自身的偏振被认为是特征量,则该特征量“被光源的条件影响”。
在这样的情况下,采用不取决于光源条件的、利用偏振的特征量是必需的。
根据上文描述的公式(A)和(B),S偏振和P偏振的反射强度幅度根据光源的高度改变(通过图2中的角度ψ和角度θL来确定)。
要注意的是P偏振的反射强度的幅度总是被S偏振的反射强度更大。
此外,表面反射越大(换句话说,内部散射越小),则在S偏振和P偏振之间的“反射强度方面的差”越大。
当图像处理系统被实际安装在车辆上时,要考虑的是“在利用直射光捕获图像的情况下,几乎要成像的所有对象接收直射光照射”。
相反地,要考虑的是,“在利用背光捕获图像的情况下,几乎要成像的所有对象接收背光照射”。
鉴于上述事实,要考虑的是,当各种对象被成像时,诸如上文描述的SDOP(差分偏振度)之类的偏振信息通常受到“在直射光与背光之间的值的偏差”。
考虑到这样的情况,可以优选地给予下文所描述的政策选择“特征量”。
(1)通过将“诸如整个屏幕中的SDOP之类的偏振信息中的偏移”移除粗略地撤销了诸如直射光和背光之类的光源的条件的影响。
“偏移”是由偏振信息中的“直射光和背光之间导致的值的偏移”。
(2)在直射光状态下,换句话说,在图像捕获单元与对象之间形成的角度和在光源与对象之间形成的角度类似的情况下,最初地,“偏振信息变小”。
从而,在这样的情况下,估计“不存在偏振信息”。仅当偏振信息可获取时,才将偏振信息添加到特征量。
因此,当偏振信息可获取时,叠加偏振信息使得“与使用正常亮度图像的情况下相比更有利地识别图像成为可能”。
(3)根据上文描述的公式(A)和(B),在通过直射光捕获图像时,I(0,φ)等于I(90,φ),且从而,“SDOP=0”应该适用。但是,根据实际测量结果,SDOP不为零。
SDOP也根据反射对象的材质而不同。
鉴于该事实,使得可以在直射光的情况和背光的情况之间调整“允许SDOP向特征量贡献的系数”。
对于“确定直射光还是与直射光不同的光”,可以使用整个屏幕的SDOP(偏振度)。
(4)“特征量与亮度接近”,使得可以采用使用正常亮度信息的算法。
大约说来,作为偏振度,“仅相对量”而不是绝对量被考虑。
不根据光源的条件,而是根据使用条件将“关于对象的表面反射的幅度信息(散射幅度)”添加到亮度信息,以从而获取特征量。
SDOP(偏振度)根据光源的角度ψ而变化地很大。
但是,针对图2中的角度θi和θL,当以特定角度θi1和θL1观看时,在材质A和材质B之间的SDOP的幅度关系可以是A>B。在该情况下,即使当以角度θi2和θL2观看时,SDOP的幅度关系经常是A>B。
下文将描述一种情况,在该情况下“当以特定角度观看,如果在材质A和材质B之间的SDOP的关系是A>B”,则当以其他角度观看时,SDOP的幅度关系也是A>B。
表示材质的参数的示例包括上文描述的kp、ks、kd和a。
从而,导出了以下的条件:当参数改变时,SDOP的值改变的方向(即,增加或减小该值)不取决于该角度。
如已经描述的,“SDOP”可以表示成如下所述。
SDOP=S1/S0={I(0,φ)-I(90,φ)}/{I(0,φ)+I(90,φ)}
如果通过使用上文描述的n1、n2、θi、θi’、θL、Ks、Kd、α和a来表示该公式,则该公式为如下所述。
SDOP
=[ks{(n1cosθi-n2cosθi’)/(n1cosθi-n2cosθi’)}exp{(-α2)/2a2}+kdcosθL
-ks{(n1cosθi-n2cosθi’)/(n1cosθi+n2cosθi’)}exp{(-α2)/2a2}-kdcosθL]
/[ks{(n1cosθi-n2cosθi’)/(n1cosθi-n2cosθi’)}exp{(-α2)/2a2}+kdcosθL
+ks{(n1cosθi-n2cosθi’)/(n1cosθi+n2cosθi’)}exp{(-α2)/2a2}-kdcosθL]
(4-1)
为了描述的简化,忽略“几何阻尼项”。
接下来,在光束“入射通过空气”的假设之下,在上文描述的菲涅耳反射率中:
RSi)={(n1cosθi-n2cosθi’)/(n1cosθi+n2cosθi’)}2
RPi)={(n1cosθi’-n2cosθi)/(n1cosθi’+n2cosθi)}2,
满足n1=1。此时对于菲涅耳反射率的Rs,“Rs(n2)”适用,且对于Rp,“Rp(n2)”适用。
然后,以上为如下所述。
RS(n2)
={(cosθi-n2cosθi’)/(cosθi+n2cosθi’)}2
RP(n2)
={(cosθi’-n2cosθi)/(cosθi’+n2cosθi)}2
使用Rs(n2)和Rp(n2),上文的(4-1)公式变成以下所述。
SDOP
=[ks·exp{(-α2)/2a2}·{RS(n2)-RP(n2)}
/[ks·exp{(-α2)/2a2}·{RS(n2)+RP(n2)}+2kdcosθL]
(4-2)
公式(4-2)是上文描述的模型处的“SDOP的理论公式”。
在本文中,引入了指示“镜面反射组件和散射组件之间的比率”的参数k=ks/kd。使用参数k,公式(4-2)变成以下所述。
SDOP
=[k·exp{(-α2)/2a2}·{RS(n2)-RP(n2)}
/[k·exp{(-α2)/2a2}·{RS(n2)+RP(n2)}+2cosθL]
(4-3)
公式(4-3)包括k、n2、和a作为与反射对象的材质关联的参数。观察由参数的变化所导致的SDOP的改变。
为了该目的,首先,公式(4-3)通过参数k偏微分。
此外,要注意的是,描述中的参数k与后面描述的“偏振信息叠加系数k”不同。
为了简化,引入了以下的符号。
f1=exp{(-α2)/2a2}·{RS(n2)-RP(n2)}
g1=2cosθL
h1=exp{(-α2)/2a2}·{RS(n2)+RP(n2)}
使用符号,公式(4-3)变为以下所述。
SDOP
=k·f1/[k·h1+g1]
从而,以下内容适用。通过SDOP的k偏微分:
角度θL在-2/π≤θL≤2/π的范围内。从而,上文的f1、g1、和h1中的任何一个仅可以采用θL波动范围中的正值。
从而,公式(4-4)变成
接下来,SDOP被参数a偏微分。
为了简化该公式,也将以下符号引入该公式中。
f2=k{RS(n2)-RP(n2)}
g2=k{RS(n2)+RP(n2)}
h2=2cosθL
然后,以下适用:
也是在该情况下,f2、g2和h2仅采用正值。此外,“a”是分布函数中的标准偏差,且从而是正值。
因此,公式(4-5)的右侧总是正值。
类似地,SDOP被参数a偏微分。
也在该情况下,为了简化该公式,引入以下符号。
f3=k·exp{(-α2)/2a2}
g3=2cosθL
然后,以下适用:
考虑G3/f3>>2Rp(n2)和G3/f3>>2Rs(n2)的情况,公式(4-6)的分子变成如下所述:
此外,认为在和之间,以下关系适用:
从而,当G3/f3>>2RP(n2)和G3/f3>>2RS(n2)适用时,总是变成正值。
在本文中,g3/f3=2cosθL/k·exp{(-α2)/2a2}=2kdcosθL/kS·exp{(-α2)/2a2}适用。分子指示了“漫反射组件”且分母指示了镜面组件(包括微元的分布)。
此外,考虑到RP(n2)≤1且RS(n2)≤1,且当散射组件相对于镜面组件具有特定量或更多时,两者都近似。
换句话说,适用。
换句话说,当散射组件相对于镜面组件具有一定量或更多时,对于参数k、a和n2的变化,SDOP的偏微分系数是正值。
从而,对于参数k、a和n2的变化,SDOP的变化是单调的且不依赖于角度θi和θL
一般而言,在“具有表面而不是镜面”的对象中,“散射组件相对于镜面组件较大”,且存在满足上面条件的许多这样的对象。
从而,如果当以某一角度θi1和θL1观察时,材质A和材质B之间的SDOP的大小关系是A>B,则SDOP的大小关系总是A>B,即使以其它的角度θi2和θL2观察时。
SDOP很大度上依赖于要成像的对象的材质kd和“kd的大小”。
例如,在利用材质A的SDOP作为参考对0进行偏移之后,材质B的SDOP变成正值还是负值经常不取决于光源的角度。
鉴于此,通过移除整个屏幕的SDOP的偏移,在不依赖于光源的情况下,“仅针对每一材质的相对关系”可以被获取。
通过公式(A)和(B),根据反射模型,图像捕获条件离直射光越近,SDOP越接近于零。
从而,如果SDOP用作偏振信息,则光源条件离直射光越近,则在理论上SDOP越小。因此,不再存在“对偏振的特征量做出贡献”。
但是,根据实际的实验结果,SDOP的值即使在直射光中也根据材质变化。
SDOP的值的浮动的大小关系在直射光中与“在背光中的大小关系”不同。从而,在直射光中,检测到该浮动,并且使得允许偏振信息对特征量做出贡献的系数可变。
此外,“SDOP根据光源角度ψ改变的趋势”即使在要成像的对象的材质不同时也是相似的。
然后,基于整个图像捕获屏幕“从相同的角度接收光源光”的假设,使用整个屏幕的SDOP的值来确定直射光适用还是背光适用。
考虑到上述政策,按照如下所述的确定用于图像识别的“特征量”。
亮度图像Ibright(x,y)由包括参考图1所描述的偏振滤波器13的图像捕获单元10获取。亮度图像通过上文描述的公式(C)表示。
亮度图像Ibright(x,y)的“S偏振亮度图像Is(x,y)”以及“P偏振亮度图像Ip(x,y)”为如上文所描述的。
首先,偏振信息被添加到其上的特征量Ibright_por(x,y)(输出图像)被确定为下文的“算术公式1”。
在算术公式1中,“SDOP(x,y)”由下一个公式定义。
SDOP(x,y)={IS(x,y)-IP(x,y)}/{IS(x,y)+IP(x,y)}
图3示出了当在该情况下执行信息处理时,亮度偏振叠加单元20的配置示例。
要注意的是,为了简化,如在图1中的参考标记20被给予到亮度偏振叠加单元。
从图像捕获单元(未示出;类似于图1中的图像捕获单元10)获取的偏振图像IMP被输入到亮度偏振叠加单元20的分离单元21。
分离单元21将输入偏振图像IMP分成亮度图像和偏振信息。
亮度图像是由上文描述的公式(C)所表示的图像信息且其被输入到叠加单元23。
在另一方面,由分离单元21分离的偏振信息是上文描述的“DOP、SDOP和偏振比”中的任何一个。在此,假设偏振信息是“SDOP”。
“SDOP”,其为偏振信息,其被输入到偏移移除单元22,且同时,被输入到直射光/背光确定单元24。
稍后将描述“直射光/背光确定单元24”的功能。
对于输入偏振信息(SDOP),偏移移除单元22执行对上文“算术公式1”的右侧第二项的“括号中的第二项”的计算。
从输入偏振信息(SDOP)中减去计算结果。
算术公式1的右侧的“括号中的第二项”给出了由图像中的X、Y确定的“特定区域范围”内的“SDOP的平均值”。
任何选择方法适用于由X、Y确定的“区域范围”。
在所描述的示例中,如上文所描述的,“使用整个屏幕消除了光源条件的影响”。
由X、Y确定的图像区域与通过“从整个屏幕移除天空区域”获取的区域相对应。
如上文的针对这样的图像区域计算的SDOP的平均值是“偏移”且偏移移除单元22减去该偏移。
“从而通过移除偏移获取的偏移信息”被输入到要利用亮度图像叠加的叠加单元23。要注意的是,有时“亮度图像”在下文被称为“亮度信息”。
如在算术公式1的右侧中所示出的,通过采用通过移除偏移所获取的“算术公式1的右侧的括号中的量”的线性和来对亮度图像Ibright(x,y)执行该叠加。
此时,在算术公式1的右侧上的第二项的括号之前的系数k乘以要加的“括号中的量”。系数k被称为“偏振信息叠加系数”。
根据照射时“直射光”还是“与直射光不同的光”将偏振信息叠加系数k确定为算术公式2和算术公式3。
k=k1如果 (当光是不同于直射光的光时) (2)
k=k2如果 (当光是直射光时) (3)
直射光/背光确定单元24计算以确定算术公式2和算术公式3的“k值”。直射光/背光确定单元24是“直射光/背光确定单元”。
在此,k1和k2是“偏振信息叠加系数”。
“TH”是“阈值”且被设置成使得“可以识别直射光”。
如上文所描述的,根据利用公式(A)和(B)的反射模型理论,图像捕获条件离直射光越近,SDOP离零越近。
从而,图像捕获条件离直射光越近,偏移量越小,该偏移量是“预定图像区域中的SDOP的平均值”。
然后,确定了阈值TH和偏移量之间的大小关系。如果偏移量小于阈值TH,则确定光源条件(图像捕获条件)是直射光。
相反地,如果偏移量大于阈值TH,则确定光源条件是诸如背光之类的“非直射光”。
换句话说,当上文描述的“偏移”小于阈值TH时,直射光/背光确定单元24确定光源条件是直射光并设置偏振信息叠加系数k到k2
相反地,当上文描述的“偏移”大于阈值TH时,直射光/背光确定单元24确定光源条件不是直射光并设置偏振信息叠加系数k到k1
计算偏移中的平均值计算针对“X、Y的图像区域”进行。图像区域可以是包括天空区域的整个屏幕。
但是,在天空中,“偏振状态根据太阳的位置而不同”。从而,为了获取更好的结果优选的移除天空区域。
例如,如果图像处理系统用于检测道路的“道路表面上的白线”的目的,则当光是不同于直射光的光时,白线的表面反射小于路面的镜面反射且白线的SDOP变得更小。
在这种情况下,从而,通过设置“偏振信息叠加系数k1为负值”,在白线和沥青(其亮度低于白线的亮度)之间的亮度差可以“更被强调”。
当光是直射光时,“在白线和沥青之间的SDOP关系”被反转。从而,理想的是“偏振信息叠加系数k2为正值或零”。
如果k2被设置为零,则“不执行偏置信息的叠加”。
在上文中,SDOP被用作偏振信息。不用说,可以使用上文描述的DOP和偏振比而不是在算术公式1到算术公式3中的“SDOP”。
为了获取偏振信息,使用“减法和除法”。从而,容易放大噪声。
从而,优选地对指示所获取的“诸如SDOP之类的偏振信息”的图像执行诸如加权平均以及中值滤波器或“ε滤波器”之类的噪声减少处理。
例如,所获取的偏振图像可以具有“饱和区域”。
在要接收的光的量超过一定级别之后,即使光的量增加超过该点,有图像捕获单元的每一像素输出的输出值是常数且不改变。
因此,如果Is(x,y)和Ip(x,y)是“可表示的最大值或更大,或可表示的最小值或更小”,则无法通过计算获取正确的偏振信息。
在这样的情况下,因为计算是不可能的,所以优选地将偏振信息叠加系数k的值设置成零或“输出预定的常数”,以避免“叠加到该区域上”。
要注意的是,在图3中的实施例中,可以省略直射光/背光确定单元24且要乘以算术公式1的右侧的扩号的偏振信息叠加系数k可以是固定的。
该情况的实施例(图像处理系统)包括将图像IMP中包含的偏振信息叠加到亮度图像作为每一像素的亮度方面的改变的亮度偏振叠加单元20。
此外,图像处理系统具有将由亮度偏振叠加单元叠加作为输出图像IMO的叠加获取的图像输出的功能。
关于在图像上作为偏移量的预定范围内的图像IMP的偏振信息的平均值,亮度偏振叠加单元20将该值从偏振信息中减去。
因此,可以获取从其处已经移除偏移的输出图像IMO。
根据图像处理系统的该实施例,诸如直射光和背光之类的光源条件的影响可以通过“移除整个屏幕的偏振信息的偏移”大致消除。
从而,可以在有效减少光源依赖属性的情况下使用偏振信息。
根据上文描述的实施例,偏移移除单元22将包含偏振信息的图像的差分偏振度(SDOP)当作偏振信息,并基于算术公式1到算术公式3的计算执行图像处理。
但是,如上文所描述的,作为用于计算偏移量的偏振信息,也可以在没有对差分偏振度限制的情况下使用偏振度(DOP)和“偏振比”。
当针对其计算图像的偏振信息的平均值的“预定范围”时,偏移移除单元22采用通过从图像的整个区域移除天空区域获取的区域。
但是,在不被上文限制的情况下,“预定的访问”可以是“包括偏振信息的图像的整个区域”。
上文已经描述了图像处理系统的实施例,且图像处理系统包括直射光/背光确定单元24作为“直射光/背光确定单元”。
直射光/背光确定单元24使用图像的偏振信息来确定图像捕获条件是直射光还是背光。
根据上文描述的实施例,直射光/背光确定单元24使用差分偏振度(SDOP)的平均值来确定图像捕获条件是直射光还是背光。
但是,在不被上文限制的情况下,图像捕获条件是直射光还是背光可以通过使用偏振度(DOP)的平均值或偏振比的平均值来确定。
在确定图像捕获条件是直射光时,直射光/背光确定单元24改变亮度图像上的偏振信息的叠加量(k)。
在该情况下,在确定图像捕获条件是直射光时,直射光/背光确定单元24可以将亮度图像上的偏振信息的叠加量改变成零。
如上文所描述的,优选地执行每一计算作为对偏振图像执行噪声减少处理的结果。
下文将描述特定的示例。
“特定示例1”
图4A和图4B示出了亮度图像Ibright(x,y)和亮度偏振叠加的图像Ibright_por(x,y)。
通过使用算术公式1计算的图像、以及用于计算偏振信息叠加系数k的算术公式2和算术公式3中的阈值TH是“TH=-∞”。
关于通过算术公式2和算术公式3计算的系数k1和k2中的每一个,满足k1=-300且k2=0。
换句话说,通过设置阈值TH为-∞,偏振信息(SDOP)的平均值超过阈值且消隐阈值TH的平均值不存在。
从而,k2=0适用。
换句话说,在特定的示例1中,未确定图像捕获条件是“直射光还是与直射光不同的光”。
图4B示出了此时的亮度图像Ibright(x,y)。图4A示出了亮度偏振叠加的图像Ibright_por(x,y)。
在计算亮度偏振叠加的图像Ibright_por(x,y)中,未确定光是“直射光还是与直射光不同的光”,且系数k1(不直射光不同的光)和系数k2(光是直射光)中的每一个都是常数。
如上文所描述的,k1=-300且k2=0适用。从而,偏振信息叠加系数k被当作是算术公式1中的k1,且总是相同量的偏振度(SDOP)被叠加到亮度图像上。
在图4B的亮度图像Ibright(x,y)中,未看见路面上的“白线”。
但是,在图4A中示出的亮度偏振叠加的图像Ibright_por(x,y)中,“白线”被清楚地看见且其可以在图像中被识别。
此外,在肩部的“沥青和白雪之间的边界”也可以被清楚识别。
如在图4A中所示出的,通过将偏振信息叠加到亮度图像上,道路终点的对比度与阴影部分的对比度被改进且湿路面的不必要的反射被移除。
此外,还检测到“诸如用裸眼不可见的黑冰之类的对象”。
从而,与利用通用图像捕获设备相比,该系统可以处理更乱的情况。
可以在不改变相关技术的“针对亮度图像的算法”的情况下,使用针对输出亮度偏振叠加的图像的“诸如白线识别之类的算法的后续阶段”。
在上文的示例中,作为“偏振信息和亮度图像的线性和(算术公式1)”,生成了亮度偏振叠加的图像。但是,还存在一种将亮度偏振叠加的图像生成为“偏振信息和亮度图像的乘积”的方法。
作为该情况的一个示例,例如,如果上文描述的SDOP(x,y)被用作偏振信息,则叠加计算变成以下的算术公式4。
然后,获取了偏振亮度叠加的图像Ibright_por(x,y),其为偏振叠加到其的特征量(图像)。
换句话说,算术公式4的右侧的括号中的量被认为是“偏振信息”。使用亮度偏振叠加系数k,这样的偏振信息被叠加到亮度图像Ibright(x,y)上。
针对每一像素执行计算,且利用SDOP(x,y)和Ibright(x,y)的“相同坐标的像素”执行乘积。
如下文所描述的,在利用X,Y的图像区域中,由于针对亮度偏振叠加系数k设置“偏振比的平均值,所以阈值TH可以在光是直射光和光是不同意直射光的光时区分开”。
使用该阈值,根据下文的算术公式5和算术公式6来设置k。
k=k1如果 (当光是不同于直射光的光时) (5)
k=k2如果 (当光是直射光时) (6)
在该示例中,基于“偏振比的平均值”而不是SDOP来确定光是直射光还是“与直射光不同的光(例如背光)”。
针对图像捕获条件,在白天和夜晚之间“光源条件”不同。
换句话说,白天处于太阳光束照射状态下,夜晚处于由车辆的头灯和街灯的照射状态下。
鉴于此,优选的是,亮度偏振叠加系数k1和k2的值在白天和夜晚”之间改变。
可以从头等的开关的打开/关闭信息确定白天和夜晚,当进行自动曝光控制时,通过基于曝光量检测周围亮度。
此外,根据诸如“在直射日光下或多云”之类的天气条件,在k1和k2值之间切换可以产生更好的效果。
在直射日光的情况下,目标的照射强度较高。从而,在进行自动暴露控制时,可以基于来自曝光量的检测确定“照射是在直射日光还是多云情况下”。
根据参考图3和图4描述的实施例,图像处理系统包括图像捕获单元(图3中未示出)。图像捕获单元捕获包括偏振信息的图像,由亮度偏振叠加单元20执行到其的叠加处理。
此外,图像处理系统包括光源条件确定单元24。光源条件确定单元24“通过假设光源条件来确定”。
亮度偏振叠加单元20改变一种根据光源信息确定单元24的输出将偏振信息叠加到亮度图像上的方法。
此外,图像处理系统可以包括“白天/夜晚确定单元”。白天/夜晚确定单元通过假定图像捕获单元的图像捕获时间是白天还是夜晚来进行确定。
亮度偏振叠加单元可以改变一种根据白天/夜晚确定单元将偏振信息叠加在亮度图像上的方法。
白天/夜晚确定单元可以使用用于获取“头灯切换的开/关信息”的单元,以及当进行自动曝光控制时,用于基于曝光量检测周围亮度的单元。
此外,可以根据诸如在直射日光之下还是多云之类的天线来切换亮度偏振叠加系数k1和k2,以从而改变叠加方法。
在该情况下,“光源信息确定单元”可以基于在自动曝光控制下来自曝光量的检测进行确定。
根据图3和图4中示出的实施例,图像处理系统包括偏移移除单元22作为“偏振信息偏移移除单元”。
该偏移通过将包含偏振信息的图像的“预定范围内的偏振信息的平均值”从偏振信息中减去来移除。
“偏移已经从其中移除的偏振信息”被叠加在亮度图像上。
偏振信息偏移移除单元除以偏振度或差分偏振度、在包含偏振信息的图像的预定范围内的偏振度或差分偏振度的平均值。
“用于获取偏振信息的平均值的预定范围”可以是包含偏振信息的图像的整个区域且也可以是“通过将天空区域从包含偏振信息的图像的整个区域移除所获取的区域”。
此外,图像处理系统可以包括直射光/背光确定单元。直射光/背光确定单元基于所捕获的图像的信息估计并确定包含偏振信息的图像的图像捕获条件是直射光还是背光。
该“直射光/背光确定单元”可以基于包含偏振信息的捕获图像的偏振度或差分偏振度来确定图像捕获条件(上文的算术公式2和算术公式3)。
直射光/背光确定单元可以基于包含偏振信息的图像的“整个屏幕的偏振比的平均值”来确定已经在直射光下还是在背光下执行了图像捕获(算术公式5和算术公式6)。
如上文所描述的,当直射光/背光确定单元确定图像捕获条件是直射光时,优选的将亮度图像上的偏振信息的叠加量改变成零。
当直射光/背光确定单元确定图像捕获条件是直射光时,可以改变亮度图像上的偏振信息的叠加量。
如在下文的实施例中,亮度偏振叠加单元可以基于包含偏振信息的图像的每一区域的值来确定基于亮度图像的值被输出还是固定值被输出。
在该实施例中,偏振信息基于与上文描述的算法不同的算法被叠加在亮度图像上。
当执行各种类型的对象识别处理时,如果“可以移除要识别的与对象不同的不必要的对象”,则可以减少错误识别。
以此方式,对对象识别处理的改进和“减少处理量”是可能的。
利用该情况下的“亮度偏振叠加算法”,“输出具有诸如落入预定范围内的SDOP之类的偏振信息的值的亮度图像”。
下文指示了用于使用SDOP(x,y)作为偏振信息执行该方法的公式。
Ibright_por(x,y)=k·Ibright(x,y) (E)
k=k1如果SDOP(x,y)≥TH (F)
k=k2如果SDOP(x,y)<TH (G)
在公式(E)到(G)中,SDOP(x,y)、Ibright_por(x,y)和Ibright(x,y)为如上文所定义的。
设置阈值TH使得“使用偏振信息将与所检测的对象不同的对象从输出图像中移除”,且根据在SDOP(x,y)和TH之间的大小关系,偏振信息叠加系数k被切换。
要注意的是,为了移除光源的影响,通过先前使用“偏振信息偏移移除单元”,可以使用通过执行已经基于算术公式1描述的“减去偏移”获取的结果。
如上文所述,如果在减去偏移之后的偏振信息用于计算上文的公式(E)和(G),则减小了接收“光源角度的影响”的可能性。
从而,当在户外捕获图像时,可以减小“太阳位置的影响”。
在计算公式(E)到(G)中,SDOP已经被用作偏振信息,但是当然,可以使用上文描述的DOP和偏振比。
优选的是,基于通过对“指示的偏振信息的图像”,例如SDOP,执行诸如加权平均和中值滤波其或ε滤波器之类的噪声减少处理获取的结果来执行计算。
当存在“在所获取的图像上的饱和区域”时,为了对该区域“停止叠加”,优选的是将k值设置为零或通过假设计算是不可能的输出预定的常数。
下文将描述上文描述的实施例的特定示例。
“特定示例2”
特定示例2指示了在上文的计算公式(E)到(G)中,k1=0、k2=1,且TH=0.15适用。
换句话说,在该示例中,从在其中SDOP变得比阈值TH更小的像素输出“亮度图像自身”。
在SDOP变得比阈值TH更大的像素中,不执行“叠加偏振信息”。
该示例假定在道路上“对车辆的数量进行计数的情况”。
图5A和图5B示出了所获取的亮度图像和亮度偏振叠加的图像。
图5A示出了亮度偏振叠加的图像且图5B示出了亮度图像。
在图5B中示出的亮度图像中,车辆的光和由路面的反射光是“车辆检测的障碍”。
“车辆的光和由路面反射的光”是背光的类型。在针对要成像的对象的偏振图像中,“SDOP”较大。
在其中SDOP大到足够超过阈值TH的像素处,亮度图像的输出被设置为零。
在其中SDOP比阈值TH更小的像素处,k2=1适用,且输出“亮度图像自身”。
在“其中SDOP位于常数范围中(TH<0.15)的像素”处,以此方式,亮度图像乘以亮度偏振叠加系数k2(=1)。
换句话说,阈值TH被设置成适当的常数。因此,“通过使用偏振信息,与被检测的对象不同的对象”可以从输出图像中被移除。
在图5A中示出的亮度偏振叠加的图像中,通过使用SPOD的计算有利地移除了亮度图像中的光和由路面反射的光。
如上文所描述的,如果“利用仅落入预定范围(TH<0.15)中的SDOP”执行针对亮度图像的计算(公式E),则可以“在使用用于计算的识别算法之前”将不必要的检测对象排除。
因此,可以减少“要识别的对象的错误识别”。
将描述另一特定示例。
“特定示例3”
特定示例3假定了一种情况,在该情况下,作为计算公式(E)到(G)中的计算参数,k1=0、k2=5、以及TH=0.05适用。图6A和图6B示出了该情况的图像。
换句话说,在该示例中,阈值TH被设置成与0.05一样低。对于SDOP超出阈值TH的像素,将要乘以亮度信息的亮度偏振叠加系数k1设置为零。
此外,对于SDOP不超过阈值TH的像素,要乘以亮度信息的亮度偏振叠加系数k2被设置成与5一样大。
图6A示出了亮度偏振叠加的图像且图6B示出了亮度图像。
图6B的亮度图像示出了“包含与要被检测的车辆不同的背景的许多对象”。
无论车辆涂成白色还是黑色,“由于该对象要被检测,则车辆被认为是相同的”。但是,在亮度图像中,图像很大不同。
换句话说,亮度图像中近侧的“黑色车辆”具有较低的亮度且容易导致“对象识别困难”。
从而,如果使用亮度图像的“亮度”如同其用于检测作为特征量,则难以提高检测的准确度。
如从图6B的亮度图像显而易见的,图像捕获条件不是背光。从而,SDOP,其为偏振信息,较小,而不管车辆涂成的颜色。
从而,利用在其中SDOP变得较小的像素,利用亮度偏振叠加系数k2(=5)来强调关于亮度图像的信息。因此,图像可以被表示成“具有高亮度的图像”。
在图6A中示出的“亮度偏振叠加的图像”中,通过使用SDOP进行亮度偏振叠加,可以删除“与车辆不同的许多部分”。
黑色车辆和白色车辆都“类似地以白色示出”。在亮度偏振叠加的图像处的亮度值自身可以用作为“用于检测的特征量”。
当用于检测车辆时,亮度偏振叠加单元确定基于亮度图像的值被输出还是固定值被输出,以便移除与从车辆反射的光不同的光。
在上文描述的示例中,亮度偏振叠加单元可以基于包含偏振信息的图像的每一区域的值来确定(公式(F)和(G))基于亮度图像的值被输出还是固定值被输出。
此外,基于每一区域的差分偏振的度(SDOP)的值,亮度偏振叠加单元确定基于亮度图像的值被输出还是固定值被输出。
但是,在不受上述限制的情况下,亮度偏振叠加单元可以基于偏振度(DOP)和偏振比来确定基于亮度图像的值被输出还是固定值被输出。
如在特定示例3中,亮度偏振叠加单元可以确定“基于亮度图像的值被输出以便移除反射光”还是固定值被输出。
当用于检测车辆时,亮度偏振叠加单元可以确定基于亮度图像的亮度被输出以便与从车辆反射的光不同的光被移除还是固定值被输出。
在上文描述的各个实施例中,图像处理系统可以包括“确定亮度图像中的包含区域的饱和区域确定单元”。
在该情况下,亮度偏振叠加单元可以针对饱和区域改变叠加方法且可以针对饱和区域将偏振信息的叠加量设置为零。
可供替换地,针对饱和区域,亮度偏振叠加单元可以“向输出图像的对应区域输出常数”。
参考图1描述的图像捕获单元10包括在图像捕获单元12上被划分成区域的偏振滤波器132。
从而,基于上文描述的每一实施例,可以执行“一种图像处理方法,其中,针对包括偏振信息的图像,偏振信息被叠加到亮度图像上,作为每一像素的亮度方面的改变,且叠加的图像作为输出图像被输出”。
根据上文的描述,当到图像捕获单元的入射光超过图像捕获单元的图像捕获范围(当像素的输出值饱和时),偏振信息不叠加在亮度图像上。
但是,在从偏振图像获取的亮度图像中,不仅饱和区域,而且“饱和未达到但是接近达到的区域”存在。
如果偏振信息被叠加到“接近达到饱和的区域”的亮度图像上,则认为适当的亮度偏振叠加的图像是不可能获取的。
为了处理这样的条件,对应上文的“饱和未达到但是接近达到的区域”以下措施是有效的。
换句话说,与接近达到饱和的区域一起确定区域的“饱和度”。
在接近达到饱和的区域中,“基于饱和度,在亮度图像和偏振信息之间叠加的比率被改变,使得越接近饱和,亮度图像的比率越大”。
如上文所描述的,通过下一个公式(C)来给出亮度图像Ibright(x,y)。
Ibright(x,y)={IS(x,y)+IP(x,y)}/2 (C)
换句话说,由通过位置(x,y)指定的像素的亮度来指定亮度图像Ibright(x,y)。
然后,针对每一像素,确定是饱和的还是接近饱和的,并且进一步,确定包含度。
为了简化描述,位置(x,y)处的像素的亮度Ibright(x,y)是饱和时的值被设置为“1”。假定Ibright(x,y)在0和1之间改变。
“Ibright(x,y)≥0.95”的区域被认为是“非常接近达到饱和的区域”。
“Ibright(x,y)≥0.85”的区域被认为是“接近达到饱和的区域”。
“Ibright(x,y)<0.85”的区域被认为是“未达到饱和的区域”。
参考图7,在开始之后,首先在步骤S1确定“像素1”即在位置(x,y)处的像素是否饱和。
如果“Ibright(x,y)=1”适用,则像素饱和。
如果像素饱和,则过程继续到步骤S3,在该情况下,“在该像素处,叠加偏振信息”未被执行。
如果像素未饱和,则过程继续到步骤S2,其中,确定“像素”是“非常接近达到饱和的区域”。
如果“1>Ibright(x,y)≥0.95”适用,则像素是“非常接近达到饱和的区域”。此外,在该情况下,过程继续到步骤S3,且在该区域(像素中),也未执行“对偏振信息的叠加”。
如果“Ibright(x,y)<0.95”适用,则过程继续到步骤4,其中确定像素是否为“接近达到饱和的区域”。
如果“Ibright(x,y)<0.85”适用,则确定像素“不是接近达到饱和的区域”。然后,过程继续到步骤S5,且执行“对偏振信息的叠加”。
如果“0.95>Ibright(x,y)≥0.85”适用,则像素被确定为“接近达到饱和的区域”。
在该情况下,过程继续到步骤S6,且偏振信息的叠加比改变。
换句话说,叠加比改变使得Ibright(x,y)的值越接近上限0.95,亮度图像的比越大。
将描述通过计算公式改变“叠加比”的一个示例。
首先,如果确定像素不是“接近达到饱和的区域”,如上文所述的,则执行对偏振信息的叠加。
换句话说,在该情况下作为该像素处的亮度偏振图像的输出Output(x,y)是“Ibright(x,y)”,其在算术公式1的右侧给出。
如该像素是“饱和区域”或“非常接近达到饱和的区域”,如上文所描述的,则不执行“对偏振信息的叠加”。
从而,在该情况下,在对应像素处的输出Output(x,y)是“Ibright(x,y)”。
当像素是“接近达到饱和的区域”时,改变叠加比使得Ibright(x,y)的值离上限0.95越近,则亮度图像的比越大。
为了执行上述内容,例如,定义了一下函数ratio(x,y)。
Ratio(x,y)={Ibright(x,y)-a}/b
通过如下文所述的计算来确定输出Output(x,y)。
Output(x,y)=ratio(x,y)·Ibright(x,y)+{1-ratio(x,y)}·Ibright_por(x,y)
上文的a和b是“利用像素的亮度定义饱和度的常数”。
“a和b”的值越大,饱和度越小。相反地,“a和b”的值越小,饱和度越大。
根据Ibright(x,y)在范围“0.95>Ibright(x,y)≥0.85”中设置“a和b”,且如上文所描述的,改变“叠加比”。
如上文所描述的,针对每一像素,饱和区域确定单元可以确定“饱和度(像素是饱和的、非常接近饱和的、还是接近饱和的)”。
图1中的亮度偏振叠加单元20具有上述功能。
上文已经针对在其中算术公式1中的偏振信息叠加系数k根据环境改变的情况进行了描述,例如,在当光是直射光时和当光是背光时之间切换系数。
但是,有时,优选的是,“根据主体的类型改变偏振信息叠加系数k”,而不是环境。
例如,对于车载照相机等而言重要的是,检测路面和信号。
对于诸如路面之类的“具有偏振依赖属性的包含白线的对象”,优选的是,即使在某一度上增加了噪声,也增加偏振信息叠加系数k。
相反地,针对不具有诸如信号之类的偏振依赖属性的对象,优选的是,因为噪声优选地被减小,所以减小偏振信息叠加系数k。
作为用于这样做的一种类型的措施,根据“在屏幕上每一主体典型出现的位置”改变偏振信息叠加系数k。
考虑到上文所描述的路面和信号的示例,在由图像捕获单元捕获的图像中,路面通常出现在“图像的较低部分”。
从而,例如,在出现路面的“图像的较低部分”,偏振信息叠加系数k被设置得较大,且在屏幕的较上面的位置,偏振信息叠加系数被设置得较小。
通过如上文所安排的,在必需的路面区域,可以有效地使用偏振信息。在偏振信息没有意义的其他区域,不使用偏振信息,但是实际上可以使用亮度图像。
通过如上文进行安排,可以获取“具有更少噪声的图像”。
在该示例中,在所捕获的图像的较上面的部分和较下面的部分之间改变偏振信息叠加系数k。但是,当然,改变偏振信息叠加系数k的区域不限于上文。
通过在图像上“连续改变偏振信息叠加系数k”,可以避免在改变的边界处不连续性的影响。
图8示出了一实施例,在其中图像处理系统100被安装在车辆500上以执行车辆控制。
图像处理系统100包括上文描述的“图像捕获单元、亮度偏振叠加单元、已经图像处理/图像识别单元”,并如上文所描述的执行图像识别。
图像识别系统100的图像捕获单元设置在车辆500的固定位置处以捕获路面条件的图像。
如上文所描述的,由图像捕获单元捕获的亮度信息被叠加到偏振信息上。基于从而获取的结果,图像处理/图像识别单元执行预定的识别操作。
图像处理/图像识别单元的识别结果被传送到充当设备控制单元的车辆控制单元200。
基于输入识别结果,车辆控制单元200执行诸如辅助刹车和车辆500的转向操作之类的车辆控制。
要注意的是,“图像处理/图像识别单元”可以与图像处理系统一体形成,或可以与图像处理系统分开设置。
如果“图像处理/图像识别单元”与图像处理系统分开设置,则图像处理/图像识别单元从图像处理系统接收信号IMO,以执行必需的图像处理/图像识别,并向车辆控制单元200输出所获取的结果。
图8示出了在其中图像捕获处理系统用于车辆控制的情况。但是,图像捕获处理系统的使用不限于上述内容,且例如,适用于与车辆不同的移动对象(例如,移动机器人、船舶、和飞机)、用于工厂自动化的机器人(FA)、以及农业系统。
图9是示出计算机系统的一示例的框图,该计算机系统是用于实现图像处理系统的硬件。
计算机系统1000包括总线110、CPU 120、ROM 130、RAM 140、硬盘(HDD)150、以及I/O 160。
CPU 120、ROM 130、RAM 140、HDD 150、以及I/O 160中的任何一个连接到总线110且通过总线110发送/接收信息。
图1中示出的图像捕获单元10连接到I/O 160。
RAM 140用作CPU 120的工作区域。
ROM 130(包括可重写的ROM)用作记录诸如各种控制程序、表格、和参数之类的固定信息的区域。
“图像处理程序”实现上文描述的亮度偏振叠加单元20、图像处理/图像识别单元30、以及车辆控制单元200的功能。诸如DVD-ROM之类的记录介质被设置成光学驱动设备(未示出),且一旦图像处理程序存储在HDD 250中,则只要需要其都被加载到RAM 140。
要受到图像处理的图像从图像捕获单元10被输入到I/O 160。
如已经被描述的,根据本发明,可以提供所下文所描述的“图像处理系统”和“图像处理方法”。
[1-1]
图像处理系统包括:
亮度偏振叠加单元,其将图像的偏振信息叠加到亮度图像上,作为每一像素的亮度方面的变化,
其中图像处理系统具有将由亮度偏振叠加单元通过叠加所获取的图像作为输出图像输出的功能。
[1-2]
根据1-1所述的图像处理系统,包括捕获图像的图像捕获单元,所述图像包括偏振信息且要受到由亮度偏振叠加单元进行的叠加处理。
[1-3]
根据1-1或1-2所述的图像处理系统,其中亮度偏振叠加单元将叠加执行为偏振信息和亮度图像的线性和。
[1-4]
根据1-1或1-2所述的图像处理系统,其中亮度偏振叠加单元将叠加执行为偏振信息和亮度图像的乘积。
[1-5]
根据1-1至1-4中任何一项所述的图像处理系统,其中由亮度偏振叠加单元叠加在亮度图像上的偏振信息是偏振度或差分偏振度。
[1-6]
根据1-1至1-4中任何一项所述的图像处理系统,其中由亮度偏振叠加单元叠加在亮度图像上的偏振信息是偏振比。
[1-7]
根据1-1至1-6中任何一项所述的图像处理系统,包括噪声减少单元,其在叠加到亮度图像上之前移除偏振信息的噪声。
[1-8]
根据1-1至1-7中任何一项所述的图像处理系统,包括:
图像捕获单元,其捕获包括偏振信息并且要受到由亮度偏振叠加单元进行叠加处理的图像;以及
光源条件确定单元,其在估计并确定图像捕获单元捕获图像的光源条件,
其中亮度偏振叠加单元根据光源条件确定单元的输出改变将偏振信息叠加到亮度图像上的方法。
[1-9]
根据1-1至1-8中任何一项所述的图像处理系统,包括:
图像捕获单元,其捕获包括偏振信息且要受到由亮度偏振叠加单元进行叠加处理的图像;以及
白天/夜晚确定单元,其估计和确定图像捕获单元捕获图像的时间是白天还是夜晚,
其中亮度偏振叠加单元根据白天/夜晚确定单元的输出改变一种将偏振信息叠加到亮度图像上的方法。
[1-10]
根据1-1至1-10中任何一项所述的图像处理系统,包括偏振信息偏移移除单元,其通过将包含偏振信息的图像的预定范围内的偏振信息的平均值从偏振信息减去来移除偏移,
其中偏移已经由偏振信息偏移移除单元从其处移除的偏振信息被叠加到亮度图像上。
[1-11]
根据1-10所述的图像处理系统,其中偏振信息偏移移除单元用偏振度或差分偏振度除以在包含偏振信息的图像上的预定范围内的偏振度或差分偏振度的平均值。
[1-12]
根据1-10或1-11所述的图像处理系统,其中在其中获取偏振信息的平均值的预定范围是包含偏振信息的图像的整个区域。
[1-13]
根据1-10或1-11所述的图像处理系统,其中在其中获取偏振信息的平均值的预定范围是通过将天空区域从包含偏振信息的图像的整个区域中移除来获取的区域。
[1-14]
根据1-1到1-13中的任何一项所述的图像处理系统,包括直射光/背光确定单元,其基于所捕获的图像的信息估计和确定包含偏振信息的图像已经在直射光还是在背光中被捕获。
[1-15]
根据1-14所述的图像处理系统,其中直射光/背光确定单元基于包含偏振信息的所捕获的图像的偏振度或差分偏振度确定图像捕获已经在直射光还是背光中执行。
[1-16]
根据1-14所述的图像处理系统,其中直射光/背光确定单元基于包含偏振信息的所捕获的图像的整个屏幕的偏振比的平均值确定图像捕获已经在直射光还是背光中被执行。
[1-17]
根据1-14至1-16中任何一项所述的图像处理系统,其中当直射光/背光确定单元确定图像捕获已经在直射光中执行时,将亮度图像上的偏振信息的叠加量设置为零。
[1-18]
根据1-14至1-16中任何一项所述的图像处理系统,其中当直射光/背光确定单元确定图像捕获已经在直射光中执行时,改变亮度图像上的偏振信息的叠加量。
[1-19]
根据1-1至1-18中任何一项所述的图像处理系统,其中亮度偏振叠加单元基于包含偏振信息的图像的每一区域的值确定输出基于亮度图像的值还是输出固定值。
[1-20]
根据1-19所述的图像处理系统,其中亮度偏振叠加单元基于每一区域的偏振度的值确定输出基于亮度图像的值还是输出固定值。
[1-21]
根据1-19所述的图像处理系统,其中亮度偏振叠加单元基于每一区域的差分偏振度的值确定输出基于亮度图像的值还是输出固定值。
[1-22]
根据1-19所述的图像处理系统,其中亮度偏振叠加单元基于每一区域的偏振比的值确定输出基于亮度图像的值还是输出固定值。
[1-23]
根据1-19所述的图像处理系统,其中亮度偏振叠加单元确定输出基于亮度图像的值还是输出固定值以便反射光被移除。
[1-24]
根据1-19所述的图像处理系统,其用作检测车辆,其中亮度偏振叠加单元确定输出基于亮度图像的值还是输出固定值,以便与从车辆反射的光不同的光被移除。
[1-25]
根据1-1至1-24所述的图像处理系统,包括饱和区域确定单元,其确定亮度图像中的饱和区域,
其中,针对饱和区域,亮度偏振叠加单元改变叠加方法。
[1-26]
根据1-25所述的图像处理系统,其中针对饱和区域,亮度偏振叠加单元将偏振信息的叠加量设置为零。
[1-27]
根据1-25所述的图像处理系统,其中针对饱和区域,亮度偏振叠加单元向输出图像的对应区域输出常数。
[1-28]
根据1-25至1-27中任一项所述的图像处理系统,其中除了亮度图像中的饱和区域之外,饱和区域确定单元具有确定接近达到饱和的区域以及接近达到饱和的区域中的饱和度的功能,以及
在接近达到饱和的区域中,根据饱和度改变在亮度图像和偏振信息之间的叠加比,以便越接近饱和,亮度图像的比越大。
[1-29]
根据1-1至1-28中任一项所述的图像处理系统,包括图像捕获单元,其捕获包含偏振信息且要受到由亮度偏振叠加单元进行的叠加处理的图像,
其中亮度偏振叠加单元根据由图像捕获单元捕获的图像的位置改变将偏振信息叠加到亮度图像上的方法。
[1-30]
根据1-1至1-29中任一项所述的图像处理系统,包括图像捕获单元,其捕获包含偏振信息且要受到由亮度偏振叠加单元进行的叠加处理的图像,
其中图像捕获单元包括在图像捕获单元上被划分成区域的偏振滤波器。
[1-31]
一种通过使用根据1-1至1-30中任何一项所述的图像处理系统执行的图像处理方法,该方法包括:
针对包含偏振信息的图像,将偏振信息叠加到亮度图像上,作为每一像素的亮度方面的改变;以及
将叠加的图像作为输出图像输出。
[2-1]
一种图像处理系统,包括:
亮度偏振叠加单元,其将图像的偏振信息叠加到亮度图像上,作为每一像素的亮度方面的改变,
其中图像处理系统具有将由亮度偏振叠加单元叠加所获取的图像作为输出图像输出的功能,以及
亮度偏振叠加单元包括偏移移除单元,其通过将偏移量从偏振信息中减去来移除偏移,偏移量是包含偏振信息的图像上在预定范围内的偏振信息的平均值。
[2-2]
根据2-1所述的图像处理系统,其中偏移移除单元将偏移量从偏振信息中移除,其中包含偏振信息的图像的偏振度或差分偏振度是偏振信息且图像上在预定范围内的偏振信息的平均值是偏移量。
[2-3]
根据2-1所述的图像处理系统,其中偏移移除单元将偏移量从偏振信息中移除,其中包含偏振信息的图像的偏振比是偏振信息且图像上在预定范围内的偏振信息的平均值是偏移量。
[2-4]
根据2-1至2-3中任何一项所述的图像处理系统,其中偏移移除单元将包含偏振信息的图像的整个区域认为是预定的范围并将偏振信息的平均值认为是偏移量。
[2-5]
根据2-1至2-3中任何一项所述的图像处理系统,其中偏移移除单元认为通过将天空区域从包含偏振信息的图像的整个区域中移除而获取的区域为预定的范围且将偏振信息的平均值认为偏移量。
[2-6]
根据2-1至2-6中任何一项所述的图像处理系统,包括直射光/背光确定单元,其使用图像的偏振信息确定图像捕获条件是直射光还是背光。
[2-7]
根据2-6所述的图像处理系统,其中直射光/背光确定单元使用偏振度或差分偏振度的平均值确定图像捕获条件是直射光还是背光。
[2-8]
根据2-6所述的图像处理系统,其中直射光/背光确定单元使用偏振比的平均值确定图像捕获条件是直射光还是背光。
[2-9]
根据2-6至2-8中任何一项所述的图像处理系统,其中当直射光/背光确定单元确定图像捕获条件是直射光时,改变偏振信息在亮度图像上的叠加量。
[2-10]
根据2-9所述的图像处理系统,其中当直射光/背光确定单元确定图像捕获条件是直射光时,将偏振信息在亮度图像上的叠加量设置为零。
[2-11]
根据2-1至2-10中任何一项所述的图像处理系统,包括图像捕获单元,其捕获包含偏振信息且要受到由亮度偏振叠加单元进行叠加处理的图像,
其中图像捕获单元包括在图像捕获元件上被划分成区域的偏振滤波器。
[2-12]
一种通过使用根据2-1至2-11中任何一项所述的图像处理系统执行的图像处理方法,该方法包括:
针对包含偏振信息的图像,将偏振信息叠加到亮度图像上,作为每一像素的亮度方面的改变;以及
将叠加的图像作为输出图像输出。
此外,通过使用图像处理系统和图像处理方法,可以实现执行上文所描述的“车辆控制”的设备控制系统和设备控制方法。
虽然为了完整且清楚的公开已经针对特定实施例描述了本发明,但是所附权利要求并不从而受到限制,而应被解释为实现了落入本文中给出的基本教导中的、可能发生在本领域的普通技术人员身上的全部修改和可供替换的结构。

Claims (18)

1.一种图像处理系统,包括:
亮度偏振叠加单元,其将包含偏振信息的图像的偏振信息叠加到亮度图像上,作为每一像素的亮度方面的变化,
其中图像处理系统具有将由亮度偏振叠加单元通过叠加所获取的图像作为输出图像输出的功能;
其特征在于,所述图像处理系统还包括:
图像捕获单元,其捕获包括偏振信息并且要受到由亮度偏振叠加单元进行叠加处理的图像;以及
光源条件确定单元,其估计并且确定由图像捕获单元捕获图像中的光源条件,
其中亮度偏振叠加单元根据光源条件确定单元的输出改变将偏振信息叠加到亮度图像上的方法。
2.根据权利要求1所述的图像处理系统,其中,亮度偏振叠加单元将叠加执行为偏振信息和亮度图像的线性和。
3.根据权利要求1所述的图像处理系统,其中,亮度偏振叠加单元将叠加执行为偏振信息和亮度图像的乘积。
4.根据权利要求1所述的图像处理系统,其中,由亮度偏振叠加单元叠加在亮度图像上的偏振信息是偏振度、差分偏振度、或偏振比。
5.根据权利要求1所述的图像处理系统,包括偏振信息偏移移除单元,其通过将包含偏振信息的图像的预定范围内的偏振信息的平均值从偏振信息减去来移除偏移,
其中偏移已经由偏振信息偏移移除单元从其处移除的偏振信息被叠加到亮度图像上。
6.根据权利要求5所述的图像处理系统,其中,在其中获取偏振信息的平均值的预定范围是包含偏振信息的图像的整个区域。
7.根据权利要求5所述的图像处理系统,其中,在其中获取偏振信息的平均值的预定范围是通过将天空区域从包含偏振信息的图像的整个区域中移除来获取的区域。
8.根据权利要求1所述的图像处理系统,包括直射光/背光确定单元,其基于所捕获的图像的信息估计并且确定包含偏振信息的图像已经在直射光还是在背光中被捕获。
9.根据权利要求8所述的图像处理系统,其中,直射光/背光确定单元基于包含偏振信息的所捕获的图像的偏振度或差分偏振度来确定图像捕获已经在直射光还是背光中被执行。
10.根据权利要求8所述的图像处理系统,其中,直射光/背光确定单元基于包含偏振信息的所捕获的图像的整个屏幕的偏振比的平均值来确定图像捕获已经在直射光还是背光中被执行。
11.根据权利要求8至10中任一项所述的图像处理系统,其中当直射光/背光确定单元确定图像捕获已经在直射光中被执行时,改变亮度图像上的偏振信息的叠加量。
12.根据权利要求1所述的图像处理系统,其中,亮度偏振叠加单元基于包含偏振信息的图像的每一区域的值来确定输出基于亮度图像的值还是输出固定值。
13.根据权利要求1所述的图像处理系统,包括饱和区域确定单元,其确定亮度图像中的饱和区域,
其中,针对饱和区域,亮度偏振叠加单元改变叠加方法。
14.根据权利要求13所述的图像处理系统,其中,针对饱和区域,亮度偏振叠加单元将偏振信息的叠加量设置为零。
15.根据权利要求13所述的图像处理系统,其中,针对饱和区域,亮度偏振叠加单元向输出图像的对应区域输出常数。
16.根据权利要求13至15中任一项所述的图像处理系统,其中除了亮度图像中的饱和区域之外,饱和区域确定单元具有确定接近达到饱和的区域以及接近达到饱和的区域中的饱和度的功能,以及
在接近达到饱和的区域中,根据饱和度改变在亮度图像和偏振信息之间的叠加比,以便越接近饱和,亮度图像的比越大。
17.根据权利要求1所述的图像处理系统,其中亮度偏振叠加单元还根据由图像捕获单元所捕获的图像的位置来改变将偏振信息叠加到亮度图像上的方法。
18.根据权利要求1所述的图像处理系统,其中图像捕获单元包括在图像捕获元件上被划分成区域的偏振滤波器。
CN201480027438.7A 2013-05-15 2014-05-08 图像处理系统 Active CN105247847B (zh)

Applications Claiming Priority (9)

Application Number Priority Date Filing Date Title
JP2013103354 2013-05-15
JP2013-103354 2013-05-15
JP2013103362 2013-05-15
JP2013-103362 2013-05-15
JP2013219198 2013-10-22
JP2013-219198 2013-10-22
JP2014-011648 2014-01-24
JP2014011648A JP6417666B2 (ja) 2013-05-15 2014-01-24 画像処理システム
PCT/JP2014/062899 WO2014185479A1 (en) 2013-05-15 2014-05-08 Image processing system

Publications (2)

Publication Number Publication Date
CN105247847A CN105247847A (zh) 2016-01-13
CN105247847B true CN105247847B (zh) 2019-03-08

Family

ID=51898455

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201480027438.7A Active CN105247847B (zh) 2013-05-15 2014-05-08 图像处理系统

Country Status (7)

Country Link
US (1) US9674459B2 (zh)
EP (1) EP2997726B1 (zh)
JP (1) JP6417666B2 (zh)
KR (1) KR101710295B1 (zh)
CN (1) CN105247847B (zh)
BR (1) BR112015028772B1 (zh)
WO (1) WO2014185479A1 (zh)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6791645B2 (ja) * 2016-03-29 2020-11-25 本田技研工業株式会社 光通信装置、光通信システム、および光通信方法
CN105718273B (zh) * 2016-04-01 2023-01-31 苏州工艺美术职业技术学院 基于灯光的时间信息可视化表达系统
JP2018029280A (ja) * 2016-08-18 2018-02-22 ソニー株式会社 撮像装置と撮像方法
JPWO2018034209A1 (ja) * 2016-08-18 2019-06-13 ソニー株式会社 撮像装置と撮像方法
CN108830803A (zh) * 2018-05-17 2018-11-16 昆明理工大学 一种交通视频图像去雾优化算法
WO2020010353A1 (en) * 2018-07-06 2020-01-09 Polaris Sensor Technologies Inc Reducing glare for objects viewed through transpatent surfaces
US11004253B2 (en) * 2019-02-21 2021-05-11 Electronic Arts Inc. Systems and methods for texture-space ray tracing of transparent and translucent objects
CN110929691B (zh) * 2019-12-11 2022-12-06 中国科学院长春光学精密机械与物理研究所 一种冰层检测方法、装置、设备及可读存储介质
US11367292B2 (en) 2020-02-24 2022-06-21 Ford Global Technologies, Llc Road marking detection
JP2023011342A (ja) * 2021-07-12 2023-01-24 キヤノン株式会社 画像処理装置及び方法、及び撮像装置

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008011050A2 (en) * 2006-07-18 2008-01-24 The Trustees Of The University Of Pennsylvania Separation and contrast enhancement of overlapping cast shadow components and target detection in shadow using polarization

Family Cites Families (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4464574B2 (ja) 2001-03-23 2010-05-19 名古屋電機工業株式会社 路面状態判別方法およびその装置
EP2202688B1 (en) * 2007-02-13 2013-11-20 Panasonic Corporation System, method and apparatus for image processing and image format
CN101584222B (zh) * 2007-05-31 2011-10-12 松下电器产业株式会社 图像处理装置
JP5008139B2 (ja) 2007-11-26 2012-08-22 株式会社リコー 画像撮像装置
JP5008578B2 (ja) 2008-01-28 2012-08-22 株式会社リコー 画像処理方法、画像処理装置及び画像撮像装置
JP4911628B2 (ja) 2008-01-28 2012-04-04 株式会社リコー 画像処理方法、画像処理装置及び画像撮像装置
JP5049155B2 (ja) 2008-02-07 2012-10-17 株式会社リコー プログレッシブ・インタレース変換方法、画像処理装置及び画像撮像装置
JP5080305B2 (ja) 2008-02-13 2012-11-21 株式会社リコー 画像処理方法及び装置、並びに画像撮像装置
JP5078147B2 (ja) 2008-03-04 2012-11-21 株式会社リコー 画像処理装置及び画像撮像装置
JP5078148B2 (ja) 2008-03-10 2012-11-21 株式会社リコー 画像処理装置及び画像撮像装置
JP2009218909A (ja) 2008-03-11 2009-09-24 Ricoh Co Ltd 画像撮像装置
JP4966894B2 (ja) 2008-03-18 2012-07-04 株式会社リコー 画像撮像装置
JPWO2009119370A1 (ja) * 2008-03-26 2011-07-21 コニカミノルタオプト株式会社 撮像装置
JP5380725B2 (ja) * 2008-03-31 2014-01-08 富士フイルム株式会社 光学システム、方法、およびプログラム
JP4940440B2 (ja) 2008-03-31 2012-05-30 富士フイルム株式会社 撮像装置、撮像方法、およびプログラム
JP4329869B1 (ja) * 2008-04-14 2009-09-09 株式会社アートレイ ゴルフ練習支援カメラシステム
US8184194B2 (en) 2008-06-26 2012-05-22 Panasonic Corporation Image processing apparatus, image division program and image synthesising method
JP5062846B2 (ja) 2008-07-04 2012-10-31 株式会社リコー 画像撮像装置
JP5112238B2 (ja) 2008-09-29 2013-01-09 株式会社リコー 撮像装置、設定値変更方法およびプログラム
JP5273371B2 (ja) 2008-12-24 2013-08-28 株式会社リコー 画像処理装置及び方法、並びに車載カメラ装置
WO2010073547A1 (ja) 2008-12-25 2010-07-01 パナソニック株式会社 画像処理装置及び擬似立体画像生成装置
JP5267794B2 (ja) 2008-12-26 2013-08-21 株式会社リコー 画像処理装置及び車載カメラ装置
JP5572954B2 (ja) * 2009-01-26 2014-08-20 株式会社リコー 撮像素子及び該撮像素子を備えた画像撮像装置
JP2011029903A (ja) * 2009-07-24 2011-02-10 Artray Co Ltd 偏光子を付設したデジタルカメラシステム
JP5376313B2 (ja) 2009-09-03 2013-12-25 株式会社リコー 画像処理装置及び画像撮像装置
US8624999B2 (en) 2009-12-01 2014-01-07 Ricoh Company, Ltd. Imaging apparatus
WO2011078199A1 (en) * 2009-12-25 2011-06-30 Ricoh Company, Ltd. Object identifying apparatus, moving body control apparatus, and information providing apparatus
JP5569042B2 (ja) 2010-03-02 2014-08-13 株式会社リコー 画像処理装置、撮像装置及び画像処理方法
JP5644451B2 (ja) 2010-05-25 2014-12-24 株式会社リコー 画像処理装置および画像処理方法、ならびに、撮像装置
JP5761601B2 (ja) 2010-07-01 2015-08-12 株式会社リコー 物体識別装置
JP5967463B2 (ja) 2010-09-16 2016-08-10 株式会社リコー 物体識別装置、並びに、これを備えた移動体制御装置及び情報提供装置
EP2439716B1 (en) 2010-09-16 2013-11-13 Ricoh Company, Ltd. Object identification device, moving object controlling apparatus having object identification device and information presenting apparatus having object identification device
JP2012185602A (ja) 2011-03-04 2012-09-27 Ricoh Co Ltd 画像処理システム、画像処理装置、方法、プログラムおよび記録媒体
JP5585885B2 (ja) 2011-03-18 2014-09-10 株式会社リコー 画像処理装置及び画像処理方法
JP5899684B2 (ja) * 2011-07-11 2016-04-06 ソニー株式会社 画像処理装置、および画像処理方法、並びにプログラム
JP5831024B2 (ja) * 2011-08-04 2015-12-09 ソニー株式会社 画像処理装置、および画像処理方法、並びにプログラム
JP5603508B2 (ja) 2012-05-22 2014-10-08 パナソニック株式会社 撮像処理装置および内視鏡
DE102013114199A1 (de) * 2013-12-17 2015-06-18 Codewrights Gmbh Verfahren zur Bedienung von Feldgeräten

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008011050A2 (en) * 2006-07-18 2008-01-24 The Trustees Of The University Of Pennsylvania Separation and contrast enhancement of overlapping cast shadow components and target detection in shadow using polarization

Also Published As

Publication number Publication date
JP2015109625A (ja) 2015-06-11
EP2997726A1 (en) 2016-03-23
JP6417666B2 (ja) 2018-11-07
KR101710295B1 (ko) 2017-02-24
BR112015028772A2 (pt) 2017-08-22
CN105247847A (zh) 2016-01-13
BR112015028772B1 (pt) 2021-12-07
KR20150142055A (ko) 2015-12-21
WO2014185479A1 (en) 2014-11-20
EP2997726A4 (en) 2016-03-30
US20160094771A1 (en) 2016-03-31
US9674459B2 (en) 2017-06-06
EP2997726B1 (en) 2019-03-13

Similar Documents

Publication Publication Date Title
CN105247847B (zh) 图像处理系统
US8396319B2 (en) Separation and contrast enhancement of overlapping cast shadow components and target detection in shadow using polarization
US8654179B2 (en) Image processing device and pseudo-3D image creation device
US8390696B2 (en) Apparatus for detecting direction of image pickup device and moving body comprising same
US20080278449A1 (en) Apparatus for capturing and analyzing light and method embodied therein
US8294794B2 (en) Shadow removal in an image captured by a vehicle-based camera for clear path detection
JP4985651B2 (ja) 光源制御装置、光源制御方法および光源制御プログラム
US8319854B2 (en) Shadow removal in an image captured by a vehicle based camera using a non-linear illumination-invariant kernel
US8823876B2 (en) Image processing apparatus
US20100231712A1 (en) Image capturing apparatus and image capturing method
CN109729256B (zh) 车辆中双摄像装置的控制方法和装置
US20030194110A1 (en) Discriminating between changes in lighting and movement of objects in a series of images using different methods depending on optically detectable surface characteristics
JP6555569B2 (ja) 画像処理装置、移動体機器制御システム及び画像処理用プログラム
EP2889807A2 (en) Image processing device, image processing system, mobile object control apparatus, image processing method, and carrier means
EP2889806A2 (en) Image processing device, image processing system, mobile object control apparatus, image recognition method, and carrier means
US9596410B2 (en) Vision systems and methods for analysing images taken by image sensors
JP6776614B2 (ja) 路面状態判別システムおよび移動体
CN110189259A (zh) 图像去雾霾方法、电子设备及计算机可读存储介质
US20230143446A1 (en) Apparatus for detecting a specular surface in a scene and method for controlling an apparatus for detecting a specular surface in a scene
KR102001339B1 (ko) 두 대의 카메라와 한 개의 led를 사용하는 차량 대 차량 거리 추정 방법 및 그 장치
Deshmukh et al. Development of image dehazing system
JP2015046776A (ja) 撮像装置および画像処理装置
Wolff et al. Polarization vision for object detection

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant