CN1881234A - 图像处理设备、图像处理方法、计算机程序和存储介质 - Google Patents

图像处理设备、图像处理方法、计算机程序和存储介质 Download PDF

Info

Publication number
CN1881234A
CN1881234A CNA2006100927643A CN200610092764A CN1881234A CN 1881234 A CN1881234 A CN 1881234A CN A2006100927643 A CNA2006100927643 A CN A2006100927643A CN 200610092764 A CN200610092764 A CN 200610092764A CN 1881234 A CN1881234 A CN 1881234A
Authority
CN
China
Prior art keywords
region
pixel
candidate region
image processing
candidate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CNA2006100927643A
Other languages
English (en)
Other versions
CN100444189C (zh
Inventor
梅田清
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Publication of CN1881234A publication Critical patent/CN1881234A/zh
Application granted granted Critical
Publication of CN100444189C publication Critical patent/CN100444189C/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • G06T5/77
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30216Redeye defect

Abstract

一种配置成从候选区域中检测示出眼睛的不良色调的图像区域的图像处理设备,所述图像处理设备包括:第一确定单元,所述第一确定单元被配置成进行与基于目标候选区域中的预定颜色分量的不良色调的评价量、以及候选区域的周围区域中的评价量有关的确定,第二确定单元,所述第二确定单元被配置成根据第一确定结果,更新候选区域,并对更新的第二候选区域中的像素,进行与评价量或预定颜色分量有关的确定,和第三确定单元,所述第三确定单元被配置成根据第二确定结果,更新第二候选区域,并对更新的第三候选区域的周围区域中的像素,进行与周围区域的特征量有关的确定。第三确定的计算量大于第一或第二确定的计算量。

Description

图像处理设备、图像处理方法、计算机程序和存储介质
技术领域
本发明涉及图像处理设备和图像处理方法,更具体地说涉及检测示出眼睛的不良色调的图像区域的图像处理技术。
背景技术
已提出了校正可能由来自照相机的闪光引起的眼睛的不良色调的各种方法。一般来说,眼睛的不良色调被称为红眼现象(或者红眼效果)。照明不足的环境可能引起红眼现象,如果用闪光为人或者诸如狗或猫之类的动物拍照的话。
更具体地说,闪光通过张开的瞳孔进入眼睛,并从眼睛的后部反射。此时,红光可从眼底上的毛细管返回。由于瞳孔,即,晶状体的较高透射率,如果被拍照人具有亮色素,那么通常会发生红眼现象。
许多数字照相机具有结构紧凑的机体。在这样结构紧凑的机体中,透镜的光轴被布置成接近闪光光源。当闪光的光源位置与透镜的光轴相邻时,易于发生红眼现象。
减轻红眼现象的方法之一是在拍照之前的预发光,使得被拍照人的瞳孔能够被预先关闭。但是,按照该方法,需要大容量的电池,并且由于预发光,被拍照人可能改变面部表情。
为了校正或减轻红眼,个人计算机或相似设备能够根据数字照相机获得的数字数据处理和重构图像。一般来说,根据数字图像数据校正红眼的方法可被粗略分成三种校正:即,手动校正;半自动校正;和自动校正。
手动校正要求用户操作指示装置,例如鼠标、指示笔、或写字板,或者类似的触摸面板,以指出显示在显示单元上的红眼区域(即,要校正的区域)。
半自动校正要求用户大致指明存在红眼的区域,以及根据用户给出的信息指定红眼的校正范围和进行必要校正的计算机操作。例如,用户能够用指示装置指定围绕红眼的区域,或者眼睛附近的点。计算机规定校正范围,并根据关于指定区域或指定点的信息进行校正。
自动校正不要求用户的任何特殊操作,因为计算机执行完全自动化的操作,包括根据数字图像数据自动检测校正区域和执行校正处理。
按照手动或半自动校正,用户不得不手动指定要校正的部分。例如,如果要求显示包括待校正的区域的放大图像,并指定图像数据上的校正区域,那么对用户来说是麻烦的。如果在个人计算机系统中装备的大屏幕显示器可用,那么这样的指定操作可能较容易。但是,就普通的具有几英寸的小型显示单元的数字照相机或打印机来说,除非用户放大图像并滚动到放大图像的适当部分,否则用户不能找出和指定校正区域。
存在自动校正红眼现象、不需要任何复杂的操作并且有效地实用于装备小型显示单元的小型设备的常规方法。
例如,日本专利申请公开No.11-136498讨论了一种方法,该方法包括下述步骤:从图像检出肤色区域,在所检出区域内搜索并检测构成红眼的像素,和校正构成红眼的像素。
此外,日本专利申请公开No.11-149559讨论了一种方法,该方法包括下述步骤:检出肤色区域,检测具有对应于瞳孔的较低亮度的凹陷区域,和根据检出区域中的两个凹陷区域之间的距离确定眼睛。
此外,日本专利申请公开2000-125320讨论了一种方法,该方法包括下述步骤:检出肤色区域,确定检出的肤色区域是否具有人脸的特征,检测所检出区域中的一组红眼缺陷,评估红眼缺陷的距离和大小,和指定红眼区域。
此外,日本专利申请公开No.11-284874讨论了一种方法,该方法包括下述步骤:自动确定图像是否包括红色瞳孔,检测红色瞳孔的位置和大小,和自动把瞳孔内的红色像素转换成预定颜色的像素。
但是,常规的自动红眼校正方法存在下述问题。
依赖于神经网络的人体肤色检测或面部检测要求搜索大范围的图像数据,以便从红眼区域的检测中获得可靠的结果。换句话说,需要大量的存储器,并且必需大量的计算。对于装备可以数GHz的时钟运算的高性能CPU和几百MB的存储器的个人计算机来说,这样的处理不太困难。但是,数字照相机和打印机不能处理如此大量的图像数据。
此外,除了上述自动校正之外,还存在依赖于饱和度方面的差异来区别红眼区域和周围区域的许多常规方法。但是,基于饱和度的确定不适合应用于色素较暗的人。众所周知,当用RGB系统定义像素值时,饱和度S可由下面的公式(1)表示。
S={max(R,G,B)-min(R,G,B)}/max(R,G,B)    (1)
其中max(R,G,B)表示R、G和B分量中的最大值,min(R,G,B)表示R、G和B分量中的最小值。
按照实验结果,普通日本人的肤色区域在色调(0-359度)中具有集中于0-30度的独特分布。按照用HIS(色调-强度-饱和度)系统的色调表示,接近0度的区域为红色,当色调增大时,颜色逐渐变成黄色。0-30度范围中的R、G和B值具有下述关系。
R>G>B                  (2)
如上所述,与具有亮色素的人相比,具有暗色素的人很少具有更亮的红眼。例如,普通日本人在红眼区和眼睛周围的肤色区中具有下述像素值。
红眼区:(R,G,B)=(109,58,65)
肤色区:(R,G,B)=(226,183,128)
这种情况下,红眼区像素的饱和度为40,而肤色区像素的饱和度为43。两个饱和度值之间没有明显差别。
换句话说,如果被拍照对象(人)色素较暗,那么依赖于饱和度的方法不能确定红眼像素。
发明内容
本发明的目的在于准确地检测示出眼睛的不良色调的图像区域。
根据本发明的一个方面,一种配置成检测示出眼睛的不良色调的图像区域的图像处理设备包括:计算单元、像素抽取单元、区域抽取单元、第一确定单元、更新单元、第二确定单元和检测单元。计算单元被配置成根据预定的颜色分量,计算输入图像的每个像素的不良色调的评价量。像素抽取单元被配置成根据评价量,抽取构成示出不良色调的图像区的候选像素。区域抽取单元被配置成抽取包括候选像素的预定形状的候选区域。第一确定单元被配置成进行与候选区域的周围区域的特征量有关的确定。更新单元被配置成根据第一确定单元获得的确定结果,更新候选区域。第二确定单元被配置成进行与更新的候选区域的周围区域的边缘强度相关的确定。检测单元被配置成根据第二确定单元获得的确定结果,检测示出不良色调的图像区域。
根据本发明的另一方面,配置成检测示出眼睛的不良色调的图像区域的图像处理设备包括:计算单元、像素抽取单元、区域抽取单元、区域确定单元和指定单元。计算单元被配置成根据预定的颜色分量,计算输入图像的每个像素的不良色调的评价量。像素抽取单元被配置成根据评价量,抽取构成示出不良色调的图像区的候选像素。区域抽取单元被配置成抽取包括候选像素的预定形状的候选区域。区域确定单元被配置成进行与候选区域中的评价量及候选区域的周围区域中的评价量相关的第一确定,与候选区域中的像素的预定色调的评价量以及预定颜色分量之一有关的第二确定,与周围区域中的亮度有关的第三确定,与周围区域中的色调和饱和度之一有关的第四确定,和与周围区域中的边缘强度有关的第五确定。指定单元被配置成把满足区域确定单元进行的第一到第五确定至少之一的候选区域指定为校正区。
根据本发明的另一方面,一种检测示出眼睛的不良色调的图像区域的图像处理方法包括:根据预定的颜色分量,计算输入图像的每个像素的不良色调的评价量;根据评价量,抽取构成示出不良色调的图像区的候选像素;抽取包括候选像素的预定形状的候选区域;进行与候选区域的周围区域的特征量有关的确定;根据通过进行与候选区域的周围区域的特征量有关的确定而获得的确定结果,更新候选区域;进行与更新的候选区域的周围区域的边缘强度有关的确定;和根据通过进行与更新的候选区域的周围区域的边缘强度有关的确定而获得的确定结果,检测示出不良色调的图像区域。
根据本发明的另一方面,检测示出眼睛的不良色调的图像区域的图像处理方法包括:根据预定的颜色分量,计算输入图像的每个像素的不良色调的评价量;根据评价量,抽取构成示出不良色调的图像区的候选像素;抽取包括候选像素的预定形状的候选区域;进行与候选区域中的评价量及候选区域的周围区域中的评价量相关的第一确定,与候选区域中的像素的预定色调的评价量以及预定颜色分量之一有关的第二确定,与周围区域中的亮度有关的第三确定,与周围区域中的色调和饱和度之一有关的第四确定,和与周围区域中的边缘强度有关的第五确定;把满足进行的第一到第五确定至少之一的候选区域指定为校正区。
根据本发明的另一方面,一种配置成从候选区域中检测示出眼睛的不良色调的图像区域的图像处理设备包括:第一确定单元,第二确定单元和第三确定单元。第一确定单元进行与基于目标候选区域中的预定颜色分量的不良色调的评价量以及候选区域的周围区域中的评价量有关的确定。第二确定单元根据第一确定单元获得的确定结果,更新候选区域,并对更新的第二候选区域中的像素进行与评价量和预定颜色分量之一有关的确定。第三确定单元根据第二确定单元获得的确定结果,更新第二候选区域,并对更新的第三候选区域的周围区域中的像素进行与周围区域的特征量有关的确定。第三确定单元进行的确定的计算量大于由第一确定单元和第二确定单元之一进行的确定的计算量。
根据本发明的另一方面,一种从候选区域中检测示出眼睛的不良色调的图像区域的图像处理方法包括:进行与基于目标候选区域中的预定颜色分量的不良色调的评价量以及候选区域的周围区域中的评价量有关的第一确定;根据通过进行第一确定获得的确定结果,更新候选区域;对更新的第二候选区域中的像素,进行与评价量和预定颜色分量之一有关的第二确定;根据第二确定获得的确定结果,更新第二候选区域;和对更新的第三候选区域的周围区域中的像素,进行与周围区域的特征量有关的第三确定。第三确定的计算量大于第一确定和第二确定的计算量。
示出眼睛的不良色调的图像区域可被准确地检测。于是,与具有亮色素或暗色素的被拍照人无关,能够恰当地检测示出眼睛的不良色调的图像区域(即,待校正的图像区域)。
参考附图,根据例证实施例的下述详细说明,本发明的其它特征将变得明显。
附图说明
包含在说明书中并构成说明书的一部分的附图图解说明了本发明的实施例,并且与说明一起用于解释本发明的原理。
图1是图解说明能够执行根据第一例证实施例的图像处理的计算机(即图像处理设备)的例证构造的方框图。
图2是表示根据第一例证实施例的自动红眼校正处理的功能方框图。
图3图解说明可从数字照相机或另一成像设备获得的红眼图像。
图4图解说明例证的自适应二值化处理。
图5A和5B图解说明自适应二值化处理的例证结果。
图6A和6B图解说明获得平均值Er(ave)的例证加速方法。
图7图解说明例证的边界(borderline)追踪方法。
图8图解说明例证的边界追踪方法。
图9图解说明追踪方向的直方图的分类方向。
图10图解说明追踪方向的例证直方图。
图11图解说明外接红色区域的例证矩形区域。
图12是图解说明确定是否存在红色圆形区域的例证确定处理的流程图。
图13A-13C图解说明在红眼候选区域的特征量的计算中使用的周围区域的例证定义。
图14A-14B图解说明其中在图像的边缘附近存在红眼候选区域的例证周围区域。
图15A-15C图解说明获得某一区块中的平均值Er(ave)的例证计算区域。
图16是表示确定特征量组的例证过程的流程图。
图17图解说明设定周围区域的例证方法。
图18是图解说明校正候选区域列表中的多个红眼区域之一的例证校正处理的流程图。
图19图解说明校正范围的例证确定。
图20图解说明例证的校正参数设定方法。
图21A和21B图解说明在第二例证实施例中要解决的问题。
图22A图解说明根据第二例证实施例的例证自适应二值化处理。
图22B图解说明根据第二例证实施例的例证自适应二值化处理。
图23图解说明在第三例证实施例中要解决的问题。
图24是图解说明根据第三例证实施例的自动红眼校正处理的功能方框图。
图25是表示由候选区域评价部分进行的例证处理的流程图。
图26图解说明中心距离“Size”。
图27图解说明中心距离“Size”和阈值Th_Size之间的例证关系。
图28A和28B图解说明在第四例证实施例中要解决的问题。
图29是图解说明根据第四例证实施例的红眼校正处理的功能方框图。
图30是图解说明由候选区域连接部分进行的例证处理的流程图。
图31图解说明候选区域列表的例子。
图32A和32B图解说明例证的候选区域连接处理。
图33图解说明根据第五例证实施例的例证的分隔带。
图34是图解说明根据第五例证实施例的抽取红眼区域的例证处理的流程图。
图35是图解说明抽取第N带中的红眼区域的例证处理的流程图。
图36图解说明位于第(N-1)、第N和第(N+1)带的OverlapArea区域中的四个红色圆形区域。
图37图解说明例证的候选区域选择处理。
图38图解说明候选区域列表的一个例子。
图39是根据本发明的第五实施例图解说明例证的校正处理的流程图。
图40图解说明校正行和校正对象区域间的例证关系。
图41图解说明保存在候选区域列表中的红眼区域的例证位置信息。
具体实施方式
例证实施例的下述说明本质上只是例证性的,决不意图限制本发明、其应用或用途。
本领域的普通技术人员已知的处理、技术、设备和材料不详细讨论,但是在适当的地方确定为说明书的一部分。例如,不详细讨论用于信号处理、计算、评价和其它用途的某些电路。但是,相关领域的普通技术人员已知的这些系统和构成这些系统的方法在适当的地方确定为可实施的公开内容的一部分。
注意在说明书内,类似的附图标记指的是附图中的相似项,从而一旦参考一个附图说明了某一项,后续附图中可能不再讨论它。
下面参考附图详细说明例证的实施例。
在例证实施例中描述的图像处理可被包含在可在计算机中操作的打印机驱动器中,以便产生将被输出给打印机引擎的图像信息,或者可被包含在可在计算机中操作的扫描仪驱动器中,以便驱动扫描仪或者另一光学阅读设备。
此外,例证实施例的图像处理可由硬件,比如复印机、传真机、打印机、扫描仪、数字照相机和数字摄像机实现,或者可由提供给这些设备的软件实现。
第一例证实施例
设备构造
图1是图解说明能够执行按照第一例证实施例的图像处理的计算机(即,图像处理设备)的例证构造的方框图。
计算机100包括中央处理器(CPU)101,只读存储器(ROM)102,随机存取存储器(RAM)103,可与监视器113(它可装备有触摸面板)连接的视频卡104,包括例如硬盘驱动器或存储卡的存储设备105,可与网络114连接的网络接口卡(NIC)107,和串行总线接口108,串行总线接口108包括例如通用串行总线(USB)或IEEE1394接口,并且可与指示装置106(例如鼠标、指示笔、或写字板)、键盘113、打印机110、扫描仪111(例如胶片扫描仪)和数字照相机112相连。
计算机100的构成元件(或者功能部件)与系统总线109连接。
CPU 101能够从ROM 102或者存储设备105读取程序(包括在下面的说明中描述的图像处理的程序),并且能够把读出的程序载入用作工作存储器的RAM 103中,以便执行该程序。CPU 101能够按照程序通过系统总线109控制上述构成元件,以实现程序的功能。图1表示了能够实现按照第一例证实施例的图像处理的一般硬件构造。本发明的硬件构造并不局限于图1中公开的硬件构造,并且可按照除去一部分公开的装置或者包括其它装置的方式来修改。
处理的概述
图2是表示按照第一例证实施例的自动红眼校正处理的功能方框图,CPU 101能够执行所述自动红眼校正处理。CPU 101能够从数字照相机112或扫描仪111输入每个像素24比特(即RGB中每一个分别为8位)的数字图像数据。
图3图解说明可从数字照相机112或另一成像设备获得的例证红眼图像。除了由拍照闪光造成的加亮区304之外,图3中所示的眼睛图像包括虹膜区301、瞳孔区302和眼白区303。一般来说,红眼现象可被称为瞳孔区302呈现红色的现象。
图2中所示的红色区域抽取部分202能够从自输入终端201输入的图像数据中抽取红色区域。本例证实施例采用自适应二值化来抽取红色区域,不过存在抽取红色区域的各种方法。红色区域抽取部分202能够抽取不同于红眼的任何红色区域,例如红色交通信号、红色的衣服图案、和红色照明。
根据输入图像数据和与抽取的红色区域相关的信息,红色圆形区域抽取部分203能够从抽取的红色区域中指定具有较圆形状的红色圆形区域。本例证实施例采用“边界追踪”方法来抽取红色圆形区域,不过存在确定每个红色区域的形状的各种方法。红色圆形区域抽取部分203能够把关于抽取的红色圆形区域的位置信息保存到候选区域列表中。
特征量确定部分204能够根据输入的图像数据和候选区域列表,对保存在候选区域列表中的红色圆形区域进行识别表征眼睛的各个特征量的确定处理。表征眼睛的特征量可包括红色圆形区域的饱和度以及红色圆形物的光度(luminosity)(强度)、饱和度、色调以及周围区域的边缘分布。特征量确定部分204比较特征量与预定阈值,并把每个红色圆形区域指定为红眼区域,如果它满足所有条件的话。特征量确定部分204能够把关于每个指定的红眼区域的位置信息保存到候选区域列表中。
根据输入的图像数据和保存关于红眼区域的位置信息的候选区域列表,校正部分205能够进行校正处理,以便校正图像数据上的红眼区域。校正部分205能够把校正后的图像数据输出给输出终端206。校正后的图像数据可被显示在监视器113上,或者可被保存在RAM 103或存储设备105中。此外,校正后的图像数据可通过接口108被发送给打印机110,使得打印机110能够打印图像,或者可通过网络114(包括企业内部网或因特网)从NIC 107被传送给另一计算机或者服务器。
红色区域抽取部分202
红色区域抽取部分202对输入的图像数据应用自适应二值化处理,以便从图像数据中抽取红色区域。更具体地说,红色区域抽取部分202计算表示输入图像数据的每个像素的红色度的红色评价量,并比较该评价量与阈值。当红色评价量大于阈值(即,评价量>阈值)时,红色区域抽取部分202确定目标像素是红色像素。可在目标像素的周围区域中自适应地确定阈值。通过本例证实施例中的“二值化”处理,“1”被分配给红色像素,“0”被分配给其它像素。
图4图解说明由红色区域抽取部分202进行的例证自适应二值化处理。在图4中,输入图像数据401的目标像素402是将在二值化处理中处理的目标像素。红色区域抽取部分202依据下述公式(3),定义表示目标像素402的红色度的评价量Er。
Er=(R-G)/R                  (3)
从公式(3)可知,通过排除B(蓝色)分量,红色区域抽取部分202能够根据R(红色)和G(绿色)分量计算目标像素402的红色度,而不依赖于一般的HIS表达式中的饱和度。利用定义红色评价量Er的公式(3)能够带来下述优点。
例如,由于瞳孔区302的晶状体的透射率不足,因此色素暗淡(或较深)的人不可能具有清晰或明亮的红眼。如前所述,普通日本人的红眼区的估计像素值为(R,G,B)=(109,58,65)。从实验结果可知,就色调来说,日本人的肤色具有集中于从红色(0度)到黄色(60度)的分布。在上面的区域中,R、G和B分量人有R>G>B的关系。眼睛周围的皮肤区域具有(R,G,B)=(226,183,128)的估计像素值。
根据实际值可知,红眼区的像素和眼睛周围的皮肤区域的像素具有较小的B分量。红眼区的像素具有为40的饱和度值,而眼睛周围的皮肤区域的像素具有为43的饱和度值。换句话说,在构成红眼区的像素和构成皮肤区域的像素之间,饱和度值不存在显著的差异。因此,如果自适应二值化处理的阈值是饱和度,那么将难以检测红眼区。
另一方面,当红色评价量Er由公式(3)定义时,即,评价量不依赖于B分量时,红眼区的像素具有为47的红色评价量Er,而眼睛周围的皮肤区域的像素具有为19的红色评价量Er。换句话说,红眼区中的像素的红色评价量Er约为皮肤区域中的像素的红色评价量Er的两倍。
根据前面所述,在色素较暗(较深)的人的红眼的检测中,如果如公式(3)中定义的那样,评价量只由R和G分量定义(即,不包括B分量),即不依赖于饱和度,那么能够准确地抽取构成红眼的像素。但是,评价量Er的定义并不局限于公式(3),即,(R-G)与R的比值。例如,评价量Er可被定义为(R-G)或者R/G。
当如公式(3)中定义的那样,评价量只由R和G分量定义(即,不包括B分量),即不依赖于饱和度时,在具有亮色素的人的红眼的检测中,能够准确地抽取构成红眼的像素。
参见图4,为了使目标像素402二值化,红色区域抽取部分202设定沿一行(line)从目标像素402延伸的窗口区域403,使得像素数“ThWindowSize”存在于目标像素402的左侧(即存在于主扫描方向上的前方区)。红色区域抽取部分202能够获得窗口区403内的像素的红色评价量Er的平均值Er(ave)。像素数“ThWindowSize”可具有等于图像的短边的1-2%的宽度。评价量Er不取负值,因为当计算评价量Er时,下述公式(4)中所示的条件必须被满足。
R>0,并且R>G                 (4)
红色区域抽取部分202使用计算的平均值Er(ave)使目标像素402二值化。为了进行该处理,目标像素402必须满足下述条件。
R>Th_Rmin,R>G,并且R>B              (5)
在公式(5)中,“Th_Rmin”是表示R的下限值的阈值。当上述条件被满足时,红色区域抽取部分202利用下述公式(6)进行二值化处理。
如果Er>Er(ave)+Margin_RGB,那么取值‘1’
如果Er≤Er(ave)+Margin_RGB,那么取值‘0’      (6)
在公式(6)中,“Margin_RGB”表示一个参数。
当目标像素402的红色评价值Er大于窗口区403的平均值Er(ave)与“Margin_RGB”之和时,作为二值化处理的结果,红色区域抽取部分202向目标像素402分配值‘1’。换句话说,目标像素402被抽取为红色区域。
如果持续存在红色区域,那么平均值Er(ave)将变成过大的值。于是,可对平均值Er(ave)设定上限。二值化结果可被保存在RAM 103中不同于分配给输入图像的缓冲区的预定区域中。
红色区域抽取部分202通过在图像的整个区域中把目标像素402从左向右移,对每行输入图像数据进行上述处理。在第一例证实施例中,根据沿着同一行从目标像素402延伸到左侧的窗口内的像素的评价值,计算二值化阈值(即,平均值Er(ave))。
但是,二值化阈值并不局限于特定的阈值。例如,窗口可被设定为包括在目标像素402上的几行(即副扫描方向上的前方区)中位于目标像素402左侧的多个像素的区域(即,主扫描方向上的前方区)。此外,窗口可被设为其中心位于目标像素402的矩形区域。
图5A和5B图解说明自适应二值化处理的例证结果。图5A表示包含在输入图像数据中的红眼及其周围区域的图像。图5B表示由自适应二值化处理产生的二值化图像,自适应二值化处理只抽取红眼的瞳孔区的像素。
此外,为了获得沿主扫描方向设定的窗口内的评价量的平均值Er(ave),可使用下面的加速方法。
图6A和6B图解说明用于获得平均值Er(ave)的例证加速方法。
红色区域抽取部分202计算如图6A中所示设置在目标像素402的左侧的窗口403中的评价量Er,并把计算的评价量之和保存在存储器(例如RAM 103中)。随后,红色区域抽取部分202把计算的评价量之和除以构成窗口403的像素数n,获得平均值Er(ave)。
随后,红色区域抽取部分202把目标像素402右移一个像素。窗口403也右移一个像素。这种情况下,通过从保存的总和中减去像素501的评价量Er,随后加上像素502(即,紧接目标像素402并位于它之前的像素)的评价量Er,能够加速获得图6B中所示的窗口403中的评价量之和。
换句话说,每次目标像素402和窗口403沿该行移动时,红色区域抽取部分202不需要计算窗口403内的每个像素的评价量Er。
红色圆形区域抽取部分203
红色圆形区域抽取部分203根据边界追踪方法抽取红色圆形区域,边界追踪方法是二值化图像处理方法之一。
图7图解说明边界追踪方法。红色圆形区域抽取部分203通过沿主扫描方向和副扫描方向从上端开始扫描图像,对由自适应二值化处理产生的二值化图像应用边界追踪处理。
位于起始点的目标像素(xa,ya),即图7中所示的像素701具有值‘1’。位于目标像素左侧的像素(xa-1,ya)具有值‘0’。位于目标像素左斜上方的像素(xa-1,ya-1)具有值‘0’。位于目标像素之上的像素(xa,ya-1)具有值‘0’。位于目标像素右斜上方的像素(xa+1,ya-1)具有值‘0’。
图7中所示的坐标系的原点位于二值化图像的左上角。红色圆形区域抽取部分203沿反时针方向依次跟踪具有值‘1’的像素,并返回起始点701。当追踪轨迹偏移到图像区域之外,或者朝着与起始点701相比较小的Y坐标区偏离时,红色圆形区域抽取部分203停止追踪,并找出下一起始点。
如果在Y坐标值小于起始点701的Y坐标值的区域中继续追踪移动,那么红色圆形区域抽取部分203将错误地沿着图8中所示的环形区域的内侧跟踪。在图8中所示的例子中,当追踪点沿着环形区域的内侧到达像素802时,追踪点的Y坐标值变得小于起始点像素801的Y坐标值。红色圆形区域抽取部分203从而停止追踪。
在上述追踪处理中,红色圆形区域抽取部分203能够获得追踪目标区的周长、追踪方向的直方图和X及Y方向上的最大值和最小值。可用被跟踪的像素的总数来表示周长。例如,按照7中所示的例子,周长为9个像素,包括起始点像素701。
追踪方向可被分成图9中所示的总共八个方向,作为在追踪操作期间,从一个像素移动到下一像素的可能方向。在图7所示的例子中,按照沿反时针方向从点像素701开始的追踪,移动方向按图9中定义的顺序6→6→7→8→1→2→3→3→4依次变化。图10表示了方向的直方图。
图11表示X和Y方向上的最大值和最小值,它代表存在具有值‘1’的像素的区域,即,围绕红色区域的矩形区。红色圆形区域抽取部分203跟踪每个红色区域的边界,获得上述值,并确定该区域是否是红色圆形区域。
图12是图解说明确定是否存在红色圆形区域的例证确定处理的流程图。首先,红色圆形区域抽取部分203确定红色区域的长宽比是否等于或大于预定的阈值Th_BF_VHRatio(步骤S1201)。红色圆形区域抽取部分203按照下述公式(7)计算长宽比AR。
AR=(ymax-ymin)/(xmax-xmin)    (7)
在公式(7)中,当AR>1时,AR=1/AR
即,长宽比AR可被表示成在0.0-1.0范围中的值。当AR=1.0时,纵向长度等于水平长度。当长宽比AR小于阈值Th_BF_VHRatio(即,AR<Th_BF_VHRatio,步骤S1201中否)时,红色圆形区域抽取部分203确定目标红色区域不是红色圆形区域,并开始搜索下一红色区域(即,处理结束)。
当AR≥Th_BF_VHRatio(即,步骤S1201中是)时,红色圆形区域抽取部分203确定该红色区域是否具有适当的尺寸(步骤S1202)。红色圆形区域抽取部分203考虑两项,即(1)实际像素数的上限和下限,和(2)红色区域与图像的短边或长边的比值,进行与尺寸有关的确定。
首先,就上述项(1)来说,红色圆形区域抽取部分203识别红色区域的水平宽度X(=xmax-xmin)和垂直宽度Y(=ymax-ymin)之间的较小者,并比较识别的较小宽度与预定阈值。更具体地说,红色圆形区域抽取部分203确定识别的较小宽度(即,垂直宽度或水平宽度)是否在上限Th_BF_SizeMax和下限Th_BF_SizeMin之间的范围内。
当识别的较小宽度大于上限或者小于下限时,红色圆形区域抽取部分203确定目标红色区域不是红色圆形区域,并开始搜索下一红色区域。
此外,就上述项(2)来说,红色圆形区域抽取部分203采用下述公式(8)。
Th_BF_RatioMin<min(X,Y)/min(W,H)<Th_BF_RatioMax    (8)
其中X=xmax-xmin,Y=ymax-ymin,W代表输入图像的宽度,H表示输入图像的高度。
当目标红色区域不满足公式(8)时,红色圆形区域抽取部分203确定目标红色区域不是红色圆形区域(即,步骤S1202中否),并开始搜索下一红色区域(即,处理结束)。虽然公式(8)基于比较两个短边的例子,不过也可以比较两个长边。
当红色区域具有适当的尺寸(即,步骤S1202中是)时,红色圆形区域抽取部分203比较周长与理想的圆周,以确定抽取的红色区域是否与圆类似(步骤S1203)。红色圆形区域抽取部分203按照由下面的公式(9)定义的近似关系,根据红色区域的宽度X和高度Y,获得理想的圆周Ci。
Ci=(X+Y)×2×2π/8             (9)
公式(9)基于抽取的红色区域是正方形的假设。理想的圆周Ci定义该正方形的内切圆的圆周。在公式(9)中,“(X+Y)×2”表示包含红色区域的正方形的四边的总长度,“2π/8”表示正方形四边的总长度与该正方形的内切圆的圆周的比值。
红色圆形区域抽取部分203按照下述公式(10)比较上述理想的圆周Ci与周长。当公式(10)不被满足时(步骤S1203中否),红色圆形区域抽取部分203确定抽取的红色区域不是红色圆形区域,并开始搜索下一红色区域,即,结束处理。
min(Ci,Cx)/max(Ci,Cx)>Th_BF_CircleRatio             (10)
在公式(10)中,Cx表示周长。当周长满足公式(10)时,红色圆形区域抽取部分203确定在追踪方向的直方图中是否存在任何偏差(步骤S1204)。
如前所述,在边界追踪处理中,红色圆形区域抽取部分203能够获得图10中所示的追踪方向的直方图。当追踪目标区类似于圆时,在由边界追踪处理产生的直方图中,追踪方向的分布是均匀的。另一方面,当追踪目标区长且窄时,追踪方向的直方图存在偏差。例如,如果追踪目标区具有从右上方延伸到左下方的长且窄的形状,那么图9中所示的方向2和6的频度变大,方向4和8的频度变小。
因此,当公式(11)中表示的所有条件被满足时,红色圆形区域抽取部分203确定目标红色区域是红色圆形区域。当条件中的任意之一不被满足时,红色圆形区域抽取部分203确定目标红色区域不是红色圆形区域,并开始搜索下一红色区域。
sum(f1,f2,f5,f6)<∑f×Th_BF_DirectRatio
sum(f2,f3,f6,f7)<∑f×Th_BF_DirectRatio
sum(f3,f4,f7,f8)<∑f×Th_BF_DirectRatio
sum(f4,f5,f8,f1)<∑f×Th_BF_DirectRatio    (11)
其中,fn表示方向n的频度,sum(fa,fb,fc,fd)表示方向a、b、c和d的频度之和,∑f表示频度之和。
如果预定方向上的频度之和超过公式(11)中的预定比率;即,当追踪方向的分布集中在某一方向上时,红色圆形区域抽取部分203能够确定目标红色区域不是红色圆形区域。此外,按照依据公式(11)的确定,当频度和∑f较小时,确定准确性可能降低。从而,当频度和∑f等于或小于预定值时,红色圆形区域抽取部分203能够跳过步骤S1204的处理,能够直接进行下一步骤S1205。
红色圆形区域抽取部分203把满足步骤S1201-S1204的所有确定(或者如果步骤S1204被跳过,那么步骤S1201-S1203的确定)的每个红色区域确定为红色圆形区域(即,红眼候选区)。红色圆形区域抽取部分203把每个检测到的红色圆形区域的坐标位置保存于在RAM 103中分配的候选区域列表中(步骤S1205)。红色圆形区域抽取部分203重复图12的流程图中所示的边界追踪和确定,直到追踪位置到达图像数据的右下位置为止。
特征量确定部分204
特征量确定部分204对每个抽取的红色圆形区域(即,每个红眼候选区),计算表示人的红眼的各个特征量,并比较计算的特征量与预定阈值,确定抽取的红色圆形区域是否是红眼。
对于记录在由红色圆形区域抽取部分203获得的候选区域列表中的红眼候选区域,特征量确定部分204按照图16的流程图中所示的顺序执行应用于五个特征量组的下述确定。
特征量组0:红色圆形区域与周围区域中的评价量的平均值Er(ave)之间的比较(步骤S10)
特征量组1:与红色圆形区域中的色调、评价量Er、颜色分量的变化相关的确定(步骤S11)
特征量组2:与周围区域中的亮度相关的确定(步骤S12)
特征量组3:与周围区域中的饱和度和色调相关的确定(步骤S13)
特征量组4:与周围区域中的边缘强度相关的确定(步骤S14)
理想的红眼区的红色分量存在于瞳孔区中,并且可明显地与其周围区域区分开。与其它各种特征量相比,这是一个极好的特征量。因此,特征量确定部分204首先执行特征量组0的确定处理(步骤S10),以有效地检测红眼候选区域。
与其它特征量组的确定相比,特征量组1的确定(步骤S11)需要的计算量较少,因为通过只参考红色圆形候选区中的像素,即可进行特征量确定。
特征量组2的确定和特征量组3的确定(步骤S12和S13)需要关于存在于预定周围区域中的像素,把R、G和B分量转换成亮度和色差分量,或者需要把R、G和B分量转换成光度(强度)、饱和度和色调分量。
从而,与特征量组1的确定相比,特征量组2的确定和特征量组3的确定需要较大量的计算。
特征量组4的确定(步骤S14)使用常规已知的边缘检测滤波器,例如Sobel滤波器,并获得边缘强度。与其它特征量组的确定相比,特征量组4的确定需要最大量的计算。
鉴于此,特征量确定部分204按照计算量少的顺序,即,按照识别红眼区的特征的容易性的顺序,进行上述五种确定。
如图16的流程图中所示,当红眼候选区域被确定为非红眼区时,特征量确定部分204跳过随后的确定步骤,以减少总的处理量。
<周围区域的定义>
图13A-13C图解说明用于计算红眼候选区的特征量的周围区域的例证定义。
在图13A-13C中,中心块1301是由红色圆形区域抽取部分203抽取的红眼候选区(红色圆形区域)的外接矩形。
图13A表示包括位于其中心的中心块1301,并且垂直边和水平边为中心块1301的对应边的两倍的例证周围区域。
图13B表示包括位于其中心的中心块1301,并且垂直边和水平边为中心块1301的对应边的三倍的例证周围区域。
图13C表示包括位于其中心的中心块1301,并且垂直边和水平边为中心块1301的对应边的五倍的例证周围区域。
在下面的说明中,“整个周围区域”是通过从矩形周围区域中除去中心块1301而获得的部分。此外,“周围区域中的块”是由包含并且从中心块1301的四边延伸出的四条虚线分割的周围区域的8个块,如图13A-13C中所示。
特征量确定部分204对除特征量组1外的各个特征量组的周围区域应用确定。这种周围区域的设定需要参考尺寸最大为红眼候选区的外接矩形的五倍的区域。从而,能够快速完成确定处理。
图14A和14B图解说明其中在图像的边缘附近存在红眼候选区的例证周围区域。图14A表示红眼候选区的外接矩形(即,块1301)图像的右边缘附近具有小于外接矩形的边长的余缘(margin)。
这种情况下,如果任何像素存在于每块周围区域中,那么特征量确定部分204根据包括在该块周围区域中的像素,进行特征量确定。
图14B表示与图像的右边缘无余缘地相接的红眼候选区的外接矩形(即,块1301)。这种情况下,右上侧(TR)、右侧(R)和右下侧(BR)的三个周围块不包含任何像素。特征量确定部分204不能计算这三个周围块的特征量。这种情况下,第一例证实施例中的特征量确定部分204确定块1301不是红眼区,并从候选区域列表中排除与块1301对应的红眼候选区。
<特征量组0的确定(参见步骤S10)>
在特征量组0的确定中,特征量确定部分204设定包括块1301的三倍长的周围区域,例如如图13B中所示,并对于包括块1301在内的每个块,利用公式(3)计算每个像素的评价量Er。随后,特征量确定部分204计算评价量的平均值Er(ave)。
特征量确定部分204把计算的平均值Er(ave)保存于在RAM 103中分配的数组AEvR[8]中,数组AEvR能够保持9个(0-8)元素。更具体地说,从图13A中所示的左上方块到右下方块,元素0被分配给左上方(TL)块,元素1被分配给上方(T)块,元素2被分配给右上方(TR)块,-----。
随后,对于每个元素i(i=0~8,除了与块1301对应的i=4之外),特征量确定部分204确定下述公式是否被满足。
AEvR[i]<AEvR[4]×Th_FJ0_EvR              (12)
公式(12)的右侧表示通过把块1301中的评价量的平均值AEvR[4]乘以阈值Th_FJ0_EvR而获得的值。公式(12)的左侧表示剩余的八个周围块中的评价量的平均值AEvR[i]。
当公式(12)被满足时,特征量确定部分204确定目标红眼候选区是红眼区。当公式(12)不被满足时,特征量确定部分204确定目标红眼候选区不是红眼区,并取消随后的特征量组的确定,重新开始关于下一红眼候选区的确定。
在下面描述的特征量中,就识别红眼区来说,在公式(12)中定义的评价量Er的比较最可靠。这就是为什么特征量确定部分204首先执行利用公式(12)的处理的原因。不同的实验结果已揭示利用公式(12)的确定对从候选区域列表中排除非红眼区域最有效。因此,通过考虑到识别红眼区的特征的容易性决定确定顺序,特征量确定部分204能够使计算量降至最小。
此外,在块1301的平均值Er(ave)的计算中,适合于计算图15A中所示的菱形的计算区域1501内的像素的评价值Er。
红眼区的形状一般是圆形或椭圆形。从而,红色度较小的像素存在于块1301的四角。从而,当在评价量Er的计算中,存在于块1301四角的像素被排除在外时,块1301中的评价量的平均值Er(ave)不会不希望地降低。
评价值Er的计算区域并不局限于图15A中所示的菱形。例如,块1301的内切圆(参见图15B)或者内切椭圆(参见图15C)可被用于获得相似或更好的计算结果。
<特征量组1的确定(参见步骤S11)>
在特征量组1的确定中,特征量确定部分204通过只参考红眼候选区(即图13A-13C中所示的块1301)中的图像数据,确定是否存在任何红眼区。特征量组1的确定包括下述确定处理。
首先,在红眼候选区中,特征量确定部分204确定具有在±30度内的色调的像素的评价量的平均值Er(ave)是否不小于阈值Th_FJ1_EMin,并且不大于阈值Th_FJ1_EMax。当红眼候选区不满足该确定时,特征量确定部分204从候选区域列表中排除该红眼候选区。色调可由任何公知的方法获得。
随后,在红眼候选区中,特征量确定部分204获得具有在±30度内的色调的像素的评价量Er的最大值和最小值,并计算比值R=最小值/最大值。
在红眼候选区中,评价量Er极大地变化,因此比值R是一个较小的值。因此,特征量确定部分204进行由下述公式(13)定义的确定,并从候选区域列表中排除不满足公式(13)的任何目标红眼候选区。
R<Th_FJ1_EMaxMinRatio                (13)
随后,在红眼候选区中,特征量确定部分204测量R分量的标准偏差。一般来说,红眼区包含亮红色区域和沿瞳孔的边界延伸的暗色区域。因此,R分量具有很大的动态范围。如果红眼区的R分量的偏差被测量,那么其值将是极大的值。因此,在红眼候选区域中,特征量确定部分204按照已知方法测量R分量的标准偏差δr,确定标准偏差δr是否大于阈值Th_FJ1_RDiV。
δr>Th_FJ1_RDiV             (14)
当公式(14)不被满足时,特征量确定部分204从候选区域列表中排除该红眼候选区。虽然上面的确定使用R分量的标准偏差,不过R分量的方差也可被用于进行类似的确定。
作为确定R分量的变化程度的另一种方法,特征量确定部分204能够计算红眼候选区中的邻近像素间的R分量的差分和的平均值SDr(ave),并确定平均值SDr(ave)是否大于阈值Th_FJ1_RDiff(参见公式(15))。
SDr(ave)>Th_FJ1_RDiff                (15)
特征量确定部分204能够使用各种方法来计算邻近像素间的差分和的平均值。
例如,特征量确定部分204能够计算目标像素与8个邻近像素之间,或者目标像素仅与左侧邻近像素之间的差分和的平均值。
此外,特征量确定部分204能够根据G或B分量、亮度值或者评价量Er,进行上述确定。
<特征量组2的确定(参见步骤S12)>
在特征量组2的确定中,特征量确定部分204设定围绕在特征量组1的确定中未被排除、仍留在候选区域列表中的红眼候选区四周的周围区域,并进行与该周围区域中的亮度分量相关的确定处理。例如,特征量组2的确定包括下述确定处理。
首先,特征量确定部分204设定在红眼候选区四周的周围区域(例如,图13C中所示的五倍长区域)。随后,特征量确定部分204计算围绕块1301的周围区域的8个块的平均亮度值Y(ave),并确定平均亮度值Y(ave)是否在阈值Th_FJ2_YMin和阈值Th_FJ2_YMax的范围中。
当平均亮度值Y(ave)不在上述范围中时,即,当块1301的周围极亮或极暗时,特征量确定部分204从候选区域列表中排除目标红眼候选区。在涉及亮度的上述确定中,特征量确定部分204能够获得周围区域中的8个块的平均亮度值Y(ave),或者能够获得周围区域中的每个块的平均亮度值Y(ave),并比较每个平均亮度值Y(ave)与为每个块设定的阈值。
随后,特征量确定部分204设定在红眼候选区周围的两倍长周围区域(参见图13A),并计算围绕块1301的周围区域的8个块的平均亮度值Y(ave)。此外,特征量确定部分204获得8个平均亮度值的最大值Ymax和最小值Ymin。
一般来说,当相对于红眼候选区,把周围区域设定为两倍长大小时,周围区域的亮度极大地变化。从而,特征量确定部分204进行下述确定。
(Ymax-Ymin)>Th_FJ2_MaxMinDiff2           (16)
当公式(16)不被满足时,特征量确定部分204从候选区域列表中排除目标红眼候选区。
另一方面,特征量确定部分204设定在红眼候选区周围的五倍长周围区域(参见图13C),并如上所述计算周围区域的8个块的平均亮度值Y(ave)。此外,特征量确定部分204获得8个平均亮度值的最大值Ymax和最小值Ymin。
一般来说,当相对于红眼候选区,把周围区域设定为具有五倍长的尺寸时,多数周围区域是肤色区域,因此该区域中的亮度值变化不大。因此,特征量确定部分204进行下述确定。
(Ymax-Ymin)<Th-FJ2_MaxMinDiff5               (17)
当公式(17)不被满足时,特征量确定部分204从候选区域列表中排除目标红眼候选区。
<特征量组3的确定(参见步骤S13)>
在特征量组3的确定中,特征量确定部分204设定围绕在特征量组1的确定和特征量组2的确定中未从候选区域列表中排除的红眼候选区的周围区域,并进行与周围区域中的饱和度和色调相关的确定处理。例如,特征量组3的确定包括下述确定处理。
首先,特征量确定部分204设定围绕红眼候选区的周围区域(例如图13C中所示的五倍长区域),并计算围绕块1301的周围区域的8个块的具有色调±Th_FJ3_HRange的像素的比值Rh。由于围绕红眼区的周围区域是肤色区域,因此多数像素的色调包含在上述范围中。
因此,当计算的比值Rh不小于阈值Th_FJ3_HRatio时,特征量确定部分204能够把该区域识别为红眼候选区。当计算的比值Rh小于阈值Th_FJ3_HRatio时,特征量确定部分204从候选区域列表中排除目标红眼候选区。特征量确定部分204能够利用下述公式(18)计算比值Rh。
Rh=Nh/∑N             (18)
其中,Nh表示具有色调±Th_FJ3_HRange的像素的总数,∑N表示包含在8个块中的像素的总数。
随后,特征量确定部分204设定围绕红眼候选区的周围区域(例如图13C中所示的五倍长区域),并计算周围区域中的8个块的平均饱和度S(ave)。随后,特征量确定部分204确定平均饱和度S(ave)是否在阈值Th_FJ3_SMin和阈值Th_FJ3_SMax的范围中。
当平均饱和度S(ave)不在上述范围中时,特征量确定部分204从候选区域列表中排除目标红眼候选区。
可对每个块进行饱和度的上述确定。即,特征量确定部分204能够对周围区域中的每个块计算平均饱和度S(ave),并且能够比较获得的平均饱和度S(ave)与预定阈值。
此外,红眼区的外围是所谓的眼白区。因此,在围绕红眼候选区设定的周围区域(例如图13B中所示的三倍长区域)中,饱和度S与光度(强度)L的比值S/L不大于阈值Th_FJ3_WhitePix。更具体地说,如果存在饱和度S较小、光度(强度)L较大的像素,那么特征量确定部分204可把该区域识别为红眼候选区。如果上述确定结果是否定的,那么特征量确定部分204从候选区域列表中排除目标红眼候选区。
<特征量组4的确定(参见步骤S14)>
在特征量组4的确定中,特征量确定部分204设定围绕在特征量组1-特征量组3的确定中未被排除、仍留在候选区域列表中的红眼候选区的周围区域,并进行与周围区域中的边缘相关的确定处理。
一般来说,在人眼的附近存在非常明显的边缘,可被用作特征量。在下面的说明中,Sobel滤波器被用于边缘检测。但是,其它边缘检测滤波器可被用于进行类似的确定处理。Sobel滤波器众所周知,下面将不再赘述。例如,特征量组4的确定包括下述确定处理。
首先,特征量确定部分204设定围绕红眼候选区的周围区域(例如图13A中所示的两倍长区域),并对周围区域中的每个像素应用Soble滤波处理。随后,特征量确定部分204计算从Sobel滤波处理获得的Sobel输出值的平均值So(ave)。
考虑在人眼的附近存在陡沿的可能性,特征量确定部分204比较平均值So(ave)与阈值Th_FJ4_SobelPow。当平均值So(ave)等于或小于阈值Th_FJ4_SobelPow(即So(ave)≤Th_FJ4_SobelPow)时,特征量确定部分204从候选区域列表中排除目标红眼候选区。
此外,特征量确定部分204设定围绕红眼候选区的周围区域(例如图13B中所示的三倍长区域),并对周围区域中的每个像素应用Soble滤波处理。特征量确定部分204计算从Sobel滤波处理得到的Sobel输出值的最大值和最小值之间的差值Ds。
通常,在人眼附近同时存在陡沿和平坦的肤色区。差值Ds是较大的值。因此,特征量确定部分204比较差值Ds与阈值Th_FJ4_MaxMinDiff。当差值Ds等于或小于阈值Th_FJ4_MaxMinDiff(即,Ds≤Th_FJ4_MaxMinDiff)时,特征量确定部分204从候选区域列表中排除目标红眼候选区。
此外,特征量确定部分204设定围绕红眼候选区的周围区域(例如图13B中所示的三倍长区域),并对周围区域中的每个像素应用Soble滤波处理。随后,特征量确定部分204把各个像素的Sobel输出值作为边缘图像保存于在RAM 103中分配的数组sobel[y][x]中。
随后,特征量确定部分204计算边缘图像的重心位置(Xw,Yx)。特征量确定部分204可利用下述公式(19)获得重心位置(Xw,Yx)。(Xw,Yx)=(∑x·Sobel[y][x]/Sobel[y][x],∑y·Sobel[y][x]/Sobel[y][x])                            (19)
如果目标红眼候选区是人眼,那么重心位置(Xw,Yx)存在于边缘图像的中心附近。因此,特征量确定部分204确定重心位置(Xw,Yx)是否包含在例如块1301中。当重心位置(Xw,Yx)包含在块1301中时,特征量确定部分204把该区域识别为红眼候选区。当重心位置(Xw,Yx)未包含在块1301中时,特征量确定部分204从候选区域列表中排除目标红眼候选区。
此外,特征量确定部分204设定围绕红眼候选区的五倍长周围区域(参见图13C),并对该周围区域中的每个像素应用Sobel滤波处理。特征量确定部分204把各个像素的Sobel输出值作为边缘图像保存在数组Sobel[y][x]中。数组Sobel[y][x]的大小与五倍长周围区域的像素数相同。
随后,在包括块1301的整个周围区域内,特征量确定部分204定义图17中所示的两个区域,即,中心区1601和外部区1602。随后在每个区域中,特征量确定部分204计算保存在数组Sobel[y][x]中的Sobel输出值的平均值。图17表示了比块1301大2.5倍的中心区1601。但是,中心区1601的尺寸并不局限于块1301的尺寸的2.5倍。
在下面的说明中,SPowin表示中心区1601中的Sobel输出值的平均值,SPowout表示外部区1602中的Sobel输出值的平均值。在人眼附近,有陡沿存在于中心区1601中,而不是存在于外部区1602中的趋势。从而,特征量确定部分204进行下述确定。
SPowin/SPowout>Th_FJ4_InOutRatio              (20)
当公式(20)被满足时,特征量确定部分204确定目标红眼候选区是红眼区。如果。如果公式(20)不被满足,那么特征量确定部分204确定目标红眼候选区不是红眼区,并从候选区域列表中排除该目标红眼候选区。
作为上述确定的改进,特征量确定部分204可把每个SPowin和SPowout与独立的阈值进行比较。
最后,特征量确定部分204把在特征量组0-4的全部(或部分)的上述确定中接受的红眼候选区确定为红眼区。特征量确定部分204把最终的红眼区的候选区域列表发送给校正部分205。
校正部分205
校正部分205接收包括R、G和B分量的输入图像数据,和在特征量确定部分204的处理中获得的红眼区的候选区域列表。
图18是图解说明由校正部分205进行的校正候选区域列表中的一个以上的红眼区之一的例证校正处理的流程图。换句话说,校正部分205按照图18中所示的处理,逐一地校正候选区域列表中的红眼区。
首先,校正部分205确定目标红眼区的校正范围(步骤S1701)。图19图解说明了校正范围的例证确定,其中中心的矩形区域是包含在候选区域列表中的红眼区1901。
校正部分205设定具有从红眼区1901的中心延伸出的长半径Lw1和短半径Lh1的椭圆形校正区1902。
校正部分205能够按照下述公式(21)计算Lw1和Lh1。
Lw1=Lw0×CPARAM_AREARATIO
Lh1=Lh0×CPARAM_AREARATIO        (21)
其中Lw0和Lh0表示红眼区1901的半宽度和半高度,CPARAM_AREARATIO表示用于确定校正范围的参数。
随后,校正部分205计算校正区1902中的所需校正参数(步骤S1702)。待计算的参数是椭圆形区域中的最大亮度值Ymax和由公式(3)定义的评价量Er的最大值Ermax。
随后,校正部分205确定目标像素是否存在于椭圆形校正区1902中(步骤S1703)。校正部分205可利用能够计算椭圆形的下述公式(22)完成所述确定。
(x/Lw1)2+(y/Lh1)2≤1                 (22)
其中(x,y)表示目标像素的坐标,坐标系的原点位于目标红眼区的中心。
当目标像素的坐标(x,y)满足公式(22)时,校正部分205确定目标像素存在于校正区1902中,处理流程进行到步骤S1704。当目标像素不存在于校正区1902中时,校正部分205把目标像素移向下一像素(步骤S1710),处理流程随后返回步骤S1703。当目标像素存在于校正区1902中时,校正部分205把目标像素的R、G和B分量值转换成亮度和色差分量的YCC值(步骤S1704)。校正部分205能够使用各种常规已知的转换方法。
随后,校正部分205计算目标像素的评价量(步骤S1705)。评价量是当校正部分205在下一步骤S1706中确定校正量时需要的参数。更具体地说,评价量包括下述三个值:
(1)比值r/r0,其中r表示从红眼区1901的中心到目标像素的距离,r0表示从该中心到椭圆形边界的距离;
(2)比值Er/Ermax,其中Er表示目标像素的评价量,Ermax表示最大评价量;和
(3)比值Y/Ymax,其中Y表示目标像素的亮度,Ymax表示最大亮度值。
随后,根据在步骤S1705中获得的参数,校正部分205按照下述公式(23),计算目标像素的亮度Y的校正量Vy、和色差分量Cr及Cb的校正量Vc(步骤S1706)。
Vy={1-RrTy1}·{1-(1-Re)Ty2}·{1-RyTy3}Vc={1-RrTc1}·{1-(1-Re)Tc2}    (23)
其中Rr=r/r0,Re=Er/Ermax,Ry=Y/Ymax。
校正量Vy和Vc都在0.0-1.0的范围中。当它们逼近1.0时,校正量Vy和Vc变大。校正部分205使用上述三个参数来确定亮度Y的校正量Vy。当目标像素位于远离校正区1902的中心的位置时,校正量Vy较小。此外,当目标像素的评价量Er小于最大值Ermax时,校正量Vy较小。当目标像素的亮度Y接近最大值Ymax时,校正量Vy较小。
降低较明亮像素的校正量Vy对保留眼睛中的加亮区部分(捕获光)有效。另一方面,色差分量Cr和Cb的校正量Yc不包括与亮度Y相关的参数。
在公式(23)中,参数Ty1、Ty2、Ty3、Tc1和Tc2可被恰当设定,使得每个评价量(即,包括在公式(23)中的括弧{}中的值)可被用作直线或一阶曲线(实线)、二阶曲线(虚线)或者三阶曲线(点划线),如图20中所示。
随后,根据校正量Vy和Vc,校正部分205按照下述公式(24)计算校正后的YCC值(步骤S1707)。
Y′=(1.0-Wy·Vy)·Y
C′=(1.0-Wc·Vc)·C              (24)
其中,Y和C是未校正的值,Y′和C′是校正后的值,Wy和Wc是在0.0-1.0范围中的加权值。
当指定正确的强度时,可调整加权值Wy和Wc。例如,通过分别把Wy和Wc都设为0.3、0.7和1.0,能够获得三种(弱、中等和强)级别的校正强度。
当确定了亮度和色差分量的新值时,校正部分205把YCC值转换成RGB值,并把RGB值作为校正后的像素值重写到用于输入图像的存储缓冲器中,或者把获得的RGB值保存到用于保存输出图像的存储缓冲器的预定地址(步骤S1708)。
随后,在步骤S1709中,校正部分205确定目标像素是否是对应于目标红眼区的最后像素。当目标像素不是最后像素(即,步骤S1709中否)时,处理流程进行到步骤S1710,把目标像素移动到下一像素(步骤S1710),并重复上述处理(步骤S1703-S1708)。当目标像素是对应于红眼区的最后像素(即步骤S1709中是)时,校正部分205开始下一红眼区的校正处理,以便完成记录在候选区域列表中的剩余红眼区的校正处理。
按照上述方法,校正部分205输入包括R、G和B分量的图像,把输入图像转换成亮度和色差分量值,校正转换后的值,随后把校正后的值恢复为R、G和B分量。但是,可以使用另一方法。
例如,校正部分205能够把R、G和B分量转换成光度(强度)和饱和值,校正转换后的值,随后把校正后的光度(强度)和饱和度值恢复为R、G和B分量。将获得类似的输出结果。
校正部分205使用目标像素的评价量Er与校正区1902中的最大评价量Ermax的比值Er/Ermax作为确定校正量的参数。但是,校正部分205可以使用其它参数。例如,校正部分205可以使用目标像素的饱和度与校正区1902中的最大饱和度的比值来确定校正量。
如上所述,通过利用定义R和G分量间的关系的评价量Er,而不依赖于与饱和度相关的值,能够检测构成红眼的像素。从而,能够准确地抽取色素较暗(较深)的人的红眼。
此外,通过对与红眼候选像素对应的二值化图像应用边界追踪方法,能够快速抽取红色圆形区域。计算量可被大大降低。
此外,可从红色圆形区域获得红眼的各种特征量,通过评价计算的特征量,能够准确地识别红眼区。
此外,考虑各个特征量确定的效果和计算特征量方面的计算量,可按照优化的顺序进行多个特征量确定,使得能够有效地排除不必要的候选红眼区。因此,能够以最少的处理量快速实现红眼区的检测。
第二实施例
下面说明按照本发明的第二例证实施例的图像处理。在第二例证实施例中,与第一例证实施例类似的构造将用相同的附图标记表示,并且下面不再赘述。
按照在第一例证实施例中描述的自适应二值化处理,在目标像素的左侧(即,主扫描方向上的前方区域)设定预定尺寸的窗口403(参见图4),计算窗口403内的像素的评价量的平均值Er(ave),并依据平均值Er(ave)的阈值,确定目标像素是否构成红色区域。
为了计算阈值,这种方法需要参考少量的像素。处理可被加速。但是,由于窗口403未被设定在目标像素的右侧,因此二值化结果的可靠性取决于处理方向。例如,如果对图5A中所示的图像应用自适应二值化处理,那么如图21中所示,除了瞳孔区(即,红眼区)之外,附图标记2001指示的眼睛的边界可能被错误地抽取为构成红色区域的像素。其原因如下。
按照第一例证实施例,用于目标像素2002二值化的阈值是在目标像素2002的左侧设定的窗口内的像素的评价量的平均值Er(ave)。根据目标像素2002的评价量Er与平均值Er(ave)之间的比较结果进行二值化处理(参见公式(6))。
按照图21A中所示的例子,窗口位于定位于待抽取的瞳孔的左侧的肤色区中。例如,色素明亮的人的肤色区具有(R,G,B)=(151,135,110)的像素值。这种情况下,按照公式(3)计算的评价量Er为11%,它是一个较小的值。另一方面,构成眼睛的边界的目标像素2002具有例如(R,G,B)=(77,50,29)的值。
眼睛边界区的亮度低于肤色区的亮度。按照公式(3)计算的评价量Er为35%。从上述计算结果可看出,眼睛边界区的评价量Er大于窗口中的肤色区的评价量Er。
按照在第一例证实施例中描述的自适应二值化处理,尽管它依赖于参数Margin_RGB的设置,不过目标像素2002将被错误地抽取为构成红色区域的像素。从而,由图21A中所示的坐标(xmin,ymin)和(xmax,ymax)定义的红色区域被抽取。
如果抽取结果被输入红色圆形区域抽取部分203,那么红色圆形区域抽取部分203将对比固有的红色圆形区域更大的区域应用抽取处理。抽取结果将不可靠,并且抽取时间将增大。
如果在目标像素2002的右侧设定相同尺寸的窗口,那么除了肤色区的像素之外,窗口将包括构成眼睛的边界和红眼的瞳孔区的许多像素。于是,位于目标像素2002的右侧的窗口中的评价量的平均值Er(ave)将增大。换句话说,目标像素2002不可能具有与位于其右侧的窗口中的像素的评价量Er相比极大的评价量Er。从而,目标像素2002将不会被错误地检测为构成红色区域的像素。
鉴于此,第二例证实施例说明由红色区域抽取部分202执行的自适应二值化处理,红色区域抽取部分202设定位于目标像素的左侧和右侧的两个窗口。在按照第二例证实施例的自适应二值化处理中,红色区域抽取部分202设定在目标像素402左侧的窗口403,如图22A中所示,随后按照与在第一实施例中描述的方法类似的方法使目标像素402二值化。
随后,红色区域抽取部分202把目标像素402从左边缘移动到右边缘,如图22A中的箭头所示,并把二值化结果保存于在RAM 103中分配的二值化图像缓冲区中。
当目标像素402到达右边缘时,红色区域抽取部分202结束使用从左向右移的目标像素402的二值化处理。
随后,如图22B中所示,在目标像素402沿着同一行从右向左移的情况下,红色区域抽取部分202按照反向方向进行二值化处理。
为此,红色区域抽取部分202在目标像素402的右侧设定窗口404,以便设置二值化阈值。
在上述双向二值化中,红色区域抽取部分202把二值化结果为‘1’的像素识别为构成红色区域的像素,并把该像素保存在二值化图像缓冲区中。
图21B表示可通过双向自适应二值化处理获得的构成红色区域的像素的例子。与可从单向自适应二值化处理获得的结果(参见图21A)相比,构成眼睛边界区的像素可被移除,能够准确地抽取红色区域。
如上所述,当通过双向自适应二值化处理抽取了红色区域时,用于计算二值化阈值的窗口被设定在目标像素的右侧和左侧。构成红色区域的像素可被准确抽取。
第三例证实施例
下面说明按照本发明的第三例证实施例的图像处理。在第三例证实施例中,与第一或第二例证实施例类似的构造将用相同的附图标记表示,并且下面不再赘述。按照第一和第二例证实施例,根据在公式(3)中定义的评价量Er执行自适应二值化处理,以抽取构成红色区域的像素。
按照该方法,构成眼角部分2202(图23中所示)的像素可能被错误地检测为构成瞳孔区2201的像素。眼角部分2202包括许多像素值例如为(R,G,B)=(81,41,31)的许多“暗红色”像素。这些像素的评价量Er为49%,这是一个较大的值。
于是,按照第一或第二例证实施例的自适应二值化处理,眼角部分2202将被检测为通过相当大的像素的组合体。此外,就光度(强度)、色调和饱和度来说,该组合体的边缘和周围区域具有与眼睛类似的特征。
于是,红色圆形区域确定部分203和特征量确定部分204可能错误地把眼角部分2202识别为能够满足所有确定的红眼区。鉴于此,第三例证实施例提供一种能够解决上述问题的方案。
图24是图解说明CPU 101能够执行的、按照第三例证实施例的自动红眼校正处理的功能方框图。与第一例证实施例相比,新增加了候选区域评价部分207。候选区域评价部分207能够参考从特征量确定部分204产生的候选区域列表,评价每个红眼候选区的相对位置和面积,从而重新排列红眼候选区。
更具体地说,作为评价的结果,候选区域评价部分207能够从候选区域列表中排除不适当的红眼候选区。图25是图解说明由候选区域评价部分207执行的例证处理的流程图。现在假定通过特征量确定部分204的处理,总共k(即,第0个到第(k-1)个)区域可被抽取为红眼候选区(总的检测数Ne=k)。
首先,候选区域评价部分207把总的检测数Ne设定到计数器k(步骤S2499)。随后,候选区域评价部分207计算第k个红眼候选区(下面称为“区域k”)的中心位置和大小(步骤S2500)。候选区域评价部分207可获得作为矩形区域抽取的红眼候选区的短边的长度,作为代表尺寸。随后,候选区域评价部分207把计数器i初始化为0(步骤S2501)。之后,候选区域评价部分207计算保存在候选区域列表中的另一红眼候选区(下面称为“区域i”)的中心位置和大小(步骤S2502)。之后,候选区域评价部分207比较区域k的面积(下面称为“面积k”)与区域i的面积(下面称为“面积i”)(步骤S2503)。
当面积i小于面积k(即,步骤S2503中否)时,候选区域评价部分207把计数器i加1(步骤S2512)。处理流程随后返回步骤S2502。当面积i不小于面积k时,即,当存在面积大于区域k的面积的红眼候选区(即步骤S2503中是)时,候选区域评价部分207计算图26中所示的区域k和i之间的中心距离“Size(大小)”(步骤S2504)。随后,根据中心距离“Size”,候选区域评价部分207计算评价大小和进行确定所需的阈值Th_Size(步骤S2505)。
图27图解说明中心距离“Size”和阈值Th_Size之间的例证关系,其中横坐标表示中心距离,纵坐标表示阈值Th_Size。此外,参数Sa、Sb、La和Lb可被设为适当的值,例如La=3.0,Lb=5.0,Sa=1.0和Sb=2.0。根据上面的参数设置,当中心距离“Size”不大于区域k的尺寸(即短边长度)的三倍时,阈值Th_Size为1.0。
此外,当中心距离“Size”在区域k的尺寸的3倍-5倍的范围内时,阈值Th_Size可被确定为图27中所示的直线上的一个值。此外,当中心距离“Size”超过区域k的尺寸的5倍时,候选区域评价部分207跳过该确定处理。
随后,候选区域评价部分207比较面积i与面积k×Th_Size。当面积i不小于面积k×Th_Size时,即,当在区域k的附近存在大于区域k的红眼候选区(步骤S2506中是)时,候选区域评价部分207确定区域k不是红眼区,并从候选区域列表中排除区域k(步骤S2507)。之后,候选区域评价部分207把总的检测数Ne减1(步骤S2508)。处理流程随后进行到步骤S2510。
当面积i小于面积k×Th_Size(即,步骤S2506中否)时,处理流程进行到步骤S2509,确定i是否等于k-1。当i小于k-1(即,步骤S2509中否)时,候选区域评价部分207把计数器i加1(步骤S2512),处理流程返回步骤S2502。当i等于k-1(即,步骤S2509中是)时,处理流程进行到步骤S2510。
在步骤S2510中,候选区域评价部分207把计数器k减1。随后,候选区域评价部分207确定k是否等于0(步骤S2511)。当k大于0时(即,步骤S2511中否)时,处理流程返回步骤S2500。当k等于0(即步骤S2511中是)时,候选区域评价部分207终止该处理。
通过上述确定处理,候选区域评价部分207能够从候选区域列表中除去不必要的红眼候选区。如上所述,当在红眼候选区附近存在较小的红眼候选区时,可从候选区域列表中排除所述较小的红眼候选区。从而,能够解决上述问题。
第四例证实施例
下面说明按照本发明的第四例证实施例的图像处理。在第四例证实施例中,与第一、第二或第三例证实施例类似的构造将用相同的附图标记表示,并且下面不再赘述。按照在第一例证实施例中描述的自适应二值化处理,依据红眼的加亮区,红眼区可被分成两个区域。
图28A图解说明例证的放大的红眼,它包括虹膜区2701、红色瞳孔区2702和由闪光产生的加亮(白色)区2703。众所周知,红眼现象由闪光造成。许多情况下,加亮区(即,闪光的反射)存在于拍摄的图像数据的瞳孔区2702中。这也被称为捕获光。
一般来说,加亮区是瞳孔中对红眼检测处理没有任何不利影响的微点。但是,取决于拍照条件,加亮区可能具有与瞳孔区可比的较大尺寸,或者可能是窄长的加亮区2703,如图28A中所示。
如果对这样的图像数据应用按照第一例证实施例的自适应二值化处理,那么加亮区2703的评价量Er将是极小的值,因此加亮区2703不能被识别为红眼的一部分。从而,如图28B中所示,瞳孔区被分成二值化图像中的两个区域2704和2705。如果对分割区域应用后续处理,那么瞳孔区2702将不被识别为红眼区。为了解决该问题,第四例证实施例提供连接邻近的红色圆形区域的处理。
图29是图解说明CPU 101能够执行的、按照第四例证实施例的自动红眼校正处理的功能方框图。与第三例证实施例相比,新增加了候选区域连接部分208。
候选区域连接部分208能够根据由红色圆形区域抽取部分203抽取并保存在候选区域列表中的红色圆形区域的左上角坐标和右下角坐标,确定两个邻近的红色圆形区域是否应被连接为单一的红色圆形区域。
图31表示候选区域列表的一个例子,其中记录了四个红色圆形区域,不过红色圆形区域的实际数目将升高到数十~数千。
图30是图解说明由候选区域连接部分208执行的例证处理的流程图。首先,候选区域连接部分208把计数器i初始化为0(步骤S2901),另外把计数器j初始化为i(步骤2902)。随后,候选区域连接部分208确定记录在候选区域列表中的第i个和第j个红色圆形区域(下面称为“区域i”和“区域j”)是否应被连接(步骤S2903)。
更具体地说,如图32A中所示,候选区域连接部分208设定一个包含具有宽度Wi和高度Hi(单位:像素数)的区域i及具有宽度Wj和高度Hj的区域j的矩形区域。候选区域连接部分208计算该矩形区域的宽度Wij和高度Hij。随后,利用下面的公式(25),候选区域连接部分208确定区域i和区域j是否彼此相邻,并且大小相似。
(Wi·Hi+Wj·Hj)/(Wij·Hij)>Th_J            (25)
其中,0<阈值Th_J≤1.0
即,候选区域连接部分208计算区域i的面积与区域j的面积之和,计算获得的总和与包含区域i和j的矩形区域的面积的比值。当该比值大于阈值Th_J时,区域i和区域j彼此相邻,并且大小相似。如果区域i和区域j处于图32B中所示的位置关系,那么用公式(25)计算的比值较小,因此候选区域连接部分208确定这两个区域i和j不应被连接。
当步骤S2903的确定结果为否(即,当两个区域i和j不应被连接)时,候选区域连接部分208把计数器j加1(步骤S2908),处理流程返回步骤S2903。当步骤S2903的确定结果为是(即,当两个区域i和j应被连接)时,候选区域连接部分208确定与未连接的区域相比,连接后的区域是否类似于正方形(步骤S2904)。更具体地说,候选区域连接部分208可把下面的公式(26)用于步骤S2904的确定。
min(Wij,Hij)/max(Wij,Hij)>max{min(Wi,Hi)/max(Wi,Hi),min(Wj,Hj)/max(Wj,Hj)}                 (26)
按照公式(26),包含区域i和j的矩形区域的长宽比(不大于1.0)与区域i的长宽比和区域j的长宽比中的较大值相比较。当在公式(26)中,左侧大于右侧时,可确定包含区域i和j的矩形区域类似于正方形。当公式(26)被满足时,连接的矩形区域类似于正方形,从而红色圆形区域具有圆形形状。
当公式(26)不被满足时,候选区域连接部分208把计数器j加1(步骤S2908),处理流程返回步骤S2903。当公式(26)被满足时,候选区域连接部分208用包含区域i和j的矩形区域的坐标替换候选区域列表中的第i个坐标信息,并从候选区域列表中删除第j个位置信息(步骤S2905)。
随后,候选区域连接部分208确定计数器j是否已达到与列表的末端对应的最大值(步骤S2906)。
当计数器j还没有达到最大值(即,步骤S2906中否)时,候选区域连接部分208把计数器j加1(步骤S2908),处理返回步骤S2903。当计数器j达到了最大值(即,步骤S2906中是)时,处理流程进行到步骤S2907,确定计数器i是否达到了与列表的末端对应的最大值。
当计数器i还没有达到最大值(即,步骤S2907中否)时,候选区域连接部分208把计数器i加1(步骤S2909),处理返回步骤S2902。当计数器i达到了最大值(即,步骤S2907中是)时,候选区域连接部分208结束处理。
通过上面的确定处理,候选区域连接部分208能够连接由加亮区分开并记录在候选区域列表中的两个红色圆形区域。这样,在一个红色圆形区域存在于一个类似的候选红色圆形区域附近时,候选区域连接部分208确定两个区域的连接是否可被识别为一个红眼区(即,确定外接矩形是否类似于正方形)。
通过上述处理,候选区域连接部分208通过连接由在瞳孔区中产生的加亮区分开的两个邻近的红色圆形区域,能够恰当地重构红眼区。
第五例证实施例
下面说明按照本发明的第五例证实施例的图像处理。在第五例证实施例中,与第一、第二、第三或第四例证实施例类似的构造将用相同的附图标记表示,并且下面不再赘述。
第五例证实施例提供一种利用吞吐量有限的CPU和存储容量较小的存储器(例如RAM)实现分别在第一到第四例证实施例中描述的图像处理的方法。例如,复印机、打印机、数字照相机、扫描仪和多功能外设具有包括图像处理部分的图像输入/输出装置。这些电子装置具有几百kB到几MB的可用工作存储器。同时,由于高分辨率的缘故,高级数字照相同的拍摄能力超过10兆像素。
为了利用工作存储器的有限容量进行从如此高精确的图像中检测红眼区的处理,有效的是降低输入图像的分辨率。例如,通过沿水平和垂直方向每隔一个像素对8兆像素的输入图像进行二次抽样,8兆像素的输入图像可被缩减为2兆像素的图像(即,分辨率降低到1/4水平)。这种情况下,保存图像所需的工作存储器容量可被降低到1/4水平。
但是,即使输入图像可被缩减为2兆像素的图像,就RGB 24比特来说,为了保存2兆像素的缩减图像,需要大约6MB的工作存储器。装备大容量RAM的个人计算机或工作站能够提供充足的存储容量。但是,为了提供所需的存储容量(即,约6MB的工作存储器),上述电子装置必须管理有限的工作存储器容量的使用。
鉴于此,第五例证实施例提供一种方法,它包括减小输入图像,把减小的图像分成多个条带,并以一个条带为增量连续抽取红眼区。
此外,在第五例证实施例中,当图像被分成多个条带时,形成重叠区,使得能够确实检测存在于两个条带的边界上或边界附近的红眼区,如图33中所示。在图33中,附图标记3201表示输入图像的缩小图像,BandHeight表示构成一个条带的行数。对Width×BandHeight(单位:像素数)的图像面积应用红眼区的抽取处理。
此外,按照第五例证实施例的条带划分在待处理图像的两个连续的条带间形成一个具有行数OverlapArea的重叠区。上述条带划分使得能够确实抽取存在于条带边界上的红眼区3202。
图34是图解说明图像输入/输出装置中的CPU能够执行的、按照第五例证实施例的抽取红眼区的例证处理的流程图。首先,CPU把计数器N初始化为0(步骤S3301),随后产生第N个条带的缩小图像(步骤S3302)。CPU能够利用简单的稀疏方法产生缩小的图像。例如,图像输入/输出装置的存储器(例如安装在装置中的闪速存储器或硬盘,或者外部连接的存储卡)可保存8兆像素的图像。
在步骤S3302中,CPU访问存储器中的图像数据。当存储器保存JPEG格式的图像数据时,CPU对初始的MCU(即,最小编码单元)块解码,并把解码后的图像数据保存在工作存储器的预定区域中。MCU块的大小为例如16×8像素。随后,通过每隔一个像素对解码的图像数据二次抽样,CPU产生8×4像素的图像数据,并把产生的图像数据保存在工作存储器中的(为抽取的红眼区分配的)图像存储区中。CPU重复上述处理,直到(为抽取的红眼区分配的)图像存储区充满与BandHeight行数对应的图像为止。通过上面的处理,CPU能够获得由把8兆像素的图像缩小到2兆像素的图像产生的条带图像。
除了上述稀疏方法之外,CPU可使用各种方法,例如最近邻内插法或线性缩小法来缩小图像。借助上述处理,当从缩小的图像获得第N条带图像时,CPU抽取第N条带的红眼区(步骤S3303)。
图35是图解说明能够抽取第N条带的红眼区的CPU的例证处理(步骤S3303)的流程图。首先,CPU对缩小的图像数据应用在上述例证实施例中描述的自适应二值化处理(步骤S3401)。CPU把处理结果(即,红色区域的二值化图像)保存在独立于缩小图像的存储区分配的存储区中。
这种情况下,由于OverlapArea表示在缩小的图像上形成的重叠区,因此OverlapArea区的处理已在对第(N-1)条带的图像数据的在先处理中完成。于是,当N>0时,CPU能够跳过OverlapArea区的处理,能够重新使用在第(N-1)条带图像的处理中获得的结果,从而能够提高处理速度。
随后,CPU对二值化结果(即,红色区域)应用在上述例证实施例中描述的边界追踪处理,以便从条带图像中抽取红色圆形区域(参见步骤S3402)。
随后,CPU进行候选区域选择处理以便从多个抽取的红色圆形区域中,选择CPU对其应用特征量确定处理的红色圆形区域(步骤S3403)。图36是位于第(N-1)、第N和第(N+1)条带的OverlapArea区中的四个红色圆形区域的例证图解。例如,红色圆形区域3603不仅存在于第N条带中,而且存在于第(N+1)条带中。当CPU对第N条带和第(N+1)条带进行特征量确定时,如果红色圆形区域位于OverlapArea区中,那么将要求CPU处理同一红色圆形区域两次。这效率不高。
从而,最好CPU确定是应在第N条带的处理中还是应在第(N+1)条带的处理中,进行对红色圆形区域3603的特征量确定。如果在第(N+1)条带的处理中进行特征量确定,那么红色圆形区域3601的周围区域将在上端被剪切。
另一方面,如果在第N条带的处理中进行特征量确定,那么CPU能够完全处理红色圆形区域3601的周围部分。因此,CPU能够对红色圆形区域3603从第N条带获得可靠的确定结果。根据上面所述,位于OverlapArea区域中的红色圆形区域的特征量确定应在能够完全包含该红色圆形区域的周围区域的条带中进行。
因此,当红外圆形区域存在于OverlapArea区中时,在第五例证实施例中进行的候选区域选择处理(步骤S3403)包括预测从红色圆形区域的上端到第(N+1)条带的上端的距离UPLen,并计算从红色圆形区域的下端到第N条带的下端的距离BTLen,如图37中所示。
关于距离UPLen的预测,由于第(N+1)条带的处理未完成,因此CPU预测在第(N+1)条带中红色圆形区域的位置。当UPLen<BTLen时,CPU在第N条带的处理中进行目标红色圆形区域的特征量确定。当UPLen≥BTLen时,CPU在第(N+1)条带的处理中进行目标红色圆形区域的特征量确定。
当未在第N条带的处理中进行目标红色圆形区域的特征量确定时,CPU从第N条带的候选区域列表中排除该红色圆形区域。类似地,CPU对图36中所示的红色圆形区域3604计算距离UPLen和BTLen,并获得关系UPLen>BTLen。从而,CPU在第(N+1)条带的处理中进行红色圆形区域3604的特征量确定。
此外,根据类似的确定,CPU在第(N-1)条带的处理中进行红色圆形区域3601的特征量确定,在第N条带的处理中进行红色圆形区域3602的特征量确定。
这样,按照候选区域选择处理(图35中的步骤S3403),CPU计算从OverlapArea区中的目标红色圆形区域的上端和下端到条带的上端和下端的距离(余缘),并确定其中应进行目标的特征量确定的较好条带。于是,CPU能够避免不必要地重复OverlapArea区域中的红色圆形区域的特征量确定。
返回图35,在步骤S3404中,CPU对在候选区域选择处理(步骤S3403)中选择的红色圆形区域应用在上述例证实施例中描述的特征量确定处理。从而,CPU计算校正识别为红眼区的区域所必需的校正参数(步骤S3405),并把与红眼区的信息结合的计算参数添加到候选区域列表中,如图38中所示(步骤S3406)。
要添加的参数是在校正量Vy和Vc的计算中需要的校正区的最大亮度值Ymax和最大评价量Ermax(参见公式(23))。
参见图34,在完成图35中所示的第N条带中的红眼区的抽取处理(步骤S3303)之后,CPU确定是否完成了最后的条带的处理(步骤S3304)。当完成了所有条带的处理(即,步骤S3304中是)时,CPU结束处理。否则,CPU把计数器N加1(步骤S3305),处理流程返回步骤S3302。
图39是图解说明按照第五例证实施例的例证校正处理的流程图。首先,CPU转换红眼区的位置信息(步骤S3801)。在第五例证实施例中,CPU对缩小的图像进行红眼区的抽取处理,如上所述,因为CPU以图像输入/输出装置的内置处理的形式,执行红眼区抽取和校正处理。
但是,校正目标图像是还未被缩小的高分辨率图像。图像输出装置,例如打印机可形成具有在图像的缩小前的打印(输出)分辨率的展开图像,或者可旋转该图像。因此,CPU必须参考缩小率或展开率(即,可变的放大率),或者旋转角度,转换从缩小的图像抽取的红眼区的位置信息。
如图41中所示,保存在候选区域列表中的位置信息包括红眼区的左上角坐标(xt0,yt0)和右下角坐标(xb0,yb0)。当W0和H0表示缩小图像的水平方向和垂直方向上的像素数,W1和H1表示校正目标图像的水平方向和垂直方向上的像素数时,CPU按照下面的公式(27)计算校正目标图像上的红眼区的坐标。
(xt1,yt1)={int(xt0·k),int(yt0·k)}(xb1,yb1)={int(xb0·k),int(yb0·k)}               (27)
其中k=W1/W0,int( )是不超过括号中的值的最大整数,(xt1,yt1)表示校正目标图像上的红眼区的左上角的坐标,(xb1,yb1)表示校正目标图像上的红眼区的右下角的坐标。
在完成步骤S3801的处理(即,当校正目标图像上的红眼区的坐标被确定之后),CPU如第一例证实施例中描述的那样,设定围绕红眼区的椭圆形区域。随后,CPU对包含在该椭圆形区域中的像素(即校正目标像素)应用下述处理。
首先,CPU把计数器R初始化为0(步骤S3802),并获得校正目标图像的第R行的图像数据(步骤S3803)。在第五例证实施例中,CPU以校正目标图像上的一行为增量进行校正处理。但是,CPU能够以包括预定行数的一个条带为增量进行校正处理。
通过展开按照JEPG格式压缩的、并保存在图1中所示的存储设备105或存储卡中的预定行数的图像数据,获得一行或多行的展开图像数据,CPU能够获得校正目标图像的图像数据。
随后,CPU确定校正目标像素是否包含在第R行的图像数据中(步骤S3804)。在按照第五例证实施例的校正处理中,CPU设定围绕红眼区(即,矩形区域)的椭圆形区域作为校正目标区。对于保存在候选区域列表中的所有红眼区,CPU确定第R行是否位于校正目标区的上端和下端之间。
当第R行不包括任何校正目标像素时,CPU把计数器R加1(步骤S3807),处理流程随后返回步骤S3803。例如,按照图40中所示的例子,第R行包括在围绕红眼区4003设置的校正目标区4002中。
因此,CPU对包括在第R行的校正目标区4002中的像素应用在第一例证实施例中描述的校正处理(步骤S3805)。如步骤S3405中所示(图35),CPU已获得最大亮度值Ymax和最大评价量Ermax,并把它们保存在候选区域列表中。从而,CPU可把保存的值用于校正处理。
通过重复上述处理,直到第R行变成步骤S3806的确定中的最后一行,CPU可对整个输入图像应用校正处理。校正后的图像数据可被保存在例如存储设备105中,或者在完成颜色变换和伪灰度处理之后,可由打印机110打印在记录纸上。
这样,缩小的输入图像可被分成多个条带。可以一个条带为增量进行红眼区抽取处理。从而,即使可用的存储容量极小,也能够实现在第一到第四例证实施例中描述的红眼区抽取和校正处理。
此外,当分割图像时,在邻近的条带之间形成重叠区,使得能够确实抽取存在于条带边界上或者边界附近的红眼区。红眼区抽取部分可被包含在成像设备或另一图像输入装置中,红眼区校正部分可被包含在打印设备或者另一图像输出装置中。
变更/变形的例证实施例
按照上述例证实施例,每个像素的评价量Er被定义为从R和G分量值获得的评价量,而不依赖于B分量值。但是,每个像素的评价量Er可由例如下述公式(28)定义。在下面的公式(28)中,当系数k被设为0或者小于系数i和j时,能够获得类似的效果。系数i,j和k是加权值,可以是负值。
Er=(i·R+j·G+k·B)/R                 (28)
此外,像素值可被转换到Lab或YCbCr的另一色彩空间中,可在不利用蓝色分量的情况下,或者用蓝色分量的较小加权,定义评价量Er。
其它例证实施例
本发明可适用于包括多个设备(例如主机计算机,接口设备,读取器,打印机,或者相关领域的普通技术人员已知的其它有关或等同设备和/或方法)的系统,或者适用于单一设备(例如复印机,传真设备,或者相关领域的普通技术人员已知的其它有关或等同设备和/或方法)。此外,为了实现本发明,通过存储介质(或者记录介质),用于实现上述例证实施例的功能的程序代码(软件)可被提供给系统或设备。系统或设备中的计算机(或CPU或微处理器(MPU))能够从存储介质读取程序代码,并执行读出的程序。
这种情况下,从存储介质读出的程序代码能够实现例证实施例的功能。可以使用程序的等同物,只要它们具有可比的功能。因此,当用计算机实现本发明的功能或处理时,安装在计算机中的程序代码和保存程序的记录介质也被用于实现本发明。
换句话说,本发明包含能够实现本发明的功能或处理的计算机程序,或者能够保存所述程序的任何记录介质。这种情况下,程序的类型可选自目标代码、解释程序和操作系统(OS)脚本数据任意之一。提供程序的记录介质可以是例如软盘、硬盘、光盘、磁光盘(MO)、紧致盘-ROM(CD-ROM)、可记录光盘(CD-R)、可重写光盘(CD-RW)、磁带、非易失性存储卡、ROM或者数字通用光盘(DVD)(例如DVD-ROM,DVD-R)。
提供程序的方法包括利用客户计算机的浏览功能,访问因特网上的主页,当主页允许每个用户把计算机程序或者具有自动安装功能的程序的压缩文件下载到用户的硬盘或另一记录介质上时。
此外,程序代码可被分成多个文件,使得可从不同的主页下载各个文件。可以使用允许众多用户下载程序文件使得能够在他们的计算机上实现本发明的功能或处理的WWW服务器。
此外,对程序加密并把加密的程序保存在CD-ROM或者可比的记录介质上是一种把程序分发给用户的例证方法。授权用户(即,满足预定条件的用户)被允许从因特网上的主页下载密钥信息。用户可利用获得的密钥信息对程序解密,并且能够把程序安装在他们的计算机上。当计算机读取和执行安装的程序时,可以实现上述例证实施例的功能。
此外,不仅上述例证实施例的功能可由执行程序的计算机实现,而且在计算机上运行的OS也能够根据程序的指令,执行部分或全部的实际处理。
此外,从存储介质读出的程序代码可被写入到在计算机中装备的功能扩展板的存储器中,或者被写入与计算机连接的功能扩展单元的存储器中。这种情况下,根据程序的指令,设置在功能扩展板或功能扩展单元上的CPU能够执行部分或全部处理,使得能够实现上述例证实施例的功能。
虽然参考例证实施例说明了本发明,不过应当理解本发明并不局限于公开的例证实施例。下述权利要求的范围将被给予最广泛的解释,以便包含所有修改、等同的结构和功能。

Claims (44)

1、一种图像处理设备,配置成检测示出眼睛的不良色调的图像区域,所述图像处理设备包括:
计算单元,所述计算单元被配置成根据预定的颜色分量,计算对输入图像的每个像素的不良色调的评价量;
像素抽取单元,所述像素抽取单元被配置成根据所述评价量,抽取构成示出不良色调的图像区的候选像素;
区域抽取单元,所述区域抽取单元被配置成抽取包括候选像素的预定形状的候选区域;
第一确定单元,所述第一确定单元被配置成进行与候选区域的周围区域的特征量有关的确定;
更新单元,所述更新单元被配置成根据第一确定单元获得的确定结果,更新候选区域;
第二确定单元,所述第二确定单元被配置成进行与更新的候选区域的周围区域的边缘强度相关的确定;和
检测单元,所述检测单元被配置成根据第二确定单元获得的确定结果,检测示出不良色调的图像区域。
2、按照权利要求1所述的图像处理设备,其中评价量是从红色分量大于绿色分量的像素获得的比值(R-G)/R,其中R表示红色分量,G表示绿色分量。
3、按照权利要求1所述的图像处理设备,其中计算单元被配置成根据输入图像的红色和绿色分量计算评价量。
4、按照权利要求1所述的图像处理设备,其中应用于输入图像的蓝色分量的权重小于应用于红色和绿色分量的权重,计算单元被配置成根据输入图像的红色、绿色和蓝色分量计算评价量。
5、按照权利要求1所述的图像处理设备,其中周围区域的特征量是亮度、色调和饱和度之一。
6、按照权利要求1所述的图像处理设备,其中第二确定单元被配置成进行这样的确定,即,包括设定围绕更新的候选区域的周围区域、计算周围区域中的每个像素的边缘强度、计算边缘强度的平均值、和如果平均值小于预定值则确定候选区域不是校正区。
7、按照权利要求6所述的图像处理设备,其中第二确定单元还被配置成进行这样的确定,即,包括计算边缘强度的最大值与最小值之间的差值、如果所述差值小于预定值则确定候选区域不是校正区。
8、按照权利要求7所述的图像处理设备,其中第二确定单元还被配置成进行这样的确定,即,包括计算边缘强度的重心位置、如果所述重心位置不存在于周围区域的中心附近则确定候选区域不是校正区。
9、按照权利要求8所述的图像处理设备,其中第二确定单元还被配置成进行这样的确定,即,包括把周围区域分成中心区域和外部区域、分别计算中心区域和外部区域中的边缘强度的平均值、如果中心区域中的平均值与外部区域中的平均值的比值小于预定值则确定候选区域不是校正区。
10、按照权利要求9所述的图像处理设备,其中第二确定单元还被配置成进行这样的确定,即,包括如果中心区域中的平均值小于预定值则确定候选区域不是校正区。
11、按照权利要求10所述的图像处理设备,其中第二确定单元还被配置成进行这样的确定,即,包括如果中心区域中的平均值大于预定值则确定候选区域不是校正区。
12、一种图像处理设备,配置成检测示出眼睛的不良色调的图像区域,所述图像处理设备包括:
计算单元,所述计算单元被配置成根据预定的颜色分量,计算对输入图像的每个像素的不良色调的评价量;
像素抽取单元,所述像素抽取单元被配置成根据所述评价量,抽取构成示出不良色调的图像区的候选像素;
区域抽取单元,所述区域抽取单元被配置成抽取包括候选像素的预定形状的候选区域;
区域确定单元,所述区域确定单元被配置成进行与候选区域中的评价量及候选区域的周围区域中的评价量相关的第一确定,与候选区域中的像素的预定色调的评价量以及预定颜色分量之一有关的第二确定,与周围区域中的亮度有关的第三确定,与周围区域中的色调和饱和度之一有关的第四确定,和与周围区域中的边缘强度有关的第五确定;和
指定单元,所述指定单元被配置成把满足区域确定单元进行的第一到第五确定中至少之一的候选区域指定为校正区。
13、按照权利要求12所述的图像处理设备,其中评价量是从红色分量大于绿色分量的像素获得的比值(R-G)/R,其中R表示红色分量,G表示绿色分量。
14、按照权利要求12所述的图像处理设备,其中计算单元被配置成根据输入图像的红色和绿色分量计算评价量。
15、按照权利要求12所述的图像处理设备,其中应用于输入图像的蓝色分量的权重小于应用于红色和绿色分量的权重,计算单元被配置成根据输入图像的红色、绿色和蓝色分量计算评价量。
16、按照权利要求12所述的图像处理设备,其中像素抽取单元被配置成通过在目标像素附近设定预定窗口,根据包括在窗口区域中的像素的评价量确定阈值,并参考所述阈值使目标像素的评价量二值化。
17、按照权利要求16所述的图像处理设备,其中像素抽取单元被配置成设定与沿着从目标像素延伸出的一行的多个像素对应的窗口区。
18、按照权利要求16所述的图像处理设备,其中像素抽取单元被配置成通过沿着行方向扫描目标像素抽取候选像素,随后通过沿着相反方向扫描目标像素抽取候选像素,并把在两个扫描操作中抽取的像素确定为候选像素。
19、按照权利要求12所述的图像处理设备,其中区域抽取单元被配置成把由候选像素构成的圆形或椭圆形区域抽取为候选区域。
20、按照权利要求12所述的图像处理设备,其中区域确定单元被配置成按照从第一确定到第五确定的顺序,执行第一到第五确定。
21、按照权利要求12所述的图像处理设备,其中第一确定包括设定围绕候选区域的周围区域,获得候选区域中的评价量的第一平均值,获得构成周围区域的多个块中的每个块中的评价量的第二平均值,如果第一平均值小于任意一个块中的第二平均值的预定倍数,则确定候选区域不是校正区。
22、按照权利要求12所述的图像处理设备,其中第二确定包括在候选区域中计算具有预定范围的色调的像素的评价量的平均值,以及如果该平均值在预定范围之外,则确定候选区域不是校正区。
23、按照权利要求22所述的图像处理设备,其中第二确定还包括在候选区域中获得具有预定范围的色调的像素的评价量的最大值和最小值,以及如果最小值与最大值的比值大于预定阈值,则确定候选区域不是校正区。
24、按照权利要求23所述的图像处理设备,其中第二确定还包括计算候选区域中的像素的预定颜色分量的方差或标准偏差,以及如果所述方差或标准偏差小于预定阈值,则确定候选区域不是校正区。
25、按照权利要求23所述的图像处理设备,其中第二确定还包括计算候选区域中的预定颜色分量的像素与邻近像素之间的绝对差分值的平均值,以及如果所述平均值小于预定阈值,则确定候选区域不是校正区。
26、按照权利要求12所述的图像处理设备,其中第三确定包括设定围绕候选区域的周围区域,计算周围区域中的平均亮度值,以及如果平均亮度值在预定范围之外,则确定候选区域不是校正区。
27、按照权利要求26所述的图像处理设备,其中第三确定还包括设定大小与候选区域的大小的预定倍数相等的周围区域,把周围区域分成多个块,计算每块的平均亮度值,计算平均亮度值的最大值和最小值,以及如果最大值和最小值之间的差值小于预定值,则确定候选区域不是校正区。
28、按照权利要求12所述的图像处理设备,其中第四确定包括设定围绕候选区域的周围区域,计算周围区域中具有预定范围的色调的像素的比率,以及如果所述比率小于预定值,则确定候选区域不是校正区。
29、按照权利要求28所述的图像处理设备,其中第四确定还包括计算周围区域中的平均饱和度,以及如果平均饱和度未包含在预定范围内,则确定候选区域不是校正区。
30、按照权利要求29所述的图像处理设备,其中第四确定还包括在周围区域中检测饱和度与光度的比值小于预定值的像素,以及如果没有检测到任何这样的像素,则确定候选区域不是校正区。
31、按照权利要求12所述的图像处理设备,其中第五确定包括设定围绕候选区域的周围区域,计算周围区域中的每个像素的边缘强度,计算边缘强度的平均值,以及如果平均值小于预定值,则确定候选区域不是校正区。
32、按照权利要求31所述的图像处理设备,其中第五确定还包括计算边缘强度的最大值和最小值之间的差值,以及如果所述差值小于预定值,则确定候选区域不是校正区。
33、按照权利要求32所述的图像处理设备,其中第五确定还包括计算边缘强度的重心位置,以及如果重心位置不在周围区域的中心的附近,则确定候选区域不是校正区。
34、按照权利要求33所述的图像处理设备,其中第五确定还包括把周围区域分成中心区域和外部区域,分别计算中心区域和外部区域中的边缘强度的平均值,以及如果中心区域中的平均值与外部区域中的平均值的比值小于预定值,则确定候选区域不是校正区。
35、按照权利要求34所述的图像处理设备,其中第五确定还包括如果中心区域的平均值小于预定值,则确定候选区域不是校正区。
36、按照权利要求35所述的图像处理设备,其中第五确定还包括如果外部区域的平均值大于预定值,则确定候选区域不是校正区。
37、一种图像处理方法,检测示出眼睛的不良色调的图像区域,所述图像处理方法包括:
根据预定的颜色分量,计算对输入图像的每个像素的不良色调的评价量;
根据所述评价量,抽取构成示出不良色调的图像区的候选像素;
抽取包括候选像素的预定形状的候选区域;
进行与候选区域的周围区域的特征量有关的确定;
根据通过进行与候选区域的周围区域的特征量有关的确定而获得的确定结果,更新候选区域;
进行与更新的候选区域的周围区域的边缘强度有关的确定;和
根据通过进行与更新的候选区域的周围区域的边缘强度有关的确定而获得的确定结果,检测示出不良色调的图像区域。
38、一种控制图像处理设备来执行按照权利要求37所述的图像处理方法的程序。
39、一种保存按照权利要求38所述的程序的存储介质。
40、一种图像处理方法,检测示出眼睛的不良色调的图像区域,所述图像处理方法包括:
根据预定的颜色分量,计算对输入图像的每个像素的不良色调的评价量;
根据评价量,抽取构成示出不良色调的图像区的候选像素;
抽取包括候选像素的预定形状的候选区域;
进行与候选区域中的评价量及候选区域的周围区域中的评价量相关的第一确定,与候选区域中的像素的预定色调的评价量以及预定颜色分量之一有关的第二确定,与周围区域中的亮度有关的第三确定,与周围区域中的色调和饱和度之一有关的第四确定,和与周围区域中的边缘强度有关的第五确定;和
把满足进行的第一到第五确定中至少之一的候选区域指定为校正区。
41、一种图像处理设备,配置成从示出眼睛的不良色调的候选区域中检测示出眼睛的不良色调的图像区域,所述图像处理设备包括:
第一确定单元,所述第一确定单元被配置成进行与基于目标候选区域中的预定颜色分量的不良色调的评价量、以及候选区域的周围区域中的评价量有关的确定;
第二确定单元,所述第二确定单元被配置成根据第一确定单元获得的确定结果,更新候选区域,并对更新的第二候选区域中的像素进行与评价量和预定颜色分量之一有关的确定;和
第三确定单元,所述第三确定单元被配置成根据第二确定单元获得的确定结果,更新第二候选区域,并对更新的第三候选区域的周围区域中的像素进行与周围区域的特征量有关的确定,
其中第三确定单元进行的确定的计算量大于由第一确定单元和第二确定单元之一进行的确定的计算量。
42、按照权利要求41所述的图像处理设备,其中周围区域的特征量是亮度、色调、饱和度和边缘强度之一。
43、一种图像处理方法,从示出眼睛的不良色调的候选区域中检测示出眼睛的不良色调的图像区域,所述图像处理方法包括:
进行与基于目标候选区域中的预定颜色分量的不良色调的评价量、以及候选区域的周围区域中的评价量有关的第一确定;
根据第一确定获得的确定结果,更新候选区域;
对更新的第二候选区域中的像素进行与评价量和预定颜色分量之一有关的第二确定;
根据第二确定获得的确定结果,更新第二候选区域;和
对更新的第三候选区域的周围区域中的像素进行与周围区域的特征量有关的第三确定,
其中第三确定的计算量大于第一确定和第二确定的计算量。
44、按照权利要求43所述的图像处理方法,其中周围区域的特征量是亮度、色调、饱和度和边缘强度之一。
CNB2006100927643A 2005-06-14 2006-06-14 图像处理设备及图像处理方法 Expired - Fee Related CN100444189C (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2005174252A JP4498224B2 (ja) 2005-06-14 2005-06-14 画像処理装置およびその方法
JP2005174252 2005-06-14

Publications (2)

Publication Number Publication Date
CN1881234A true CN1881234A (zh) 2006-12-20
CN100444189C CN100444189C (zh) 2008-12-17

Family

ID=37519431

Family Applications (1)

Application Number Title Priority Date Filing Date
CNB2006100927643A Expired - Fee Related CN100444189C (zh) 2005-06-14 2006-06-14 图像处理设备及图像处理方法

Country Status (3)

Country Link
US (1) US7724950B2 (zh)
JP (1) JP4498224B2 (zh)
CN (1) CN100444189C (zh)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101447026A (zh) * 2008-12-26 2009-06-03 北京中星微电子有限公司 一种红眼检测装置及其检测方法
CN101281437B (zh) * 2008-01-29 2011-04-06 埃派克森微电子(上海)有限公司 光学指示装置图像质量控制参数的调整方法
CN101542521B (zh) * 2007-03-15 2011-12-21 欧姆龙株式会社 眼睛颜色校正装置
CN102894957A (zh) * 2011-07-29 2013-01-30 佳能株式会社 眼底图像的图像处理设备和图像处理方法
CN102973242A (zh) * 2011-06-06 2013-03-20 索尼公司 图像处理设备、图像处理方法、图像处理系统、程序和记录介质
CN103226690A (zh) * 2012-01-30 2013-07-31 展讯通信(上海)有限公司 检测红眼的方法及装置、去除红眼的方法及装置
CN104637031A (zh) * 2013-11-12 2015-05-20 华为终端有限公司 眼部图像处理方法和装置
CN106815812A (zh) * 2015-12-01 2017-06-09 卡西欧计算机株式会社 图像处理装置以及图像处理方法
CN107743407A (zh) * 2015-06-10 2018-02-27 赛诺菲-安万特德国有限公司 用于附接到药物输送装置的装置
CN108111827A (zh) * 2011-05-18 2018-06-01 索尼公司 图像处理装置、图像处理方法和程序以及成像装置
CN110100149A (zh) * 2016-12-27 2019-08-06 索尼公司 勘测标记、图像处理装置、图像处理方法和程序
CN110413805A (zh) * 2018-04-25 2019-11-05 杭州海康威视数字技术股份有限公司 一种图像存储方法、装置、电子设备及存储介质

Families Citing this family (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7630006B2 (en) 1997-10-09 2009-12-08 Fotonation Ireland Limited Detecting red eye filter and apparatus using meta-data
US7042505B1 (en) 1997-10-09 2006-05-09 Fotonation Ireland Ltd. Red-eye filter method and apparatus
US7738015B2 (en) * 1997-10-09 2010-06-15 Fotonation Vision Limited Red-eye filter method and apparatus
US7970182B2 (en) * 2005-11-18 2011-06-28 Tessera Technologies Ireland Limited Two stage detection for photographic eye artifacts
US8682097B2 (en) 2006-02-14 2014-03-25 DigitalOptics Corporation Europe Limited Digital image enhancement with reference images
US7920723B2 (en) 2005-11-18 2011-04-05 Tessera Technologies Ireland Limited Two stage detection for photographic eye artifacts
US7689009B2 (en) 2005-11-18 2010-03-30 Fotonation Vision Ltd. Two stage detection for photographic eye artifacts
US8036458B2 (en) * 2007-11-08 2011-10-11 DigitalOptics Corporation Europe Limited Detecting redeye defects in digital images
US8170294B2 (en) 2006-11-10 2012-05-01 DigitalOptics Corporation Europe Limited Method of detecting redeye in a digital image
US8320641B2 (en) 2004-10-28 2012-11-27 DigitalOptics Corporation Europe Limited Method and apparatus for red-eye detection using preview or other reference images
JP4420459B2 (ja) * 2005-06-14 2010-02-24 キヤノン株式会社 画像処理装置およびその方法
US7599577B2 (en) 2005-11-18 2009-10-06 Fotonation Vision Limited Method and apparatus of correcting hybrid flash artifacts in digital images
IES20060564A2 (en) * 2006-05-03 2006-11-01 Fotonation Vision Ltd Improved foreground / background separation
WO2008022005A2 (en) * 2006-08-09 2008-02-21 Fotonation Vision Limited Detection and correction of flash artifacts from airborne particulates
KR101159830B1 (ko) 2007-03-05 2012-06-26 디지털옵틱스 코포레이션 유럽 리미티드 얼굴 위치 및 방위를 이용한 적목 거짓 양성 필터링 방법
JP2008312057A (ja) * 2007-06-15 2008-12-25 Fujifilm Corp 撮影方法及び装置
US7970181B1 (en) * 2007-08-10 2011-06-28 Adobe Systems Incorporated Methods and systems for example-based image correction
US8503818B2 (en) * 2007-09-25 2013-08-06 DigitalOptics Corporation Europe Limited Eye defect detection in international standards organization images
US8264591B2 (en) * 2007-10-22 2012-09-11 Candela Microsystems (S) Pte. Ltd. Method and system for generating focus signal
JP5089405B2 (ja) * 2008-01-17 2012-12-05 キヤノン株式会社 画像処理装置及び画像処理方法並びに撮像装置
US8212864B2 (en) 2008-01-30 2012-07-03 DigitalOptics Corporation Europe Limited Methods and apparatuses for using image acquisition data to detect and correct image defects
US8295637B2 (en) * 2009-01-07 2012-10-23 Seiko Epson Corporation Method of classifying red-eye objects using feature extraction and classifiers
US8559668B2 (en) * 2009-06-01 2013-10-15 Apple Inc. Red-eye reduction using facial detection
KR101624650B1 (ko) 2009-11-20 2016-05-26 삼성전자주식회사 적목 현상 검출 방법 및 장치
JP4958969B2 (ja) * 2009-12-25 2012-06-20 キヤノン株式会社 画像処理方法、画像処理装置、及び撮像装置
US8244003B2 (en) * 2010-01-25 2012-08-14 Apple Inc. Image preprocessing
US9172960B1 (en) * 2010-09-23 2015-10-27 Qualcomm Technologies, Inc. Quantization based on statistics and threshold of luminanceand chrominance
US8737727B2 (en) * 2010-12-30 2014-05-27 Pelco, Inc. Color similarity sorting for video forensics search
JP5756322B2 (ja) * 2011-04-08 2015-07-29 任天堂株式会社 情報処理プログラム、情報処理方法、情報処理装置および情報処理システム
CN103500457B (zh) * 2013-10-23 2016-06-22 武汉东智科技有限公司 一种视频图像偏色检测的方法
CN103632137B (zh) * 2013-11-15 2016-08-24 长沙理工大学 一种人眼虹膜图像分割方法
US10380438B2 (en) * 2017-03-06 2019-08-13 Honda Motor Co., Ltd. System and method for vehicle control based on red color and green color detection
US10614326B2 (en) * 2017-03-06 2020-04-07 Honda Motor Co., Ltd. System and method for vehicle control based on object and color detection
CN109993115B (zh) * 2019-03-29 2021-09-10 京东方科技集团股份有限公司 图像处理方法、装置及可穿戴设备
CN111191604A (zh) * 2019-12-31 2020-05-22 上海眼控科技股份有限公司 检测车牌完整性的方法、设备和存储介质
CN111259794A (zh) * 2020-01-16 2020-06-09 苏州瓴图智能科技有限公司 一种基于图像的非接触式红眼病自动筛查方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4641349A (en) * 1985-02-20 1987-02-03 Leonard Flom Iris recognition system
JP3358033B2 (ja) * 1993-06-25 2002-12-16 オリンパス光学工業株式会社 画像修正装置及び画像修正方法
US6292574B1 (en) * 1997-08-29 2001-09-18 Eastman Kodak Company Computer program product for redeye detection
US6252976B1 (en) 1997-08-29 2001-06-26 Eastman Kodak Company Computer program product for redeye detection
US6151403A (en) * 1997-08-29 2000-11-21 Eastman Kodak Company Method for automatic detection of human eyes in digital images
US6278491B1 (en) * 1998-01-29 2001-08-21 Hewlett-Packard Company Apparatus and a method for automatically detecting and reducing red-eye in a digital image
JP3961734B2 (ja) * 1999-12-24 2007-08-22 富士フイルム株式会社 画像処理方法、装置及び記録媒体
CN1270515C (zh) * 2002-12-11 2006-08-16 富士胶片株式会社 图像修正装置以及摄影装置
US7116820B2 (en) * 2003-04-28 2006-10-03 Hewlett-Packard Development Company, Lp. Detecting and correcting red-eye in a digital image
CN1567377B (zh) * 2003-07-02 2011-05-04 致伸科技股份有限公司 数字图像的红眼处理方法

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101542521B (zh) * 2007-03-15 2011-12-21 欧姆龙株式会社 眼睛颜色校正装置
CN101281437B (zh) * 2008-01-29 2011-04-06 埃派克森微电子(上海)有限公司 光学指示装置图像质量控制参数的调整方法
CN101447026B (zh) * 2008-12-26 2013-02-13 北京中星微电子有限公司 一种红眼检测装置及其检测方法
CN101447026A (zh) * 2008-12-26 2009-06-03 北京中星微电子有限公司 一种红眼检测装置及其检测方法
CN108111827A (zh) * 2011-05-18 2018-06-01 索尼公司 图像处理装置、图像处理方法和程序以及成像装置
CN108111827B (zh) * 2011-05-18 2021-04-02 索尼公司 图像处理装置、图像处理方法和程序以及成像装置
CN102973242A (zh) * 2011-06-06 2013-03-20 索尼公司 图像处理设备、图像处理方法、图像处理系统、程序和记录介质
CN102973242B (zh) * 2011-06-06 2017-09-29 索尼公司 图像处理设备、图像处理方法、图像处理系统、程序和记录介质
CN102894957B (zh) * 2011-07-29 2015-07-22 佳能株式会社 眼底图像的图像处理设备和图像处理方法
US9204790B2 (en) 2011-07-29 2015-12-08 Canon Kabushiki Kaisha Image processing apparatus for fundus image, image processing method for fundus image, and program medium
CN102894957A (zh) * 2011-07-29 2013-01-30 佳能株式会社 眼底图像的图像处理设备和图像处理方法
CN103226690B (zh) * 2012-01-30 2016-03-02 展讯通信(上海)有限公司 检测红眼的方法及装置、去除红眼的方法及装置
CN103226690A (zh) * 2012-01-30 2013-07-31 展讯通信(上海)有限公司 检测红眼的方法及装置、去除红眼的方法及装置
CN104637031B (zh) * 2013-11-12 2017-08-29 华为终端有限公司 眼部图像处理方法和装置
CN104637031A (zh) * 2013-11-12 2015-05-20 华为终端有限公司 眼部图像处理方法和装置
CN107743407A (zh) * 2015-06-10 2018-02-27 赛诺菲-安万特德国有限公司 用于附接到药物输送装置的装置
CN106815812A (zh) * 2015-12-01 2017-06-09 卡西欧计算机株式会社 图像处理装置以及图像处理方法
CN110100149A (zh) * 2016-12-27 2019-08-06 索尼公司 勘测标记、图像处理装置、图像处理方法和程序
CN110100149B (zh) * 2016-12-27 2021-08-24 索尼公司 勘测标记、图像处理装置、图像处理方法和程序
CN110413805A (zh) * 2018-04-25 2019-11-05 杭州海康威视数字技术股份有限公司 一种图像存储方法、装置、电子设备及存储介质
CN110413805B (zh) * 2018-04-25 2022-02-01 杭州海康威视数字技术股份有限公司 一种图像存储方法、装置、电子设备及存储介质
US11368648B2 (en) 2018-04-25 2022-06-21 Hangzhou Hikvision Digital Technology Co., Ltd. Image storage method and apparatus, and electronic device and storage medium

Also Published As

Publication number Publication date
US20060280361A1 (en) 2006-12-14
CN100444189C (zh) 2008-12-17
JP2006350558A (ja) 2006-12-28
US7724950B2 (en) 2010-05-25
JP4498224B2 (ja) 2010-07-07

Similar Documents

Publication Publication Date Title
CN1881234A (zh) 图像处理设备、图像处理方法、计算机程序和存储介质
CN1213592C (zh) 采用自适应二值化的图象处理方法和设备
CN1291352C (zh) 彩色图象处理装置及方法、图案抽取装置及方法
CN1882036A (zh) 图像处理装置及其方法
CN1882035A (zh) 图像处理装置、图像处理方法、计算机程序和存储介质
CN1254769C (zh) 图像处理方法和装置
CN1324873C (zh) 边界检测方法、图像处理设备和复印机
CN1203662C (zh) 自动灰度等级补正装置以及方法
CN1774031A (zh) 图像处理装置及图像处理方法、以及计算机程序
CN1320490C (zh) 脸部检测及跟踪
CN1926575A (zh) 图像相似度计算系统、图像搜索系统、图像相似度计算方法和图像相似度计算程序
CN1806448A (zh) 图像处理方法、图像处理程序以及图像处理器
CN1940965A (zh) 信息处理设备及其控制方法
CN1993707A (zh) 图像处理方法和设备、摄像设备以及程序
CN1809116A (zh) 图像处理装置、方法、图像形成装置、图像读取处理装置
CN1400807A (zh) 图象处理方法和设备,图象处理系统以及存储介质
CN1764228A (zh) 图像处理装置、图像形成装置、图像处理方法
CN1505431A (zh) 用于从图象屏识别字符图象的装置和方法
CN1313004A (zh) 图像处理装置,图像处理方法及记录图像处理程序的媒体
CN1627315A (zh) 目标检测
CN1202065A (zh) 图像检测方法、图像检测装置、图像处理方法、图像处理装置以及媒体
CN100348050C (zh) 目标检测
CN1645241A (zh) 摄影装置、图像处理装置、摄影装置的图像处理方法
CN1692629A (zh) 图像处理设备和方法
CN1207896C (zh) 图象数据的压缩和恢复方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20081217

CF01 Termination of patent right due to non-payment of annual fee