CN101052996A - 面部图像显示设备、方法及程序 - Google Patents
面部图像显示设备、方法及程序 Download PDFInfo
- Publication number
- CN101052996A CN101052996A CNA2006800010789A CN200680001078A CN101052996A CN 101052996 A CN101052996 A CN 101052996A CN A2006800010789 A CNA2006800010789 A CN A2006800010789A CN 200680001078 A CN200680001078 A CN 200680001078A CN 101052996 A CN101052996 A CN 101052996A
- Authority
- CN
- China
- Prior art keywords
- image
- zone
- dynamic extraction
- face
- moving image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/80—2D [Two Dimensional] animation, e.g. using sprites
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/167—Detection; Localisation; Normalisation using comparisons between temporally consecutive images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/2628—Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/165—Detection; Localisation; Normalisation using facial parts and geometric relationships
Abstract
本发明提供了可以在显示人们的面孔的图像时,显示集中在面孔上的运动图像的面部图像显示设备。提供了面部区域检测装置,其中面部区域检测单元(21)检测在显示多个面孔的目标图像中显示面孔的面部区域;动态提取区域产生单元(22),其根据面部区域检测装置检测的面部区域,产生位置和表面面积中的至少一个在目标图像中随时间变化的动态提取区域;以及运动图像输出单元(27),其顺序地提取动态提取区域中的图像并且输出所提取的图像作为运动图像。
Description
技术领域
本发明涉及用于显示人们的面孔的图像的面部图像显示设备、面部图像显示方法以及面部图像显示程序。
背景技术
通常,在图像显示设备显示人的照片等等的图像数据的情况下,显示完整图像。同样,作为跟随移动的运动图像的图像的显示有时涉及例如在逐渐地使整个图像变亮的同时显示退化图像,以及通过逐渐地从特定位置缩小图像来显示整个图像的方法。
发明内容
本发明要解决的问题
然而,在上述提供的传统例子中,不能产生突出图像的内容的运动图像,并且因此对用户是相对枯燥和不愉快的。另一个问题是,用户的注意力被吸引到图像中相对不重要的区域。
本发明是鉴于这些情况而设计的,并且其目的是提供在显示人们的面孔的图像时可以显示集中在面孔上的运动图像的面部图像显示设备、面部图像显示方法以及面部图像显示程序。
解决这些问题的手段
基于本发明的、被用来解决这些问题的面部图像显示设备包括:面部区域检测装置,用于从显示多个面孔的目标图像中检测显示面孔的面部区域;动态提取区域产生装置,用于根据面部区域检测装置检测的面部区域产生动态提取区域,所述动态提取区域的位置和表面面积中的至少一个在目标图像中随时间变化;以及运动图像输出装置,用于顺序地提取动态提取区域中的图像并且作为运动图像输出所提取的图像。
基于本发明的面部图像显示方法是这样一种方法,其使用计算机执行步骤:检测在显示多个面孔的目标图像中显示面孔的面部区域;根据面部区域检测装置检测的面部区域,产生位置和表面面积中的至少一个在目标图像中随时间变化的动态提取区域;以及顺序地提取动态提取区域中的图像并且作为运动图像输出所提取的图像。
基于本发明的面部图像显示程序是这样一种程序,其使计算机充当:面部区域检测装置,用于从显示多个面孔的目标图像中检测显示面孔的面部区域;动态提取区域产生装置,用于根据面部区域检测装置检测的面部区域产生动态提取区域,所述动态提取区域的位置和表面面积中的至少一个在目标图像中随时间变化;以及运动图像输出装置,用于顺序地提取动态提取区域中的图像并且作为运动图像输出所提取的图像。
基于本发明的信息记录介质是这样一种信息记录介质,其能够由计算机读取并且存储使计算机充当以下装置的程序:面部区域检测装置,用于从显示多个面孔的目标图像中检测显示面孔的面部区域;动态提取区域产生装置,用于根据面部区域检测装置检测的面部区域产生动态提取区域,所述动态提取区域的位置和表面面积中的至少一个在目标图像中随时间变化;以及运动图像输出装置,用于顺序地提取动态提取区域中的图像并且作为运动图像输出所提取的图像。
附图说明
图1是示出基于本发明的实施例的面部图像显示设备的结构的模块图;
图2是示出基于本发明的实施例的面部图像显示设备的功能的功能模块图;
图3是描述基于本发明的实施例的面部图像显示设备处理的目标图像的例子的示意图;
图4是示出在动态提取区域确定单元确定移动路径的情况下,目标图像中的动态提取区域的移动路径的例子的图例;
图5是示出在动态提取区域确定单元确定移动路径的情况下,目标图像中的动态提取区域的移动路径的另一个例子的图例;
图6是示意性地描述在动态提取区域确定单元根据移动路径确定动态提取区域的情况下,动态提取区域的移动速度的例子的图例;
图7是示出由动态提取区域确定单元确定的动态提取区域的例子的图例;以及
图8是示出由运动图像输出单元输出的图像的例子的图例。
具体实施方式
在基于本发明一个实施例的面部图像显示设备中,面部区域检测装置从显示多个面孔的目标图像中检测显示面孔的面部区域。动态提取区域产生装置接着根据面部区域检测装置检测的面部区域产生动态提取区域,所述动态提取区域的位置和表面面积中的至少一个在目标图像中随时间变化。此外,运动图像输出装置顺序地提取动态提取区域中的图像并且作为运动图像输出所提取的图像。
从而,基于本实施例的面部图像显示设备能够输出集中在面部区域上的运动图像。
在这个结构中,动态提取区域产生装置可以包含:特征区域确定装置,用于确定包含一或多个面部区域的特征区域;提取顺序确定装置,用于根据特定条件确定提取特征区域的顺序;以及动态提取区域确定装置,用于根据特征区域和提取顺序确定动态提取区域。
此外,在上述情况中,提取顺序确定装置可以根据目标图像中在特征区域中显示的面孔数量、特征区域的尺寸以及特征区域的位置中的至少一个来确定提取顺序。
从而,基于本实施例的面部图像显示设备能够输出按对应于包含面部区域的特征区域的特性的顺序显示特征区域的运动图像。
动态提取区域确定装置可以确定动态提取区域,使得目标图像中动态提取区域的位置沿根据目标图像中的特征区域的位置确定的移动路径随时间变化。
从而,基于本实施例的面部图像显示设备能够输出基于包含面部区域的特征区域在移动的同时顺序地显示目标图像各部分的运动图像。
基于本实施例的面部图像显示设备还可以包含检测时间估测装置,用于估测面部区域检测装置在运动图像输出装置根据多个目标图像输出运动图像的情况下检测一或多个其它目标图像中的面部区域所需的时间。运动图像输出装置可以在根据检测时间估测装置估测的检测时间确定的时间段上输出运动图像,并且面部区域检测装置可以在运动图像输出装置输出运动图像的时间段内检测所述一个或多个其它目标图像中包含的面部区域。
从而,基于本实施例的面部图像显示设备能够输出连续地显示在多个目标图像中显示的特征区域,而无需让用户等待检测面部区域所需的时间的运动图像。
在基于本实施例的面部图像显示设备中,动态提取区域产生装置可以根据目标图像中所检测的面部区域的数量、所检测的面部区域的尺寸以及面部区域的位置中的至少一个,从特定运动图像模式选项中选择运动图像模式。接着,动态提取区域产生装置可以根据所选择的模式产生动态提取区域,并且运动图像输出装置可以基于所选择的模式输出运动图像。
从而,基于本实施例的面部图像显示设备能够以对应于所检测的面部区域的模式输出运动图像。
在下文中参考图例描述本发明的优选实施例。
基于本发明实施例的面部图像显示设备包括如图1所示的控制单元11,存储单元12,显示单元13以及操作单元14。
在这个结构中,控制单元11由例如CPU配置而成,并且被用于执行存储单元12中存储的程序。存储单元12包括RAM,ROM或另一个这种存储器单元和/或盘设备。存储单元12存储由控制单元11执行的程序以及关于在本实施例中要处理的目标图像的数据。存储单元12还充当控制单元11的工作存储器。
显示单元13是例如显示器等等,并且基于从控制单元11输出的指令显示图像。在从用户接收到指令操作时,操作单元14向控制单元11输出指令操作的内容。操作单元14可以是键盘,鼠标,游戏控制台的控制器等等。
基于本实施例的面部图像显示设备的功能配置包含如图2所示的面部区域检测单元21,动态提取区域产生单元22,检测时间估测单元26以及运动图像输出单元27。
面部区域检测单元21首先获得要在本实施例中处理的目标图像。目标图像可以被存储在存储单元12中,或可以通过网络由通信单元(未示出)获得。接着,面部区域检测单元21从目标图像中检测将面孔显示为面部区域的图像区域。
具体地,在面部区域被检测为例如矩形区的情况下,面部区域的位置和尺寸使用目标图像的像素的尺寸为单位来确定,并且这个信息被存储在存储单元12中。在这种情况下,例如矩形区的左上或中心处的点被用作面部区域的代表点,并且面部区域的位置被确定为目标图像中的代表点的位置坐标。面部区域的尺寸确定为矩形区的宽度和高度两个数值。在面部区域被检测为圆形区域的情况下,圆形区域的中心点被用作代表点并且其尺寸确定为示出圆圈半径一个值。另一个选项是面部区域被确定为椭圆区域。在这种情况下,椭圆的中心被用作代表点,并且面部区域的尺寸由代表主和次轴的半径的值指定。
面部区域检测单元21检测面部区域的方法没有特别限制,并且可以使用各种技术。例如,面部区域检测单元21可以通过使用预先经研究而获得的涉及面部形状模式的统计数据来检测面部区域。在使用统计方法的这种方式检测面部区域的情况下,面部区域被检测,并且获得涉及所检测的区域实际包含表示面孔的部分的可能性的似然值。这个数值某种程度上代表该区域与面孔的相似度,并且这个面部相似值可以由提取顺序确定单元24以后使用。面孔的取向可以根据面部形状模式确定,并且这个信息可以由提取顺序确定单元24以后使用。
此外,除了检测面部区域之外,面部区域检测单元21可以执行识别区域中包含的面孔的过程。如果用户已经登记有关预先检测的面部区域所对应于的人的面孔的面部信息,则面部区域检测单元21可以用例如本征面孔(eigenface)方法或另一个这种面孔识别技术在所检测的面部区域中识别人的面孔。这个信息可以在提取顺序确定单元24确定特征区域的提取顺序时使用。例如在显示用户的家庭的摄影图像的情况下,可以确定照片中每个人的显示是否应当基于该人来执行,以及通过使用对应于每个人的显示顺序或显示方法显示图像。
面部区域检测单元21也可以获得涉及所检测的面部区域的属性的属性信息。这个属性信息包含涉及在面部区域中显示的人们的老幼(年龄)的信息,以及例如涉及人们的表情的信息。具体地,面部区域检测单元21可以通过猜测面部区域中人们的老幼和表情来获得这个属性信息。这根据例如对面部区域的频率分析的结果以及根据面部区域中包含的特征点(眼睛、鼻子、嘴等等的位置)间的位置关系来实现。这个属性信息在提取顺序确定单元24确定特征区域的提取顺序时使用。从而可以执行用于显示集中于表示例如儿童的面孔的面部区域上的运动图像的过程。
动态提取区域产生单元22根据面部区域检测单元21检测的面部区域产生动态提取区域。动态提取区域是位置和/或表面面积随时间变化的目标图像中的区域,并且动态提取区域由涉及时间和目标图像中的位置和尺寸之间的相关性的信息来指定。运动图像输出单元27通过根据动态提取区域选取目标图像来获得要在输出运动图像中显示的图像。基于本实施例的面部图像显示设备能够通过根据面部区域确定动态提取区域来输出集中在面部区域上的运动图像。
下面是对这样的情况的例子的描述,其中动态提取区域产生单元22确定图像区域包含要成为特征区域的一或多个面部区域,并且接着产生按照基于特定条件的顺序从中提取特征区域的动态提取区域。在这种情况下,动态提取区域产生单元22的功能配置包含特征区域确定单元23,提取顺序确定单元24以及动态提取区域确定单元25。
特征区域确定单元23通过基于所需要的特定条件组合面部区域来确定特征区域。这些面部区域由面部区域检测单元21检测。特征区域是包含在显示一或多个面孔的目标图像中的图像区域。类似于面部区域,特征区域由表示目标图像的位置和尺寸的数值指定。
下面是将多个面部区域分组的方法的例子。具体地,在两个面部区域重叠的情况下,分组在重叠部分的表面面积等于或大于特定阈值的情况下被确定为相同。换句话说,分组可以仅仅在任何区域重叠的情况下确定为相同。如果两个面部区域的代表点被表示成P和Q,则分组可以在P和Q之间的距离等于或小于特定阈值时确定为相同。两个面部区域也可以在相邻边之间的距离等于或小于特定阈值,或距离等于或小于根据与面部区域的尺寸相关的具体比值确定的数值的情况下,确定为处于相同分组中。这里相邻边是两个边的集合,其中一个面部区域的一边和另一个面部区域的一边之间的距离最小,并且从构成两个面部区域的外部边缘的边中选择(在面部区域是圆形或椭圆的情况下为限定面部区域的矩形的边)。特征区域确定单元23根据基于这些条件确定为属于相同分组的一或多个面部区域确定特征区域。特征区域可以是包含所有目标面部区域的尺寸,或至少包含面部区域的指定百分比的尺寸。特征区域也可以是包含等价于围绕面部区域的指定数量像素的区域的尺寸。换句话说,特征区域的尺寸可以基于包含在面部区域中的面孔的取向来确定,使得包含的例如面孔下的面积与基于涉及面部区域尺寸的指定比值确定的像素数量成比例。从而,能够确定例如包含胸部以上的人们的面孔的特征区域。在图像区域中的特征区域只包含一个面部区域的情况下,特征区域的形状和尺寸可以与面部区域一致。
在特征区域确定单元23确定包含单个面部区域的特征区域的情况下,特征区域的尺寸可以基于特征区域中包含的面部区域的尺寸确定。例如,在特征区域确定单元23使用如前所述包含与围绕的面部区域的像素的指定数量成比例的面积的区域作为特征区域的情况下,这个像素指定数量基于面部区域的尺寸确定。作为具体例子,特征区域确定单元23确定当面部区域变大时像素的指定数量为较小数值,并且当面部区域变小时像素的指定数量为较大值。由特征区域确定单元23确定的特征区域的尺寸则相对地类似,并且与由面部区域检测单元21检测的面部区域的尺寸比较没有不一致性。从而,例如后面会描述的,能够在动态提取区域确定单元25确定对应于在特征区域上放大的运动图像模式的动态提取区域的情况下,防止动态提取区域的尺寸快速地随时间变化。
特征区域确定单元23确定特征区域,使得表示目标图像中包含的面孔的部分被包含在特征区域的任意一个中。例如,在图3中示意性地描述的目标图像I1中,获得包含三个面部区域的特征区域A,包含一个面部区域的特征区域B以及包含两个面部区域的特征区域C。接着动态提取区域产生单元22产生动态提取区域,使得基于下面过程根据特定顺序提取特征区域。
提取顺序确定单元24确定要由运动图像输出单元27从特征区域确定单元23确定的特征区域中提取的特征区域,根据特定条件把要提取的特征区域排序,以及确定提取顺序。
具体地,提取顺序确定单元24例如根据表示特征区域的特性的数值计算每个特征区域的分数值。接着,这些分数值被用作确定特征区域是否被提取,以及确定提取特征区域的顺序的基础。可以根据特征区域中显示的面孔数量、特征区域的表面面积或其它这种因素来计算分数值。同样,分数值可以使用涉及面部相似度的值,涉及显示谁的面孔的信息,以及由面部区域检测单元21针对特征区域中包含的面部区域获得的其它这种信息来确定。
提取顺序确定单元24也可以根据面部区域检测单元21针对特征区域中包含的面部区域获得的属性信息确定分数值。
此外,分数值可以使用涉及特征区域的信息组合来计算。例如,在根据特征区域中显示的面孔数量和特征区域的表面面积计算分数值的情况下,可以根据下列公式计算分数值,其中目标图像I1中的特征区域A,B,C的分数值是SCA,SCB,SCC。
SCA=(SA×a1)+(NA×a2)
SCB=(SB×a1)+(NB×a2)
SCC=(SC×a1)+(NC×a2)
符号NA,NB,NC是特征区域A,B,C中显示的面孔的数量,以及符号SA,SB,SC是表示特征区域A,B,C的表面面积的值。符号a1,a2是事先确定的加权系数。
在计算特征区域的分数值之后,提取顺序确定单元24确定提取顺序。具体地,基于例如分数值排序特征区域,并且基于所排序的顺序提取特征区域。也可以排除提取分数值等于或小于特定阈值的特征区域。例如,在上述提供的例子中,如果对于特定阈值SCmin,关系SCA>SCB>SCC,SCB>SCmin和SCmin≥SCC保持成立,则提取顺序确定单元24从由动态提取区域确定单元25处理的目标中排除特征区域C,并且确定提取顺序,使得特征区域A,B使用这个顺序提取。在图像是例如场景照片的情况下,因而可以从要处理的目标中排除场景中较小的面孔。
代替基于分数值确定提取顺序的方式,提取顺序确定单元24可以基于涉及面孔的取向或特征区域的位置的信息来确定提取顺序。在这种情况下,提取顺序可以被如此确定,使得提取从在例如目标图像的左边的特征区域开始。同样,在某些情况下可以根据涉及焦点的信息或根据所拍照的图像的重叠,获得涉及从照相机到目标图像中所拍照的主体的距离的信息。在这种情况下,从前到后或从后到前对准面部区域的顺序可以根据这个信息确定,并且提取顺序可以基于这个顺序确定。提取顺序也可以不考虑关于特征区域的这类信息而随机确定。此外,按照与前面描述的例子相同的方式计算特征区域的分数值,并且即使在不考虑分数值而确定提取顺序时,仍可以从要由运动图像输出单元27提取的目标中清除分数值等于或小于特定阈值的特征区域。
下面是根据特征区域的位置确定提取顺序的方法的具体例子的描述。例如,提取顺序确定单元24从提取目标中排除在目标图像的特定范围中包含的特征区域。在这种情况下,在动态提取区域的产生中可以忽略例如在目标图像的外部边缘附近的特征区域。提取顺序确定单元24可以从未从提取目标中排除的特征区域中检测彼此相距最远的两个特征区域,并且提取顺序确定单元24接着可以确定提取顺序,使得这2个特征区域中的一个首先被提取,并且另一个最后被提取。
除了确定要提取的特征区域之外,提取顺序确定单元24可以重新设置特征区域,使得在要提取的特征区域满足特定条件的情况下,要提取的两个或更多特征区域中包含的面部区域被包含在一个特征区域中。例如,当要提取的特征区域的数量等于或小于特定数量时,改为设置特征区域的位置和尺寸,使得所有面部区域被包含在特征区域中。可选地,在某两个特征区域的代表点之间的距离等于或小于特定阈值的情况下,改为设置特征区域以便包含这2个特征区域中包含的所有面部区域。因而,可以例如根据存在较少要提取的特征区域等等的情况,提取更优选的特征区域。
动态提取区域确定单元25确定位置和/或表面面积随时间变化的目标图像中的动态提取区域。根据由特征区域确定单元23确定的特征区域和由提取顺序确定单元24确定的提取顺序进行确定。具体地,确定动态提取区域,使得特征区域基于提取顺序来提取。动态提取区域确定单元25根据运动图像输出单元27输出的运动图像的模式来确定动态提取区域。动态提取区域的形状基于运动图像的模式来确定。
如下在由运动图像输出单元27输出的运动图像的模式基于下述渐变过程或渐现/渐隐过程的情况下,动态提取区域确定单元25确定动态提取区域的位置和表面面积。具体地,确定目标图像中的位置和表面面积,以便包含对应于第一提取顺序的特征区域。并且,确定动态提取区域,以便改变目标图像中的位置和表面面积,以及在经过由特定条件确定的时间段之后,包含对应于下一个提取顺序的特征区域。基于由提取顺序确定单元24确定的提取顺序,重复这些步骤以顺序地把动态提取区域改变为包含特征区域的位置和表面面积。
上述时间段可以是预定时间,或可以基于参考输出时间Tmin确定,其中基于目标图像产生的整个运动图像被输出。参考输出时间Tmin可以是预定时间,或基于显示特征区域的数量确定的时间。也可以基于参考输出时间Tmin以及由下述检测时间估测单元26计算的估测时间确定时间段。
由运动图像输出单元27输出的运动图像的模式的另一个例子是通过沿基于目标图像中的特征区域的位置确定的移动路径移动动态提取区域,输出经过目标图像的运动图像。在下文提供了动态提取区域确定单元25在这种情况下确定动态提取区域的过程的详细描述。
首先,动态提取区域确定单元25确定用于在目标图像中移动动态提取区域的移动路径。移动路径被确定为按例如提取顺序确定单元24确定的顺序经过特征区域的代表点。移动路径可以是直线连接代表点的虚线,或经过代表点的样条曲线。使用Bezier曲线也可以确定移动路径,但是在这种情况下,Bezier曲线必须在结束时被校正,使得动态提取区域经过特征区域。因而,由于动态提取区域确定单元25确定动态提取区域以便经过要基于特定顺序提取的特征区域,所以运动图像输出单元27可以输出按特定顺序显示特征区域的运动图像。
图4是表示当在图3表示的目标图像I1的例子中按这个顺序显示特征区域A,B,C时移动路径的例子的图例。在这个图例中,特征区域A,B,C的代表点分别是CA,CB,CC,并且移动路径构成联接这三个点的曲线R。确定动态提取区域为沿按CA,CB,CC的顺序经过各点的移动路径R移动。
移动路径不必经过特征区域的代表点。例如,可以确定移动路径,使得对于特征区域的外部边缘上的所有点,到移动路径的距离h等于或小于特定阈值。接着基于这些距离h的最大距离hmax确定动态提取区域的尺寸。因而,运动图像输出单元27能够通过顺序地获得从动态提取区域选取的图像来输出显示特征区域的运动图像。即使在移动路径不经过特征区域的代表点时也可以实现这点。
具体地,代表点的位置近似于直线,例如,直线被转换以使最大距离hmax尽可能小,并且产生的直线被用作移动路径。因而,可以在特征区域沿基本上的直线对准的情况下,通过沿这个直线移动动态提取区域,来输出显示特征区域的运动图像,并且提取顺序确定单元24已根据特征区域的位置确定特征区域的提取顺序。图5是表示在图3所示的目标图像I1的情况下,直线移动路径R′的例子的图例,其中不提取特征区域C,并且特征区域A,B按这个顺序显示。将移动路径R′确定为经过特征区域A的下边框和特征区域B的上边框之间的中部,并且最大距离hmax对应于移动路径R′和特征区域B的上边框之间的距离,以及对应于移动路径R′和特征区域A的下边框之间的距离。在这种情况下,动态提取区域被确定为纵向尺寸等于hmax的两倍的矩形区。
当确定移动路径时,动态提取区域确定单元25确定动态提取区域,使得动态提取区域的位置沿移动路径顺序地变化。具体地,当动态提取区域的代表点以与特征区域相同的方式被设置成区域中心点时,动态提取区域的位置被顺序地改变,使得代表点移动经过上述移动路径。动态提取区域的初始位置可以与要显示的第一特征区域的位置相同,或该位置可以是移动路径与目标图像的外部边缘相交的点。当初始位置是移动路径与目标图像的外部边缘相交的点时,运动图像输出单元27开始提取从目标图像的边缘开始的图像。
在动态提取区域确定单元25顺序地改变动态提取区域的位置的情况下,动态提取区域移动经过移动路径的速度由从一个图像的提取到下一个图像的提取动态提取区域的位置所经过的路径的长度。这个动态提取区域速度可以被事先设置,或可以通过特定方法计算。具体地,例如,通过将从一个特征区域到下一个特征区域的移动路径的长度除以在预定输出时间T内运动图像输出单元27输出的帧图像的数量,来计算速度。在这种情况下,动态提取区域以固定速度经过移动路径从一个特征区域移动到下一个特征区域。
也可以计算经过移动路径的速度,以便延长显示特征区域附近的区域的时间。具体地,在例如动态提取区域从特征区域A移动到特征区域B的情况下,基于图6所示的示意曲线图确定经过移动路径的速度。曲线图的水平轴表示从特征区域A移动到特征区域B所用的时间,其中时间0是动态提取区域位于特征区域A的代表点时所处的点,并且时间T是动态提取区域位于特征区域B的代表点时所处的点。垂直轴表示移动路径从特征区域A到特征区域B经过的距离,其中移动距离0是特征区域A的位置,并且移动距离L是特征区域B的位置。在图4所示的移动路径的例子中,点CA和点CB之间的曲线R的长度对应于L。图6中的曲线图在移动距离0和L附近具有平缓的斜率,并且在中部附近具有陡峭的斜率。因此,当根据基于这个曲线图确定的移动距离确定动态提取区域时,动态提取区域以较低速度移动经过特征区域附近,并且以较高速度移动经过远离特征区域的位置。因而,可以输出尤其是慢速经过面孔的附近、同时经过目标图像的运动图像,并且获得更大程度集中在面孔上的显示。当第一和最后的特征区域被提取时,基于曲线图可以确定动态提取区域的速度,并且可以确定动态提取区域的速度,使得当中间的特征区域被提取时,区域以固定速度移动。
表示动态提取区域从一个特征区域移动到下一个特征区域所用的时间的输出时间T可以是特定时间,或可以基于移动距离L的值确定。如以后描述的,也可以基于由检测时间估测单元26计算的估测时间来确定输出时间T。
除了顺序地改变动态提取区域的位置之外,动态提取区域确定单元25也可以顺序地改变动态提取区域的尺寸,使得动态提取区域足够大以包含特征区域。例如,假定特征区域为矩形,并且特征区域A的尺寸表示成宽wA和高hA,而特征区域B的尺寸表示成宽wB和高hB。在这种情况下,动态提取区域被从特征区域A移动到特征区域B,而同时动态提取区域的宽度逐渐从wA改变为wB,动态提取区域的高度逐渐地从hA改变为hB。可以输出运动图像,其中目标图像的显示范围基于特征区域的尺寸变化。这通过在已经改变尺寸的动态提取区域中选取目标图像来实现。在这种情况下宽度和高度的变化量可以确定为始终恒定,或基于动态提取区域的移动速度变化。
在某些情况下,基于本实施例的面部图像显示设备从多个目标图像中检测面部区域,并且连续地输出基于面部区域产生的运动图像。在这种情况下,检测时间估测单元26估测检测包含在一或多个目标图像中的面部区域所需的时间。下面是连续输出分别基于两个目标图像I1,I2产生的运动图像的例子的描述。运动图像A1是通过顺序地提取基于目标图像I1产生的动态提取区域中的图像获得的图像,运动图像A2是通过顺序地提取基于目标图像I2产生的动态提取区域中的图像获得的图像。检测时间估测单元26首先估测检测目标图像I2中的面部区域所需的时间。接着在动态提取区域产生单元22确定运动图像输出单元27紧接在运动图像A2之前输出的运动图像A1的输出时间时,所得到的估测时间Tnext被用于调整输出时间。
具体地,检测时间估测单元26根据例如文件尺寸,分辨率或目标图像的另一个属性来计算估测时间。估测时间也可以基于事先以低分辨率轻易地识别目标图像中的面孔的粗识别过程来计算。此外,检测时间估测单元26可以估测除了面部区域检测单元21检测面部区域的过程之外、开始输出目标图像I2的运动图像A2所需的过程(例如组合面部区域以确定特征区域的过程,以及确定提取所确定的特征区域的顺序的过程)的时间。这些时间可以被包含在所计算的估测时间Tnext中。
时间估测单元26不局限于被用于在运动图像输出单元27当前输出、作为计算估测时间的目标的运动图像之后输出的目标图像。例如,在检测两个或更多目标图像中的面部区域的过程被并行执行的情况下,计算多个目标图像的估测时间。因而,计算涉及还要显示的一或多个目标图像的过程的估测时间。
下面是在运动图像输出单元27连续输出用于显示从两个目标图像I1,I2检测的面部区域的运动图像A1,A2的情况下,控制运动图像的输出时间的描述。当基于目标图像I1输出运动图像A1的参考输出时间Tmin低于检测下一个运动图像A2的面部区域所需的估测时间Tnextt时,动态提取区域产生单元22把Tnext用作运动图像A1的输出时间。 运动图像输出单元27执行输出运动图像A1的过程,同时面部区域检测单元21执行检测随后显示的目标图像I2中的面部区域的过程。因而,可以在完成运动图像A1的输出之前进行输出运动图像A2的必要准备,并且运动图像可以被连续地显示,而无需让用户等待。
检测时间估测单元26可以更新在一或多个具体定时处检测目标图像I2中的面部区域所需剩余时间的估测。即使在运动图像输出单元27仍然处在根据已经计算的下一个目标图像的估测时间输出运动图像A1的过程中时,仍然可以更新估测。在任何时间使用这个再计算的估测时间调整运动图像输出单元27输出的运动图像A1的剩余输出时间。在这种情况下,作为动态提取区域产生单元22根据再计算的估测时间重新产生动态提取区域的结果,调整运动图像的剩余输出时间。
具体地,例如在运动图像A1的剩余输出时间是在某个时间点处的Tnow并且Trest>Tnow的情况下,通过修改动态提取区域以使得当动态提取区域改变位置时每个位置处的时间增加,动态提取区域确定单元25进行调整,使得运动图像A1的剩余输出时间大于Trest。因而,即使在运动图像A2的处理需要多于初始估测时间的时间的情况下,仍可以通过适当调整运动图像A1的输出时间来消除用户观看运动图像的等待时间。
此外,在某些情况下,下一个目标图像I2的面部区域检测和其它处理需要多于检测时间估测单元26所计算的估测时间的时间。结果,下一个运动图像A2的输出不能在完成运动图像A1的输出时的时间点处开始。在这种情况下,运动图像输出单元27可以在其当前状态等待,直到完成必要的处理,或可以重复地输出运动图像A1。另一个选项是输出具有另一个模式的运动图像,该模式中显示包含在目标图像I1中的面部区域。
在某些情况下,其中动态提取区域沿移动路径移动的运动图像的模式需要比最初针对要在下一个目标图像中检测的面部区域计算的估测时间更多的时间。在这种情况下,调整动态提取区域的移动速度可以增加当前运动图像的输出时间。另一个选项是通过改变目标图像I1中的移动路径以提高动态提取区域移动的距离,来增加当前运动图像A1的输出时间。
运动图像输出单元27通过根据动态提取区域产生单元22产生的动态提取区域选取目标图像,顺序地提取动态提取区域中的图像。接着,基于具体运动图像模式根据需要处理提取图像以产生运动图像,并且这个运动图像被输出到显示单元13。
下面是运动图像输出单元27输出的运动图像的模式的例子。具体地,首先,从包含在提取顺序中排第一个的特征区域的动态提取区域提取图像,并且接着产生图像,其中这个第一图像通过渐变处理被逐渐地改变成包含第二特征区域的图像。按照这种方式产生的图像被顺序地显示,产生运动图像,其中每个图像逐渐地变化成包含下一个特征区域的动态提取区域中的图像。可以通过在把动态提取区域的位置和表面面积改变成包含特征区域的位置和表面面积的同时重复这个序列来输出顺序地显示特征区域的运动图像。
运动图像模式也可以使包含特征区域的图像渐现和渐隐。在这种情况下,首先,从包含提取顺序中排第一个的特征区域的动态提取区域中提取图像,这个图像渐隐,并且接着顺序地输出图像,其中提取顺序中第二个特征区域渐现。类似于渐变过程的模式,可以通过在把动态提取区域的位置和表面面积改变成包含特征区域的位置和表面面积的同时重复这个序列,输出顺序地显示特征区域的运动图像。在这种情况下,例如通过逐渐地改变提取图像的亮度,实现渐现/渐隐效果。也可以设计运动图像,使得通过逐渐地提高图像的透明度使提取特征区域透明,并且下一个特征区域的透明度被逐渐地从完全透明状态降低。
在沿移动路径移动动态提取区域的模式中,能够输出运动图像,其经过目标图像,其中从动态提取区域提取的图像被不经处理地直接输出,或以放大或压缩格式输出。
动态提取区域的尺寸通常根据特征区域的尺寸随时间变化,但是在运动图像输出单元27顺序地输出从动态提取区域提取的图像的情况下,另一个选择是基于可以由显示单元13显示的图像尺寸放大或压缩通过选取获得的图像,借此具有相同尺寸的图像可以在显示单元13上显示。
运动图像输出单元27使用的模式可以由用户或随机地从上述多个运动图像模式中选择。另一个可能性是基于显示的特征区域的数量确定模式。例如,渐现/渐隐模式可以在显示的特征区域的数量等于或大于特定数量时用于显示运动图像,并且运动图像可以在显示的特征区域的数量小于特定数量时通过移动动态提取区域来显示。
在目标图像不包含要提取的任何特征区域或只包含一个要提取的特征区域的情况下,可以输出基于使得显示整个目标图像的特定模式的运动图像。此外,不包含特征区域的目标图像可以从运动图像输出单元27输出的运动图像中排除。
基于上述本发明的实施例,通过集中在面部区域而产生的运动图像可以在表示面孔的图像被显示时显示。
在本实施例中,特征区域确定单元23通过组合面部区域来确定特征区域,但是不需要包含特征区域确定单元23。在这种情况下,通过在使用面部区域检测单元21检测的面部区域作为均表示一个面孔的特征区域的同时执行本实施例的处理,能够显示集中在面孔上的运动图像。
除了上述运动图像模式之外,基于本实施例的面部图像显示设备也能够输出具有以下模式的运动图像。具体地,放大/缩小模式可以被用于包含面部区域的一或多个特征区域。在这种情况下,动态提取区域确定单元25首先确定动态提取区域的位置和表面面积以便包含整个目标图像。动态提取区域接着被确定,使得动态提取区域的位置和表面面积逐渐地变化成能够包含要提取的第一特征区域的最小尺寸。例如,在图7中示意性地显示的目标图像I1中,当用户希望输出在特征区域A上放大的运动图像时,动态提取区域逐渐地从包括整个目标图像的区域变化成只包括特征区域A的区域。在图例中用虚线显示的箭头表示动态提取区域在目标图像中变化到的范围。动态提取区域的位置和表面面积接着逐渐地以相反方式变化成包含整个目标图像的尺寸。此外,在要提取多个特征区域的情况下,确定动态提取区域以便与特征区域的数量成比例地重复所描述的变化。运动图像输出单元27放大动态提取区域确定单元25所确定的动态提取区域中的图像为指定尺寸,而不考虑动态提取区域的尺寸,并且输出所放大的图像。因而,可以输出基于放大/缩小模式显示特征区域的运动图像。
基于本实施例的面部图像显示设备也可以设计成单独使用放大或缩小模式来输出每个目标图像的运动图像。
运动图像模式的另一个例子是可以被用于一或多个特征区域的划入/划出模式。在这种情况下,用与放大/缩小模式相同的方式确定动态提取区域。运动图像输出单元27按照下面的方式产生输出图像。具体地,输出图像与整个目标图像I1具有相同尺寸,动态提取区域中的图像在输出图像中显示而无需改变动态提取区域的位置和表面面积,并且另一个区域用黑色或其它特定色彩填充。这些图像随着动态提取区域的变化被顺序地产生和输出。例如,当在目标图像I1中的特征区域A上显示划入时,例如图8中示意性地表示的图像被输出。在这个图例中,用虚线显示的箭头表示动态提取区域中变化的过程。特征区域和动态提取区域在图解的例子中具有椭圆形。因而,可以输出使用划入/划出模式显示特征区域的运动图像。
基于本实施例的面部图像显示设备可以被设计成单独使用划入或划出模式来输出每个目标图像的运动图像。
可以用于输出运动图像的运动图像模式的另一个例子是使用镜头模糊效果的运动图像模式。例如,在这个运动图像模式中,用与上述划入/划出模式相同的方式确定动态提取区域。运动图像输出单元27如下产生输出图像。具体地,输出图像与整个目标图像I1具有相同尺寸,动态提取区域中的图像在输出图像中显示而无需改变动态提取区域的位置和表面面积,并且另一个区域中的图像是对应于具有指定图像处理的目标图像I1的图像。这个指定图像处理在另一个区域中产生镜头模糊效果。具体地,针对区域中的每个像素,计算像素及其周围的像素的像素值的平均值,并且像素值用所计算的平均值代替。因而,在除了动态提取区域之外的区域中的图像脱离焦点并且具有模糊的外观。
运动图像输出单元27可以逐渐地改变在用于产生镜头模糊效果的图像处理中使用的特定参数。例如,运动图像输出单元27重复在增加周围像素的范围的同时产生输出图像的过程,其中周围像素的平均值像素值被计算。因而,运动图像输出单元27能够输出运动图像,其中除了特征区域之外的区域看上去脱离焦点。这类运动图像模式允许进行不显示面孔的区域脱离焦点的显示,借此使显示面孔的区域突出。在使用镜头模糊效果的这个运动图像模式中,动态提取区域可以是对应于单个选择的特征区域的固定区域,并且位置或尺寸不改变。
下面是基于本实施例的面部图像显示设备从先前描述的运动图像模式中选择运动图像模式的过程的另一个例子的描述。
例如,动态提取区域产生单元22根据在目标图像内由面部区域检测单元21检测的面部区域的数量、面部区域的尺寸以及面部区域的位置中的至少一个从特定运动图像模式选项中选择运动图像模式。动态提取区域产生单元22接着根据所选择的模式产生动态提取区域。运动图像输出单元27根据由动态提取区域产生单元22选择的运动图像模式对动态提取区域进行选取和图像处理,并且输出运动图像。
在这种情况下,可以由动态提取区域产生单元22选择的模式选项的具体例子包含先前描述的运动图像模式(全图像模式),其中动态提取区域沿移动路径移动,使用渐变处理的运动图像模式,渐现/渐隐运动图像模式,放大/缩小运动图像模式,划入/划出运动图像模式,使用镜头模糊效果的运动图像模式等等。模式选项中的一个也可以是这些运动图像模式的组合。例如,模式选项可以是在特征区域上放大的运动图像模式,同时镜头模糊效果被用于特征区域外的区域。
具体地,动态提取区域产生单元22在例如检测多个面部区域时从包含全图像模式的选项中选择运动图像模式,并且动态提取区域产生单元22在只检测到一个面部区域时从不包含全图像模式的选项中选择运动图像模式。
即使在未检测到面部区域时,也可以从这些选项中选择运动图像模式。在这种情况下,动态提取区域产生单元22可以不根据特征区域,而是例如根据目标图像的中心位置,或根据随机从特定位置选项中选择的参考位置来产生动态提取区域。
动态提取区域产生单元22可以从可选的模式选项中随机选择运动图像模式。运动图像模式也可以基于在即将出现的运动图像之前,由运动图像输出单元27输出的运动图像中使用的运动图像模式来选择。例如,动态提取区域产生单元22可以选择与紧接在即将出现的运动图像之前输出的运动图像中使用的运动图像模式不同的运动图像模式,并且可以将这个所选择的运动图像模式用于即将出现的运动图像。因而,能够避免基于与在基于目标图像的运动图像被连续地输出时相同的模式的连续运动图像,并且可以防止单调的显示。
基于本实施例的面部图像显示设备可以在基于多个目标图像显示运动图像时执行下面过程。具体地,运动图像输出单元27输出运动图像,其中在当前所显示的运动图像结束处的特定时间内输出的图像被逐渐降低亮度,并且运动图像渐隐。在随后所显示的运动图像开始处的特定时间内的图像接着被逐渐增加亮度,并且运动图像渐现。
可选地,运动图像输出单元27可以混合在当前所显示的运动图像结束处的特定时间内的所输出图像和在随后所显示的运动图像开始处的特定时间内的所输出图像的半透明显示。在这种情况下,在当前显示的运动图像中的输出图像的透明度逐渐增强,并且在随后显示的运动图像中的输出图像的透明逐渐降低的同时,可以组合两个输出图像。因而,可以显示运动图像,其中当前所显示的运动图像渐隐,同时随后所显示的运动图像渐现。
Claims (9)
1.一种面部图像显示设备,包括:
面部区域检测装置,用于从显示多个面孔的目标图像中检测显示面孔的面部区域;
动态提取区域产生装置,用于根据面部区域检测装置检测的面部区域产生动态提取区域,所述动态提取区域的位置和表面面积中的至少一个在目标图像中随时间变化;以及
运动图像输出装置,用于顺序地提取动态提取区域中的图像并且作为运动图像输出所提取的图像。
2.如权利要求1所述的面部图像显示设备,其中动态提取区域产生装置包括:
特征区域确定装置,用于确定包含一或多个面部区域的特征区域;
提取顺序确定装置,用于根据特定条件确定提取特征区域的顺序;以及
动态提取区域确定装置,用于根据特征区域和提取顺序确定动态提取区域。
3.如权利要求2所述的面部图像显示设备,其中提取顺序确定装置根据特征区域中显示的面孔数量、特征区域的尺寸以及特征区域在目标图像中的位置中的至少一个来确定提取顺序。
4.如权利要求2所述的面部图像显示设备,其中动态提取区域确定装置确定动态提取区域,使得目标图像中动态提取区域的位置沿根据目标图像中的特征区域的位置确定的移动路径随时间变化。
5.如权利要求1所述的面部图像显示设备,还包括:
检测时间估测装置,用于估测面部区域检测装置在运动图像输出装置根据多个目标图像输出运动图像的情况下检测一或多个其它目标图像中的面部区域所需的时间;其中
运动图像输出装置在根据检测时间估测装置估测的检测时间确定的时间段上输出运动图像;以及
面部区域检测装置在运动图像输出装置输出运动图像的时间段内检测所述一个或多个其它目标图像中包含的面部区域。
6.如权利要求1所述的面部图像显示设备,其中
动态提取区域产生装置根据所检测的面部区域的数量、所检测的面部区域的尺寸以及面部区域在目标图像中的位置中的至少一个,从特定运动图像模式选项中选择运动图像模式;
动态提取区域产生装置接着根据所选择的模式产生动态提取区域;并且
运动图像输出装置根据所选择的模式输出运动图像。
7.一种面部图像显示方法,其中计算机被用于执行步骤:
检测在显示多个面孔的目标图像中显示面孔的面部区域;
根据面部区域检测装置检测的面部区域,产生位置和表面面积中的至少一个在目标图像中随时间变化的动态提取区域;以及
顺序地提取动态提取区域中的图像并且作为运动图像输出所提取的图像。
8.一种面部图像显示程序,其使计算机充当:
面部区域检测装置,用于从显示多个面孔的目标图像中检测显示面孔的面部区域;
动态提取区域产生装置,用于根据面部区域检测装置检测的面部区域产生动态提取区域,所述动态提取区域的位置和表面面积中的至少一个在目标图像中随时间变化;以及
运动图像输出装置,用于顺序地提取动态提取区域中的图像并且作为运动图像输出所提取的图像。
9.一种信息记录介质,其能够由计算机读取并且存储使计算机充当以下装置的程序:
面部区域检测装置,用于从显示多个面孔的目标图像中检测显示面孔的面部区域;
动态提取区域产生装置,用于根据面部区域检测装置检测的面部区域产生动态提取区域,所述动态提取区域的位置和表面面积中的至少一个在目标图像中随时间变化;以及
运动图像输出装置,用于顺序地提取动态提取区域中的图像并且作为运动图像输出所提取的图像。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP234739/2005 | 2005-08-12 | ||
JP2005234739 | 2005-08-12 | ||
PCT/JP2006/315144 WO2007020789A1 (ja) | 2005-08-12 | 2006-07-31 | 顔画像表示装置、顔画像表示方法及び顔画像表示プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
CN101052996A true CN101052996A (zh) | 2007-10-10 |
CN101052996B CN101052996B (zh) | 2011-06-15 |
Family
ID=37757454
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2006800010789A Active CN101052996B (zh) | 2005-08-12 | 2006-07-31 | 面部图像显示设备和方法 |
Country Status (6)
Country | Link |
---|---|
US (3) | US8803886B2 (zh) |
EP (1) | EP1923835A4 (zh) |
JP (1) | JP4538008B2 (zh) |
KR (2) | KR101103115B1 (zh) |
CN (1) | CN101052996B (zh) |
WO (1) | WO2007020789A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102948157A (zh) * | 2010-06-22 | 2013-02-27 | 富士胶片株式会社 | 立体图像显示设备、立体图像显示方法、立体图像显示程序、及记录介质 |
Families Citing this family (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080055315A1 (en) * | 2006-09-05 | 2008-03-06 | Dale Ducharme | Method and System to Establish and Animate a Coordinate System for Content on a Display |
JP4364266B2 (ja) * | 2007-08-01 | 2009-11-11 | 株式会社東芝 | 画像処理装置およびプログラム |
JP5464799B2 (ja) * | 2007-11-16 | 2014-04-09 | キヤノン株式会社 | 画像処理装置、画像処理方法及びプログラム |
JP5061987B2 (ja) * | 2008-03-25 | 2012-10-31 | セイコーエプソン株式会社 | 画像処理方法およびそのプログラム並びに画像処理装置 |
JP5458802B2 (ja) * | 2008-10-23 | 2014-04-02 | リコーイメージング株式会社 | デジタルカメラ |
US8797348B2 (en) | 2008-11-25 | 2014-08-05 | Sony Corporation | Image display apparatus, image display method, and information storage medium |
KR101599872B1 (ko) * | 2009-02-25 | 2016-03-04 | 삼성전자주식회사 | 디지털 영상 처리 장치, 그 제어방법 및 이를 실행시키기 위한 프로그램을 저장한 기록매체 |
JP2011176747A (ja) * | 2010-02-25 | 2011-09-08 | Sony Corp | 画像処理装置および方法、並びにプログラム |
WO2012031767A1 (en) * | 2010-09-10 | 2012-03-15 | Deutsche Telekom Ag | Method and system for obtaining a control information related to a digital image |
US8935259B2 (en) * | 2011-06-20 | 2015-01-13 | Google Inc | Text suggestions for images |
KR20130078676A (ko) * | 2011-12-30 | 2013-07-10 | 삼성전자주식회사 | 디스플레이장치 및 그 제어방법 |
JP2012095363A (ja) * | 2012-02-15 | 2012-05-17 | Seiko Epson Corp | 画像処理装置、画像処理方法、および画像処理プログラム |
DE102013203300A1 (de) * | 2012-02-27 | 2013-08-29 | Denso Corporation | Bildverarbeitungsvorrichtung und Fahrzeugsteuersystem unter Verwendung derselben |
JP5982884B2 (ja) * | 2012-03-08 | 2016-08-31 | ソニー株式会社 | 表示制御装置、表示制御方法およびコンピュータ読み取り可能な記録媒体 |
JP6071289B2 (ja) * | 2012-07-09 | 2017-02-01 | キヤノン株式会社 | 画像処理装置、画像処理方法、およびプログラム |
JP5368614B2 (ja) * | 2012-08-07 | 2013-12-18 | オリンパスイメージング株式会社 | 画像検索装置および画像検索方法 |
JP5613304B2 (ja) * | 2013-09-11 | 2014-10-22 | オリンパスイメージング株式会社 | 画像検索装置および画像検索方法 |
JP5935779B2 (ja) * | 2013-09-30 | 2016-06-15 | カシオ計算機株式会社 | 画像処理装置、画像処理方法及びプログラム |
US10049477B1 (en) | 2014-06-27 | 2018-08-14 | Google Llc | Computer-assisted text and visual styling for images |
JP6372696B2 (ja) | 2014-10-14 | 2018-08-15 | ソニー株式会社 | 情報処理装置、情報処理方法、並びにプログラム |
KR20180130504A (ko) | 2016-03-31 | 2018-12-07 | 소니 주식회사 | 정보 처리 장치, 정보 처리 방법, 프로그램 |
US9892326B2 (en) * | 2016-03-31 | 2018-02-13 | International Business Machines Corporation | Object detection in crowded scenes using context-driven label propagation |
JP6798183B2 (ja) | 2016-08-04 | 2020-12-09 | 株式会社リコー | 画像解析装置、画像解析方法およびプログラム |
WO2018096661A1 (ja) | 2016-11-25 | 2018-05-31 | 日本電気株式会社 | 画像生成装置、顔照合装置、画像生成方法、およびプログラムを記憶した記憶媒体 |
JP6859765B2 (ja) * | 2017-03-13 | 2021-04-14 | 株式会社リコー | 画像処理装置、画像処理方法およびプログラム |
JP2022102461A (ja) * | 2020-12-25 | 2022-07-07 | 株式会社リコー | 動画生成装置、動画生成方法、プログラム、記憶媒体 |
Family Cites Families (44)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4276570A (en) * | 1979-05-08 | 1981-06-30 | Nancy Burson | Method and apparatus for producing an image of a person's face at a different age |
JP3363039B2 (ja) * | 1996-08-29 | 2003-01-07 | ケイディーディーアイ株式会社 | 動画像内の移動物体検出装置 |
US6044168A (en) * | 1996-11-25 | 2000-03-28 | Texas Instruments Incorporated | Model based faced coding and decoding using feature detection and eigenface coding |
US6184926B1 (en) * | 1996-11-26 | 2001-02-06 | Ncr Corporation | System and method for detecting a human face in uncontrolled environments |
JPH1173512A (ja) | 1997-03-10 | 1999-03-16 | Yuseisho Tsushin Sogo Kenkyusho | 領域抽出装置および領域抽出方法 |
AU3639699A (en) * | 1998-04-13 | 1999-11-01 | Eyematic Interfaces, Inc. | Wavelet-based facial motion capture for avatar animation |
CN1222911C (zh) * | 1998-05-19 | 2005-10-12 | 索尼电脑娱乐公司 | 图像处理装置和方法 |
US6362850B1 (en) * | 1998-08-04 | 2002-03-26 | Flashpoint Technology, Inc. | Interactive movie creation from one or more still images in a digital imaging device |
JP2001209802A (ja) * | 1999-11-15 | 2001-08-03 | Fuji Photo Film Co Ltd | 顔抽出方法および装置並びに記録媒体 |
US6504546B1 (en) * | 2000-02-08 | 2003-01-07 | At&T Corp. | Method of modeling objects to synthesize three-dimensional, photo-realistic animations |
US6883140B1 (en) * | 2000-02-24 | 2005-04-19 | Microsoft Corporation | System and method for editing digitally represented still images |
JP2002092626A (ja) * | 2000-09-19 | 2002-03-29 | Sharp Corp | 画像処理装置 |
US7020305B2 (en) * | 2000-12-06 | 2006-03-28 | Microsoft Corporation | System and method providing improved head motion estimations for animation |
JP2002215180A (ja) | 2001-01-17 | 2002-07-31 | Digital Media Lab Inc | 通信装置 |
GB2372658A (en) * | 2001-02-23 | 2002-08-28 | Hewlett Packard Co | A method of creating moving video data from a static image |
JP4778158B2 (ja) * | 2001-05-31 | 2011-09-21 | オリンパス株式会社 | 画像選出支援装置 |
JP2003296713A (ja) * | 2002-04-04 | 2003-10-17 | Mitsubishi Electric Corp | 顔画像合成装置、顔画像合成方法およびその方法を実行するプログラムならびに顔画像合成装置を備えた通信用端末およびその通信用端末による通信方法 |
US6828972B2 (en) * | 2002-04-24 | 2004-12-07 | Microsoft Corp. | System and method for expression mapping |
CN1276388C (zh) * | 2002-07-26 | 2006-09-20 | 佳能株式会社 | 检测图象中的人脸的方法和设备 |
US7027054B1 (en) * | 2002-08-14 | 2006-04-11 | Avaworks, Incorporated | Do-it-yourself photo realistic talking head creation system and method |
US6919892B1 (en) * | 2002-08-14 | 2005-07-19 | Avaworks, Incorporated | Photo realistic talking head creation system and method |
JP4068485B2 (ja) * | 2002-09-30 | 2008-03-26 | 株式会社東芝 | 画像合成方法、画像合成装置、画像合成プログラム |
JP4314016B2 (ja) * | 2002-11-01 | 2009-08-12 | 株式会社東芝 | 人物認識装置および通行制御装置 |
EP1422668B1 (en) * | 2002-11-25 | 2017-07-26 | Panasonic Intellectual Property Management Co., Ltd. | Short film generation/reproduction apparatus and method thereof |
US20060109283A1 (en) * | 2003-02-04 | 2006-05-25 | Shipman Samuel E | Temporal-context-based video browsing interface for PVR-enabled television systems |
US7039222B2 (en) * | 2003-02-28 | 2006-05-02 | Eastman Kodak Company | Method and system for enhancing portrait images that are processed in a batch mode |
JP2004348674A (ja) * | 2003-05-26 | 2004-12-09 | Noritsu Koki Co Ltd | 領域検出方法及びその装置 |
US7391888B2 (en) * | 2003-05-30 | 2008-06-24 | Microsoft Corporation | Head pose assessment methods and systems |
US7317815B2 (en) * | 2003-06-26 | 2008-01-08 | Fotonation Vision Limited | Digital image processing composition using face detection information |
US7574016B2 (en) * | 2003-06-26 | 2009-08-11 | Fotonation Vision Limited | Digital image processing using face detection information |
US7274822B2 (en) * | 2003-06-30 | 2007-09-25 | Microsoft Corporation | Face annotation for photo management |
US7209601B2 (en) * | 2003-07-22 | 2007-04-24 | Omnivision Technologies, Inc. | CMOS image sensor using high frame rate with frame addition and movement compensation |
US7453506B2 (en) * | 2003-08-25 | 2008-11-18 | Fujifilm Corporation | Digital camera having a specified portion preview section |
JP2005135169A (ja) * | 2003-10-30 | 2005-05-26 | Nec Corp | 携帯端末およびデータ処理方法 |
JP2005165984A (ja) * | 2003-12-05 | 2005-06-23 | Seiko Epson Corp | 人物顔の頭頂部検出方法及び頭頂部検出システム並びに頭頂部検出プログラム |
JP2005182196A (ja) | 2003-12-16 | 2005-07-07 | Canon Inc | 画像表示方法および画像表示装置 |
KR100602576B1 (ko) | 2003-12-17 | 2006-07-19 | 학교법인 한양학원 | 얼굴 인식 방법 및 이를 이용한 인물 검색/표시 방법 |
US20050219642A1 (en) * | 2004-03-30 | 2005-10-06 | Masahiko Yachida | Imaging system, image data stream creation apparatus, image generation apparatus, image data stream generation apparatus, and image data stream generation system |
US20060114327A1 (en) * | 2004-11-26 | 2006-06-01 | Fuji Photo Film, Co., Ltd. | Photo movie creating apparatus and program |
KR101159847B1 (ko) * | 2005-01-20 | 2012-06-25 | 삼성전자주식회사 | 졸음운전 감지용 얼굴 검출 정규화 장치 및 방법 |
US7760908B2 (en) * | 2005-03-31 | 2010-07-20 | Honeywell International Inc. | Event packaged video sequence |
JP4926416B2 (ja) * | 2005-06-15 | 2012-05-09 | キヤノン株式会社 | 画像表示方法、プログラム、記録媒体及び画像表示装置 |
WO2007069255A2 (en) * | 2005-12-14 | 2007-06-21 | Yeda Research And Development Co. Ltd. | Example based 3d reconstruction |
IES20070229A2 (en) * | 2006-06-05 | 2007-10-03 | Fotonation Vision Ltd | Image acquisition method and apparatus |
-
2006
- 2006-07-31 KR KR1020097000862A patent/KR101103115B1/ko active IP Right Grant
- 2006-07-31 CN CN2006800010789A patent/CN101052996B/zh active Active
- 2006-07-31 KR KR1020077010813A patent/KR100892022B1/ko active IP Right Grant
- 2006-07-31 EP EP06782022.5A patent/EP1923835A4/en not_active Ceased
- 2006-07-31 JP JP2006551132A patent/JP4538008B2/ja active Active
- 2006-07-31 WO PCT/JP2006/315144 patent/WO2007020789A1/ja active Application Filing
- 2006-07-31 US US11/663,677 patent/US8803886B2/en active Active
-
2014
- 2014-07-10 US US14/328,095 patent/US9247156B2/en active Active
-
2015
- 2015-11-06 US US14/934,189 patent/US9852323B2/en active Active
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102948157A (zh) * | 2010-06-22 | 2013-02-27 | 富士胶片株式会社 | 立体图像显示设备、立体图像显示方法、立体图像显示程序、及记录介质 |
CN102948157B (zh) * | 2010-06-22 | 2016-05-11 | 富士胶片株式会社 | 立体图像显示设备及立体图像显示方法 |
Also Published As
Publication number | Publication date |
---|---|
JP4538008B2 (ja) | 2010-09-08 |
KR101103115B1 (ko) | 2012-01-04 |
EP1923835A1 (en) | 2008-05-21 |
KR20090016767A (ko) | 2009-02-17 |
EP1923835A4 (en) | 2017-10-25 |
CN101052996B (zh) | 2011-06-15 |
US8803886B2 (en) | 2014-08-12 |
US20160063311A1 (en) | 2016-03-03 |
US20140321722A1 (en) | 2014-10-30 |
US9247156B2 (en) | 2016-01-26 |
JPWO2007020789A1 (ja) | 2009-02-19 |
WO2007020789A1 (ja) | 2007-02-22 |
US9852323B2 (en) | 2017-12-26 |
US20100066745A1 (en) | 2010-03-18 |
KR100892022B1 (ko) | 2009-04-07 |
KR20070067712A (ko) | 2007-06-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN101052996A (zh) | 面部图像显示设备、方法及程序 | |
KR102660857B1 (ko) | 콘텐츠 캡처 디바이스에 대한 세팅들을 결정하기 위한 기술들 | |
JP6065913B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
CN112969436B (zh) | 电子视觉辅助设备中自主增强的免手动控制 | |
CN106911921B (zh) | 基于单个摄像机的投影仪红外触控和自动对焦方法 | |
CN1738426A (zh) | 一种视频运动目标分割与跟踪方法 | |
CN1427372A (zh) | 图像分割系统和方法 | |
CN101587586A (zh) | 一种图像处理装置及图像处理方法 | |
CN1605086A (zh) | 图像处理装置 | |
JP2009525800A5 (zh) | ||
CN1950844A (zh) | 物体的姿势推断及对照系统和方法及其程序 | |
CN1501325A (zh) | 伪三维图像生成设备 | |
CN1499440A (zh) | 2-d阵列中的译码和差错校正 | |
US20110050685A1 (en) | Image processing apparatus, image processing method, and program | |
CN1892702A (zh) | 追踪装置 | |
CN1835547A (zh) | 图像处理装置及图像处理中的登录数据生成方法 | |
TW201737064A (zh) | 具有動態及機率工作修整之幾何工作排程 | |
CN107018330A (zh) | 一种实时拍照指导方法及装置 | |
CN105512617A (zh) | 图像筛选方法及装置 | |
CN104182970A (zh) | 一种基于摄影构图规则的留念照人像站位推荐方法 | |
CN1509072A (zh) | 图像布局装置、图像布局方法以及程序 | |
US20130108165A1 (en) | Image Recomposition From Face Detection And Facial Features | |
EP2615829A1 (en) | Moving picture processing device, and moving picture processing method and program | |
CN1835546A (zh) | 图像处理装置 | |
CN103136517A (zh) | 一种基于关键列选择的滚动指纹图像序列实时拼接方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |