CN101231693A - 由视频重建复原的面部图像的系统和方法 - Google Patents

由视频重建复原的面部图像的系统和方法 Download PDF

Info

Publication number
CN101231693A
CN101231693A CNA2008100038361A CN200810003836A CN101231693A CN 101231693 A CN101231693 A CN 101231693A CN A2008100038361 A CNA2008100038361 A CN A2008100038361A CN 200810003836 A CN200810003836 A CN 200810003836A CN 101231693 A CN101231693 A CN 101231693A
Authority
CN
China
Prior art keywords
image
face
video
frame
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CNA2008100038361A
Other languages
English (en)
Inventor
F·W·惠勒
刘小明
P·H·涂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Carrier Fire and Security Americas Corp
Original Assignee
General Electric Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by General Electric Co filed Critical General Electric Co
Publication of CN101231693A publication Critical patent/CN101231693A/zh
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)

Abstract

描述了一种用于执行面部图像复原的系统和方法。该系统包括:主观表观模型部件,用于将主观表观模型拟合到在多个视频帧中的每一个中发现的面部图像;配准部件,用于使每个面部图像的每个像素与每个其他面部图像的可比像素相配准;以及复原部件,用于由所述多个面部图像产生复原的面部图像。该方法包括:将主观表观模型拟合到在多个视频帧中的每一个中发现的面部图像,使每个所述面部图像的每个像素与每个其他面部图像的可比像素相配准,以及由面部图像产生复原的面部图像。

Description

由视频重建复原的面部图像的系统和方法
相关申请的交叉引用
本专利申请要求2007年1月24日提交的、序列号为60/886,433的临时专利申请的优先权,该临时专利申请的公开内容通过全文引用结合于此。
政府利益声明
本发明是在美国国家司法学会(National Institute of Justice)签订的合同No.2005-IJ-CX-K060-GOVT下由政府资助做出的。政府对本发明有一定权利。
技术领域
本发明通常涉及一种用于将主动表观模型拟合到视频的多个帧中的面部、配准每个面部并且使用该视频的多个帧产生复原的面部图像的系统和方法。
背景技术
在远处进行自动面部识别在诸如执法监督应用之类的许多现实世界场景中变得越来越重要。然而,在远处进行自动面部识别具有某些挑战性的方面。低图像分辨率和照相机模糊导致在许多情况下不能获得准确的面部识别。
在希望并入自动面部识别的许多监视系统中,在视频上捕获对象。公知的面部识别算法对静止图像进行处理,因此面部识别应用通常提取具有合适的面部视图的单个视频帧。在某种意义上,公知的面部识别应用仅使用视频中可得到的小部分信息。
发明内容
本发明描述了使用视频的多个帧来产生复原的面部图像的系统和方法。术语“复原的”用在这里表示得到的面部图像比来自多个视频帧中的任何一帧的任何单独的面部图像都要清晰。
本发明的一个示范性实施例是用于由视频的多个帧产生复原的面部图像的系统。该系统包括主观表观模型部件,用于将主观表观模型拟合到在多个视频帧中的每一个中发现的面部图像。该系统还包括配准部件,用于使每个所述面部图像的每个像素与每个其他面部图像的可比像素相配准,并且该系统包括复原部件,用于由多个面部图像产生复原的面部图像。
本发明的另一示范性实施例是用于由视频的多个帧产生复原的面部图像的方法。该方法包括:将主观表观模型拟合到在多个视频帧中的每一个中发现的面部图像,使每个面部图像的每个像素与每个其他面部图像的可比像素相配准,以及由多个面部图像产生复原的面部图像。
从以下结合附图提供的本发明的优选实施例的详细描述中可以更容易地理解这些以及其他优点和特征。
附图说明
图1是说明根据本发明示范性实施例的高质量面部复原系统的示意图。
图2(a)至2(c)示出了在图1的系统的主动表观模型中使用标志点。
图3示出了在图1的系统的主动表观模型中使用连续视频帧和使用标志点。
图4示出了根据本发明的另一示范性实施例的高质量面部复原系统。
图5是用在图4的系统中的示范性超分辨率算法的示意图。
图6(a)至6(c)比较原始视频帧与通过图1的系统的单个帧的输出以及通过图4的系统的多个帧的输出。
具体实施方式
如在此所描述和示出的本发明的实施例针对一种使用视频的多个帧来产生复原的面部图像的系统和方法。具体参考图1,示出了面部重建系统10。该系统10包括训练数据库12、视频输入18、模块之内的主观表观模型16、配准模块24、变形(warping)模块26、平均化模块28和维纳滤波模块30。
训练数据库12包括二维和可能是三维的面部图像。训练数据库12被用于训练主观表观模型(“AAM”)。训练数据库12可以是可公开得到的数据库,诸如是例如圣母大学生物识别数据库集合D(NotreDame Biometrics Database Collection D)(“集合D(CollectionD)”)。来自训练数据库12的面部图像被主观表观模型训练模块14用来大体上构造面部图像的表观和形状的数学表示。“表观”是指色化处理和纹理。这个数学表示是可调整的。
多帧复原中的第一步是配准。为了组合多个帧,必须映射每个帧,使得在一对帧之间,x2是x1的函数。这考虑到实物或场景点的第一图像坐标x1=(r2,c2)到第二图像坐标x2=(r2,c2)的转换。配准的一种方法是选择可以准确地对实际的帧到帧运动进行建模(诸如AAM)的参数化配准函数。
应用到面部图像的AAM是被设计来拟合不同方位的不同人脸的面部形状和表观的二级模型。主观形状子模型描述了一组标志点的位置分布。图2(a)示出了将被用在一系列面部图像配准中的33个标志点。使用主成分分析(PCA)和面部图像的训练集来减少形状空间的维数,同时捕获训练集总体上的变化的主要模式。
AAM主观形状子模型包括平均面部形状和一组特征矢量,该平均面部形状是来自数据库12的训练集中的所有面部形状的平均。平均面部形状是规范形状,并且被用作AAM主观表观子模型的参考帧。面部图像的每个训练集被变形到规范形状参考帧。
由于面部图像的每个训练集都被变形到规范形状参考帧,所以来自训练集的所有面部图像被表示为好像它们具有相同的形状。去除了形状变化,使用PCA选择一组表观特征矢量用于维数减小,在第二级对面部图像表观中的变化进行建模。
完全经过训练的、模块的主观表观模型16可以产生在表观和形状上连续变化的面部图像。出于复原面部图像的目的,当新面部出现在视频帧之一中时,模块的主观表观模型16被拟合到该新面部。这是通过求解面部形状和表观参数(特征系数)来完成的,使得模型生成的面部匹配视频帧中的面部。例如,可以使用同时反向合成(SIC,Simultaneous Inverse Compositional)算法将新面部拟合到视频帧之内的一个视频帧。
视频输入18可以包括一个或多个摄像机或被设置来自动拍摄一系列静止照片的一个或多个静止照相机,该视频输入18获得视频的多个帧(或静止照片),每个视频帧都包括对象的面部图像。应理解的是,视频输入18可以是实况视频或法庭辩论(forensic)视频或者是静止照片。如果视频或静止照片是基于模拟的,则在传送帧之前要求模数转换器。视频输入18的输出帧被传送到用于检测面部图像的面部检测模块20。可以自动或手动进行检测。手动检测的实例可以包括使用图形用户接口。自动检测的实例可以包括宾夕法尼亚州匹兹堡的匹兹堡模式识别公司(Pittsburgh Pattern Recognition)所销售的面部检测软件包。
对于每个帧和每个检测到的面部,获得形状参数的矢量和表观参数的矢量。模块的AAM 16从主观表观模型训练模块14接收到面部形状和表观的特征矢量。此外,AAM拟合模块22确定形状参数的矢量和表观参数的矢量。形状参数的矢量控制面部的形状,而表观参数的矢量控制面部的表观。
虽然必须估计形状参数和表观参数以将该模型拟合到新面部,仍然只使用得到的形状参数用于进行配准。模块的AAM 16提供了在多个视频或静止帧上对准面部所需的配准。AAM的主观形状子模型部分在每个帧中定义了33个标志位置,(图2(a))。这些标志位置是所示出的面部上的49个三角形的顶点。
配准模块22完成的、任何两帧之间的面部配准可以变成分段的仿射变换或样条变换,仿射变换用于由相对应的三角形顶点所限定的每个三角形。为了避免靠近面部边缘的不连续性,通过外插面部标志集以定义延长的边界区来扩大面部的配准,(图2(b))。如所示出的那样,30个新标志已被定位在从所估计的面部边缘出去的固定距离,从而在边界形成45个新三角形。使用混合掩膜(blendingmask)(图2(c))来将多帧面部重建的面部区域与单个所观察的帧的非面部(背景)区域进行组合,因此给观察者提供了更自然的混合结果。混合掩膜M在基帧中被定义,该基帧在面部区域内部具有值1,并在那个区域的外部随着距面部区域的距离线性地衰减到零。混合掩膜M被用来采用下式混合复原的面部图像IR和填充图像If
I(r,c)=M(r,c)IR(r,c)+(1-M(R,c))If(R,c).
在配准功能期间,多个视频(或静止照片)帧之一被选为基帧Lk。由于运动发生在各个帧之间,并且运动在特定方向上通常是流畅的,所以可以将来自所有帧L1到LN的中间的帧选为基帧Lk。由那个基帧Lk产生新的参考帧Hk。该新参考帧Hk具有比基帧Lk的像素分辨率大的像素分辨率。
图3示出了一系列视频帧中的面部图像的配准。一旦配准了一系列两个或更多个视频帧,通过变形模块26完成面部图像的变形。然后使用由主观表观模型拟合模块22获得的配准信息来将每个输入视频(或静止照片)帧L1-LN的每个面部图像变形到新的参考帧Hk
来自变形模块26的输出被输入到平均化模块28,该平均化模块28对所有被变形的视频(或静止照片)帧进行平均。可以通过逐像素地进行总计,然后除以帧数来完成平均化。
来自平均化模块28的输出然后被输入到维纳滤波30。通过成像过程由场景的连续图像形成初始输入的视频帧,该连续图像与点扩展函数(PSF)进行卷积、在图像网格上被采样、被加性高斯白噪声破坏并且被量化。PSF是造成需要减少的模糊的原因。加性噪声限制了减少模糊的能力。主要噪声源是CCD电子噪声,该CCD电子噪声可以很好地被建模为具有平谱的加性高斯。
所有图像信号被表示在空间频率域中,如果该变换原始图像是Ii1,ω2),光学传递函数(OTF,PSF的傅立叶变换)是H(ω1,ω2),并且加性高斯噪声信号是N(ω1,ω2),那么所观察的视频帧是:
G(ω1,ω2)=H(ω1,ω2)I(ω1,ω2)+N(ω1,ω2).
维纳滤波30是用于单个图像去模糊的经典方法。该维纳滤波30提供了I(ω1,ω2)的最小均方误差(MMSE)。给出非模糊图像的有噪模糊观察为G(ω1,ω2),并且对未知图像信号不做假设,维纳滤波30为:
I(ω1,ω2)=(H*1,ω2))G(ω1,ω2)/|(H(ω1,ω2)|2+K).参数H*1,ω2)是H(ω1,ω2)的复共轭,并且参数K是噪声与信号的功率比,从而形成了MMSE维纳滤波。实际上,调整参数K以平衡噪声放大和锐化。如果参数K过大,则图像不能具有复原到最大可能程度的高空间频率。如果参数K过小,则复原的图像被放大的高空间频率噪声破坏。因为K趋向于零,并且假设H(ω1,ω2)>0,所以维纳滤波接近理想的反向滤波,这大大放大了高频噪声:
I(ω1,ω2)=G(ω1,ω2)/(H(ω1,ω2).
维纳滤波30对模糊的有噪图像的影响是:(1)通过没有被PSF衰减并且具有高信噪比的空间频率;(2)放大被PSF衰减并且具有高信噪比的空间频率;以及(3)衰减具有低信噪比的空间频率。
基本的多帧复原算法是通过对连续视频帧L1到LN的被对准的面部区域进行平均并且对结果应用维纳滤波来工作的。帧平均化减小了加性图像噪声并且维纳滤波使PSF的效应变清晰。应用到时间平均帧的维纳滤波可以比应用到单个视频帧的维纳滤波更准确地再现被PSF衰减的高空间频率处的图像。通过更准确地再现高空间频率,复原的面部图像40将具有更高的有效分辨率并且在细节上更清晰。这是由于通过平均化过程减小了在这些高空间频率处的图像噪声。被方差为σ2的零均值加性高斯噪声破坏的N个测量结果中的每个都给出方差为σ2/N的那个值的估计。对N个被配准且被变形的图像进行平均将加性噪声方差和K的合适值减小1/N倍。
现在具体参考图4,示出了面部重建系统110。与系统10类似(图1),系统110包含了训练数据库12、视频输入18和模块之内的主观表观模型16,并且这些部件中的每一个都类似于在上述系统10中那样运行。系统110还包括超分辨率模块124,用于产生复原的面部图像140。
在操作中,系统110将主观表观模型拟合到每个帧中的面部图像。然后组合一组多个帧,例如,大约N=10个连续帧,以产生超分辨的图像140。在一个可能的实施例中,针对每个帧建模图像形成过程,该图像形成过程包括面部运动、照相机PSF和采样。为了求解超分辨的图像140,定义具有L1范数数据保真度分量(norm data fidelitycomponent)的代价函数,并且使用双边总变差正则化(Bilateral TotalVariation regularization)。使用代价函数的解析梯度,最速下降搜索产生超分辨的面部图像140。
通过合适的超分辨率算法124完成面部图像到复原的面部图像140的超分辨,所述超分辨率算法124诸如类似于Farsiu等人在“Fastand robust multiframe super-resolution”(IEEE Transactions onImage Processing,第13卷,第10期,第1327-1344页,2004年10月)中所提出的算法。
N个输入帧中的每一个Yi(其中i是1到N)存在于被标记为Li的低分辨率参考帧中。这样的参考帧封装了图像大小和主观表观模型标志点。配准过程允许我们在参考帧之间对图像进行变形。对于每个Li,产生相对应的高分辨率参考帧Hi,该高分辨率参考帧Hi比Li在每维上都具有更高的像素分辨率。在帧Hk中,其中k=N/2,求解超分辨率图像40。
为了初始化超分辨率算法124,通过将N个输入帧中的每一个Yi的面部区域变形到帧Hk并且进行平均,产生初始超分辨的图像140i。变形对每个面部图像进行放大和对准。该结果与被放大到帧Hk的输入图像Yk的非面部区域进行混合。超分辨率过程使用图像形成模型,该图像形成模型将每个输入帧Yi与帧Hk中的未知超分辨率图像X相关。具体参考图5,一组迭代改善的超分辨的图像1401到140N的初始超分辨的图像(通常被示为140i)被传送到图像形成模型142。当图像形成模型142将X相关到每个Yi时,该图像形成模型142说明面部运动、照相机模糊和检测器采样。确切地说,用于多个帧1到N中的每一个的表观形状模型19(通常被示为ASM 191到ASM 19N)连同照相机模糊一起被输入到图像形成模型142和初始超分辨的图像140i
对于每个输入帧19i,配准算子Fi将X从帧Hk变形到帧Hi,帧Hi的分辨率是Li的两倍,但是与Yi对准。可以使用最近邻域、双线性或任何其他内插法用于变形运算。照相机模糊算子H不依赖于变量i,并且在高分辨率帧Hi内应用PSF。大多数安装的监视照相机受到确定真正的PSF的挑战。图像形成模型142假设高斯形状的PSF,该高斯形状的PSF具有手选宽度σ。检测器的采样运算由稀疏矩阵D表示,该稀疏矩阵D在每维中每隔一个像素进行提取,从而从帧Hi转换到Li(输入帧Yi的参考帧)。如果Vi代表加性像素强度噪声,那么完整的线性图像形成过程是:
Yi=DHFiX+Vi.
然后将输出Yi输入到数据保真度模块146,该数据保真度模块146确定数据保真度代价和这个代价相对于超分辨的图像像素值的梯度。如下所定义的那样,这个数据保真度代价JDF(x)是观察的模型与实际观察之间的差的L1范数加上正则化项Ψ(x)。可用于确定超分辨的图像X的一种优化算法是:
J DF ( X ) i = 1 n = Σ | | DHF i X - Y i | | .
L1范数被用在数据保真度模块146中,用于对于不正确的建模假设和配准误差而稳定。
同时,初始超分辨的图像140i被传送到正则化模块150,该正则化模块150使用双边总变差(BTV),用于抑制解趋向于恶化超分辨的图像。BTV代价函数是:
Ψ ( X ) = Σ l = - P P Σ m = - P P α | m | + | l | | | X - S l x S m y X | | l .
这里,sl x和sm y是将图像沿x和y方向移位l和m个像素的算子。在BTV的情况下,在其上应用绝对像素差约束的邻域可以比用于总变差(TV)的邻域更大,其中P>1。邻域的大小由参数P控制,并且约束强度衰减由α(0<α<1)控制。
为了求解超分辨率图像40,如上所述,首先将X初始化到初始图像1401。初始图像1401被传送到图像形成模块142和正则化模块150。图像形成模块142将结果输出到数据保真度模块146。数据保真度模块146输出数据保真度代价函数的解析梯度148i,并且正则化模块150输出正则化代价函数的解析梯度152i。这些输出148i、152i被输入到迭代优化模块154i。采用最速下降搜索,其中使用β=0.01的步长以及固定次数的迭代,诸如30次迭代:
X n + 1 = X n - β { Σ i = 1 n F T i H T D T sign ( DHF i X n - Y i ) +
λ Σ l = - P P Σ m = - P P α | m | + | l | ( I - S - m y S - l y ) sign ( X n - S l x S m y X n } .
当所观察的视频是彩色时,超分辨率处理仅被应用到亮度分量。初始图像被转换到NTSC彩色空间(YIQ),并针对所有输入帧计算亮度(Y)分量。超分辨的亮度结果与来自初始图像的色度分量进行组合。
参考图6(a)到图6(c),示出了原始视频帧(图6(a))与增强的视频帧的比较。图6(b)示出了维纳滤波在单个视频帧上的结果。图6(c)示出了在多个连续视频帧上利用超分辨率算法124的超分辨率的结果。显然,图6(b)和6(c)中所示的面部图像的清晰度在图6(a)上递增地提高。
虽然仅结合了有限数目的实施例详细描述了本发明,应容易理解的是本发明并不限于这些公开的实施例。相反,可以修改本发明以并入此前并未描述但是与本发明的精神和范围相称的任何数目的变型、变更、置换或等效配置。此外,虽然描述了本发明的各种实施例,但是应理解的是,本发明的那些方面可以仅包括所描述的实施例中的某些实施例。因此,本发明并不应看成是由以上说明来限制,而是仅由随附的权利要求的范围来限制。
                   元件列表
元件名称                           元件编号
面部重建系统                       10
训练数据库                         12
视频输入                           18
表观形状模型                       19
面部检测模块                       20
AAM拟合模块                        22
配准模块                           24
变形模块                           26
平均化模块                         28
维纳滤波模块                       30
复原的面部图像                     40
面部重建系统                       110
超分辨率模块                       124
复原的面部图像                     140
图像形成模型                       142
数据保真度模块                     146
数据保真度代价函数的解析梯度       148i
正则化模块                         150
正则化代价函数的解析梯度           152i
迭代优化模块                       154i

Claims (10)

1.一种用于由视频的多个帧产生复原的面部图像的系统(10),其包括:
主观形状部件(16),用于将主观形状模型拟合到在多个视频帧(18)中的每一个中发现的面部图像;
配准部件(24),用于使每个所述面部图像的面部区域之内的每个位置与任何其他面部图像中的相对应位置相配准;以及
复原部件,用于由所述多个面部图像产生复原的面部图像(40)。
2.根据权利要求1所述的系统,其中,所述主观形状部件包括:
视频输入模块(18),用于提供多个视频帧;
面部检测模块(20),适于在所述多个视频帧中的每一个中检测面部;以及
拟合模块(22),用于确定面部图像模型参数,使得该模型严密地类似所述多个视频帧中的每一个中的面部。
3.根据权利要求1所述的系统,其中,所述复原部件包括超分辨率算法(124)。
4.根据权利要求3所述的系统,其中,所述超分辨率算法包括:
图像形成模型(IFM)(142),该图像形成模型(IFM)(142)针对所述多个视频帧中的每一个使用主观形状模型,用于产生IFM面部图像;以及
数据保真度模型(146),该数据保真度模型(146)使用来自所述多个视频帧中的每一个的实际面部图像来与IFM面部图像相比较,所述数据保真度模型包括代价函数。
5.根据权利要求4所述的系统,其包括正则化模型(150),用于抑制高空间频率失真,所述正则化模型包括第二代价函数。
6.根据权利要求1所述的系统,其中,所述复原部件包括:
变形模块(26),用于获取来自配准部件的输出,以将所述多个视频帧中的每一个的每个面部图像变形到新的参考帧,该新的参考帧具有比所述多个视频帧的像素分辨率更大的像素分辨率;
平均化模块(28),用于逐个像素地对每个被变形的面部图像进行平均;以及
图像复原算法(30),用于由被平均的面部图像产生复原的面部图像。
7.根据权利要求6所述的系统,其中,所述图像复原算法包括维纳滤波。
8.根据权利要求6所述的系统,其中,所述新的参考帧的像素分辨率比所述多个视频帧的像素分辨率大两倍。
9.一种用于由视频的多个帧产生复原的面部图像的方法,其包括:
将主观形状模型拟合到在多个视频帧中的每一个中发现的面部图像;
使每个所述面部图像的每个图像位置与每个其他面部图像的相对应的图像位置相配准;以及
由多个面部图像产生复原的面部图像。
10.根据权利要求9所述的方法,其中,所述拟合主观表观模型包括:
访问面部图像的数据库;以及
由该数据库构造面部图像的表观和形状的一般数学表示。
CNA2008100038361A 2007-01-24 2008-01-24 由视频重建复原的面部图像的系统和方法 Pending CN101231693A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US88643307P 2007-01-24 2007-01-24
US60/886433 2007-01-24
US11/836316 2007-08-09

Publications (1)

Publication Number Publication Date
CN101231693A true CN101231693A (zh) 2008-07-30

Family

ID=39898156

Family Applications (1)

Application Number Title Priority Date Filing Date
CNA2008100038361A Pending CN101231693A (zh) 2007-01-24 2008-01-24 由视频重建复原的面部图像的系统和方法

Country Status (1)

Country Link
CN (1) CN101231693A (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106663196A (zh) * 2014-07-29 2017-05-10 微软技术许可有限责任公司 视频中的计算机显著人物识别
CN107846317A (zh) * 2017-11-10 2018-03-27 曹典 路由器面板显示风格切换系统
CN108961186A (zh) * 2018-06-29 2018-12-07 赵岩 一种基于深度学习的老旧影片修复重制方法
CN109787904A (zh) * 2017-11-10 2019-05-21 曹一典 路由器面板显示风格切换方法
CN113033723A (zh) * 2021-03-08 2021-06-25 山东大学 环形掩膜版、光场调控方法、单像素成像方法及系统

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106663196A (zh) * 2014-07-29 2017-05-10 微软技术许可有限责任公司 视频中的计算机显著人物识别
CN106663196B (zh) * 2014-07-29 2020-04-28 微软技术许可有限责任公司 用于识别主体的方法、系统和计算机可读存储介质
CN107846317A (zh) * 2017-11-10 2018-03-27 曹典 路由器面板显示风格切换系统
CN109787904A (zh) * 2017-11-10 2019-05-21 曹一典 路由器面板显示风格切换方法
CN108961186A (zh) * 2018-06-29 2018-12-07 赵岩 一种基于深度学习的老旧影片修复重制方法
CN108961186B (zh) * 2018-06-29 2022-02-15 福建帝视信息科技有限公司 一种基于深度学习的老旧影片修复重制方法
CN113033723A (zh) * 2021-03-08 2021-06-25 山东大学 环形掩膜版、光场调控方法、单像素成像方法及系统

Similar Documents

Publication Publication Date Title
EP1950700A1 (en) System and method for reconstructing restored facial images from video
Pitie et al. N-dimensional probability density function transfer and its application to color transfer
KR101175097B1 (ko) 파노라마 영상 생성 방법
JP4613994B2 (ja) 動態推定装置、動態推定方法、プログラム
US20110170784A1 (en) Image registration processing apparatus, region expansion processing apparatus, and image quality improvement processing apparatus
CN109685045B (zh) 一种运动目标视频跟踪方法及系统
CN103093444A (zh) 基于自相似性和结构信息约束的图像超分辨重建方法
CN106169173B (zh) 一种图像插值方法
CN109242834A (zh) 一种基于卷积神经网络的无参考立体图像质量评价方法
CN112801870B (zh) 一种基于网格优化的图像拼接方法,拼接系统及可读存储介质
CN110378250B (zh) 用于场景认知的神经网络的训练方法、装置及终端设备
CN107292830A (zh) 低照度图像增强及评价方法
CN111553845B (zh) 一种基于优化的三维重建的快速图像拼接方法
CN108288256A (zh) 一种多光谱马赛克图像复原方法
CN104036468A (zh) 基于预放大非负邻域嵌入的单帧图像超分辨重建方法
CN109376641A (zh) 一种基于无人机航拍视频的运动车辆检测方法
Furnari et al. Distortion adaptive Sobel filters for the gradient estimation of wide angle images
CN101231693A (zh) 由视频重建复原的面部图像的系统和方法
Steffens et al. Deep learning based exposure correction for image exposure correction with application in computer vision for robotics
CN108961182B (zh) 针对视频图像的竖直方向灭点检测方法及视频扭正方法
Tseng et al. Depth image super-resolution via multi-frame registration and deep learning
Fu et al. Raw image based over-exposure correction using channel-guidance strategy
CN108492264B (zh) 一种基于sigmoid变换的单帧图像快速超分辨方法
CN108876755B (zh) 一种改进的灰度图像的彩色背景的构建方法
KR102617023B1 (ko) 라이트 필드 공간 해상도 개선 시스템 및 방법

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
ASS Succession or assignment of patent right

Owner name: GENERAL ELECTRIC SECURITY CO., LTD.

Free format text: FORMER OWNER: GENERAL ELECTRIC CO., LTD.

Effective date: 20100413

C41 Transfer of patent application or patent right or utility model
COR Change of bibliographic data

Free format text: CORRECT: ADDRESS; FROM: NEW YORK STATE, U.S.A. TO: FLORIDA STATE, U.S.A

TA01 Transfer of patent application right

Effective date of registration: 20100413

Address after: American Florida

Applicant after: GE Security, Inc.

Address before: American New York

Applicant before: General Electric Company

C02 Deemed withdrawal of patent application after publication (patent law 2001)
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20080730