CN102073866B - 一种利用时空马尔科夫随机场模型的视频超分辨方法 - Google Patents

一种利用时空马尔科夫随机场模型的视频超分辨方法 Download PDF

Info

Publication number
CN102073866B
CN102073866B CN2010106078054A CN201010607805A CN102073866B CN 102073866 B CN102073866 B CN 102073866B CN 2010106078054 A CN2010106078054 A CN 2010106078054A CN 201010607805 A CN201010607805 A CN 201010607805A CN 102073866 B CN102073866 B CN 102073866B
Authority
CN
China
Prior art keywords
markov random
random file
file model
video
time domain
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN2010106078054A
Other languages
English (en)
Other versions
CN102073866A (zh
Inventor
戴琼海
索津莉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tsinghua University
Original Assignee
Tsinghua University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tsinghua University filed Critical Tsinghua University
Priority to CN2010106078054A priority Critical patent/CN102073866B/zh
Publication of CN102073866A publication Critical patent/CN102073866A/zh
Application granted granted Critical
Publication of CN102073866B publication Critical patent/CN102073866B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了一种利用时空马尔科夫随机场模型的视频超分辨方法,包括:收集训练数据,根据训练数据构建第一马尔科夫随机场模型,学习第一马尔科夫随机场模型以获取先验约束;输入测试视频,对所述测试视频进行上采样以获得测试数据,根据所述测试数据构建第二马尔科夫随机场模型;以及利用学习所述第一马尔科夫随机场模型获得的先验约束对所述第二马尔科夫随机场模型的参数进行优化,以对所述输入视频进行超分辨率运算。本发明同时利用自然场景图像的空域相关性和视频序列之间的时域相关性进行马尔科夫建模,发掘了视频的内在属性,实现简单、数据采集容易、自动化程度高。

Description

一种利用时空马尔科夫随机场模型的视频超分辨方法
技术领域
本发明涉及计算机视觉处理领域,特别涉及一种利用时空马尔科夫随机场模型的视频超分辨方法。
背景技术
马尔可夫随机场包含两个要素:位置(site),相空间(phase space)。当给每一个位置中按照某种分布随机赋予相空间的一个值之后,其全体就叫做随机场。对随机场的每个位置赋予相空间里不同的值。
针对视频的超分辨率问题,现有技术中提出了一系列的算法包括:采用数据库中与输入图像具有类似低频信息的参考图像的高频信息进行超分辨率;采用高频的关键帧来对其他帧进行超分辨率;对人脸进行分区,采用不同的运动估计算法;利用面部运动的时域相关性来进行超分辨率;通过引入摄像机的运动来增强分辨率。
但是上述现有技术中的算法存在如下问题:没有同时利用时空域的相关性,只能处理特定视频,从而不具有普遍性;设备昂贵,采集时间长,而且只能采集全新的高分辨率视频,而无法处理已有的低分辨率的视频信息。
发明内容
本发明的目的旨在至少解决上述技术缺陷之一,特别提出一种简单、快速的利用时空马尔科夫随机场模型的视频超分辨方法。
为达到上述目的,本发明的实施例提出了一种利用时空马尔科夫随机场模型的视频超分辨方法,包括如下步骤:
收集训练数据,根据所述训练数据构建第一马尔科夫随机场模型,学习所述第一马尔科夫随机场模型以获取先验约束,其中,所述训练数据为高分辨率视频图像;
输入测试视频,对所述测试视频进行上采样以获得测试数据,根据所述测试数据构建第二马尔科夫随机场模型,其中,所述测试视频为低分辨率视频;以及
利用学习所述第一马尔科夫随机场模型获得的先验约束对所述第二马尔科夫随机场模型的参数进行优化,以对所述输入视频进行超分辨率运算。
根据本发明实施例的利用时空马尔科夫随机场模型的视频超分辨方法,同时利用自然场景图像的空域相关性和视频序列之间的时域相关性进行马尔科夫建模,发掘了视频的内在属性,实现简单、数据采集容易、自动化程度高。并且,本发明实施例的视频超分辨方法一方面可以提高普通拍摄设备拍摄视频的分辨率,提高可视觉效果;另一方面可以作为数据预处理阶段,有效地帮助计算机视觉中的视频分析等任务。
本发明附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
本发明上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:
图1为根据本发明实施例的利用时空马尔科夫随机场模型的视频超分辨方法的流程图;
图2为根据本发明实施例的利用时空马尔科夫随机场模型的视频超分辨方法的实施框架图;
图3为根据本发明实施例的训练数据的采集示意图;
图4为根据本发明实施例的构建第一空域马尔科夫随机场模型的示意图;
图5a为根据本发明实施例的构建运动区域的第一时域马尔科夫随机场模型的示意图;
图5b为根据本发明实施例的构建相对静止区域的第一时域马尔科夫随机场模型的示意图;
图6为根据本发明实施例的构建第一马尔科夫随机场模型的示意图;
图7为根据本发明实施例的第一马尔科夫随机场模型的训练示意图;
图8为根据本发明实施例的时空域高频分量先验统计图;
图9为根据本发明实施例的学习得到的高通滤波器及其响应统计图;
图10为根据本发明实施例的对输入视频进行超分辨率运算的流程图;以及
图11为根据本发明实施例的对第二马尔科夫随机场模型的参数进行优化的示意图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,仅用于解释本发明,而不能解释为对本发明的限制。
下面参考图1和图2描述根据本发明实施例的利用时空马尔科夫随机场模型的视频超分辨方法。
如图1所示,根据本发明实施例的利用时空马尔科夫随机场模型的视频超分辨方法,包括如下步骤:
S101:收集训练数据,根据训练数据构建第一马尔科夫随机场模型,学习第一马尔科夫随机场模型以获取先验约束;
如图2所示,首先需要收集训练数据。其中,训练数据需要满足以下两个要求:
其一,控制训练数据的数据量,降低学习第一马尔科夫随机场模型的难度和代价;
其二,训练样本具有代表性,可以涵盖典型的运动场景,使得学习的第一马尔科夫随机场模型能够具有较大的适应性。
在本发明的一个实施例中,训练数据可以为高分辨率视频。如图3所示,作为训练数据的高分辨率视频图像集可以从高清电影中截取,如DVD格式的电影,并且训练数据选取具有典型场景配置,涵盖尽可能多的场景种类以具有普遍适用性,如兼顾室内、城市、自然风光等场景,包含近景和远景。此外,高分辨率视频图像集应减少相似场景的数据,从而保证视频数据的差异性,减少训练过程的代价。由于高分辨率视频图像具有较大的数据量,从而需要较大的存储空间,因此从高分辨率视频图像集中进行关键帧抽取,并对抽取后的高分辨率图像及进行分段。从分段后的高分辨率视频图像集中选取一个图像序列的子集,在该图像序列的子集中进行随机采样,从而获得训练数据。
根据以收集的训练数据可以构建第一马尔科夫随机场模型,其中第一马尔科夫随机场模型包括第一空域马尔科夫随机场模型和第一时域马尔科夫随机场模型。
如图4所示,根据自然图像在邻域固有的相关性构建第一空域马尔科夫随机场模型场。首先,利用图像分割算法对训练数据中的各帧图像进行过分割,得到多个不规则的邻域以作为多个第一空域簇,从而使得每个超像素内部具有较强的相关性,而相邻超像素之间具有较大的差异性,即利用空间邻域内像素之间的相关性来描述空域的统计属性。从而缓解了传统马尔科夫随机场中均一分割方式邻域内部相关性的不足以及对大区域内部像素之间相关性的破坏。
在本发明的一个实施例中,将多个不规则的邻域中的每个超像素作为一个第一空域簇。
由于上述第一空域簇可以反映输入图像固有的结构信息,根据多个第一空域簇可以构建一个具有不规则分割的第一空域马尔科夫随机场模型。
根据连续运动带来的时域相关性并结合光流计算结果可以建立第一时域马尔科夫随机场模型。由于图像帧之间的时域相关性可以归结为运动的连续性与背景的静止性两个方面,因此分别对运动和静止分别采用不同的方式进行建模。具体而言,第一时域马尔科夫随机场模型包括运动区域的第一时域马尔科夫随机场模型和相对静止区域的第一时域马尔科夫随机场模型。其中,相对静止区域可以为背景区域。
如图5a所示,对于构建运动区域的第一时域马尔科夫随机场模型,首先利用物体运动固有的连续性,采用跟踪算法中的光流计算检测训练数据的视频的运动前景区域和运动轨迹,从而获取前景区域的时域的相关性,即搜索相邻帧之间的对应关系。然后将时间域内沿着光流方向的图像片序列作为第一运动区域簇来构建运动区域的第一时域马尔科夫随机场模型。其中,时间域内沿着光流方向的图像片序列可以为预定时间间隔内的图像序列的对应图像片作为一个第一运动区域簇。
如图5b所示,对于构建相对静止区域的第一时域马尔科夫随机场模型,利用相邻帧的背景区域基本不变的规律,在相对静止区域中的相邻帧之间通过图像匹配来搜索对应区域,以该对应区域作为候选。然后根据对应区域中的图像序列的相邻帧之间的匹配结果作为第一相对静止区域簇,以获得相邻帧之间的时域相关性,从而构建相对静止区域的第一时域马尔科夫随机场模型。
在本发明的一个实施例中,在光流计算和图像匹配中,可以按照视频本身的内容自动进行视频分析,选取相关性强的像素生成簇,而不必显式地提取关键帧。
如图6所示,利用上述得到的第一空域马尔科夫随机场模型和第一时域马尔科夫随机场模型,利用空域和空域的相关性构建第一马尔科夫随机场模型。其中,第一马尔科夫随机场模型为三维马尔科夫随机场模型。第一马尔科夫随机场模型同时结合空域内相邻像素之间的相关性以及时域内运动前景的连续性和静止背景的稳定性,从而同时表征视频的帧内像素之间的相关性和帧间像素之间的相关性。
采用高分辨率视频的训练数据通过自动学习上述得到的第一马尔科夫随机场模型以获取先验知识作为先验约束。如图7所示,首先采用矩阵获取初始滤波器集合,其中初始滤波器集合中包括有多个滤波器。然后对训练数据进行滤波器响应,即利用各个滤波器对训练数据进行卷积,并将卷积后的直方图作为统计量。判断该统计量(即统计直方图)是否符合超高斯分布。当统计量不符合超高斯分布时,改变滤波器,并对改变后的滤波器进行初始化,然后对训练数据再次进行滤波器响应,获取新的统计量,并判断该新的统计量是否符合超高斯分布。如此迭代直至统计量符合超高斯分布,将该统计量作为先验约束。图8为时空域的高频分量先验统计图。在时间域和空间域进行高频滤波,然后统计其直方图。通过对大量高分辨率视频的统计结果表明,滤波响应符合超高斯分布,从而在该分布约束下进行超分辨率运算。
如图9所示,从高分辨率视频中学习中可以得到一个3*3*3的三维滤波器。在本发明的一个实施例中,共学习得到26个上述三维滤波器,将其响应分布作为视频超分辨率的先验约束。
S102:输入测试视频,对测试视频进行上采样以获得测试数据,根据测试数据构建第二马尔科夫随机场模型;
输入测试视频,其中测试视频可以为低分辨率视频。对上述测试视频进行上采样操作以得到测试数据,利用测试数据构建第二马尔科夫随机场模型。其中,训练过程中的第一马尔科夫随机场模型和测试过程中的第二马尔科夫随机场模型的构建方法相似。但是由于训练数据和测试数据分辨率不同,所以第一马尔科夫随机场模型和第二马尔科夫随机场模型的参数不同。
具体而言,第二马尔科夫随机场模型包括第二空域马尔科夫随机场模型和第二时域马尔科夫随机场模型。
根据自然图像在邻域固有的相关性构建第二空域马尔科夫随机场模型场。首先,利用图像分割算法对测试数据中的各帧图像进行过分割,得到多个不规则的邻域以作为多个第二空域簇,从而使得每个超像素内部具有较强的相关性,而相邻超像素之间具有较大的差异性,即利用空间邻域内像素之间的相关性来描述空域的统计属性。从而缓解了传统马尔科夫随机场中均一分割方式邻域内部相关性的不足以及对大区域内部像素之间相关性的破坏。
在本发明的一个实施例中,将多个不规则的邻域中的每个超像素作为一个第二空域簇。
由于上述第二空域簇可以反映输入图像固有的结构信息,根据多个第二空域簇可以构建一个具有不规则分割的第二空域马尔科夫随机场模型。
根据连续运动带来的时域相关性并结合光流计算结果可以建立第二时域马尔科夫随机场模型。由于图像帧之间的时域相关性可以归结为运动的连续性与背景的静止性两个方面,因此分别对运动和静止分别采用不同的方式进行建模。具体而言,第二时域马尔科夫随机场模型包括运动区域的第二时域马尔科夫随机场模型和相对静止区域的第二时域马尔科夫随机场模型。其中,相对静止区域可以为背景区域。
对于构建运动区域的第二时域马尔科夫随机场模型,首先利用物体运动固有的连续性,采用跟踪算法中的光流计算检测测试数据的视频的运动前景区域和运动轨迹,从而获取前景区域的时域的相关性,即搜索相邻帧之间的对应关系。然后将时间域内沿着光流方向的图像片序列作为第二运动区域簇来构建运动区域的第二时域马尔科夫随机场模型。其中,时间域内沿着光流方向的图像片序列可以为预定时间间隔内的图像序列的对应图像片作为一个第二运动区域簇。
对于构建相对静止区域的第二时域马尔科夫随机场模型,利用相邻帧的背景区域基本不变的规律,在相对静止区域中的相邻帧之间通过图像匹配来搜索对应区域,以该对应区域作为候选。然后根据对应区域中的图像序列的相邻帧之间的匹配结果作为第二相对静止区域簇,以获得相邻帧之间的时域相关性,从而构建相对静止区域的第二时域马尔科夫随机场模型。
在本发明的一个实施例中,在光流计算和图像匹配中,可以按照视频本身的内容自动进行视频分析,选取相关性强的像素生成簇,而不必显式地提取关键帧。
利用上述得到的第二空域马尔科夫随机场模型和第二时域马尔科夫随机场模型,利用空域和空域的相关性构建第二马尔科夫随机场模型。其中,第二马尔科夫随机场模型可以为三维马尔科夫随机场模型。第二马尔科夫随机场模型同时结合空域内相邻像素之间的相关性以及时域内运动前景的连续性和静止背景的稳定性,从而同时表征视频的帧内像素之间的相关性和帧间像素之间的相关性。
S103:利用学习第一马尔科夫随机场模型获得的先验约束对第二马尔科夫随机场模型的参数进行优化,以对输入视频进行超分辨率运算。
利用步骤101中学习第一马尔科夫随机场获得的先验约束中的滤波器对第二马尔科夫随机场模型的参数进行优化。
如图10所示,输入低分辨率的视频序列,对视频训练进行上采样以获取测试数据。利用学习第一马尔科夫随机场模型得到的滤波器对测试数据滤波器响应。如图11所示,的滤波器包括滤波器1、滤波器2...滤波器n。通过在训练过程中,统计各个滤波器的响应的直方图得到与各个滤波器对应的先验概率分布f1、先验概率分布f2...先验概率分布fn。利用学习得到的滤波器对测试数据进行滤波器响应,即对测试数据进行卷积操作,并统计直方图,从而获得与各个滤波器对应的响应概率分布g1、响应概率分布g2...响应概率分布gn。将响应概率分布于先验概率分布进行比较,判断响应概率分布是否在预定范围内符合先验概率分布。如果响应概率分布不符合先验概率分布,则对图像进行修正。具体而言,沿梯度上升方向进行图像处理。对修正后的图像再次进行滤波器响应,获得新的响应概率分布,将新的响应概率分布与先验概率分布再次比较。如此迭代直至响应概率分布在预定范围内符合先验概率分布,则停止迭代。从而利用由训练数据得到的参数引导由测试数据得到的参数,使得测试数据的参数更加接近训练数据上参数,即对测试数据进行超分辨率运算,从而增强输入视频的分辨率。
根据本发明实施例的利用时空马尔科夫随机场模型的视频超分辨方法,同时利用自然场景图像的空域相关性和视频序列之间的时域相关性进行马尔科夫建模,发掘了视频的内在属性,实现简单、数据采集容易、自动化程度高。并且,本发明实施例的视频超分辨方法一方面可以提高普通拍摄设备拍摄视频的分辨率,提高可视觉效果;另一方面可以作为数据预处理阶段,有效地帮助计算机视觉中的视频分析等任务。利用由训练数据得到的参数引导由测试数据得到的参数,使得测试数据的参数更加接近训练数据上参数,即对测试数据进行超分辨率运算,从而增强输入视频的分辨率。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
尽管已经示出和描述了本发明的实施例,对于本领域的普通技术人员而言,可以理解在不脱离本发明的原理和精神的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由所附权利要求及其等同限定。

Claims (11)

1.一种利用时空马尔科夫随机场模型的视频超分辨方法,包括如下步骤:
收集训练数据,根据所述训练数据构建第一马尔科夫随机场模型,学习所述第一马尔科夫随机场模型以获取先验约束,其中,所述训练数据为高分辨率视频图像,
所述收集训练数据包括如下步骤:从高分辨率视频图像集中进行关键帧抽取,并对抽取后的高分辨率视频图像集进行分段;从分段后的所述高分辨率视频图像集中选取一个图像序列的子集;以及在所述图像序列的子集中进行随机采样以获取训练数据;
所述根据训练数据构建第一马尔科夫随机场模型包括如下步骤:根据所述训练数据构建第一空域马尔科夫随机场模型和第一时域马尔科夫随机场模型;
输入测试视频,对所述测试视频进行上采样以获得测试数据,根据所述测试数据构建第二马尔科夫随机场模型,其中,所述测试视频为低分辨率视频,
所述根据测试数据构建第二马尔科夫随机场模型包括如下步骤:根据所述测试数据建立第二空域马尔科夫随机场模型和第二时域马尔科夫随机场模型,包括:利用图像分割算法对所述测试数据中的每帧图像进行过分割以得到多个不规则的邻域,其中,将所述多个不规则的邻域作为多个第二空域簇,根据所述多个第二空域簇构建所述第二空域马尔科夫随机场模型,其中,将所述多个不规则的邻域中的每个超像素作为一个第二空域簇;以及
利用学习所述第一马尔科夫随机场模型获得的先验约束对所述第二马尔科夫随机场模型的参数进行优化,以对所述输入测试视频进行超分辨率运算。
2.如权利要求1所述的视频超分辨方法,其特征在于,所述根据训练数据构建第一空域马尔科夫随机场模型包括如下步骤:
利用图像分割算法对所述训练数据中的每帧图像进行过分割以得到多个不规则的邻域,其中,将所述多个不规则的邻域作为多个第一空域簇,根据所述多个第一空域簇构建所述第一空域马尔科夫随机场模型。
3.如权利要求2所述的视频超分辨方法,其特征在于,将所述多个不规则的邻域中的每个超像素作为一个第一空域簇。
4.如权利要求1所述的视频超分辨方法,其特征在于,所述第一时域马尔科夫随机场模型包括运动区域的第一时域马尔科夫随机场模型和相对静止区域的第一时域马尔科夫随机场模型,其中,所述相对静止区域为背景区域。
5.如权利要求4所述的视频超分辨方法,其特征在于,所述根据训练数据构建运动区域的第一时域马尔科夫随机场模型包括如下步骤:
通过光流计算检测所述训练数据的运动前景区域和运动轨迹,将时间域沿光流方向的图像片序列作为第一运动区域簇以构建所述运动区域的第一时域马尔科夫随机场模型。
6.如权利要求4所述的视频超分辨方法,其特征在于,所述根据训练数据构建相对静止区域的第一时域马尔科夫随机场模型包括如下步骤:
将所述相对静止区域中的相邻帧之间通过图像匹配以搜索对应区域,将所述对应区域中的图像序列的相邻帧的匹配结果作为第一相对静止区域簇以构建所述相对静止区域的第一时域马尔科夫随机场模型。
7.如权利要求1所述的视频超分辨方法,其特征在于,所述学习第一马尔科夫随机场模型,包括如下步骤:
采用随机矩阵获取初始滤波器集合;
所述训练数据学习所述第一马尔科夫随机场模型,包括学习所述训练数据在所述初始滤波器集合中的各个滤波器的统计量,当所述统计量符合超高斯分布时,将所述统计量作为所述先验约束。
8.如权利要求1所述的视频超分辨方法,其特征在于,所述第二时域马尔科夫随机场模型包括运动区域的第二时域马尔科夫随机场模型和相对静止区域的第二时域马尔科夫随机场模型,其中,所述相对静止区域为背景区域。
9.如权利要求8所述的视频超分辨方法,其特征在于,所述根据测试数据构建运动区域的第二时域马尔科夫随机场模型包括如下步骤:
通过光流计算检测所述测试数据的运动前景区域和运动轨迹,将时间域沿光流方向的图像片序列作为第二运动区域簇以构建所述运动区域的第二时域马尔科夫随机场模型。
10.如权利要求8所述的视频超分辨方法,其特征在于,所述根据测试数据构建相对静止区域的第二时域马尔科夫随机场模型包括如下步骤:
将所述相对静止区域中的相邻帧之间通过图像匹配以搜索对应区域,将所述对应区域中的图像序列的相邻帧的匹配结果作为第二相对静止区域簇以构建所述相对静止区域的第二时域马尔科夫随机场模型。
11.如权利要求1所述的视频超分辨方法,其特征在于,根据学习所述第一马尔科夫随机场模型获得的先验约束中的滤波器对所述测试数据进行卷积以获得响应概率分布,调整所述响应概率分布以符合所述先验概率分布。
CN2010106078054A 2010-12-27 2010-12-27 一种利用时空马尔科夫随机场模型的视频超分辨方法 Active CN102073866B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN2010106078054A CN102073866B (zh) 2010-12-27 2010-12-27 一种利用时空马尔科夫随机场模型的视频超分辨方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN2010106078054A CN102073866B (zh) 2010-12-27 2010-12-27 一种利用时空马尔科夫随机场模型的视频超分辨方法

Publications (2)

Publication Number Publication Date
CN102073866A CN102073866A (zh) 2011-05-25
CN102073866B true CN102073866B (zh) 2012-11-14

Family

ID=44032400

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2010106078054A Active CN102073866B (zh) 2010-12-27 2010-12-27 一种利用时空马尔科夫随机场模型的视频超分辨方法

Country Status (1)

Country Link
CN (1) CN102073866B (zh)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103400394B (zh) * 2013-07-18 2016-08-17 天津大学 基于特征导向变分光流的视频超分辨率方法
CN103632359B (zh) * 2013-12-13 2016-03-30 清华大学深圳研究生院 一种视频超分辨率处理方法
CN105072373B (zh) * 2015-08-28 2018-03-27 中国科学院自动化研究所 基于双向循环卷积网络的视频超分辨率方法和系统
CN107590462B (zh) * 2017-09-13 2020-11-20 淮阴工学院 基于模式识别与st-mrf相结合的交通流参数提取方法
CN109819321B (zh) * 2019-03-13 2020-06-26 中国科学技术大学 一种视频超分辨率增强方法
CN111127325B (zh) * 2019-12-31 2020-11-24 珠海大横琴科技发展有限公司 基于循环神经网络的卫星视频超分辨率重建方法及系统
CN111738928B (zh) * 2020-04-30 2021-04-13 南京图格医疗科技有限公司 一种基于概率优化和神经网络的内窥镜去雾方法
CN112184549B (zh) * 2020-09-14 2023-06-23 阿坝师范学院 基于时空变换技术的超分辨图像重建方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7139409B2 (en) * 2000-09-06 2006-11-21 Siemens Corporate Research, Inc. Real-time crowd density estimation from video
CN101719270A (zh) * 2009-12-25 2010-06-02 武汉大学 一种基于非负矩阵分解的人脸超分辨率处理方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070083114A1 (en) * 2005-08-26 2007-04-12 The University Of Connecticut Systems and methods for image resolution enhancement
US7822266B2 (en) * 2006-06-02 2010-10-26 Carnegie Mellon University System and method for generating a terrain model for autonomous navigation in vegetation
US8866936B2 (en) * 2008-07-24 2014-10-21 Florida State University of Research Foundation Systems and methods for training an active random field for real-time image denoising

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7139409B2 (en) * 2000-09-06 2006-11-21 Siemens Corporate Research, Inc. Real-time crowd density estimation from video
CN101719270A (zh) * 2009-12-25 2010-06-02 武汉大学 一种基于非负矩阵分解的人脸超分辨率处理方法

Also Published As

Publication number Publication date
CN102073866A (zh) 2011-05-25

Similar Documents

Publication Publication Date Title
CN102073866B (zh) 一种利用时空马尔科夫随机场模型的视频超分辨方法
CN101777180B (zh) 基于背景建模和能量最小化的复杂背景实时替换方法
CN101765022B (zh) 一种基于光流与图像分割的深度表示方法
CN1237796C (zh) 用于运动补偿内插的像素数据选择设备及其方法
CN110163246A (zh) 基于卷积神经网络的单目光场图像无监督深度估计方法
US10600158B2 (en) Method of video stabilization using background subtraction
CN105741231B (zh) 图像的美肤处理方法和装置
CN102131058B (zh) 高清数字视频帧速率变换处理模块及其方法
CN101588459A (zh) 一种视频抠像处理方法
CN105872345A (zh) 基于特征匹配的全帧电子稳像方法
CN102034247B (zh) 一种基于背景建模对双目视觉图像的运动捕捉方法
CN103929568A (zh) 用于稳定数字图像帧的第一序列的方法以及图像稳定单元
CN111161313A (zh) 一种视频流中的多目标追踪方法及装置
CN103402098A (zh) 一种基于图像插值的视频插帧方法
CN101459843B (zh) 一种精确提取视频序列中损坏内容区域的方法
US9471958B2 (en) Image processing method and apparatus
CN103888767A (zh) Umh块匹配运动估计与光流场运动估计相结合的一种帧率提升方法
CN102014281A (zh) 具有非线性运动场平滑的运动估计的方法和系统
US20170206633A1 (en) Method and apparatus for up-scaling an image
Fan et al. Multiscale cross-connected dehazing network with scene depth fusion
CN111460964A (zh) 一种广电传输机房低照度条件下运动目标检测方法
CN101321241A (zh) 一种交互式的视频运动物体消除方法
Gu et al. Continuous bidirectional optical flow for video frame sequence interpolation
CN102129692A (zh) 一种双门限场面运动目标检测方法及其系统
CN110264434A (zh) 一种基于低秩矩阵补全的单幅图像去雨方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant