CN105430406A - 一种分布式视频编码框架 - Google Patents

一种分布式视频编码框架 Download PDF

Info

Publication number
CN105430406A
CN105430406A CN201510883301.8A CN201510883301A CN105430406A CN 105430406 A CN105430406 A CN 105430406A CN 201510883301 A CN201510883301 A CN 201510883301A CN 105430406 A CN105430406 A CN 105430406A
Authority
CN
China
Prior art keywords
frame
side information
sent
prime
wyner
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201510883301.8A
Other languages
English (en)
Other versions
CN105430406B (zh
Inventor
程德强
陈刚
姜海龙
寇旗旗
徐祖倩
刘海
张国鹏
郭星歌
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
XUZHOU JIUDING ELECTROMECHANICAL GENERAL FACTORY
Original Assignee
China University of Mining and Technology CUMT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by China University of Mining and Technology CUMT filed Critical China University of Mining and Technology CUMT
Priority to CN201510883301.8A priority Critical patent/CN105430406B/zh
Priority to PCT/CN2015/097220 priority patent/WO2017092072A1/zh
Publication of CN105430406A publication Critical patent/CN105430406A/zh
Application granted granted Critical
Publication of CN105430406B publication Critical patent/CN105430406B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation

Abstract

本发明提供一种分布式视频编码框架,包括:基本视点、增强视点、Wyner‐Ziv编码器、Wyner‐Ziv解码器、第一帧内编码器、第一帧内解码器、时间边信息生成模块、第二帧内编码器、第二帧内解码器、空间边信息生成模块、融合模块、重构模块;其中,基本视点、增强视点为采集设备,Wyner‐Ziv编码器与解码器、第一帧内编码器与解码器、第二帧内编码器与解码器分别对第一Wyner‐Ziv帧、第一关键帧、第二关键帧编码与解码;时间边信息生成模块、空间边信息生成模块分别生成时间边信息帧、空间边信息帧;融合模块对时间边信息帧与空间边信息帧进行融合后,由重构模块进行图像重建。本发明能适应恶劣复杂的环境,具有较高的容错性与普遍适用性,可广泛应用于矿业领域。

Description

一种分布式视频编码框架
技术领域
本发明涉及图像处理技术,特别是涉及一种分布式视频编码框架。
背景技术
在环境复杂、恶劣的矿井中,无线传感网络(WSN,wirelesssensornetwork)利用大量能量受限的微型节点采集、传输与处理矿井环境信息,使管理调度人员实时了解现场情况。但是,在煤炭安全高效生产或矿井灾难发生后的救援工作中,由该传统的传感器网络所获取的信息已无法满足管理调度人员对信息获取的全面需求。目前,无线视频传感网络(WVSN,wirelessvideosensornetwork)由于能获取图像、视频等丰富的多媒体信息,故得到了研究人员的大量关注。
在无线视频传感网络中,因为其传输信息主要涉及音频信息或视频信息,而单个传感器节点的存储、处理能力又严重受限,故高效实现多媒体信息的压缩编码成为WVSN研究的一个重要方面。面向不同应用场合的无线视频传感器网络中,由于节点相关模型和工作机制不同,故其编码方法也不同;也就是说,没有一个高效普适的编码方法适用各种不同应用场合的无线视频传感器网络。尤其是,在矿井巷道狭长、重型机电设备通过频繁的情况下,无法实现编码节点的随机部署;而且,矿井巷道存在严重的电磁干扰、无线信道质量差等固有特点,使得当前的编码方法也不适宜应用于高噪声、不可靠的信道中。
由此可见,现有技术中,尚无一种能适用于复杂恶劣环境的高容错性、普遍适用的分布式视频编码框架。
发明内容
有鉴于此,本发明的主要目的在于提供一种能适用于复杂恶劣环境的高容错性、普遍适用的分布式视频编码框架。
为了达到上述目的,本发明提出的技术方案为:
一种分布式视频编码框架,包括:基本视点、增强视点、Wyner-Ziv编码器、Wyner-Ziv解码器、第一帧内编码器、第一帧内解码器、时间边信息生成模块、第二帧内编码器、第二帧内解码器、空间边信息生成模块、融合模块、重构模块;其中,
基本视点,用于采集第一环境视频图像,根据第一环境视频图像的序号将第一环境视频图像分为第一Wyner-Ziv帧与第一关键帧,将第一Wyner-Ziv帧、第一关键帧分别发送至Wyner-Ziv编码器、第一帧内编码器。
增强视点,用于采集第二环境视频图像,根据第二环境视频图像的序号将第二环境视频图像分为第二Wyner-Ziv帧与第二关键帧,将第二关键帧发送至第二帧内编码器。
Wyner-Ziv编码器,用于对基本视点发送的第一Wyner-Ziv帧进行去除像素间相关性的离散余弦变换,对将变换系数量化后形成的位平面进行信道编码,并将得到的Wyner-Ziv编码帧通过无线信道发送至Wyner-Ziv解码器。
Wyner-Ziv解码器,用于对Wyner-Ziv编码器发送的Wyner-Ziv编码帧进行解码,并将Wyner-Ziv解码帧发送至重构模块。
第一帧内编码器,用于对基本视点发送的第一关键帧进行H.264帧内编码,并将得到的第一关键编码帧通过无线信道发送至第一帧内解码器。
第一帧内解码器,用于对第一帧内编码器发送的第一关键编码帧进行H.264帧内解码,并将得到的第一关键解码帧发送至时间边信息生成模块。
时间边信息生成模块,用于对来自第一帧内解码器的两个连续的第一关键解码帧依次进行预处理、块匹配、双向运动内插后,将生成的时间边信息帧发送至融合模块。
第二帧内编码器,用于对增强视点发送的第二关键帧进行H.264帧内编码,并将得到的第二关键编码帧通过无线信道发送至第二帧内解码器。
第二帧内解码器,用于对第二帧内编码器发送的第二关键编码帧进行H.264帧内解码,并将得到的第二关键解码帧发送至空间信息生成模块。
空间边信息生成模块,用于根据第二帧内解码器发送的第二关键解码帧进行运动估计,将得到的初始空间边信息帧发送至融合模块。
融合模块,用于根据基本视点与增强视点之间的相关性,通过基础矩阵将空间边信息生成模块发送的初始空间边信息帧映射到基本视点,得到映射空间边信息帧,并采用平均内插法对时间边信息生成模块发送的时间边信息帧与映射空间边信息帧进行信息融合后,将得到的融合信息帧发送至重构模块。
重构模块,用于对融合模块发送的融合信息帧进行滤波,并根据Wyner-Ziv解码器发送的Wyner-Ziv解码帧、经过滤波的融合信息帧进行图像重建。
综上所述,本发明所述分布式视频编码框架中,由基本视点与增强视点同时采集视频图像,并且由基本视点作为主采集设备,增强视点作为辅助采集设备;而且,在狭窄的矿井巷道中,基本视点与增强视点平行放置,使得基本视点和增强视点所采集的视频图像之间的对应核线相互平行,且位于相同的图像水平扫描线上。由此,基本视点与增强视点象人类的两只眼睛一样,被部署在矿井巷道之中。基本视点所采集视频图像被分为Wyner-Ziv帧与第一关键帧,Wyner-Ziv帧通过编码发送至监控室进行解码;第一关键帧通过编码也被发送至监控室解码后,用于生成时间边信息;将从增强视点所采集视频图像中抽取第二关键帧编码后发送至监控室解码,并用于生成与增强视点对应的初始空间边信息。时间边信息与初始空间边信息在融合模块中进行预处理后,根据基本视点与增强视点之间的相关性,将初始空间边信息映射为与基本视点对应的映射空间边信息;这样,对时间边信息与映射空间边信息进行融合后,由重构模块对矿井巷道中的视频图像进行重构再现。本发明所述分布式视频编码框架借鉴了人眼视觉系统的特点,将基本视点邻近的增强视点所采集视频图像作为参考图像,避免了监控室内重建图像因为采集视频信息的不完备而导致重建图像质量差的问题;另外,由于本发明所述分布式视频编码框架中,将基本视点所采集视频图像分为Wyner-Ziv帧与第一关键帧后,分别对它们进行编码与解码,同时仅对从增强视点所采集视频图像中提取的第二关键帧进行编码与解码,因此本发明还具有较高的编码效率与解码质量。综上所述,本发明所述分布式视频编码框架能适应于恶劣环境,具有较高的容错率与普遍适用性。
附图说明
图1是本发明所述分布式视频编码框架的组成结构示意图。
图2是本发明所述时间边信息生成模块的组成结构示意图。
图3是本发明所述空间边信息生成模块的组成结构示意图。
图4是本发明所述融合模块的组成结构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合附图及具体实施例对本发明作进一步地详细描述。
图1是本发明所述分布式视频编码框架的组成结构示意图。如图1所示,本发明所述编码框架包括:基本视点1、增强视点2、Wyner-Ziv编码器3、Wyner-Ziv解码器4、第一帧内编码器5、第一帧内解码器6、时间边信息生成模块9、第二帧内编码器7、第二帧内解码器8、空间边信息生成模块10、融合模块11、重构模块12;其中,
基本视点1,用于采集第一环境视频图像,根据第一环境视频图像的序号将第一环境视频图像分为第一Wyner-Ziv帧与第一关键帧,将第一Wyner-Ziv帧、第一关键帧分别发送至Wyner-Ziv编码器3、第一帧内编码器5。
增强视点2,用于采集第二环境视频图像,根据第二环境视频图像的序号将第二环境视频图像分为第二Wyner-Ziv帧与第二关键帧,将第二关键帧发送至第二帧内编码器7。
实际应用中,基本视点1是主要采集设备;增强视点2是辅助采集设备,比如1帧/1秒或1帧/2秒。对于基本视点1与增强视点2采集的画面组,通常根据画面组的大小将组成画面组的视频帧分为关键帧与Wyner-Ziv帧。一般情况下,构成画面组的视频帧的帧数为2,将编号为奇数的视频帧作为关键帧,将编号为偶数的视频帧作为Wyner-Ziv帧。实际应用中,也可以将编号为奇数的视频帧作为Wyner-Ziv帧,将编号为偶数的视频帧作为关键帧。
Wyner-Ziv编码器3,用于对基本视点1发送的第一Wyner-Ziv帧进行去除像素间相关性的离散余弦变换,对将变换系数量化后形成的位平面进行信道编码,并将得到的Wyner-Ziv编码帧通过无线信道发送至Wyner-Ziv解码器4。
Wyner-Ziv解码器4,用于对Wyner-Ziv编码器3发送的Wyner-Ziv编码帧进行解码,并将Wyner-Ziv解码帧发送至重构模块12。
第一帧内编码器5,用于对基本视点1发送的第一关键帧进行H.264帧内编码,并将得到的第一关键编码帧通过无线信道发送至第一帧内解码器6。
第一帧内解码器6,用于对第一帧内编码器5发送的第一关键编码帧进行H.264帧内解码,并将得到的第一关键解码帧发送至时间边信息生成模块9。
时间边信息生成模块9,用于对来自第一帧内解码器6的两个连续的第一关键解码帧依次进行预处理、块匹配、双向运动内插后,将生成的时间边信息帧发送至融合模块11。
第二帧内编码器7,用于对增强视点2发送的第二关键帧进行H.264帧内编码,并将得到的第二关键编码帧通过无线信道发送至第二帧内解码器8。
第二帧内解码器8,用于对第二帧内编码器7发送的第二关键编码帧进行H.264帧内解码,并将得到的第二关键解码帧发送至空间信息生成模块10。
空间边信息生成模块10,用于根据第二帧内解码器8发送的第二关键解码帧进行运动估计,将得到的初始空间边信息帧发送至融合模块11。
融合模块11,用于根据基本视点1与增强视点2之间的相关性,通过基础矩阵将空间边信息生成模块10发送的初始空间边信息映射到基本视点1,得到映射空间边信息,并采用平均内插法对时间边信息生成模块9发送的时间边信息帧与映射空间边信息帧进行信息融合后,将得到的融合信息帧发送至重构模块12。
重构模块12,用于对融合模块11发送的融合信息帧进行滤波,并根据Wyner-Ziv解码器4发送的Wyner-Ziv解码帧、经过滤波的融合信息帧进行图像重建。
本发明中,根据Wyner-Ziv解码帧、经过滤波的融合信息帧进行图像重建为现有技术,此处不再赘述。
总之,本发明所述分布式视频编码框架中,由基本视点与增强视点同时采集视频图像,并且由基本视点作为主采集设备,增强视点作为辅助采集设备;而且,在狭窄的矿井巷道中,基本视点与增强视点平行放置,使得基本视点和增强视点所采集的视频图像之间的对应核线相互平行,且位于相同的图像水平扫描线上。由此,基本视点与增强视点象人类的两只眼睛一样,被部署在矿井巷道之中。基本视点所采集视频图像被分为Wyner-Ziv帧与第一关键帧,Wyner-Ziv帧通过编码发送至监控室进行解码;第一关键帧通过编码也被发送至监控室解码后,用于生成时间边信息;将从增强视点所采集视频图像中抽取第二关键帧编码后发送至监控室解码,并用于生成与增强视点对应的初始空间边信息。时间边信息与初始空间边信息在融合模块中进行预处理后,根据基本视点与增强视点之间的相关性,将初始空间边信息映射为与基本视点对应的映射空间边信息;这样,对时间边信息与映射空间边信息进行融合后,由重构模块对矿井巷道中的视频图像进行重构再现。本发明所述分布式视频编码框架借鉴了人眼视觉系统的特点,将基本视点邻近的增强视点所采集视频图像作为参考图像,避免了监控室内重建图像因为采集视频信息的不完备而导致重建图像质量差的问题;另外,由于本发明所述分布式视频编码框架中,将基本视点所采集视频图像分为Wyner-Ziv帧与第一关键帧后,分别对它们进行编码与解码,同时仅对从增强视点所采集视频图像中提取的第二关键帧进行编码与解码,因此本发明还具有较高的编码效率与解码质量。
图2是本发明所述时间边信息生成模块的组成结构示意图。如图2所示,本发明所述时间信息生成模块9包括:第一预处理单元91、第一块匹配单元92、时间边信息生成单元93;其中,
第一预处理单元91,用于对来自第一帧内解码器6的两个连续的第一关键解码帧进行低通滤波处理后,将得到的两个连续的第一关键滤波帧分别分割为五十个以上的大小为M×N的基本宏块,并将各基本宏块发送至第一块匹配单元(92);其中,M、N均表示像素点个数,且为自然数。
第一块匹配单元92,用于在第一预处理单元91发送的各基本宏块中,根据MSE(i,j)≤δ进行搜索,并将搜索到的两个相互匹配的基本宏块发送至时间边信息生成单元93;其中,匹配函数 M S E ( i , j ) = 1 M N Σ x = 1 M Σ y = 1 N | f k ( x , y ) - f k - 1 ( x + i , y + j ) | 2 ; δ为设定值,且为实数;(i,j)表示两个任意基本宏块之间的运动矢量,(x,y)、(x+i,y+j)均表示像素点坐标;fk(x,y)表示两个连续的第一关键解码帧中的当前帧在(x,y)处的像素值;fk-1(x+i,y+j)表示两个连续的第一关键解码帧中的前一帧在(x+i,y+j)处的像素值。
时间边信息生成单元93,用于对第一块匹配单元92发送的两个相互匹配的基本宏块采用双向运动内插法进行处理,得到时间边信息帧 Y 2 n ( p ) = 1 2 [ X 2 n - 1 ( p - MV b 2 n ) + X 2 n + 1 ( p - MV f 2 n ) ] , 将时间边信息帧Y2n(p)发送至融合模块11;其中,Y2n(p)表示时间边信息帧,p表示时间边信息帧中的像素坐标;X2n-1表示两个相互匹配的基本宏块中属于两个连续的第一关键滤波帧中的前序第一关键滤波帧的基本宏块,X2n+1表示两个相互匹配的基本宏块中属于两个连续的第一关键滤波帧中的后序第一关键滤波帧的基本宏块;MVf2n表示前向运动矢量,MVb2n表示后向运动矢量,MVf2n、MVb2n均已知。
图3是本发明所述空间边信息生成模块的组成结构示意图。如图3所示,本发明所述空间信息生成模块10包括:第二预处理单元101、第二块匹配单元102、空间边信息生成单元103;其中,
第二预处理单元101,用于对来自第二帧内解码器8的两个连续的第二关键解码帧进行低通滤波处理后,将得到的两个连续的第二关键滤波帧分别分割为五十个以上的大小为M×N的增强宏块,并将各增强宏块发送至第二块匹配单元102;其中,M、N均表示像素点个数,且为自然数。
第二块匹配单元102,用于在第二预处理单元101发送的各增强宏块中,根据MSE(r,s)≤γ进行搜索,并将搜索到的两个相互匹配的增强宏块发送至空间边信息生成单元103;其中,匹配函数 M S E ( r , s ) = 1 M N Σ x = 1 M Σ y = 1 N | g l ( x , y ) - g l - 1 ( x + r , y + s ) | 2 ; γ为设定值,且为实数;(r,s)表示两个任意增强宏块之间的运动矢量,(x,y)、(x+r,y+s)均表示像素点坐标;fl(x,y)表示两个连续的第二关键解码帧中的当前帧在(x,y)处的像素值;fl-1(x+r,y+s)表示两个连续的第一关键解码帧中的前一帧在(x+r,y+s)处的像素值。
空间边信息生成单元103,用于对第二块匹配单元102发送的两个相互匹配的增强宏块采用双向运动内插法进行处理,得到初始空间边信息帧 V 2 m ( q ) = 1 2 [ U 2 m - 1 ( q - MV b 2 m ) + U 2 m + 1 ( q - MV f 2 m ) ] , 将初始空间边信息帧V2m发送至融合模块11;其中,V2m(q)表示初始空间边信息帧,q表示初始空间边信息帧中的像素坐标;U2m-1表示两个相互匹配的宏块中属于两个连续的第一关键滤波帧中的前序第一关键滤波帧的宏块,U2m+1表示两个相互匹配的宏块中属于两个连续的第一关键滤波帧中的后序第一关键滤波帧的宏块;MVf2m表示前向运动矢量,MVb2m表示后向运动矢量,MVf2m、MVb2m均已知。
图4是本发明所述融合模块的组成结构示意图。如图4所示,本发明所述融合模块11包括第三预处理单元111、特征点提取单元112、基础矩阵生成单元113、映射单元114、信息融合单元115;其中,
第三预处理单元111,用于对时间边信息生成模块9发送的时间边信息帧、空间边信息生成模块10发送的初始空间边信息帧进行滤波,并将得到的时间边信息滤波帧、初始空间边信息滤波帧发送至基础矩阵生成单元112,同时,将时间边信息滤波帧、初始空间边信息滤波帧分别发送至融合单元114、映射单元113。
特征点提取单元112,用于在水平方向与垂直方向上,获取第三预处理单元111发送的时间边信息滤波帧、初始空间边信息滤波帧分别对应的每个像素点亮度I(x,y)、I'(x,y)的梯度,分别如下:
∂ I ( x , y ) ∂ x = I ⊗ [ - 1 , 0 , 1 ] ∂ I ( x , y ) ∂ y = I ⊗ [ - 1 , 0 , 1 ] T , ∂ I ′ ( x , y ) ∂ x = I ′ ⊗ [ - 1 , 0 , 1 ] ∂ I ′ ( x , y ) ∂ y = I ′ ⊗ [ - 1 , 0 , 1 ] T ; 其中,表示卷积;之后,根据上述梯度对应构建基本自相关矩阵M、增强自相关矩阵M',分别为:
M = ( ∂ I ( x , y ) ∂ x ) 2 ∂ I ( x , y ) ∂ x · ∂ I ( x , y ) ∂ y ∂ I ( x , y ) ∂ x · ∂ I ( x , y ) ∂ y ( ∂ I ( x , y ) ∂ y ) 2 , M ′ = ( ∂ I ′ ( x , y ) ∂ x ) 2 ∂ I ′ ( x , y ) ∂ x · ∂ I ′ ( x , y ) ∂ y ∂ I ′ ( x , y ) ∂ x · ∂ I ′ ( x , y ) ∂ y ( ∂ I ′ ( x , y ) ∂ y ) 2 ;
对基本自相关矩阵M、增强自相关矩阵M'进行平滑处理,得到对应的基础平滑自相关矩阵增强平滑自相关矩阵针对基本自相关矩阵M提取代表所述基本自相关矩阵M主曲率的两个特征点λ1、λ2,针对增强自相关矩阵M'提取代表所述增强自相关矩阵M'主曲率的两个特征点λ1'、λ2',将上述各特征点以及各特征点对应的像素坐标均发送至基础矩阵生成单元113;其中,σ2表示像素点方差;上述各特征点满足约束条件λ1·λ2-0.04·(λ12)2>δ、λ1'·λ2'-0.04·(λ1'+λ2')2>δ,δ为设定阈值。
基础矩阵生成单元(113),用于根据特征点提取单元112发送的各特征点以及各特征点对应的像素坐标,获取所述基本视点(1)与所述增强视点(2)之间的自相关系数CC:
C C = I 1 ( x 1 , y 1 ) I 1 ′ ( x 1 ′ , y 1 ′ ) + I 2 ( x 2 , y 2 ) I 1 ′ ( x 1 ′ , y 1 ′ ) + I 1 ( x 1 , y 1 ) I 2 ′ ( x 2 ′ , y 2 ′ ) + I 2 ( x 2 , y 2 ) I 2 ′ ( x 2 ′ , y 2 ′ ) I 1 2 ( x 1 , y 1 ) + I 2 2 ( x 2 , y 2 ) · I 1 ′ 2 ( x 1 ′ , y 1 ′ ) + I 2 ′ 2 ( x 2 ′ , y 2 ′ )
其中,(x1,y1)、(x2,y2)分别表示特征点λ1、λ2的像素坐标,I1(x1,y1)、I2(x2,y2)分别表示特征点λ1、λ2的灰度;(x1',y1')、(x2',y2')分别表示特征点λ1'、λ2'的像素坐标,I1'(x1',y1')、I2'(x2',y2')分别表示特征点λ1、λ2的灰度;
在分别以(x1,y1)、(x2,y2)、(x1',y1')、(x2',y2')为中心、大小为(2m+1)×(2m+1)的匹配窗口内,抽取6组预匹配点作为6组样本;构建线性方程组: ab ′ h 3 - ah 2 = 0 b ′ h 1 - a ′ bh 3 = 0 ; 其中,m为自然数,(a,b)、(a',b')分别表示基本视点所采集图像中的像素点、增强视点所采集图像中的像素点;h1、h2、h3分别表示三个向量;
根据从6组样本中随机抽取的4组样本获取h1、h2、h3;进而,得到单应矩阵H=[h1h2h3]T;对于6组样本中剩余的2组样本,根据xe'×Hx'=0,获取对极点e';进而,将得到的基本矩阵F=e'×H发送至映射单元114。
映射单元114,通过基础矩阵生成单元113发送的基础矩阵F,将初始空间边信息滤波帧映射至基本视点1,并将得到映射空间边信息帧发送至信息融合单元15。
信息融合单元115,用于采用平均内插法,对第三预处理单元111发送的时间边信息帧与映射单元114发送的映射空间边信息帧进行融合,并将得到的融合信息帧发送至重构模块12。
综上所述,以上仅为本发明的较佳实施例而已,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (4)

1.一种分布式视频编码框架,其特征在于,所述编码框架包括基本视点、增强视点、Wyner-Ziv编码器、Wyner-Ziv解码器、第一帧内编码器、第一帧内解码器、时间边信息生成模块、第二帧内编码器、第二帧内解码器、空间边信息生成模块、融合模块、重构模块;其中,
基本视点,用于采集第一环境视频图像,根据第一环境视频图像的序号将第一环境视频图像分为第一Wyner-Ziv帧与第一关键帧,将第一Wyner-Ziv帧、第一关键帧分别发送至Wyner-Ziv编码器、第一帧内编码器;
增强视点,用于采集第二环境视频图像,根据第二环境视频图像的序号将第二环境视频图像分为第二Wyner-Ziv帧与第二关键帧,将第二关键帧发送至第二帧内编码器;
Wyner-Ziv编码器,用于对基本视点发送的第一Wyner-Ziv帧进行去除像素间相关性的离散余弦变换,对将变换系数量化后形成的位平面进行信道编码,并将得到的Wyner-Ziv编码帧通过无线信道发送至Wyner-Ziv解码器;
Wyner-Ziv解码器,用于对Wyner-Ziv编码器发送的Wyner-Ziv编码帧进行解码,并将Wyner-Ziv解码帧发送至重构模块;
第一帧内编码器,用于对基本视点发送的第一关键帧进行H.264帧内编码,并将得到的第一关键编码帧通过无线信道发送至第一帧内解码器;
第一帧内解码器,用于对第一帧内编码器发送的第一关键编码帧进行H.264帧内解码,并将得到的第一关键解码帧发送至时间边信息生成模块;
时间边信息生成模块,用于对来自第一帧内解码器的两个连续的第一关键解码帧依次进行预处理、块匹配、双向运动内插后,将生成的时间边信息帧发送至融合模块;
第二帧内编码器,用于对增强视点发送的第二关键帧进行H.264帧内编码,并将得到的第二关键编码帧通过无线信道发送至第二帧内解码器;
第二帧内解码器,用于对第二帧内编码器发送的第二关键编码帧进行H.264帧内解码,并将得到的第二关键解码帧发送至空间信息生成模块;
空间边信息生成模块,用于根据第二帧内解码器发送的第二关键解码帧进行运动估计,将得到的初始空间边信息帧发送至融合模块;
融合模块,用于根据基本视点与增强视点之间的相关性,通过基础矩阵将空间边信息生成模块发送的初始空间边信息帧映射到基本视点,得到映射空间边信息帧,并采用平均内插法对时间边信息生成模块发送的时间边信息帧与映射空间边信息帧进行信息融合后,将得到的融合信息帧发送至重构模块;
重构模块,用于对融合模块发送的融合信息帧进行滤波,并根据Wyner-Ziv解码器发送的Wyner-Ziv解码帧、经过滤波的融合信息帧进行图像重建。
2.根据权利要求1所述的一种分布式视频编码框架,其特征在于,所述时间信息生成模块包括:第一预处理单元、第一块匹配单元、时间边信息生成单元;其中,
第一预处理单元,用于对来自所述第一帧内解码器的两个连续的第一关键解码帧进行低通滤波处理后,将得到的两个连续的第一关键滤波帧分别分割为五十个以上的大小为M×N的基本宏块,并将各基本宏块发送至第一块匹配单元;其中,M、N均表示像素点个数,且为自然数;
第一块匹配单元,用于在第一预处理单元发送的各基本宏块中,根据MSE(i,j)≤δ进行搜索,并将搜索到的两个相互匹配的基本宏块发送至时间边信息生成单元;其中,匹配函数 M S E ( i , j ) = 1 M N Σ x = 1 M Σ y = 1 N | f k ( x , y ) - f k - 1 ( x + i , y + j ) | 2 ; δ为设定值,且为实数;(i,j)表示两个任意基本宏块之间的运动矢量,(x,y)、(x+i,y+j)均表示像素点坐标;fk(x,y)表示两个连续的第一关键解码帧中的当前帧在(x,y)处的像素值;fk-1(x+i,y+j)表示两个连续的第一关键解码帧中的前一帧在(x+i,y+j)处的像素值;
时间边信息生成单元,用于对第一块匹配单元发送的两个相互匹配的基本宏块采用双向运动内插法进行处理,得到时间边信息帧 Y 2 n ( p ) = 1 2 [ X 2 n - 1 ( p - MV b 2 n ) + X 2 n + 1 ( p - MV f 2 n ) ] , 将时间边信息帧Y2n(p)发送至所述融合模块;其中,Y2n(p)表示时间边信息帧,p表示时间边信息帧中的像素坐标;X2n-1表示两个相互匹配的基本宏块中属于两个连续的第一关键滤波帧中的前序第一关键滤波帧的基本宏块,X2n+1表示两个相互匹配的基本宏块中属于两个连续的第一关键滤波帧中的后序第一关键滤波帧的基本宏块;MVf2n表示前向运动矢量,MVb2n表示后向运动矢量,MVf2n、MVb2n均已知。
3.根据权利要求1所述的一种分布式视频编码框架,其特征在于,所述空间信息生成模块包括:第二预处理单元、第二块匹配单元、空间边信息生成单元;其中,
第二预处理单元,用于对来自所述第二帧内解码器的两个连续的第二关键解码帧进行低通滤波处理后,将得到的两个连续的第二关键滤波帧分别分割为五十个以上的大小为M×N的增强宏块,并将各增强宏块发送至第二块匹配单元;其中,M、N均表示像素点个数,且为自然数;
第二块匹配单元,用于在第二预处理单元发送的各增强宏块中,根据MSE(r,s)≤γ进行搜索,并将搜索到的两个相互匹配的增强宏块发送至空间边信息生成单元;其中,匹配函数 M S E ( r , s ) = 1 M N Σ x = 1 M Σ y = 1 N | g l ( x , y ) - g l - 1 ( x + r , y + s ) | 2 ; γ为设定值,且为实数;(r,s)表示两个任意增强宏块之间的运动矢量,(x,y)、(x+r,y+s)均表示像素点坐标;fl(x,y)表示两个连续的第二关键解码帧中的当前帧在(x,y)处的像素值;fl-1(x+r,y+s)表示两个连续的第一关键解码帧中的前一帧在(x+r,y+s)处的像素值;
空间边信息生成单元,用于对第二块匹配单元发送的两个相互匹配的增强宏块采用双向运动内插法进行处理,得到初始空间边信息帧 V 2 m ( q ) = 1 2 [ U 2 m - 1 ( q - MV b 2 m ) + U 2 m + 1 ( q - MV f 2 m ) ] , 将初始空间边信息帧V2m发送至所述融合模块;其中,V2m(q)表示初始空间边信息帧,q表示初始空间边信息帧中的像素坐标;U2m-1表示两个相互匹配的宏块中属于两个连续的第一关键滤波帧中的前序第一关键滤波帧的宏块,U2m+1表示两个相互匹配的宏块中属于两个连续的第一关键滤波帧中的后序第一关键滤波帧的宏块;MVf2m表示前向运动矢量,MVb2m表示后向运动矢量,MVf2m、MVb2m均已知。
4.根据权利要求1所述的一种分布式视频编码框架,其特征在于,所述融合模块包括第三预处理单元、特征点提取单元、基础矩阵生成单元、映射单元、信息融合单元;其中,
第三预处理单元,用于对所述时间边信息生成模块发送的时间边信息帧、所述空间边信息生成模块发送的初始空间边信息帧进行滤波,并将得到的时间边信息滤波帧、初始空间边信息滤波帧发送至基础矩阵生成单元,同时,将时间边信息滤波帧、初始空间边信息滤波帧分别发送至融合单元、映射单元;
特征点提取单元,用于在水平方向与垂直方向上,获取第三预处理单元发送的时间边信息滤波帧、初始空间边信息滤波帧分别对应的每个像素点亮度I(x,y)、I'(x,y)的梯度,分别如下:
∂ I ( x , y ) ∂ x = I ⊗ [ - 1 , 0 , 1 ] ∂ I ( x , y ) ∂ y = I ⊗ [ - 1 , 0 , 1 ] T , ∂ I ′ ( x , y ) ∂ x = I ′ ⊗ [ - 1 , 0 , 1 ] ∂ I ′ ( x , y ) ∂ y = I ′ ⊗ [ - 1 , 0 , 1 ] T ; 其中,表示卷积;
之后,根据上述梯度对应构建基本自相关矩阵M、增强自相关矩阵M',分别为:
M = ( ∂ I ( x , y ) ∂ x ) 2 ∂ I ( x , y ) ∂ x · ∂ I ( x , y ) ∂ y ∂ I ( x , y ) ∂ x · ∂ I ( x , y ) ∂ y ( ∂ I ( x , y ) ∂ y ) 2 , M ′ = ( ∂ I ′ ( x , y ) ∂ x ) 2 ∂ I ′ ( x , y ) ∂ x · ∂ I ′ ( x , y ) ∂ y ∂ I ′ ( x , y ) ∂ x · ∂ I ′ ( x , y ) ∂ y ( ∂ I ′ ( x , y ) ∂ y ) 2 ;
对基本自相关矩阵M、增强自相关矩阵M'进行平滑处理,得到对应的基本平滑自相关矩阵增强平滑自相关矩阵针对基本自相关矩阵M提取代表所述基本自相关矩阵M主曲率的两个特征点λ1、λ2,针对增强自相关矩阵M'提取代表所述增强自相关矩阵M'主曲率的两个特征点λ1'、λ2',将上述各特征点以及各特征点对应的像素坐标发送至基础矩阵生成单元;其中,σ2表示像素点方差;上述各特征点满足约束条件λ1·λ2-0.04·(λ12)2>δ、λ1'·λ2'-0.04·(λ1'+λ2')2>δ,δ为设定阈值;
基础矩阵生成单元,用于根据特征点提取单元发送的各特征点以及各特征点对应的像素坐标,获取所述基本视点与所述增强视点之间的自相关系数CC:
C C = I 1 ( x 1 , y 1 ) I 1 ′ ( x 1 ′ , y 1 ′ ) + I 2 ( x 2 , y 2 ) I 1 ′ ( x 1 ′ , y 1 ′ ) + I 1 ( x 1 , y 1 ) I 2 ′ ( x 2 ′ , y 2 ′ ) + I 2 ( x 2 , y 2 ) I 2 ′ ( x 2 ′ , y 2 ′ ) I 1 2 ( x 1 , y 1 ) + I 2 2 ( x 2 , y 2 ) · I 1 ′ 2 ( x 1 ′ , y 1 ′ ) + I 2 ′ 2 ( x 2 ′ , y 2 ′ )
其中,(x1,y1)、(x2,y2)分别表示特征点λ1、λ2的像素坐标,I1(x1,y1)、I2(x2,y2)分别表示特征点λ1、λ2的灰度;(x1',y1')、(x2',y2')分别表示特征点λ1'、λ2'的像素坐标,I1'(x1',y1')、I2'(x2',y2')分别表示特征点λ1、λ2的灰度;
在分别以(x1,y1)、(x2,y2)、(x1',y1')、(x2',y2')为中心、大小为(2m+1)×(2m+1)的匹配窗口内,抽取6组预匹配点作为6组样本;构建线性方程组: ab ′ h 3 - ah 2 = 0 b ′ h 1 - a ′ bh 3 = 0 ; 其中,m为自然数,(a,b)、(a',b')分别表示基本视点所采集图像中的像素点、增强视点所采集图像中的像素点;h1、h2、h3分别表示三个向量;
根据从6组样本中随机抽取的4组样本获取h1、h2、h3;进而,得到单应矩阵H=[h1h2h3]T;对于6组样本中剩余的2组样本,根据xe'×Hx'=0,获取对极点e';进而,将得到的基本矩阵F=e'×H发送至映射单元;
映射单元,通过基础矩阵生成单元发送的基础矩阵F,将初始空间边信息滤波帧映射至所述基本视点,并将得到映射空间边信息帧发送至信息融合单元;
信息融合单元,用于采用平均内插法,对第三预处理单元发送的时间边信息帧与映射单元发送的映射空间边信息帧进行融合,并将得到的融合信息帧发送至所述重构模块。
CN201510883301.8A 2015-12-04 2015-12-04 一种分布式视频编码框架 Active CN105430406B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201510883301.8A CN105430406B (zh) 2015-12-04 2015-12-04 一种分布式视频编码框架
PCT/CN2015/097220 WO2017092072A1 (zh) 2015-12-04 2015-12-12 一种分布式视频编码框架

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510883301.8A CN105430406B (zh) 2015-12-04 2015-12-04 一种分布式视频编码框架

Publications (2)

Publication Number Publication Date
CN105430406A true CN105430406A (zh) 2016-03-23
CN105430406B CN105430406B (zh) 2018-06-12

Family

ID=55508294

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510883301.8A Active CN105430406B (zh) 2015-12-04 2015-12-04 一种分布式视频编码框架

Country Status (2)

Country Link
CN (1) CN105430406B (zh)
WO (1) WO2017092072A1 (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110392258A (zh) * 2019-07-09 2019-10-29 武汉大学 一种联合时空边信息的分布式多视点视频压缩采样重建方法
CN111479114A (zh) * 2019-01-23 2020-07-31 华为技术有限公司 点云的编解码方法及装置
CN115767108A (zh) * 2022-10-20 2023-03-07 哈尔滨工业大学(深圳) 一种基于特征域匹配的分布式图像压缩方法、系统

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115002482B (zh) * 2022-04-27 2024-04-16 电子科技大学 使用结构性保持运动估计的端到端视频压缩方法及系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070009041A1 (en) * 2005-07-11 2007-01-11 Kuan-Lan Wang Method for video data stream integration and compensation
US20100177893A1 (en) * 2009-01-09 2010-07-15 Sungkyunkwan University Foundation For Corporate Collaboration Distributed video decoder and distributed video decoding method
CN102611893A (zh) * 2012-03-09 2012-07-25 北京邮电大学 基于直方图匹配和sad判决的dmvc边信息融合方法
CN103002283A (zh) * 2012-11-20 2013-03-27 南京邮电大学 多视角分布式视频压缩的边信息生成方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7903737B2 (en) * 2005-11-30 2011-03-08 Mitsubishi Electric Research Laboratories, Inc. Method and system for randomly accessing multiview videos with known prediction dependency
CN104093030B (zh) * 2014-07-09 2017-12-12 天津大学 分布式视频编码边信息生成方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070009041A1 (en) * 2005-07-11 2007-01-11 Kuan-Lan Wang Method for video data stream integration and compensation
US20100177893A1 (en) * 2009-01-09 2010-07-15 Sungkyunkwan University Foundation For Corporate Collaboration Distributed video decoder and distributed video decoding method
CN102611893A (zh) * 2012-03-09 2012-07-25 北京邮电大学 基于直方图匹配和sad判决的dmvc边信息融合方法
CN103002283A (zh) * 2012-11-20 2013-03-27 南京邮电大学 多视角分布式视频压缩的边信息生成方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
CHRISTINE GUILLEMOT ET.AL: "Distributed Monoview and Multiview Video Coding", 《 IEEE SIGNAL PROCESSING MAGAZINE》 *
MOURAD OUARET ET.AL: "Fusion-based Multiview Distributed Video Coding", 《PROCEEDINGS OF THE 4TH ACM INTERNATIONAL WORKSHOP ON VIDEO SURVEILLANCE AND SENSOR NETWORK》 *
刘峰等: "多视点视频编码框架及关键技术", 《南京邮电大学学报》 *
宋彬 等: "Wyner-Ziv 视频编码中边信息生成算法研究", 《通信学报》 *
程德强 等: "基于全搜索的煤矿井下视频序列边信息生成算法", 《工矿自动化》 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111479114A (zh) * 2019-01-23 2020-07-31 华为技术有限公司 点云的编解码方法及装置
CN111479114B (zh) * 2019-01-23 2022-07-22 华为技术有限公司 点云的编解码方法及装置
CN110392258A (zh) * 2019-07-09 2019-10-29 武汉大学 一种联合时空边信息的分布式多视点视频压缩采样重建方法
CN115767108A (zh) * 2022-10-20 2023-03-07 哈尔滨工业大学(深圳) 一种基于特征域匹配的分布式图像压缩方法、系统
CN115767108B (zh) * 2022-10-20 2023-11-07 哈尔滨工业大学(深圳) 一种基于特征域匹配的分布式图像压缩方法、系统

Also Published As

Publication number Publication date
CN105430406B (zh) 2018-06-12
WO2017092072A1 (zh) 2017-06-08

Similar Documents

Publication Publication Date Title
CN107105278B (zh) 运动矢量自动生成的视频编解码系统
CN103618907B (zh) 基于压缩感知多视点分布式视频编码及帧排列装置及方法
CN101835044B (zh) 一种频率域分布式视频编码中的分类组合方法
CN101729892B (zh) 一种非对称立体视频编码方法
CN105430406A (zh) 一种分布式视频编码框架
CN105141957B (zh) 图像和视频数据编解码的方法和设备
CN103826125B (zh) 用于已压缩监控视频的浓缩分析方法和装置
CN101166282A (zh) 摄像机参数编码传输的方法
CN102611893B (zh) 基于直方图匹配和sad判决的dmvc边信息融合方法
CN103024402B (zh) 一种自由视点视频整帧丢失错误隐藏方法
CN102547297A (zh) 基于dc系数的mpeg2视频水印实现方法
CN104995916A (zh) 视频数据解码方法和视频数据解码设备
CN102438167B (zh) 一种基于深度图像绘制的立体视频编码方法
CN102256133A (zh) 一种基于边信息精化的分布式视频编码及解码方法
CN103370934A (zh) 多视点视频编码/解码装置和方法
CN103002283A (zh) 多视角分布式视频压缩的边信息生成方法
CN100579220C (zh) 利用图像拼接来编码和解码多视点视频的方法和设备
CN102308583A (zh) 对多视角图像进行编码和解码的设备和方法
CN104363460A (zh) 一种基于三维自组织映射的立体图像编码方法
CN104333757A (zh) 基于cs测量值多描述的视频编解码方法
CN102595132A (zh) 一种应用于无线传感器网络的分布式视频编解码方法
CN102984525B (zh) 一种视频码流错误隐藏方法
CN104363454A (zh) 一种高码率图像的视频编、解码方法及系统
CN108200440B (zh) 一种基于时间相关性的分布式视频压缩感知重构方法
CN100574440C (zh) 一种基于像素行重排的图像和视频抗误码方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20211221

Address after: 221000 Renmin Road, Liuji Town, Tongshan District, Xuzhou City, Jiangsu Province

Patentee after: XUZHOU JIUDING ELECTROMECHANICAL GENERAL FACTORY

Address before: 221116 University Road, Xuzhou City, Jiangsu Province

Patentee before: CHINA University OF MINING AND TECHNOLOGY

TR01 Transfer of patent right