CN111182308B - 视频解码方法、装置、计算机设备及存储介质 - Google Patents

视频解码方法、装置、计算机设备及存储介质 Download PDF

Info

Publication number
CN111182308B
CN111182308B CN201911037188.6A CN201911037188A CN111182308B CN 111182308 B CN111182308 B CN 111182308B CN 201911037188 A CN201911037188 A CN 201911037188A CN 111182308 B CN111182308 B CN 111182308B
Authority
CN
China
Prior art keywords
scene
image
transition
video
new
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911037188.6A
Other languages
English (en)
Other versions
CN111182308A (zh
Inventor
许晓中
刘杉
李翔
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent America LLC
Original Assignee
Tencent America LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent America LLC filed Critical Tencent America LLC
Publication of CN111182308A publication Critical patent/CN111182308A/zh
Application granted granted Critical
Publication of CN111182308B publication Critical patent/CN111182308B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/802D [Two Dimensional] animation, e.g. using sprites
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/00007Time or data compression or expansion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/142Detection of scene cut or scene change
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/147Data rate or code amount at the encoder output according to rate distortion criteria
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/154Measured or subjectively estimated visual quality after decoding, e.g. measurement of distortion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/179Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a scene or a shot
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/184Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being bits, e.g. of the compressed video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • H04N19/82Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/91Entropy coding, e.g. variable length coding [VLC] or arithmetic coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/87Regeneration of colour television signals
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/00007Time or data compression or expansion
    • G11B2020/00072Time or data compression or expansion the compressed signal including a video signal

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

本申请实施例提供了编码和解码视频方面的内容。编码系统检测场景变化,包括识别与第一场景的最后图像对应的图像序列中的第一图像,识别与第二场景的第一图像对应的图像序列中的第二图像,以及确定与所述图像序列中一个或多个图像对应的所述第一场景与所述第二场景之间的输入过渡场景,其中所述一个或多个图像位于所述第一图像与所述第二图像之间。已编码的视频内容指示存在所述输入过渡视频场景的标识,以及再现过渡场景的信息。解码系统基于接收到的存在输入过渡场景的指示标识,和用于再现过渡场景的信息,生成与输入过渡场景对应的过渡场景。

Description

视频解码方法、装置、计算机设备及存储介质
通过引用并入本申请
本申请要求于2018年11月9日提交的第16/185,264号美国申请“过渡视频场景中视频处理和发送信令的方法和系统”的优先权,其全部内容通过引用并入本申请中。
技术领域
本申请实施例主要涉及视频编解码领域,尤其涉及一种视频解码方法、装置、计算机设备及存储介质。
背景技术
本文所提供的背景描述旨在整体呈现本申请的背景。在背景技术部分以及本说明书的各个方面中描述的指出姓名的发明人的工作所进行的程度,并不表明其在本申请提交时作为现有技术,从未明示或暗示其被承认为本申请的现有技术。
通过具有运动补偿的帧间画面预测技术,可以实现视频编码和解码。未压缩的数字视频可包括一系列画面,每个画面具有例如1920×1080亮度样本及相关色度样本的空间维度。所述系列画面具有固定或可变的画面速率(通俗也称为帧率),例如每秒60个画面或60赫兹。未压缩的视频具有非常高的位率要求。例如,每个样本8位的1080p60 4:2:0的视频(1920x1080亮度样本分辨率,60赫兹帧率)要求接近1.5Gbit/s带宽。一小时这样的视频需要超过600GB的存储空间。
视频编码和解码的一个目的是通过压缩减少输入视频信号的冗余信息。压缩可以帮助减少对前述带宽或存储空间的要求,在一些情况下减少两个数量级或更多。无损和有损压缩,以及两者的组合均可采用。无损压缩是指从压缩的原始信号中重构原始信号精确副本的技术。当使用有损压缩时,重建信号可能与原始信号不同,但是原始信号和重建信号之间的失真小到足以使重建信号可用于预期应用。有损压缩广泛应用于视频。容许的失真量取决于应用;例如,相比电视应用的用户,某些消费流媒体的用户可以容忍更高的失真量。可实现的压缩比反映出:较高的允许/容许失真可产生较高的压缩比。
视频编码器和解码器可利用若干广泛类别的技术,包括,例如,运动补偿、转换、量化和熵编码。
视频编解码器技术可包括已知为帧内编码的技术。在帧内编码中,在不参考先前重构的参考图像的样本或其它数据的情况下表示样本值。在一些视频编解码器中,图像在空间上被细分成样本块。当所有样本块都以帧内模式编码时,图像可以是帧内图像。帧内图像及其衍生(例如独立解码器刷新图像)可用于复位解码器状态,且因此可用作编码视频比特流和视频会话中的第一图像,或用作静止图像。帧内块样本可用以变换,且可在熵编码之前量化变换系数。帧内预测是一种使预变换域中的样本值最小化的技术。在某些情形下,变换之后的DC值越小,且AC系数越小,当采用给定的量化步长时,熵编码之后的块需要越少的比特来表示。
传统帧内编码不使用帧内预测。传统的帧内编码的一个例子是MPEG-2代编码技术。然而,一些更新的视频压缩技术包括试图从(例如)在空间相邻的编码/解码期间,且在解码顺序之前获得的周围样本数据和/或元数据中得到数据块的技术。这样的技术此后被称为"帧内预测"技术。应注意,至少在某些情形下,帧内预测仅使用正在重构的当前图像的参考数据,而不使用参考图像的参考数据。
帧内预测可以有许多不同的形式。当在给定的视频编码技术中可以使用不止一种这样的技术时,可以帧内预测模式对使用的技术编码。在特定情形下,模式可具有子模式和/或参数,且这些模式可单独编码或包含在码字模式中。用于给定模式/子模式/参数组合的码字可能通过帧内预测影响编码效率增益,并且用于将码字转换成比特流的熵编码技术也可能影响编码效率增益。
提出了一种基于H.264的帧内预测方法,在H.265中完善,并且在诸如联合勘探模型(JEM)、多功能视频编码(VVC)和基准集(BMS)等较新的编码技术中进一步完善。使用属于已经可用的样本的相邻样本值可以形成预测块。相邻样本的样本值根据方向复制到预测块中。所提及的使用的方向可以在比特流中被编码,或者其本身可以被预测。
随着视频编码技术的发展,可能的方向的数量在增加。在H.264(2003年)中,可以表示九种不同的方向。在H.265(2013年)和JEM/VVC/BMS中,方向的数量增加至33个。而在该申请提交时,可以支持多达65个方向。最可能的方向通过实验来识别,并且在熵编码的某些技术中,少量比特用来指示那些可能的方向,对于较不可能的方向存在一些误差。此外,有时可以根据在相邻的已经解码的区块中使用的相邻方向来预测方向。
显示视频内容时,在过渡期间示出的视频内容被称为过渡场景。即使没有压缩,过渡场景的感知视频质量从最终观看者的角度来看也不好,因为它包含不同的内容。另外,转换场景的编码处理也是困难的,因为在帧之间,相关性不如正常场景内的图像可靠。
发明内容
本申请提供了用于视频解码的方法和设备。
在一个例子中,所述方法包括:
解码来自编码系统的已编码视频内容,其中所述编码系统执行场景变化检测过程,所述场景变化检测过程包括:识别与第一场景的最后图像对应的图像序列中的第一图像,识别与第二场景的第一图像对应的图像序列中的第二图像,以及确定与所述图像序列中的一个或多个图像对应的所述第一场景与所述第二场景之间的输入过渡场景,其中所述一个或多个图像位于所述第一图像与所述第二图像之间,并且在没有编码所述输入过渡场景的所有图像的情况下,对所接收的已编码视频内容进行再次编码,以及所接收的已编码视频内容包括用于指示存在所述输入过渡场景的标识,和用于再现与输入过渡场景相对应的过渡场景的信息;
基于接收到的存在输入过渡场景的指示标识和用于再现过渡场景的信息,生成与输入过渡场景相对应的过渡场景;以及
以序列方式输出包括与输入过渡场景相对应的过渡场景视频内容,所述过渡场景位于第一场景和第二场景之间。
在一个例子中,所述方法还包括:基于再现指示预定渐变模式的过渡场景的信息,产生交叉渐变过渡场景,其中所述交叉渐变过渡场景用于再现与输入过渡场景对应的过渡场景。
在一个例子中,假设第一图像的时间实例是t=0,第二图像的时间实例是t=n,输入过渡场景包括从t=1至t=n-1的n-1个时间实例,在交叉渐变过渡场景之内的各个图像F[t]定义为:F[t]=A*(1-s[t])+K*s[t],其中s[t]为:
其中“A”是第一帧,“K”是第二帧。
在一个例子中,第一图像的时间实例是t=0,第二图像的时间实例是t=n,输入过渡场景包括从t=1至t=n-1的n-1个时间实例,在交叉渐变过渡场景中的各个图像F[t]定义为:F[t]=A*(1-s[t])+K*s[t],其中s[t]为:
其中“A”是第一图像,“K”是第二图像。
在一个例子中,第一图像的时间实例是t=0,第二图像的时间实例是t=n,输入过渡场景包括t=1至t=n-1的n-1个时间实例,在交叉渐变过渡场景之内的各个图像F[t]定义为:F[t]=A*(1-s[t])+K*s[t],其中s[t]为:
其中“A”是第一图像,“K”是第二图像。
在一个例子中,所述预定渐变模型基于预定动画过渡。
在一个例子中,所述预定动画过渡是变形动画、渐变动画、推送动画、擦除动画、拆分动画、揭示动画、形状动画和揭开动画之一。
在一个例子中,所述方法还包括:
接收所述预定动画过渡的指示,其中所述预定动画过渡用于替换所述输入过渡场景,并接收所述已编码的视频内容,将所述指示和所述已编码的视频内容作为再现与所述输入过渡场景对应的过渡场景的信息。
在一个例子中,所述编码系统基于输入过渡场景确定所述预定动画过渡,所述输入过渡场景与多个模式生成内容相比较,其中每个模式生成内容都基于至少一个预定动画过渡生成,并且所述预定动画过渡基于与所述输入过渡场景具有最高相似性的模式生成内容确定。
在一个例子中,所述编码系统基于对失真的评估确定所述预定动画过渡,其中所述失真指的是所述输入过渡场景与所述多个模式生成内容中的每一个之间的失真。
在一个例子中,所述场景变化检测过程包括:当所述一个或多个图像的持续时间小于预定阈值时,确定所述一个或多个图像对应于所述第一场景和所述第二场景之间的输入过渡场景,其中所述一个或多个图像位于所述图像序列中的所述第一图像和所述第二图像之间。
在一个例子中,所述场景变化检测过程包括:当所述第一场景和所述第二场景的持续时间均大于预定阈值时,确定与输入过渡场景对应的帧序列中的一个或多个图像,所述一个或多个图像位于所述第一图像和所述第二图像之间。
在一个例子中,所述存在输入过渡场景的指示包括:
表明第二帧是第二场景的第一图像的信号,以及输入过渡场景的持续时间的指示。
在一个例子中,基于所述第二图像和所述第一图像之间的图像序列号(POC)之间的差值指示所述输入过渡场景的持续时间。
在一个例子中,基于所述第二图像的标题中的持续时间值指示所述输入过渡场景的持续时间
在一个例子中,所述第二图像的标题包括所述信号。
在一个例子中,所述信号包括补充增强信息(SEI)消息。
在一个例子中,所述方法还包括:
生成与所述输入过渡场景相对应的过渡场景之前,解码所述第二图像,并且在输出的视频内容中输出第二场景之前,输出与所述输入过渡场景相对应的过渡场景。
在一个例子中,提供了一种装置,包括:
解码模块,用于解码来自编码系统的已编码视频内容,其中所述编码系统执行场景变化检测过程,所述场景变化检测过程包括:识别与第一场景的最后图像对应的图像序列中的第一图像,识别与第二场景的第一图像对应的图像序列中的第二图像,以及确定与所述图像序列中的一个或多个图像对应的所述第一场景与所述第二场景之间的输入过渡场景,其中所述一个或多个图像位于所述第一图像与所述第二图像之间,并且在没有编码所述输入过渡场景的所有图像的情况下,对所接收的已编码视频内容进行再次编码,以及所接收的已编码视频内容包括用于指示存在所述输入过渡场景的标识,和用于再现与输入过渡场景相对应的过渡场景的信息;
生成模块,用于基于接收到的存在输入过渡场景的指示标识和用于再现过渡场景的信息,生成与输入过渡场景相对应的过渡场景;以及
输出模块,用于以序列方式输出包括与输入过渡场景相对应的过渡场景视频内容,所述过渡场景位于第一场景和第二场景之间。
在一个例子中,提供了一种计算机设备,所述设备包括一个或多个处理器和一个或多个存储器,所述一个或多个存储器中存储有至少一条指令,所述至少一条指令由所述一个或多个处理器加载并执行以实现上述视频解码方法。
在一个例子中,提供了一种非易失性计算机可读介质,所述非易失性计算机可读介质存储指令,所述指令在由处理器执行时,使所述处理器执行上述视频解码方法。
通过采用本申请的技术方案,可以提高过渡场景的视频质量,简化转换场景的编码处理的复杂度,提高编解码的效率。
附图简要说明
根据以下详细描述和附图,所公开的主题的其他特征,本质和各种优点将变得更加显而易见,在附图中:
图1是根据H.265的帧内预测模式的子集的示意图。
图2是根据JEM的帧内预测方向的示意图
图3是视频内容中两种类型的场景变化的示意图。
图4是一个实施例中通信系统的简化框图的示意图。
图5示出了一个实施例的流媒体环境中的视频编码器和视频解码器的位置。
图6是根据一个实施例的解码器的简化框图的示意图。
图7是根据一个实施例的编码器的简化框图的示意图。
图8示出了根据另一实施例的编码器的框图。
图9示出了根据另一实施例的解码器的框图。
图10A示出了根据一个实施例的两步场景变化检测方法。
图10B示出了根据一个实施例的使用时间窗口约束的场景变化检测方法。
图11A示出了根据一个实施例的对视频内容进行编码的方法,其中使用了过渡场景生成方法。
图11B示出了根据一个实施例的对视频内容进行编码的方法,其中使用预定义模型来描述过渡场景。
图12示出了根据一个实施例的使用比特流的编码数据格式。
图13示出了根据本申请的一个实施例的由解码器执行的解码方法。
图14是根据一个实施例的计算机系统的示意图。
具体实施方式
参照图1,右下方描绘了从H.265的35个可能的预测方向得知的九个预测方向的子集。箭头会聚的点(101)表示正被预测的样本。箭头表示样本正被预测的方向。例如,箭头(102)表示根据右上方与水平方向成45度角的一个或多个样本预测样本(101)。类似地,箭头(103)指示从样本(101)右下方的,与水平面成22.5度角的一个或多个样本来预测样本(101),
仍然参考图1,在左上方示出了4×4个样本的正方形块(104)(用虚线粗体表示)。正方形块(104)包括16个样本,每个样本用“S”来标记该样本在Y维的位置(例如,行索引)及其在X维的位置(例如,列索引)。例如,样本S21是Y维上的第二样本(从顶部开始)和X维上的第一样本(从左侧开始)。类似地,样本S44是块(104)中Y维和X维的第四样本。由于块大小为4×4个样本,S44位于右下角。还示出了遵循类似编号方案的参考样本。参考样本用R来标记相对于块(104),其Y位置(例如,行索引)和X位置(列索引)。在H.264和H.265中,预测样本与重建中的区块相邻;因此不需要使用负值。
可以通过从信号通知的预测方向适当地复制相邻样本的参考样本值来执行帧内图像预测。例如,假设编码的视频比特流包括信令,对于该区块,该信令指示了与箭头(102)一致的预测方向,即,根据与水平方向成45度的右上方的一个或多个预测样本进行样本预测。在这种情况下,从参考样本R05中预测样本S41、S32、S23和S14。然后从参考样本R08中预测样本S44。
在某些情况下,例如可以通过内插,组合多个参考样本的值,以便计算参考样本;尤其是当方向不能被45度整除时。
图2是示意图201,其中描述了根据JEM的65个帧内预测方向以说明预测方向的数目随时间增加。
在不同的视频编码技术,已编码视频比特流中表示方向的帧内预测方向比特有不同的映射;并且,比如,上述映射可以为从预测方向到帧内预测模式到码字的简单直接映射,到涉及最可能模式和类似技术的复杂自适应机制。
可应用上述视频编码技术的屏幕内容视频表示非照相机拍摄的,计算机生成的视频内容的类别。该类别的内容包括动画、计算机图形、桌面屏幕和游戏。屏幕内容应用(例如在线游戏流媒体,WiFi显示和远程桌面共享)的普及,需要对这些计算机生成的内容进行有效编码。由于屏幕内容视频的性质(富含纹理和具有锐利边缘的图案),为了保持高水平的视觉质量,相比照相机捕获的内容,要求屏幕内容视频具有更少的伪像。因此,对于这种类型的视频,预计会有更高的压缩比。解决此问题的一个最近的成果是发布最新版本的HEVC屏幕内容编码扩展(简称HEVC SCC)。在该标准扩展中,将一些新的编码工具添加到HEVC标准中,包括帧内块复制、调色板模式编码等。据报道,当编码屏幕内容材料时,与HEVC相比,HEVC SCC可以减少大约50%的比特率。
屏幕内容视频应用中的另一典型要求是实时编码,因为这些应用经常用于交互环境中。在视频编码中,如果连续帧没有场景变化并且在视频中存在很少的运动,则视频编码器实现高压缩比和快速编码的效果甚微。这是由于仅需较少的运动估计来捕获连续帧的相应对象。相反,如果场景发生变化,则视频序列中存在两个场景中的视频内容。在本申请中,场景变化之前的第一场景被称为“先前场景”,而场景变化之后的第二场景被称为“新场景”。在本申请的实施例中,先前场景的最后几个帧和新场景的前几个帧是令人感兴趣的。对于视频,尤其是屏幕内容视频,在先前场景的最后几个帧和新场景的前几个帧之间存在非常小的相关性。因此,与相同场景内的视频内容的编码相比,在新场景中的第一帧的编码中可实现较低的压缩效率。此外,用于压缩新场景中前几个帧的编码器时间可以比正常时间长。如果当前帧来自新场景且参考帧来自先前场景,因为无法发现好的匹配,那么运动估计将花费更多时间。
在更复杂的场景中,从先前场景的内容简单地切换到新场景中的内容,场景不会发生改变。相反,它涉及一个过渡时间周期,在该过渡时间周期内,先前场景淡出并且新场景淡入。或者,在过渡期间,在先前场景和新场景的内容之间可能存在一些动画效果。在本申请中,在过渡期间示出的视频内容被称为过渡场景。在不知如何生成过渡场景的模型的情况下,难以高效且快速地执行视频编码。
在不同的应用场景中,在网页浏览中的页面滚动时也会发生显著的内容改变。在本申请中,这也被认为是场景变化。
当发生场景变化时,先前场景的最后图像被定义为呈现先前场景的最后图像,其没有受到来自其他场景或任何淡入淡出效果的干扰。另一方面,新场景的第一图像被定义为呈现新场景的第一图像,其未受到来自其他场景或任何淡入淡出效果的干扰。在先前场景的最后图像(不包括最后图像)和新场景的第一图像(不包括第一图像)之间的图像属于过渡场景。在图3中,示出了两种类型的场景变化:展现直接场景变化的顶部序列301,以及展现具有淡入和淡出过渡的场景变化的底部序列302。在顶部序列301中,场景A被直接剪切变为场景K。场景A的最后图像是图像#3,场景K的第一图像是图像#4。在这种情况下,过渡场景不包含任何可以被描述为空集的图像。在底部序列302中,场景A在第二图像处开始改变,并且在最后的图像中完全改变为场景K。场景A的最后图像是图像#1。场景K的第一图像是图像#6。图像#2、#3、#4和#5属于过渡场景。
即使没有压缩,最终观众仍然可能认为过渡场景的感知视频质量不佳,因为过渡场景混合了不同的内容。另外,过渡场景很难编码,因为跨帧,过渡场景的相关性不如正常场景内的图像可靠。
从以上描述中可以看出,需要开发能够更好地处理过渡场景视频的方法,特别是用于面向屏幕内容的应用。在本申请中,提出了示例性实施例来解决上述问题。所公开的方法不限于屏幕内容应用,而是也可以扩展到其他类型的内容。
图4示出了根据本申请的一个实施例的通信系统(400)的简化框图。通信系统(400)包括能够彼此通信的多个终端设备,例如,经由网络(450)。举例来说,通信系统(400)包括通过网络(450)互连的终端装置(410)和终端装置(420)。在图4的实施例中,终端装置(410)和终端装置(420)执行单向数据传输。举例来说,终端装置(410)可对视频数据(例如由终端装置(410)采集的视频图片流)进行编码以通过网络(450)传输到另一终端装置(420)。已编码的视频数据以一个或多个已编码视频码流形式传输。终端装置(420)可从网络(450)接收已编码视频数据,对已编码视频数据进行解码以恢复视频数据,并根据恢复的视频数据显示视频图片。单向数据传输在媒体服务等应用中是较常见的。
在另一实施例中,通信系统(400)包括执行已编码视频数据的双向传输的终端装置(430)和(440),所述双向传输可例如在视频会议期间发生。对于双向数据传输,终端装置(430)和终端装置(440)中的每个终端装置可对视频数据(例如由终端装置采集的视频图片流)进行编码以通过网络(450)传输到终端装置(430)和终端装置(440)中的另一终端装置。终端装置(430)和终端装置(440)中的每个终端装置还可接收由终端装置(430)和终端装置(440)中的另一终端装置传输的已编码视频数据,且可对所述已编码视频数据进行解码以恢复视频数据,且可根据恢复的视频数据在可访问的显示装置上显示视频图片。
在图4的实施例中,终端装置(410)、终端装置(420)、终端装置(430)和终端装置(440)可为服务器、个人计算机和智能电话,但本申请公开的原理可不限于此。本申请公开的实施例适用于膝上型计算机、平板电脑、媒体播放器和/或专用视频会议设备。网络(450)表示在终端装置(410)、终端装置(420)、终端装置(430)和终端装置(440)之间传送已编码视频数据的任何数目的网络,包括例如有线(连线的)和/或无线通信网络。通信网络(450)可在电路交换和/或分组交换信道中交换数据。该网络可包括电信网络、局域网、广域网和/或互联网。出于本论述的目的,除非在下文中有所解释,否则网络(450)的架构和拓扑对于本申请公开的操作来说可能是无关紧要的。
作为实施例,图5示出视频编码器和视频解码器在流式传输环境中的放置方式。本申请所公开主题可同等地适用于其它支持视频的应用,包括例如视频会议、数字TV、在包括CD、DVD、存储棒等的数字介质上存储压缩视频等等。
流式传输系统可包括采集子系统(513),所述采集子系统可包括数码相机等视频源(501),所述视频源创建未压缩的视频图片流(502)。在实施例中,视频图片流(502)包括由数码相机拍摄的样本。相较于已编码的视频数据(504)(或已编码的视频码流),视频图片流(502)被描绘为粗线以强调高数据量的视频图片流,视频图片流(502)可由电子装置(520)处理,所述电子装置(520)包括耦接到视频源(501)的视频编码器(503)。视频编码器(503)可包括硬件、软件或软硬件组合以实现或实施如下文更详细地描述的所公开主题的各方面。相较于视频图片流(502),已编码的视频数据(504)(或已编码的视频码流(504))被描绘为细线以强调较低数据量的已编码的视频数据(504)(或已编码的视频码流(504)),其可存储在流式传输服务器(505)上以供将来使用。一个或多个流式传输客户端子系统,例如图5中的客户端子系统(506)和客户端子系统(508),可访问流式传输服务器(505)以检索已编码的视频数据(504)的副本(507)和副本(509)。客户端子系统(506)可包括例如电子装置(530)中的视频解码器(510)。视频解码器(510)对已编码的视频数据的传入副本(507)进行解码,且产生可在显示器(512)(例如显示屏)或另一呈现装置(未描绘)上呈现的输出视频图片流(511)。在一些流式传输系统中,可根据某些视频编码/压缩标准对已编码的视频数据(504)、视频数据(507)和视频数据(509)(例如视频码流)进行编码。该些标准的实施例包括ITU-T H.265。在实施例中,正在开发的视频编码标准非正式地称为下一代视频编码(Versatile VideoCoding,VVC),本申请可用于VVC标准的上下文中。
应注意,电子装置(520)和电子装置(530)可包括其它组件(未示出)。举例来说,电子装置(520)可包括视频解码器(未示出),且电子装置(530)还可包括视频编码器(未示出)。
图6是根据本申请公开的实施例的视频解码器(610)的框图。视频解码器(610)可设置在电子装置(630)中。电子装置(630)可包括接收器(631)(例如接收电路)。视频解码器(610)可用于代替图5实施例中的视频解码器(510)。
接收器(631)可接收将由视频解码器(610)解码的一个或多个已编码视频序列;在同一实施例或另一实施例中,一次接收一个已编码视频序列,其中每个已编码视频序列的解码独立于其它已编码视频序列。可从信道(601)接收已编码视频序列,所述信道可以是通向存储已编码的视频数据的存储装置的硬件/软件链路。接收器(631)可接收已编码的视频数据以及其它数据,例如,可转发到它们各自的使用实体(未标示)的已编码音频数据和/或辅助数据流。接收器(631)可将已编码视频序列与其它数据分开。为了防止网络抖动,缓冲存储器(615)可耦接在接收器(631)与熵解码器/解析器(620)(此后称为“解析器(620)”)之间。在某些应用中,缓冲存储器(615)是视频解码器(610)的一部分。在其它情况下,所述缓冲存储器(615)可设置在视频解码器(610)外部(未标示)。而在其它情况下,视频解码器(610)的外部设置缓冲存储器(未标示)以例如防止网络抖动,且在视频解码器(610)的内部可配置另一缓冲存储器(615)以例如处理播出定时。而当接收器(631)从具有足够带宽和可控性的存储/转发装置或从等时同步网络接收数据时,也可能不需要配置缓冲存储器(615),或可以将所述缓冲存储器做得较小。当然,为了在互联网等业务分组网络上使用,也可能需要缓冲存储器(615),所述缓冲存储器可相对较大且可具有自适应性大小,且可至少部分地实施于操作系统或视频解码器(610)外部的类似元件(未标示)中。
视频解码器(610)可包括解析器(620)以根据已编码视频序列重建符号(621)。这些符号的类别包括用于管理视频解码器(610)的操作的信息,以及用以控制显示装置(612)(例如,显示屏)等显示装置的潜在信息,所述显示装置不是电子装置(630)的组成部分,但可耦接到电子装置(630),如图6中所示。用于显示装置的控制信息可以是辅助增强信息(Supplemental Enhancement Information,SEI消息)或视频可用性信息(VideoUsability Information,VUI)的参数集片段(未标示)。解析器(620)可对接收到的已编码视频序列进行解析/熵解码。已编码视频序列的编码可根据视频编码技术或标准进行,且可遵循各种原理,包括可变长度编码、霍夫曼编码(Huffman coding)、具有或不具有上下文灵敏度的算术编码等等。解析器(620)可基于对应于群组的至少一个参数,从已编码视频序列提取用于视频解码器中的像素的子群中的至少一个子群的子群参数集。子群可包括图片群组(Group of Pictures,GOP)、图片、图块、切片、宏块、编码单元(Coding Unit,CU)、块、变换单元(Transform Unit,TU)、预测单元(Prediction Unit,PU)等等。解析器(620)还可从已编码视频序列提取信息,例如变换系数、量化器参数值、运动矢量等等。
解析器(620)可对从缓冲存储器(615)接收的视频序列执行熵解码/解析操作,从而创建符号(621)。
取决于已编码视频图片或一部分已编码视频图片(例如:帧间图片和帧内图片、帧间块和帧内块)的类型以及其它因素,符号(621)的重建可涉及多个不同单元。涉及哪些单元以及涉及方式可由解析器(620)从已编码视频序列解析的子群控制信息控制。为了简洁起见,未描述解析器(620)与下文的多个单元之间的此类子群控制信息流。
除已经提及的功能块以外,视频解码器(610)可在概念上细分成如下文所描述的数个功能单元。在商业约束下运行的实际实施例中,这些单元中的许多单元彼此紧密交互并且可以彼此集成。然而,出于描述所公开主题的目的,概念上细分成下文的功能单元是适当的。
第一单元是缩放器/逆变换单元(651)。缩放器/逆变换单元(651)从解析器(620)接收作为符号(621)的量化变换系数以及控制信息,包括使用哪种变换方式、块大小、量化因子、量化缩放矩阵等。缩放器/逆变换单元(651)可输出包括样本值的块,所述样本值可输入到聚合器(655)中。
在一些情况下,缩放器/逆变换单元(651)的输出样本可属于帧内编码块;即:不使用来自先前重建的图片的预测性信息,但可使用来自当前图片的先前重建部分的预测性信息的块。此类预测性信息可由帧内图片预测单元(652)提供。在一些情况下,帧内图片预测单元(652)采用从当前图片缓冲器(658)提取的已重建信息生成大小和形状与正在重建的块相同的周围块。举例来说,当前图片缓冲器(658)缓冲部分重建的当前图片和/或完全重建的当前图片。在一些情况下,聚合器(655)基于每个样本,将帧内预测单元(652)生成的预测信息添加到由缩放器/逆变换单元(651)提供的输出样本信息中。
在其它情况下,缩放器/逆变换单元(651)的输出样本可属于帧间编码和潜在运动补偿块。在此情况下,运动补偿预测单元(653)可访问参考图片存储器(657)以提取用于预测的样本。在根据符号(621)对提取的样本进行运动补偿之后,这些样本可由聚合器(655)添加到缩放器/逆变换单元(651)的输出(在这种情况下被称作残差样本或残差信号),从而生成输出样本信息。运动补偿预测单元(653)从参考图片存储器(657)内的地址获取预测样本可受到运动矢量控制,且所述运动矢量以所述符号(621)的形式而供运动补偿预测单元(653)使用,所述符号(621)例如是包括X、Y和参考图片分量。运动补偿还可包括在使用子样本精确运动矢量时,从参考图片存储器(657)提取的样本值的内插、运动矢量预测机制等等。
聚合器(655)的输出样本可在环路滤波器单元(656)中被各种环路滤波技术采用。视频压缩技术可包括环路内滤波器技术,所述环路内滤波器技术受控于包括在已编码视频序列(也称作已编码视频码流)中的参数,且所述参数作为来自解析器(620)的符号(621)可用于环路滤波器单元(656)。然而,在其他实施例中,视频压缩技术还可响应于在解码已编码图片或已编码视频序列的先前(按解码次序)部分期间获得的元信息,以及响应于先前重建且经过环路滤波的样本值。
环路滤波器单元(656)的输出可以是样本流,所述样本流可输出到显示装置(612)以及存储在参考图片存储器(657),以用于后续的帧间图片预测。
一旦完全重建,某些已编码图片就可用作参考图片以用于将来预测。举例来说,一旦对应于当前图片的已编码图片被完全重建,且已编码图片(通过例如解析器(620))被识别为参考图片,则当前图片缓冲器(658)可变为参考图片存储器(657)的一部分,且可在开始重建后续已编码图片之前重新分配新的当前图片缓冲器。
视频解码器(610)可根据例如ITU-T H.265标准中的预定视频压缩技术执行解码操作。在已编码视频序列遵循视频压缩技术或标准的语法以及视频压缩技术或标准中记录的配置文件的意义上,已编码视频序列可符合所使用的视频压缩技术或标准指定的语法。具体地说,配置文件可从视频压缩技术或标准中可用的所有工具中选择某些工具作为在所述配置文件下可供使用的仅有工具。对于合规性,还要求已编码视频序列的复杂度处于视频压缩技术或标准的层级所限定的范围内。在一些情况下,层级限制最大图片大小、最大帧率、最大重建取样率(以例如每秒兆(mega)个样本为单位进行测量)、最大参考图片大小等。在一些情况下,由层级设定的限制可通过假想参考解码器(Hypothetical ReferenceDecoder,HRD)规范和在已编码视频序列中用信号表示的HRD缓冲器管理的元数据来进一步限定。
在实施例中,接收器(631)可连同已编码视频一起接收附加(冗余)数据。所述附加数据可以是已编码视频序列的一部分。所述附加数据可由视频解码器(610)用以对数据进行适当解码和/或较准确地重建原始视频数据。附加数据可呈例如时间、空间或信噪比(signal noise ratio,SNR)增强层、冗余切片、冗余图片、前向纠错码等形式。
图7是根据本申请公开的实施例的视频编码器(703)的框图。视频编码器(703)设置于电子装置(720)中。电子装置(720)包括传输器(740)(例如传输电路)。视频编码器(703)可用于代替图5实施例中的视频编码器(503)。
视频编码器(703)可从视频源(701)(并非图7实施例中的电子装置(720)的一部分)接收视频样本,所述视频源可采集将由视频编码器(703)编码的视频图像。在另一实施例中,视频源(701)是电子装置(720)的一部分。
视频源(701)可提供将由视频编码器(703)编码的呈数字视频样本流形式的源视频序列,所述数字视频样本流可具有任何合适位深度(例如:8位、10位、12位……)、任何色彩空间(例如BT.601Y CrCB、RGB……)和任何合适取样结构(例如Y CrCb 4:2:0、Y CrCb 4:4:4)。在媒体服务系统中,视频源(701)可以是存储先前已准备的视频的存储装置。在视频会议系统中,视频源(701)可以是采集本地图像信息作为视频序列的相机。可将视频数据提供为多个单独的图片,当按顺序观看时,这些图片被赋予运动。图片自身可构建为空间像素阵列,其中取决于所用的取样结构、色彩空间等,每个像素可包括一个或多个样本。所属领域的技术人员可以很容易理解像素与样本之间的关系。下文侧重于描述样本。
根据实施例,视频编码器(703)可实时或在由应用所要求的任何其它时间约束下,将源视频序列的图片编码且压缩成已编码视频序列(743)。施行适当的编码速度是控制器(750)的一个功能。在一些实施例中,控制器(750)控制如下文所描述的其它功能单元且在功能上耦接到这些单元。为了简洁起见,图中未标示耦接。由控制器(750)设置的参数可包括速率控制相关参数(图片跳过、量化器、率失真优化技术的λ值等)、图片大小、图片群组(group of pictures,GOP)布局,最大运动矢量搜索范围等。控制器(750)可用于具有其它合适的功能,这些功能涉及针对某一系统设计优化的视频编码器(703)。
在一些实施例中,视频编码器(703)在编码环路中进行操作。作为简单的描述,在实施例中,编码环路可包括源编码器(730)(例如,负责基于待编码的输入图片和参考图片创建符号,例如符号流)和嵌入于视频编码器(703)中的(本地)解码器(733)。解码器(733)以类似于(远程)解码器创建样本数据的方式重建符号以创建样本数据(因为在本申请所考虑的视频压缩技术中,符号与已编码视频码流之间的任何压缩是无损的)。将重建的样本流(样本数据)输入到参考图片存储器(734)。由于符号流的解码产生与解码器位置(本地或远程)无关的位精确结果,因此参考图片存储器(734)中的内容在本地编码器与远程编码器之间也是按比特位精确对应的。换句话说,编码器的预测部分“看到”的参考图片样本与解码器将在解码期间使用预测时所“看到”的样本值完全相同。这种参考图片同步性基本原理(以及在例如因信道误差而无法维持同步性的情况下产生的漂移)也用于一些相关技术。
“本地”解码器(733)的操作可与例如已在上文结合图4详细描述视频解码器(610)的“远程”解码器相同。然而,另外简要参考图6,当符号可用且熵编码器(745)和解析器(620)能够无损地将符号编码/解码为已编码视频序列时,包括缓冲存储器(615)和解析器(620)在内的视频解码器(610)的熵解码部分,可能无法完全在本地解码器(733)中实施。
此时可以观察到,除存在于解码器中的解析/熵解码之外的任何解码器技术,也必定以基本上相同的功能形式存在于对应的编码器中。出于此原因,本申请侧重于解码器操作。可简化编码器技术的描述,因为编码器技术与全面地描述的解码器技术互逆。仅在某些区域中需要更详细的描述,并且在下文提供。
在操作期间,在一些实施例中,源编码器(730)可执行运动补偿预测编码。参考来自视频序列中被指定为“参考图片”的一个或多个先前已编码图片,所述运动补偿预测编码对输入图片进行预测性编码。以此方式,编码引擎(732)对输入图片的像素块与参考图片的像素块之间的差异进行编码,所述参考图片可被选作所述输入图片的预测参考。
本地视频解码器(733)可基于源编码器(730)创建的符号,对可指定为参考图片的图片的已编码视频数据进行解码。编码引擎(732)的操作可为有损过程。当已编码视频数据可在视频解码器(图7中未示)处被解码时,重建的视频序列通常可以是带有一些误差的源视频序列的副本。本地视频解码器(733)复制解码过程,所述解码过程可由视频解码器对参考图片执行,且可使重建的参考图片存储在参考图片高速缓存(734)中。以此方式,视频编码器(703)可在本地存储重建的参考图片的副本,所述副本与将由远端视频解码器获得的重建参考图片具有共同内容(不存在传输误差)。
预测器(735)可针对编码引擎(732)执行预测搜索。即,对于将要编码的新图片,预测器(735)可在参考图片存储器(734)中搜索可作为所述新图片的适当预测参考的样本数据(作为候选参考像素块)或某些元数据,例如参考图片运动矢量、块形状等。预测器(735)可基于样本块逐像素块操作,以找到合适的预测参考。在一些情况下,根据预测器(735)获得的搜索结果,可确定输入图片可具有从参考图片存储器(734)中存储的多个参考图片取得的预测参考。
控制器(750)可管理源编码器(730)的编码操作,包括例如设置用于对视频数据进行编码的参数和子群参数。
可在熵编码器(745)中对所有上述功能单元的输出进行熵编码。熵编码器(745)根据例如霍夫曼编码、可变长度编码、算术编码等技术对各种功能单元生成的符号进行无损压缩,从而将所述符号转换成已编码视频序列。
传输器(740)可缓冲由熵编码器(745)创建的已编码视频序列,从而为通过通信信道(760)进行传输做准备,所述通信信道可以是通向将存储已编码的视频数据的存储装置的硬件/软件链路。传输器(740)可将来自视频编码器(703)的已编码视频数据与要传输的其它数据合并,所述其它数据例如是已编码音频数据和/或辅助数据流(未示出来源)。
控制器(750)可管理视频编码器(703)的操作。在编码期间,控制器(750)可以为每个已编码图片分配某一已编码图片类型,但这可能影响可应用于相应的图片的编码技术。例如,通常可将图片分配为以下任一种图片类型:
帧内图片(I图片),其可以是不将序列中的任何其它图片用作预测源就可被编码和解码的图片。一些视频编解码器容许不同类型的帧内图片,包括例如独立解码器刷新(Independent Decoder Refresh,“IDR”)图片。所属领域的技术人员了解I图片的变体及其相应的应用和特征。
预测性图片(P图片),其可以是可使用帧内预测或帧间预测进行编码和解码的图片,所述帧内预测或帧间预测使用至多一个运动矢量和参考索引来预测每个块的样本值。
双向预测性图片(B图片),其可以是可使用帧内预测或帧间预测进行编码和解码的图片,所述帧内预测或帧间预测使用至多两个运动矢量和参考索引来预测每个块的样本值。类似地,多个预测性图片可使用多于两个参考图片和相关联元数据以用于重建单个块。
源图片通常可在空间上细分成多个样本块(例如,4×4、8×8、4×8或16×16个样本的块),且逐块进行编码。这些块可参考其它(已编码)块进行预测编码,根据应用于块的相应图片的编码分配来确定所述其它块。举例来说,I图片的块可进行非预测编码,或所述块可参考同一图片的已已编码的块来进行预测编码(空间预测或帧内预测)。P图片的像素块可参考一个先前编码的参考图片通过空间预测或通过时域预测进行预测编码。B图片的块可参考一个或两个先前编码的参考图片通过空间预测或通过时域预测进行预测编码。
视频编码器(703)可根据例如ITU-T H.265建议书的预定视频编码技术或标准执行编码操作。在操作中,视频编码器(703)可执行各种压缩操作,包括利用输入视频序列中的时间和空间冗余的预测编码操作。因此,已编码视频数据可符合所用视频编码技术或标准指定的语法。
在实施例中,传输器(740)可传输附加数据和已编码的视频。此类数据可以是已编码视频序列的一部分。附加数据可包括时间/空间/SNR增强层、冗余图片和切片等其它形式的冗余数据、SEI消息、VUI参数集片段等。
采集到的视频可作为呈时间序列的多个源图片(视频图片)。帧内图片预测(常常简化为帧内预测)利用给定图片中的空间相关性,而帧间图片预测则利用图片之间的(时间或其它)相关性。在实施例中,将正在编码/解码的特定图片分割成块,正在编码/解码的特定图片被称作当前图片。在当前图片中的块类似于视频中先前已编码且仍被缓冲的参考图片中的参考块时,可通过称作运动矢量的矢量对当前图片中的块进行编码。所述运动矢量指向参考图片中的参考块,且在使用多个参考图片的情况下,所述运动矢量可具有识别参考图片的第三维度。
在一些实施例中,双向预测技术可用于帧间图片预测中。根据双向预测技术,使用两个参考图片,例如按解码次序都在视频中的当前图片之前(但按显示次序可能分别是过去和将来)第一参考图片和第二参考图片。可通过指向第一参考图片中的第一参考块的第一运动矢量和指向第二参考图片中的第二参考块的第二运动矢量对当前图片中的块进行编码。具体来说,可通过第一参考块和第二参考块的组合来预测所述块。
此外,合并模式技术可用于帧间图片预测中以改善编码效率。
根据本申请公开的一些实施例,帧间图片预测和帧内图片预测等预测的执行以块为单位。举例来说,根据HEVC标准,将视频图片序列中的图片分割成编码树单元(codingtree unit,CTU)以用于压缩,图片中的CTU具有相同大小,例如64×64像素、32×32像素或16×16像素。一般来说,CTU包括三个编码树块(coding tree block,CTB),所述三个编码树块是一个亮度CTB和两个色度CTB。更进一步的,还可将每个CTU以四叉树拆分为一个或多个编码单元(coding unit,CU)。举例来说,可将64×64像素的CTU拆分为一个64×64像素的CU,或4个32×32像素的CU,或16个16×16像素的CU。在实施例中,分析每个CU以确定用于CU的预测类型,例如帧间预测类型或帧内预测类型。此外,取决于时间和/或空间可预测性,将CU拆分为一个或多个预测单元(prediction unit,PU)。通常,每个PU包括亮度预测块(prediction block,PB)和两个色度PB。在实施例中,编码(编码/解码)中的预测操作以预测块为单位来执行。以亮度预测块作为预测块为例,预测块包括像素值(例如,亮度值)的矩阵,例如8×8像素、16×16像素、8×16像素、16×8像素等等。
图8是根据本申请公开的另一实施例的视频编码器(803)的图。视频编码器(803)用于接收视频图片序列中的当前视频图片内的样本值的处理块(例如预测块),且将所述处理块编码到作为已编码视频序列的一部分的已编码图片中。在本实施例中,视频编码器(803)用于代替图5实施例中的视频编码器(503)。
在HEVC实施例中,视频编码器(803)接收用于处理块的样本值的矩阵,所述处理块为例如8×8样本的预测块等。视频编码器(803)使用例如率失真(rate-distortion,RD)优化来确定是否使用帧内模式、帧间模式或双向预测模式来编码所述处理块。当在帧内模式中编码处理块时,视频编码器(803)可使用帧内预测技术以将处理块编码到已编码图片中;且当在帧间模式或双向预测模式中编码处理块时,视频编码器(803)可分别使用帧间预测或双向预测技术将处理块编码到已编码图片中。在某些视频编码技术中,合并模式可以是帧间图片预测子模式,其中,在不借助预测值外部的已编码运动矢量分量的情况下,从一个或多个运动矢量预测值导出运动矢量。在某些其它视频编码技术中,可存在适用于主题块的运动矢量分量。在实施例中,视频编码器(803)包括其它组件,例如用于确定处理块模式的模式决策模块(未示出)。
在图8的实施例中,视频编码器(803)包括如图6所示的耦接到一起的帧间编码器(830)、帧内编码器(822)、残差计算器(823)、开关(826)、残差编码器(824)、通用控制器(821)和熵编码器(825)。
帧间编码器(830)用于接收当前块(例如处理块)的样本、比较所述块与参考图片中的一个或多个参考块(例如先前图片和后来图片中的块)、生成帧间预测信息(例如根据帧间编码技术的冗余信息描述、运动矢量、合并模式信息)、以及基于帧间预测信息使用任何合适的技术计算帧间预测结果(例如已预测块)。
帧内编码器(822)用于接收当前块(例如处理块)的样本、在一些情况下比较所述块与同一图片中已编码的块、在变换之后生成量化系数、以及在一些情况下还(例如根据一个或多个帧内编码技术的帧内预测方向信息)生成帧内预测信息。在实施例中,帧内编码器(822)还基于帧内预测信息和同一图片中的参考块计算帧内预测结果(例如已预测块)。
通用控制器(821)用于确定通用控制数据,且基于所述通用控制数据控制视频编码器(803)的其它组件。在实施例中,通用控制器(821)确定块的模式,且基于所述模式将控制信号提供到开关(826)。举例来说,当所述模式是帧内模式时,通用控制器(821)控制开关(826)以选择供残差计算器(823)使用的帧内模式结果,且控制熵编码器(825)以选择帧内预测信息且将所述帧内预测信息添加在码流中;以及当所述模式是帧间模式时,通用控制器(821)控制开关(826)以选择供残差计算器(823)使用的帧间预测结果,且控制熵编码器(825)以选择帧间预测信息且将所述帧间预测信息添加在码流中。
残差计算器(823)用于计算所接收的块与选自帧内编码器(822)或帧间编码器(830)的预测结果之间的差(残差数据)。残差编码器(824)用于基于残差数据操作,以对残差数据进行编码以生成变换系数。在实施例中,残差编码器(824)用于在频域中转换残差数据,且生成变换系数。变换系数接着经由量化处理以获得量化的变换系数。
熵编码器(825)用于将码流格式化以产生已编码的块。熵编码器(825)根据HEVC标准等合适标准产生各种信息。在实施例中,熵编码器(825)用于获得通用控制数据、所选预测信息(例如帧内预测信息或帧间预测信息)、残差信息和码流中的其它合适的信息。应注意,根据所公开的主题,当在帧间模式或双向预测模式的合并子模式中对块进行编码时,不存在残差信息。
图9是根据本申请公开的另一实施例的视频解码器(910)的图。视频解码器(910)用于接收作为已编码视频序列的一部分的已编码图像,且对所述已编码图像进行解码以生成重建的图片。在实施例中,视频解码器(910)用于代替图5实施例中的视频解码器(510)。
在图9实施例中,视频解码器(910)包括如图9中所示耦接到一起的熵解码器(971)、帧间解码器(980)、残差解码器(973)、重建模块(974)和帧内解码器(972)。
熵解码器(971)可用于根据已编码图片来重建某些符号,这些符号表示构成所述已编码图片的语法元素。此类符号可包括例如用于对所述块进行编码的模式(例如帧内模式、帧间模式、双向预测模式、后两者的合并子模式或另一子模式)、可分别识别供帧内解码器(972)或帧间解码器(980)用以进行预测的某些样本或元数据的预测信息(例如帧内预测信息或帧间预测信息)、呈例如量化的变换系数形式的残差信息等等。在实施例中,当预测模式是帧间或双向预测模式时,将帧间预测信息提供到帧间解码器(980);以及当预测类型是帧内预测类型时,将帧内预测信息提供到帧内解码器(972)。残差信息可经由逆量化并提供到残差解码器(973)。
帧间解码器(980)用于接收帧间预测信息,且基于所述帧间预测信息生成帧间预测结果。
帧内解码器(972)用于接收帧内预测信息,且基于所述帧内预测信息生成预测结果。
残差解码器(973)用于执行逆量化以提取解量化的变换系数,且处理所述解量化的变换系数,以将残差从频域转换到空间域。残差解码器(973)还可能需要某些控制信息(用以获得量化器参数QP),且所述信息可由熵解码器(971)提供(未标示数据路径,因为这仅仅是低量控制信息)。
重建模块(974)用于在空间域中组合由残差解码器(973)输出的残差与预测结果(可由帧间预测模块或帧内预测模块输出)以形成重建的块,所述重建的块可以是重建的图片的一部分,所述重建的图片继而可以是重建的视频的一部分。应注意,可执行解块操作等其它合适的操作来改善视觉质量。
应注意,可使用任何合适的技术来实施视频编码器(503)、视频编码器(703)和视频编码器(803)以及视频解码器(510)、视频解码器(610)和视频解码器(910)。在实施例中,可使用一个或多个集成电路来实施视频编码器(503)、视频编码器(703)和视频编码器(803)以及视频解码器(510)、视频解码器(610)和视频解码器(910)。在另一实施例中,可使用执行软件指令的一个或多个处理器来实施视频编码器(503)、视频编码器(703)和视频编码器(803)以及视频解码器(510)、视频解码器(610)和视频解码器(910)。
在以下示例性实施例中,提出了这样的方法,使得在编码器侧,过渡场景的视频帧不像传统视频编码方法中被直接编码,而是通过比特流描述或发送。另一方面,在解码器侧,过渡场景视频帧不像传统视频编码方法中直接从比特流解码,而是根据解码的相关信息来再现。下文中提出了如何描述和再现过渡场景,以及如何在比特流中发送相关信息。
在过渡场景检测方法中,要识别先前场景的最后图像和新场景的第一图像。此后,在这两个图像之间的图像属于过渡场景,并且进行进一步处理。
为了识别先前场景的最后图像和新场景的第一图像,在如图10A所示的实施例中执行两步场景变化检测方法。
在步骤(1001)中,识别在彼此接近的时间帧内的两个不同场景,将这两个不同场景作为背对背场景,二者之间存在过渡。在步骤(1002)中,利用场景变化检测方法来识别先前场景的最后图像。在该步骤中,紧接在前一场景的最后图像之后的视频内容可以认为是该时刻的过渡场景的一部分。
在步骤(1003)中,利用另一场景变化检测来检测从过渡场景到新场景的转折点。转折点(此后视频内容变得稳定)被认为是新场景的第一图像。
在步骤(1004)中,将先前场景的最后图像和新场景的第一图像之间的任何图像或帧识别为过渡场景
图10B的一个或者多个步骤可以应用于上述方法。如图10B所示的步骤(1001)-(1003)与图10A中相同。在步骤(1004’)中,识别先前场景的最后图像和新场景的第一图像之间的任何图像或帧。
如步骤(1005)所示,可以对过渡场景的持续时间施加时间窗口约束,那么如果上述持续时间的长度超过给定阈值,则认为该场景不是过渡场景。相反,该场景只是包含有意义的视频内容的完整场景。在一个实施例中,过渡场景的持续时间可以被限制为N1秒(例如,1秒)。可以基于有意义的视频场景定义的长度来设置阈值。
在步骤1006中,可以对先前场景的持续时间施加时间窗口约束,如果上述持续时间的长度小于给定阈值,则不认为此后的过渡场景是两个有意义的视频内容(或场景)之间的短过渡。在一个实施例中,可以限制先前场景的持续时间为至少N2秒(例如,5秒)。
在步骤1007中,可以对新场景的持续时间施加时间窗口约束,如果该持续时间的长度小于给定阈值,则不认为之前的过渡场景是两个有意义的视频内容(或场景)之间的短过渡。在一个实施例中,可以限制新场景的持续时间为至少N3秒(例如,5秒)。
以上N1、N2、N3可以由系统指定。在一个实施例中,N1=1,N2=5,N3=5。
如果满足上述条件并且可以识别所述两个图像,则在步骤1008检测过渡场景。在上文中,未指定任何特定方法检测场景变化。
在上文中,在对具有多个场景的视频序列进行编码之前,场景变化检测可作为预分析方法。
一旦识别了先前场景的最后图像和新场景的第一图像,可以用几种方法处理过渡场景,例如,在下面的示例性方法2和3中描述的方法。
在过渡场景生成方法中,如图11A所示,不直接在编码器侧编码整个过渡场景,并且不直接在解码器侧解码比特流。相反,使用先前场景的最后一帧(称为A),新场景的第一帧(称为K)和渐变模型生成交叉渐变过渡场景,以替换过渡场景。因此,编码器作为输入的实际过渡场景可能与解码器作为输出生成的过渡场景不同。
在下文中,假设A的时间实例是t=0,K的时间实例是t=n。然后在步骤1101中,检测从t=1到t=n-1的n-1个实例的过渡场景。然后,在步骤1101进行过渡场景插值处理,以生成替代原始过渡场景的交叉渐变过渡场景。在替换过渡场景中的图像F[t]可被描述为:F[t]=A*(1-s[t])+K*s[t],其中在一个实施例中,线性模型与s[t]一起使用:
在另一个实施例中,与上述类似,但当0<t<n,s[t]=(t/n)2
在另一个实施例中,与上述类似,但当0<t<n,s[t]=(t/n)1/2
在一种方法中,如图11B所示,不直接在编码器侧编码整个过渡场景,并且不直接在解码器侧解码比特流。相反,使用一个或多个预定义场景变化模型或模式(这两个单词是可互换使用的)来描述整个过渡场景。编码器和解码器已知上述一个或多个预定义的场景变化模型。下面将以MicrosoftPowerPointTM中使用的页面更改或动画描述为例进行讨论。从一个场景到另一个场景的可能常用的动画过渡可以包括,但不限于以下的一个或多个:
·变形
·渐变
·推入(进入)
·擦拭
·拆分
·揭示
·形状
·揭露
当编码器检测到场景变化,并且在步骤1101(与图11A中相同)中识别过渡场景时,使用系统中的预定义模型之一,先前场景的最后帧(称为A)和新场景的第一帧(称为K)来生成交叉渐变过渡场景。因此,在步骤1102’,生成的场景将使用一个或多个预定义模型之一从图像A转换到图像K。
在编码器侧,通过比较当前过渡场景中的视频内容与使用该组预定义模式生成的一组视频,将使用能够生成与当前过渡场景中的内容最相似的内容的模式,并发信号通知解码器。解码器接收所选择的模式信息,并相应地生成过渡场景。
在一个实施例中,过渡场景内容与可能模式生成的内容之一之间的相似性准则是:基于过渡场景,与使用预定义模式之一的模式生成场景之间的失真。失真越小,两个视频越相似。失真可以基于结构相似性(SSIM),平均峰值信噪比(PSNR)或其他视频质量评估指标。
在另一个实施例中,使用预定义模式在集合中的索引来表示预定义模式。解码器已知包含不同模型的一组模型。因此,仅需要在比特流中发信号通知所选模式的索引。
在另一个实施例中,将所选择的模式或模型参数化,并且将相关信息发送到解码器以再现过渡场景。
在另一个实施例中,可以在执行失真比较之前,对过渡场景和模式生成场景执行下采样。
在一些实施例中,对于通过所提出的方法运行的系统,在比特流中描述以下内容:如何用信号通知过渡场景的存在、开始和持续时间。
例如,如图12所示,在新场景的第一图像的图像标题(PPS),或第一片段标题中,或相关联的SEI消息中,在字段1201中以信号通知以下内容:在过渡场景之后,该图像是否是新场景的开始
如果是,在字段(1202)中,图像标题将用信号通知过渡场景的持续时间。例如,可以通过用信号通知该图像的图像序列号(POC)数。在一种方法中,通过分别计算当前图像的POC与已解码图像(POC最大的图像是先前场景的最后图像)中的最大POC之间的POC差,称为POC_F(新场景中的第一个)和POC_L(先前场景中的最后一个)。在另一种方法中,用新场景的第一图像发信号通知持续时间T。在一个实施例中,相关联的SEI消息用信号通知持续时间T。
在字段(1203)中,用信号通知过渡场景的属性,使得解码器可以模仿其效果
在新场景中的第一图像的图像标题(PPS)或第一片段标题处,或相关联的SEI消息中,以信号通知过渡场景的类型、或支持的过渡场景在集合中的索引、或生成过渡场景所需模式的参数。
图13示出了由解码器实现的方法。首先,在步骤(1301),作为正常解码过程的一部分,解码器将解码第一场景的最后图像。在解码器处,在解码新场景的第一图像(1302)之后,解码器使用以下参数中的一个或多个生成过渡场景的视频序列(1303):
·先前场景的最后图像
·新场景的第一图像
·过渡场景的持续时间:POC_F-POC_L-1,或以信号通知的持续时间T
·过渡场景类型
然后,解码器输出生成的过渡场景,以进行显示(1305)。在一个实施例中,不必用信号通知过渡场景的类型。当未发信号通知过渡场景的类型时,可使用默认或随机类型,可基于多个特性选择所述类型,其中所述的多个特征包括过渡场景的第一图像,最后图像和持续时间中的一个或多个。
在解码新场景的第一图像之后,并且在输出该图像之前(1306),应当依次输出过渡场景中的图像(在步骤(1305)期间)。对于过渡场景的生成,可以一次生成整个过渡场景,或者在需要输出时每次生成一个过渡场景。
上述技术可以通过计算机可读指令实现为计算机软件,并且物理地存储在一个或多个计算机可读介质中。例如,图14示出了适于实现所公开主题的某些实施例的计算机系统(1400)。
所述计算机软件可通过任何合适的机器代码或计算机语言进行编码,通过汇编、编译、链接等机制创建包括指令的代码,所述指令可由一个或多个计算机中央处理单元(CPU),图形处理单元(GPU)等直接执行或通过译码、微代码等方式执行。
所述指令可以在各种类型的计算机或其组件上执行,包括例如个人计算机、平板电脑、服务器、智能手机、游戏设备、物联网设备等。
本申请的一个实施例还提供了一种装置,包括:
解码模块,用于解码来自编码系统的已编码视频内容,其中所述编码系统执行场景变化检测过程,所述场景变化检测过程包括:识别与第一场景的最后图像对应的图像序列中的第一图像,识别与第二场景的第一图像对应的图像序列中的第二图像,以及确定与所述图像序列中的一个或多个图像对应的所述第一场景与所述第二场景之间的输入过渡场景,其中所述一个或多个图像位于所述第一图像与所述第二图像之间,并且在没有编码所述输入过渡场景的所有图像的情况下,对所接收的已编码视频内容进行再次编码,以及所接收的已编码视频内容包括用于指示存在所述输入过渡场景的标识,和用于再现与输入过渡场景相对应的过渡场景的信息;
生成模块,用于基于接收到的存在输入过渡场景的指示标识和用于再现过渡场景的信息,生成与输入过渡场景相对应的过渡场景;以及
输出模块,用于以序列方式输出包括与输入过渡场景相对应的过渡场景视频内容,所述过渡场景位于第一场景和第二场景之间。
本申请还提供了一种计算机设备,所述设备包括一个或多个处理器和一个或多个存储器,所述一个或多个存储器中存储有至少一条指令,所述至少一条指令由所述一个或多个处理器加载并执行以实现上述视频解码方法。
本申请还提供了一种非易失性计算机可读介质,所述非易失性计算机可读介质存储指令,所述指令在由处理器执行时,使所述处理器执行上述视频解码方法。具体内容可参见上述方法实施例,这里不再赘述。
图14中所示的用于计算机系统(1400)的组件是示例性的,并且不对实现本申请实施例的计算机软件的使用范围、或功能提出任何限制。也不应将组件的配置解释为,对计算机系统(1400)的示例性实施例中所示的任一组件或其组合具有任何依赖性或要求。
计算机系统(1400)可以包括某些人机界面输入设备。所述人机界面输入设备可以通过触觉输入(如:键盘输入、滑动、数据手套移动)、音频输入(如:声音、掌声)、视觉输入(如:手势)、嗅觉输入(未示出)对一个或多个人工用户的输入做出响应。所述人机界面设备还可用于捕捉某些媒体,所述媒体可能与人类有意识的输入无关,如音频(例如:语音、音乐、环境声音)、图像(例如:扫描图像、从静止影像相机获得的摄影图像)、视频(例如二维视频、包括立体视频的三维视频)。
人机界面输入装置可包括以下装置中的一个或多个(每个仅描述一个):键盘(1401)、鼠标(1402)、触控板(1403)、触摸屏(1410)、数据手套(未示出)、操纵杆(1405)、麦克风(1406)、扫描仪(1407)、照相机(1408)。
计算机系统(1400)还可以包括某些人机界面输出设备。所述人机界面输出设备可以通过例如触觉输出、声音、光和嗅觉/味觉来刺激一个或多个用户的感觉。这类人机界面输出设备可以包括触觉输出设备(例如通过触摸屏(1410)、数据手套(未示出)或操纵杆(1405)的触觉反馈,但是也可以包括不作为输入设备的触觉反馈设备)、音频输出设备(例如:扬声器(1409)、耳机(未示出))、视觉输出设备(例如包括CRT的屏幕(1410)、LCD屏幕,等离子屏幕、OLED屏幕,每一个可以具有或不具有触摸屏输入能力,每一个可以具有或不具有触觉反馈能力——其中的一些能够通过诸如立体输出,虚拟现实眼镜(未示出)、全息显示器和放烟箱(未示出)),以及打印机(未示出),实现二维视觉输出或多于三维的视觉输出。
计算机系统(1400)还可以包括可访问的存储设备及其相关介质,诸如光学介质,包括具有CD/DVD的CD/DVD ROM/RW(1420)等介质(1421)、拇指驱动器(1422)、可移动硬盘驱动器或固态驱动器(1423)、传统磁介质、诸如磁带和软盘(未示出)、基于诸如安全保护锁(未示出)的专用ROM/ASIC/PLD的设备,等。
本领域技术人员还应当理解,结合本申请主题使用的术语“计算机可读介质”不包括传输介质、载波或其它易失性信号。
计算机系统(1400)还可以包括一个或多个通信网络的接口。例如,网络可以是无线的、有线的、光学的。网络还可为局域网、广域网、城域网、车载网络和工业网络、实时网络、对实时性要求不高的网络(延迟容忍网络)等等。网络还包括以太网、无线局域网、蜂窝网络(GSM、3G、4G、5G、LTE等)等局域网、电视有线或无线广域数字网络(包括有线电视、卫星电视、和地面广播电视)、车载和工业网络(包括CANBus)等等。某些网络通常需要连接到通用数据端口、或外围总线(1449)(例如计算机系统(1400)的USB端口)的外部网络接口适配器;其他系统通常通过连接到系统总线而集成到计算机系统(1400)的核心,如下所述(例如,以太网接口到PC计算机系统,或蜂窝网络接口到智能电话计算机系统)。使用这些网络中的任何一个,计算机系统(1400)可以与其他实体通信。所述通信可以是单向的,仅用于接收(例如,广播电视),单向的仅用于发送(例如,CAN总线到某些CAN总线设备),或双向的,例如通过局域或广域数字网络到其它计算机系统。上述的每个网络和网络接口可使用某些协议和协议栈。
上述人机界面设备、可访问存储设备和网络接口可以连接到计算机系统(1400)的核心(1440)。
核心(1440)可以包括一个或多个中央处理单元(CPU)(1441),图像处理单元(GPU)(1442),现场可编程门区域(FPGA)(1443)形式的专用可编程处理单元,用于某些任务的硬件加速器(1444)等。这些设备以及只读存储器(ROM)(1445)、随机存取存储器(1446),诸如内部非用户可访问硬盘驱动器的内部大容量存储器,SSD等(1447)可以通过系统总线(1448)连接。在一些计算机系统中,可以通过一个或多个物理插头的形式来访问系统总线(1448),以通过增加CPU,GPU等进行扩展。外围设备可直接连接到核心的系统总线(1448),或通过外围总线(1449)连接到核心。外围总线的体系结构包括外部控制器接口PCI、通用串行总线USB等。
CPU(1441)、GPU(1442),FPGA(1443)和加速器(1444)可以执行某些指令,这些指令组合起来可以构成上述计算机代码。该计算机代码可以存储在ROM(1445)或RAM(1446)中。过渡数据也可以存储在RAM(1446)中,而永久数据可以存储在例如内部大容量存储器(1447)中。通过使用高速缓冲存储器,启用对任一存储器装置的快速存储和检索,所述高速缓冲存储器可与一个或多个CPU(1441)、GPU(1442)、大容量存储装置(1447)、ROM(1445)、RAM(1446)等紧密地关联。
所述计算机可读介质可存储用于执行各种计算机实现操作的计算机代码。介质和计算机代码可以是为实现本申请的目的而特别设计和构造的,也可以是计算机软件领域的技术人员所熟知和可用的介质和代码。
作为一个例子而非限制,具有体系结构(1400)的计算机系统,特别是核心(1440)可以提供处理器(包括CPU、GPU、FPGA、加速器等)的功能,用于执行在一个或多个有形的计算机可读介质中存储的软件。这样的计算机可读介质可以是与如上所述的用户可访问的大容量存储器相关联的介质,以及具有非易失性核心(1440)的某些存储器,诸如核心内部大容量存储器(1447)或ROM(1445)。实现本申请的各种实施例的软件可以存储在此类设备中,并且由核心(1440)执行。根据特定需要,计算机可读介质可包括一个或一个以上存储设备或芯片。该软件可以使核心(1440),特别是其中的处理器(包括CPU、GPU、FPGA等)执行在此描述的特定过程,或特定过程的特定部分,包括定义存储在RAM(1446)中的数据结构,并且根据由软件定义的过程来修改该数据结构。额外的或作为替代的,计算机系统可以提供硬连线逻辑,或以其他方式包含在电路(例如:加速器(1444))中的功能,该电路可以代替软件,或与软件同步操作以执行此处描述的特定过程,或特定过程的特定部分。在适当的情况下,可以包括对软件的逻辑引用,反之亦然。在适当的情况下,计算机可读介质可包括存储待执行软件的电路(如集成电路(IC)),包含执行逻辑的电路,或两者兼备。本申请包括任何合适的硬件和软件组合。
附录A:首字母缩略词
MV:运动矢量
HEVC:高效视频编码
SEI:补充增强信息
VUI:视频可用性信息
GOPs:画面组
TUs:变换单元,
PUs:预测单元
CTUs:编码树单元
CTBs:编码树块
PBs:预测块
HRD:假设参考解码器
SNR:信噪比
CPUs:中央处理单元
GPUs:图形处理单元
CRT:阴极射线管
LCD:液晶显示
OLED:有机发光二极管
CD:光盘
DVD:数字化视频光盘
ROM:只读存储器
RAM:随机存取存储器
ASIC:专用集成电路
PLD:可编程逻辑设备
LAN:局域网
GSM:全球移动通信系统
LTE:长期演进
CANBus:控制器区域网络总线
USB:通用串行总线
PCI:外围设备互连
FPGA:现场可编程门阵列
SSD:固状驱动器
IC:集成电路
CU:编码单元
虽然本申请已对多个示例性实施例进行了描述,但实施例的各种变更、排列和各种等同替换属于本申请的范围。因此应理解,本领域技术人员能够设计多种系统和方法,所述系统和方法虽然未在本文中明确展示或描述,但其体现了本申请的原则,因此属于本申请的范围之内。

Claims (16)

1.一种视频解码方法,其特征在于,包括:
解码来自编码系统的已编码视频内容,其中,
所述视频内容为非照相机拍摄的、计算机生成的屏幕内容,所述屏幕内容包括富含纹理和具有锐利边缘的图案;
所述编码系统执行场景变化检测过程,包括:
识别在彼此接近的时间帧内的两个不同场景;
识别先前场景的最后图像;
检测从过渡场景到新场景的转折点,作为所述新场景的第一图像;
将位于所述先前场景的最后图像与所述新场景的第一图像之间的图像,识别为潜在过渡场景;
当确定所述潜在过渡场景的持续时间小于N1、所述先前场景的持续时间大于N2、所述新场景的持续时间大于N3时,将所述潜在过渡场景识别为过渡场景;其中,N1、N2、N3为正整数;
在所述新场景的第一图像的第一条带头中,用信号通知如下信息:在所述过渡场景之后,所述第一图像是否是所述新场景的开始;所述过渡场景的持续时间;及,所述过渡场景的类型;及,
当在所述过渡场景之后,所述第一图像是所述新场景的开始时,在解码所述第一图像之后,基于所述持续时间和所述类型,生成所述过渡场景的视频序列。
2.根据权利要求1所述的方法,其特征在于,所述过渡场景为交叉渐变过渡场景。
3.根据权利要求2所述的方法,其特征在于,所述先前场景的最后图像的时间实例是t=0,所述新场景的第一图像的时间实例是t=n,所述过渡场景包括从t=1至t=n-1的n-1个时间实例,在所述交叉渐变过渡场景之内的各个图像F[t]定义为:F[t]=A*(1-s[t])+K*s[t],其中s[t]为:
其中,A是所述先前场景的最后图像,K是所述新场景的第一图像。
4.根据权利要求2所述的方法,其特征在于,所述先前场景的最后图像的时间实例是t=0,所述新场景的第一图像的时间实例是t=n,所述过渡场景包括从t=1至t=n-1的n-1个时间实例,在所述交叉渐变过渡场景中的各个图像F[t]定义为:F[t]=A*(1-s[t])+K*s[t],其中s[t]为:
其中,A是所述先前场景的最后图像,K是所述新场景的第一图像。
5.根据权利要求2所述的方法,其特征在于,所述先前场景的最后图像的时间实例是t=0,所述新场景的第一图像的时间实例是t=n,所述过渡场景包括t=1至t=n-1的n-1个时间实例,在所述交叉渐变过渡场景之内的各个图像F[t]定义为:F[t]=A*(1-s[t])+K*s[t],其中s[t]为:
其中,A是所述先前场景的最后图像,K是所述新场景的第一图像。
6.根据权利要求1所述的方法,其特征在于,所述过渡场景的渐变模式是基于预定动画过渡。
7.根据权利要求6所述的方法,其特征在于,所述预定动画过渡是变形动画、渐变动画、推送动画、擦除动画、拆分动画、揭示动画、形状动画和揭开动画之一。
8.根据权利要求6所述的方法,其特征在于,还包括:
接收所述预定动画过渡的指示,其中,所述预定动画过渡用于生成所述过渡场景。
9.根据权利要求7所述的方法,其特征在于,所述编码系统将所述过渡场景与多个模式生成内容相比较,每个模式生成内容都基于至少一个预定动画过渡生成,并且基于与所述过渡场景具有最高相似性的模式生成内容,确定所述预定动画过渡。
10.根据权利要求9所述的方法,其特征在于,所述编码系统基于对失真的评估确定所述预定动画过渡,其中,所述失真指的是所述过渡场景与所述多个模式生成内容中的每一个之间的失真。
11.根据权利要求1所述的方法,其特征在于,基于所述新场景的第一图像和所述先前场景的最后图像之间的图像序列号(POC)之间的差值,指示所述持续时间。
12.根据权利要求1所述的方法,其特征在于,基于持续时间值,指示所述持续时间。
13.根据权利要求1所述的方法,其特征在于,还包括:
在输出的视频内容中输出所述新场景之前,输出所述过渡场景。
14.一种视频解码装置,其特征在于,包括:
解码模块,用于解码来自编码系统的已编码视频内容,其中,所述视频内容为非照相机拍摄的、计算机生成的屏幕内容,所述屏幕内容包括富含纹理和具有锐利边缘的图案;所述编码系统执行场景变化检测过程,包括:识别在彼此接近的时间帧内的两个不同场景;识别先前场景的最后图像;检测从过渡场景到新场景的转折点,作为所述新场景的第一图像;将位于所述先前场景的最后图像与所述新场景的第一图像之间的图像,识别为潜在过渡场景;当确定所述潜在过渡场景的持续时间小于N1、所述先前场景的持续时间大于N2、所述新场景的持续时间大于N3时,将所述潜在过渡场景识别为过渡场景;其中,N1、N2、N3为正整数;在所述新场景的第一图像的第一条带头中,用信号通知如下信息:在所述过渡场景之后,所述第一图像是否是所述新场景的开始;所述过渡场景的持续时间;及,所述过渡场景的类型;
生成模块,用于当在所述过渡场景之后,所述第一图像是所述新场景的开始时,在解码所述第一图像之后,基于所述持续时间和所述类型,生成所述过渡场景的视频序列。
15.一种计算机设备,其特征在于,所述设备包括一个或多个处理器和一个或多个存储器,所述一个或多个存储器中存储有至少一条指令,所述至少一条指令由所述一个或多个处理器加载并执行以实现如权利要求1至权利要求13中任一项所述的视频解码方法。
16.一种非易失性计算机可读介质,其特征在于,所述非易失性计算机可读介质存储指令,所述指令在由处理器执行时,使所述处理器执行如权利要求1至权利要求13中任一项所述的视频解码方法。
CN201911037188.6A 2018-11-09 2019-10-29 视频解码方法、装置、计算机设备及存储介质 Active CN111182308B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/185,264 US10636451B1 (en) 2018-11-09 2018-11-09 Method and system for video processing and signaling in transitional video scene
US16/185,264 2018-11-09

Publications (2)

Publication Number Publication Date
CN111182308A CN111182308A (zh) 2020-05-19
CN111182308B true CN111182308B (zh) 2024-03-01

Family

ID=70332402

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911037188.6A Active CN111182308B (zh) 2018-11-09 2019-10-29 视频解码方法、装置、计算机设备及存储介质

Country Status (2)

Country Link
US (1) US10636451B1 (zh)
CN (1) CN111182308B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019147087A1 (ko) * 2018-01-25 2019-08-01 주식회사 윌러스표준기술연구소 비디오 신호 처리 방법 및 장치
CN111860185A (zh) * 2020-06-23 2020-10-30 北京无限创意信息技术有限公司 一种镜头边界检测方法及系统
CN112312161A (zh) * 2020-06-29 2021-02-02 北京沃东天骏信息技术有限公司 用于生成视频的方法、装置、电子设备及可读存储介质
EP3965424A1 (en) * 2020-09-02 2022-03-09 Lemon Inc. Transition period for image transitions in a media file
CN114842319A (zh) * 2022-03-01 2022-08-02 杭州未名信科科技有限公司 检测家居场景的方法、装置、电子设备及介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1726552A (zh) * 2002-12-20 2006-01-25 皇家飞利浦电子股份有限公司 对mpeg-2压缩视频产生编辑效果
CN101310530A (zh) * 2005-09-27 2008-11-19 高通股份有限公司 用于过渡效果的多媒体编码技术
CN101981931A (zh) * 2008-02-01 2011-02-23 活动视频网络有限公司 变换域中的编码视频的过渡创建
CN102291585A (zh) * 2002-07-15 2011-12-21 诺基亚有限公司 用于视频序列中错误隐藏的方法
CN103503454A (zh) * 2011-01-28 2014-01-08 艾艾欧有限公司 场景形式的视频流编码

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7751683B1 (en) * 2000-11-10 2010-07-06 International Business Machines Corporation Scene change marking for thumbnail extraction
US20030090485A1 (en) * 2001-11-09 2003-05-15 Snuffer John T. Transition effects in three dimensional displays
US7289564B2 (en) * 2003-09-10 2007-10-30 Silicon Integrated Systems Corp. Video encoding method with support for editing when scene changed
US20060059510A1 (en) * 2004-09-13 2006-03-16 Huang Jau H System and method for embedding scene change information in a video bitstream
JP4971469B2 (ja) * 2007-03-15 2012-07-11 ジーブイビービー ホールディングス エス.エイ.アール.エル. シーングラフ間の自動美的遷移方法及び装置
US20090226046A1 (en) * 2008-03-07 2009-09-10 Yevgeniy Eugene Shteyn Characterizing Or Recommending A Program
US11093788B2 (en) * 2018-02-08 2021-08-17 Intel Corporation Scene change detection

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102291585A (zh) * 2002-07-15 2011-12-21 诺基亚有限公司 用于视频序列中错误隐藏的方法
CN1726552A (zh) * 2002-12-20 2006-01-25 皇家飞利浦电子股份有限公司 对mpeg-2压缩视频产生编辑效果
CN101310530A (zh) * 2005-09-27 2008-11-19 高通股份有限公司 用于过渡效果的多媒体编码技术
CN101981931A (zh) * 2008-02-01 2011-02-23 活动视频网络有限公司 变换域中的编码视频的过渡创建
CN103503454A (zh) * 2011-01-28 2014-01-08 艾艾欧有限公司 场景形式的视频流编码

Also Published As

Publication number Publication date
CN111182308A (zh) 2020-05-19
US10636451B1 (en) 2020-04-28
US20200152240A1 (en) 2020-05-14

Similar Documents

Publication Publication Date Title
CN111989918B (zh) 视频解码的方法、装置及存储介质
CN111903131B (zh) 用于解码器中的视频解码的方法、装置及计算机可读介质
CN112655205B (zh) 视频编解码的方法和装置
CN111937387A (zh) 用于采用并行处理的基于历史的运动矢量的预测方法和装置
CN116320445A (zh) 视频解码、编码的方法、解码器、编码器及存储介质
CN111182308B (zh) 视频解码方法、装置、计算机设备及存储介质
CN111010579B (zh) 基于成对平均运动矢量预测的视频解码方法和装置
JP2022515031A (ja) ビデオコーディングのための方法、機器及びコンピュータ・プログラム
CN113545079B (zh) 视频编解码的方法和装置
CN112913232B (zh) 执行合并候选列表创建以进行视频编解码的方法、设备和计算机可读介质
CN110971902B (zh) 视频解码的方法和装置、计算机设备
CN112789851B (zh) 视频解码方法、装置、电子设备及可读存储介质
CN110896486B (zh) 利用高层语法架构进行编解码的方法和设备
CN113785564B (zh) 视频编解码的方法和装置
CN111971965A (zh) 视频编解码的方法和装置
CN111836056B (zh) 视频编解码的方法和装置、计算机设备和存储介质
CN113661702B (zh) 视频编解码的方法、装置及存储介质
CN113228649B (zh) 视频解码方法、装置以及存储介质
CN111726627B (zh) 视频解码方法、装置、计算机设备和存储介质
CN113348664B (zh) 视频解码的方法、装置及计算机可读介质
CN111726622B (zh) 视频编解码的方法、装置及介质
CN113228631B (zh) 视频编解码的方法和装置
CN112771869B (zh) 视频编码、解码方法及装置
CN110719462B (zh) 视频解码方法、解码器、计算机可读存储介质以及计算机设备
CN117857798A (zh) 视频解码方法、装置、电子设备以及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant