CN111108751A - 适应于全向视频的运动矢量预测量的方法和装置 - Google Patents

适应于全向视频的运动矢量预测量的方法和装置 Download PDF

Info

Publication number
CN111108751A
CN111108751A CN201880060512.3A CN201880060512A CN111108751A CN 111108751 A CN111108751 A CN 111108751A CN 201880060512 A CN201880060512 A CN 201880060512A CN 111108751 A CN111108751 A CN 111108751A
Authority
CN
China
Prior art keywords
motion vector
block
picture
point
scaling factor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201880060512.3A
Other languages
English (en)
Other versions
CN111108751B (zh
Inventor
F.加尔平
T.波里尔
E.弗朗索瓦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
InterDigital VC Holdings Inc
Original Assignee
InterDigital VC Holdings Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by InterDigital VC Holdings Inc filed Critical InterDigital VC Holdings Inc
Publication of CN111108751A publication Critical patent/CN111108751A/zh
Application granted granted Critical
Publication of CN111108751B publication Critical patent/CN111108751B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/33Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the spatial domain
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/154Measured or subjectively estimated visual quality after decoding, e.g. measurement of distortion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/174Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a slice, e.g. a line of blocks or a group of blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/31Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the temporal domain
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/527Global motion vector estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

一种方法和装置调节运动矢量预测以适应于全向视频。一个实施例改进了对时域运动矢量预测量或重新缩放的运动矢量预测量的处理。另一个实施例适用于空域运动矢量预测量,并且另一个实施例适用于时域或空域运动矢量预测量的组合。该方法分析从预测量的时间索引、参考图像的预测量的时间索引、参考图像的当前块的时间索引和当前块的时间索引中的至少一个推导出的缩放因子。例如,如果缩放因子大于1,则在运动矢量重新缩放之前执行运动矢量变换。然而,如果缩放因子小于或等于1,则在运动矢量变换之前执行运动矢量重新缩放。

Description

适应于全向视频的运动矢量预测量的方法和装置
技术领域
以下描述的方面总地涉及视频压缩领域,具体涉及全向视频领域。
背景技术
最近,可用的大视场(高达360°)内容有所增长。这种内容对于在沉浸式显示设备(诸如头戴式显示器(Head Mounted Display,HMD)、智能眼镜、PC屏幕、平板电脑、智能手机等)上观看内容的用户来说可能是不完全可见的。这意味着在给定的时刻,用户可能只在观看部分内容。然而,用户通常可以通过诸如头部移动、鼠标移动、触摸屏、语音等各种方式在内容内导航。通常期望对该内容进行编码和解码。
发明内容
现有技术的这些和其他缺点和不足由至少一个所描述的实施例来解决,这些实施例涉及一种通过提高的运动矢量的精度来改善视频编码器和解码器的压缩效率的方法和装置。
在至少一个实施例中,提供了一种方法。该方法包括以下步骤:计算图片块的运动矢量预测量的缩放因子;基于缩放因子,按顺序对运动矢量预测量执行运动矢量重新缩放和运动矢量变换;使用经变换和重新缩放的运动矢量预测量对图片块执行运动补偿;以及对运动补偿的视频数据块进行编码。
在至少一个其他实施例中,提供了一种方法。该方法包括以下步骤:计算图片块的运动矢量预测量的缩放因子;基于缩放因子,按顺序对运动矢量预测量执行运动矢量重新缩放和运动矢量变换;使用经变换和重新缩放的运动矢量预测量对图片块执行运动补偿;以及对运动补偿的视频数据块进行解码。
在另一个实施例中,提供了根据任何前述方法的方法,其中该方法被用于帧速率上转换、高级运动矢量预测、高级时域运动矢量预测或这些运动补偿技术的任何组合。
在另一个实施例中,提供了一种装置。该装置包括存储器和处理器。处理器被配置为执行前述方法实施例的任何变型。
根据本文所述的另一方面,提供了一种非暂时性计算机可读存储介质,其包含根据前述方法实施例中任一项的方法或者由前述装置实施例中任一项的装置生成的数据内容用于使用处理器进行回放。
根据本文所述的另一方面,提供了一种信号,其包括根据前述方法实施例中用于编码视频数据块的任一项的方法生成的或者由前述装置实施例中用于编码视频数据块的任一项的装置生成的视频数据,用于使用处理器进行回放。
根据本文描述的另一方面,提供了一种计算机程序产品,其包括指令,当程序由计算机执行时,使得计算机执行前述方法实施例中任一项的方法。
从下面结合附图阅读的示例性实施例的详细描述中,本原理的这些和其他方面、特征和优点将变得明显。
附图说明
图1示出了根据特定且非限制性实施例的用于编码和解码全向视频的示例性系统,
图2-图6示出了根据各种实施例的被配置为解码、处理和呈现沉浸式视频的系统,
图7-图9表示根据各种实施例的具有被配置为解码、处理和呈现沉浸式视频的沉浸式墙的系统,以及
图10-图12表示根据各种实施例的沉浸式视频呈现设备。
图13A和图13B示出了从球面S投影到矩形图片F上的示例,
图14A和图14B示出了从立方体表面S投影到六个图片上的示例,以及投影到二维(2D)图片上的立方体的六个面的布局,
图15A和图15B示出了表示全向视频的三维(3D)表面的投影图片F中的运动对象,以及投影图片的块分割中的对应运动矢量。
图16A和图16B示出了从帧坐标到呈现的帧以及从呈现的帧到编码帧的映射。
图17示出了运动矢量预测量缩放的示例。
图18示出了可以应用所描述的方面的编码器的示例。
图19示出了可以应用所描述的方面的解码器的示例。
图20示出了运动补偿块的进一步细节的示例。
图21示出了根据所描述的方面的运动矢量变换/重新缩放的流程图的示例。
图22示出了根据所描述的方面的编码方法的一个实施例。
图23示出了根据所描述的方面的解码方法的一个实施例。
图24示出了根据所描述的方面的用于编码或解码的装置的一个实施例。
具体实施方式
全向内容通常投影在给定的布局上,因此要编码/解码的最终内容适合矩形帧,这便于现有编解码器进行处理。取决于映射,可能会引入几何失真,这会损害压缩性能。特别地,当处理等矩形(equi-rectangular,ERP)映射时,运动矢量预测可能不适用。以下实施例也可以扩展到具有类似属性的其他映射。
所描述的实施例中的至少一个被用于设计适应于ERP映射的新的运动矢量预测。对现有技术进行了若干改进,特别是更好地处理时域运动矢量预测量或重新缩放的运动矢量预测量。
大视场内容可以是三维计算机图形成像场景(3D CGI场景)、点云或沉浸式视频以及其它。许多术语可以被用来设计这样的沉浸式视频,诸如例如虚拟现实(virtualReality,VR)、360、全景、4π、球面度、沉浸式、全向、大视场。
沉浸式视频通常是指编码在矩形帧上的视频,该矩形帧是像“常规”视频一样的二维像素阵列(即颜色信息元素)。在许多实施方式中,可以执行以下过程。为了呈现,首先将帧映射到凸体积的内表面上,也称为映射表面(例如,球体、立方体、金字塔),其次,该体积的一部分被虚拟相机捕获。由虚拟相机捕获的图像被呈现在沉浸式显示设备的屏幕上。立体视频被编码在一个或两个矩形帧上,投影在两个映射表面上,根据设备的特性,这两个映射表面被组合以由两个虚拟相机捕获。
像素可以根据帧中的映射函数来编码。映射函数可能取决于映射表面。对于相同的映射表面,有若干种映射函数是可能的。例如,立方体的面可以根据帧表面内的不同布局来构造。例如,球体可以根据等矩形投影或球心投影来映射。由所选择的投影函数产生的像素组织修改或中断线连续性、正交局部帧、像素密度,并引入了时间和空间的周期性。这些是用于编码和解码视频的典型特征。现有的编码和解码方法通常不考虑沉浸式视频的特殊性。事实上,由于沉浸式视频可以是360°视频,例如,平移引入了运动和不连续性,这需要在场景内容不变的同时编码大量数据。在对视频帧进行编码和解码时,考虑沉浸式视频的特殊性将为编码或解码方法带来有价值的优势。
图1示出了根据特定且非限制性实施例的编码和解码系统的总体概述。图1的系统是功能系统。预处理模块110可以准备由编码设备120编码的内容。预处理模块110可以执行多图像采集、将采集的多图像合并到公共空间(如果我们对方向进行编码,则通常是3D球体)中、以及使用例如但不限于等矩形映射或立方体映射将3D球体映射到2D帧中。预处理模块110还可以接受特定格式(例如,等矩形)的全向视频作为输入,并且预处理视频以将映射改变为更适合编码的格式。取决于采集的视频数据表示,预处理模块110可以执行映射空间改变。
编码设备120和编码方法将参考说明书的其他附图进行描述。在被编码之后,例如可以编码沉浸式视频数据或3D CGI编码数据的数据被发送到网络接口130,网络接口130通常可以以任何网络接口来实施,诸如存在于网关中的网络接口。然后,数据通过诸如互联网的通信网络传输,但是可以预见任何其他网络。然后经由网络接口140接收数据。网络接口140可以在网关、电视机、机顶盒、头戴式显示设备、沉浸式(投影式)墙壁或任何沉浸式视频呈现设备中实施。
在接收之后,数据被发送到解码设备150。解码功能是下面图2至图12中描述的处理功能之一。解码的数据然后由播放器160处理。播放器160为呈现设备170准备数据,并且可以接收来自传感器的外部数据或用户输入数据。更准确地,播放器160准备将由呈现设备170显示的部分视频内容。解码设备150和播放器160可以集成在单个设备(例如,智能手机、游戏控制台、机顶盒(STB)、平板电脑、计算机等)中。在其他实施例中,播放器160可以集成在呈现设备170中。
可以设想若干种类型的系统来执行沉浸式显示设备的解码、播放和呈现功能,例如,当呈现沉浸式视频时。
图2至图6示出了用于处理增强现实、虚拟现实或增强虚拟内容的第一系统。这种系统包括处理功能、沉浸式视频呈现设备,该沉浸式视频呈现设备可以是例如头戴式显示器(HMD)、平板电脑或智能手机,并且可以包括传感器。沉浸式视频呈现设备还可以包括显示设备和处理功能之间的附加接口模块。处理功能可以由一个或多个设备来执行。它们可以集成到沉浸式视频呈现设备中,或者它们可以集成到一个或若干个处理设备中。处理设备包括一个或若干个处理器和与沉浸式视频呈现设备的通信接口,诸如无线或有线通信接口。
处理设备还可以包括与诸如互联网的宽接入网络的第二通信接口,并且直接地或通过诸如家庭或本地网关的网络设备来访问位于云上的内容。处理设备还可以通过诸如以太网类型的本地接入网络接口的第三接口来访问本地存储装置。在实施例中,处理设备可以是具有一个或多个处理单元的计算机系统。在另一个实施例中,它可以是智能手机,该智能手机可以通过有线或无线链路连接到沉浸式视频呈现设备,或者可以插入沉浸式视频呈现设备的外壳中,并通过连接器或无线地与其通信。处理设备的通信接口是有线接口(例如,总线接口、广域网接口、局域网接口)或无线接口(诸如IEEE 802.11接口或
Figure BDA0002415761210000051
接口)。
当处理功能由沉浸式视频呈现设备执行时,沉浸式视频呈现设备可以直接地或通过网关提供对网络的接口,以接收和/或发送内容。
在另一个实施例中,该系统包括与沉浸式视频呈现设备和与处理设备通信的辅助设备。在这样的实施例中,该辅助设备可以包含至少一个处理功能。
沉浸式视频呈现设备可以包括一个或多个显示器。该设备可以在其每个显示器前面采用光学器件,诸如透镜。显示器也可以是沉浸式显示设备的一部分,如在智能手机或平板电脑的情况下。在另一个实施例中,显示器和光学器件可以嵌入用户可以佩戴的头盔、眼镜或护目镜中。沉浸式视频呈现设备还可以集成若干个传感器,如稍后所述。沉浸式视频呈现设备还可以包括若干个接口或连接器。它可以包括一个或多个无线模块,以便与传感器、处理功能、手持或其他身体部位相关的设备或传感器通信。
沉浸式视频呈现设备还可以包括由一个或多个处理器执行的处理功能,并被配置为解码内容或处理内容。通过在这里处理内容,可以理解为准备可以显示的内容的所有功能。这可以包括例如解码内容、在显示内容之前合并内容以及修改内容以适合显示设备。
沉浸式内容呈现设备的一个功能是控制虚拟相机,该虚拟相机捕获被构造为虚拟体的至少一部分内容。该系统可以包括姿态跟踪传感器,其全部或部分跟踪用户的姿态,例如,用户头部的姿态,以便处理虚拟相机的姿态。一些定位传感器可以跟踪用户的位移。例如,该系统还可以包括与环境相关的其他传感器以测量照明、温度或声音状况。例如,这种传感器也可以与用户的身体相关以测量出汗或心率。通过这些传感器获取的信息可以被用于处理内容。该系统还可以包括用户输入设备(例如,鼠标、键盘、遥控器、操纵杆)。来自用户输入设备的信息可以被用于处理内容、管理用户界面或控制虚拟相机的姿态。传感器和用户输入设备通过有线或无线通信接口与处理设备和/或沉浸式呈现设备通信。
使用图2至图6,描述了用于显示增强现实、虚拟现实、增强虚拟或从增强现实到虚拟现实的任何内容的第一类型系统的若干个实施例。
图2示出了被配置为解码、处理和呈现沉浸式视频的系统的特定实施例。该系统包括沉浸式视频呈现设备10、传感器20、用户输入设备30、计算机40和网关50(可选)。
如图10所示,沉浸式视频呈现设备10包括显示器10。显示器例如是OLED或LCD类型。沉浸式视频呈现设备10例如是HMD、平板电脑或智能手机。设备10可以包括触摸表面102(例如,触摸板或触觉屏幕)、相机103、与至少一个处理器104相连接的存储器105、和至少一个通信接口106。至少一个处理器104处理从传感器20接收的信号。
来自传感器的一些测量值被用于计算该设备的姿态并控制虚拟相机。用于姿态估计的传感器例如是陀螺仪、加速度计或罗盘。也可以使用例如使用一套相机的更复杂的系统。在这种情况下,至少一个处理器执行图像处理以估计设备10的姿态。根据环境条件或用户的反应,使用其他一些测量方法来处理内容。用于观察环境和用户的传感器例如是麦克风、光传感器或接触传感器。也可以使用更复杂的系统,例如,跟踪用户眼睛的摄像机。在这种情况下,至少一个处理器执行图像处理以操作预期的测量。来自传感器20和用户输入设备30的数据也可以传输到计算机40,计算机40将根据这些传感器的输入来处理数据。
存储器105包括处理器104的参数和代码程序指令。存储器105还可以包括从传感器20和用户输入设备30接收的参数。通信接口106使得沉浸式视频呈现设备能够与计算机40通信。处理设备的通信接口106可以是有线接口(例如,总线接口、广域网接口、局域网接口)或无线接口(例如,IEEE 802.11接口或
Figure BDA0002415761210000071
接口)。
计算机40向沉浸式视频呈现设备10发送数据和可选地发送控制命令。计算机40负责处理数据,即准备它们以供沉浸式视频呈现设备10显示。处理可以专门由计算机40来完成,或者部分处理可以由计算机来完成,并且部分处理可以由沉浸式视频呈现设备10来完成。计算机40直接地或通过网关或网络接口50连接到互联网。计算机40从互联网接收表示沉浸式视频的数据,处理这些数据(例如,解码它们,并且可能准备将由沉浸式视频呈现设备10显示的部分视频内容),并且将处理后的数据发送到沉浸式视频呈现设备10以供显示。在另一个实施例中,系统还可以包括本地存储器(未示出),其中存储表示沉浸式视频的数据,所述本地存储装置可以在计算机40上或者在例如通过局域网可访问的本地服务器(未示出)上。
图3表示第二实施例。在该实施例中,STB 90直接地(即STB 90包括网络接口)或经由网关50连接到诸如互联网的网络。STB 90通过无线接口或通过有线接口连接到呈现设备,诸如电视机100或沉浸式视频呈现设备200。除了STB的传统功能之外,STB 90还包括处理功能,以处理视频内容,用于在电视机100或任何沉浸式视频呈现设备200上呈现。这些处理功能与针对计算机40描述的功能相同,这里不再描述。传感器20和用户输入设备30也与前面参考图2描述的类型相同。STB 90从互联网获得表示沉浸式视频的数据。在另一个实施例中,STB 90从其中存储有表示沉浸式视频的数据的本地存储装置(未示出)获得表示沉浸式视频的数据。
图4表示与图2所示实施例相关的第三实施例。游戏控制台60处理内容数据。游戏控制台60向沉浸式视频呈现设备10发送数据和可选地发送控制命令。游戏控制台60被配置为处理表示沉浸式视频的数据,并将处理后的数据发送到沉浸式视频呈现设备10以供显示。处理可以专门由游戏控制台60完成,或者部分处理可以由沉浸式视频呈现设备10完成。
游戏控制台60直接地或通过网关或网络接口50连接到互联网。游戏控制台60从互联网获得表示沉浸式视频的数据。在另一个实施例中,游戏控制台60从其中存储有表示沉浸式视频的数据的本地存储装置(未示出)获得表示沉浸式视频的数据,所述本地存储装置可以在游戏控制台60上或者在例如通过局域网可访问的本地服务器(未示出)上。
游戏控制台60从互联网接收表示沉浸式视频的数据,处理这些数据(例如,解码它们,并且可能准备将要显示的部分视频),并且将处理后的数据发送到沉浸式视频呈现设备10以供显示。游戏控制台60可以从传感器20和用户输入设备30接收数据,并且可以使用它们来处理表示从互联网或从本地存储装置获得的沉浸式视频的数据。
图5表示所述第一类型系统的第四实施例,其中沉浸式视频呈现设备70由插入外壳705中的智能手机701形成。智能手机701可以连接到互联网,因此可以从互联网获得表示沉浸式视频的数据。在另一个实施例中,智能手机701从其中存储有表示沉浸式视频的数据的本地存储装置(未示出)获得表示沉浸式视频的数据,所述本地存储装置可以在智能手机701上或者在例如通过局域网可访问的本地服务器(未示出)上。
参考图11描述沉浸式视频呈现设备70,其给出了沉浸式视频呈现设备70的优选实施例。它可选地包括至少一个网络接口702和智能手机701的外壳705。智能手机701包括智能手机和显示器的所有功能。智能手机的显示器被用作沉浸式视频呈现设备70的显示器。因此,除了智能手机701的显示器之外,不包括任何显示器。然而,包括光学器件704(诸如透镜)以用于在智能手机显示器上看到数据。智能手机701被配置为可能根据从传感器20和用户输入设备30接收的数据来处理(例如,解码并准备以供显示)表示沉浸式视频的数据。来自传感器的一些测量值被用于计算设备的姿态并控制虚拟相机。用于姿态估计的传感器例如是陀螺仪、加速度计或罗盘。也可以使用例如使用一套相机的更复杂的系统。在这种情况下,至少一个处理器执行图像处理以估计设备10的姿态。根据环境条件或用户的反应,使用其他一些测量方法来处理内容。用于观察环境和用户的传感器例如是麦克风、光传感器或接触传感器。也可以使用更复杂的系统,例如,跟踪用户眼睛的摄像机。在这种情况下,至少一个处理器执行图像处理以操作预期的测量。
图6表示所述第一类型系统的第五实施例,其中沉浸式视频呈现设备80包括用于处理和显示数据内容的所有功能。该系统包括沉浸式视频呈现设备80、传感器20和用户输入设备30。沉浸式视频呈现设备80被配置为可能根据从传感器20和用户输入设备30接收的数据来处理(例如,解码并准备以供显示)表示沉浸式视频的数据。沉浸式视频呈现设备80可以连接到互联网,因此可以从互联网获得表示沉浸式视频的数据。在另一个实施例中,沉浸式视频呈现设备80从其中存储有表示沉浸式视频的数据的本地存储装置(未示出)获得表示沉浸式视频的数据,所述本地存储装置可以在呈现设备80上或者在例如通过局域网可访问的本地服务器(未示出)上。
沉浸式视频呈现设备80在图12中示出。沉浸式视频呈现设备包括显示器801。显示器可以是例如OLED或LCD类型。设备80可以包括触摸表面(可选)802(例如,触摸板或触觉屏幕)、相机(可选)803、与至少一个处理器804相连接的存储器805和至少一个通信接口806。存储器805包括处理器804的参数和代码程序指令。存储器805还可以包括从传感器20和用户输入设备30接收的参数。存储器也可以足够大以存储表示沉浸式视频内容的数据。为此,可以存在若干种类型的存储器,并且存储器805可以是单个存储器或者可以是若干种类型的存储装置(SD卡、硬盘、易失性或非易失性存储器……)。通信接口806使得沉浸式视频呈现设备能够与互联网通信。处理器804处理表示视频的数据,以便在显示器801上显示它们。相机803捕获环境的图像以进行图像处理步骤。从该步骤中提取数据,以便控制沉浸式视频呈现设备。
图7至图9示出了用于处理增强现实、虚拟现实或增强虚拟内容的第二系统。这种系统包括沉浸式墙壁。
图7表示第二种类型的系统。它包括显示器1000,该显示器1000是从计算机4000接收数据的沉浸式(投影)墙壁。计算机4000可以从互联网接收沉浸式视频数据。计算机4000通常直接地或通过网关5000或网络接口连接到互联网。在另一个实施例中,沉浸式视频数据由计算机4000从其中存储有表示沉浸式视频的数据的本地存储装置(未示出)获得,所述本地存储装置可以在计算机4000中或者在例如通过局域网可访问的本地服务器(未示出)中。
该系统还可以包括传感器2000和用户输入设备3000。沉浸式墙壁1000可以是OLED或LCD类型。它可以配备一个或多个相机。沉浸式墙壁1000可以处理从传感器2000(或多个传感器2000)接收的数据。从传感器2000接收的数据可以与照明条件、温度、用户环境(例如,对象的位置)相关。
沉浸式墙壁1000还可以处理从用户输入设备3000接收的数据。用户输入设备3000发送诸如触觉信号的数据,以便给出关于用户情绪的反馈。用户输入设备3000的示例是手持设备,诸如智能手机、遥控器和带有陀螺仪功能的设备。
传感器2000和用户输入设备3000的数据也可以传输到计算机4000。计算机4000可以根据从这些传感器/用户输入设备接收的数据来处理视频数据(例如,解码它们并准备它们以供显示)。传感器信号可以通过沉浸式墙壁的通信接口接收。该通信接口可以是蓝牙类型、WiFi类型或任何其他类型的连接,优选地是无线连接,但也可以是有线连接。
计算机4000向沉浸式墙壁1000发送处理后的数据和可选地发送控制命令。计算机4000被配置为处理数据,即准备它们以供显示,以由沉浸式墙壁1000显示。处理可以专门由计算机4000来完成,或者部分处理可以由计算机4000来完成,并且部分处理可以由沉浸式墙壁1000来完成。
图8表示第二种类型的另一个系统。它包括沉浸式(投影)墙壁6000,其被配置为处理(例如,解码和准备数据以供显示)和显示视频内容。它还包括传感器2000、用户输入设备3000。
沉浸式墙壁6000通过网关5000从互联网或者直接地从互联网接收沉浸式视频数据。在另一个实施例中,沉浸式视频数据由沉浸式墙壁6000从其中存储有表示沉浸式视频的数据的本地存储装置(未示出)获得,所述本地存储装置可以在沉浸式墙壁6000中或者在例如通过局域网可访问的本地服务器(未示出)中。
该系统还可以包括传感器2000和用户输入设备3000。沉浸式墙壁6000可以是OLED或LCD类型。它可以配备一个或多个相机。沉浸式墙壁6000可以处理从传感器2000(或多个传感器2000)接收的数据。从传感器2000接收的数据可以与照明条件、温度、用户环境(例如,对象的位置)相关。
沉浸式墙壁6000还可以处理从用户输入设备3000接收的数据。用户输入设备3000发送诸如触觉信号的数据,以便给出关于用户情绪的反馈。用户输入设备3000的示例是手持设备,诸如智能手机、遥控器和带有陀螺仪功能的设备。
沉浸式墙壁6000可以根据从这些传感器/用户输入设备接收的数据来处理视频数据(例如,解码它们并准备它们以供显示)。传感器信号可以通过沉浸式墙壁的通信接口接收。该通信接口可以是蓝牙类型、WiFi类型或任何其他类型的连接,优选地是无线连接,但也可以是有线连接。沉浸式墙壁6000可以包括至少一个通信接口,以与传感器和互联网通信。
图9示出了第三实施例,其中沉浸式墙壁用于游戏。一个或多个游戏控制台7000优选地通过无线接口连接到沉浸式墙壁6000。沉浸式墙壁6000通过网关5000从互联网或者直接地从互联网接收沉浸式视频数据。在另一个实施例中,沉浸式视频数据由沉浸式墙壁6000从其中存储有表示沉浸式视频的数据的本地存储装置(未示出)获得,所述本地存储装置可以在沉浸式墙壁6000中或者在例如通过局域网可访问的本地服务器(未示出)中。
游戏控制台7000向沉浸式墙壁6000发送指令和用户输入参数。沉浸式墙壁6000可能根据从传感器2000和用户输入设备3000以及游戏控制台7000接收的输入数据来处理沉浸式视频内容,以便准备内容以供显示。沉浸式墙壁6000还可以包括内部存储器来存储要显示的内容。
在一个实施例中,考虑全向视频以能够将周围3D表面S投影到标准矩形帧F上的格式来表示,该标准矩形帧F以适合视频编解码器的格式来表示。各种投影可以被用于将3D表面投影到2D表面。例如,图13A示出了使用等矩形投影将示例性球表面S映射到2D帧F,并且图13B示出了使用立方体映射将示例性立方体表面映射到2D帧。其他映射,诸如金字塔、二十面体或八面体映射,可以被用于将3D表面映射到2D帧中。
然后,可以使用现有的视频编码器(例如,符合VP9、AV1、MPEG-2、H.264/AVC或H.265/HEVC的编码器)对2D帧F进行编码。还可以用适合于全向视频性质的编码器对2D帧F进行编码,例如,使用适合的VP9、VP10、MPEG-2、H.264/AVC或H.265/HEVC编码器。在编码和解码之后,解码的2D帧可以被映射回对应的3D表面,例如,用于等矩形映射的球体或者用于立方体映射的立方体。然后,可以将3D表面投影到对应于用户视点的“虚拟屏幕”上,以便获得最终呈现帧。解码2D帧并从3D表面投影到呈现帧的步骤可以合并成单个步骤,其中解码的帧的一部分被映射到呈现帧。
为了便于记法,可以将解码的2D帧也称为“F”,并且在呈现中使用的3D表面也称为S。应当理解,由于视频压缩,要编码的2D帧和要解码的2D帧可能不同,并且预处理中的3D表面和呈现中的3D表面也可能不同。术语“映射”和“投影”可以互换使用,术语“像素”和“样点”可以互换使用,并且术语“帧”和“图片”可以互换使用。
将三维(3D)表面映射到矩形表面的问题首先针对全向视频的典型布局(等矩形布局)进行了描述,但是一般原理适用于从3D表面S到矩形帧F的任何映射。相同的原理可以应用于例如立方体映射布局。
在图15A和图15B中,我们示出了对象在场景中沿直线移动及在帧中产生的明显运动的示例,如虚线所示。右侧示出了任意预测单元(PU)分割的最终运动矢量。可以注意到,即使运动在呈现出的图像中是完全直的,要编码的帧也显示非均匀的运动矢量。
由于运动矢量预测量是使用周围的运动矢量形成的,所以可用于预测块D的运动矢量的预测量是不合适的。例如,在右图中,根据块A、块B或块C的运动来预测块D的运动可能不合适。
根据图16中的符号,从邻近运动矢量推导运动矢量预测量的近似过程如下,图16示出了从帧坐标系到呈现的帧,然后从呈现的帧到编码器帧的映射:
-P是当前CU的中心点,我们想要为其预测运动矢量
-V是邻近CU的中心点,我们根据其来预测运动矢量
-dV是与邻近CU相关联的运动矢量
1-计算V’=3d(V),W’=3d(V+dV),dV’=W’-V’
2-计算P’=3d(P)和Q’=P’+dV’
3-计算Q=3d-1(Q’)
4-计算预测的运动矢量dP=Q-P
产生对运动矢量预测量的更精确的推导的另一种变型如下:
-P是当前CU的中心点,我们想要为其预测运动矢量
-V是CU的中心点,我们根据其来预测运动矢量
-dW是与邻近CU相关联的运动矢量
1-计算P”=3d(P),注意P”是一元化的,并定义垂直于方向P”、穿过P”的平面F,
2-计算V”=3d(V)
3-计算V”在平面F上的投影
Figure BDA0002415761210000121
4-计算W=V+dV
5-计算W”=3d(W)
6-计算W”在平面F上的投影
Figure BDA0002415761210000131
7-计算运动矢量在平面F上的投影dVp=Wp-Vp
8-计算Q”=Qp=Pp+dVp=P”+dVp
9-计算Q=3d-1(Q)
10-计算最终运动矢量dP=Q-P
定义:
3d:M(x,y)→M″(X,Y,Z)
Figure BDA0002415761210000132
其中
Figure BDA0002415761210000133
Figure BDA0002415761210000134
其中w和h是图像宽度和高度,并且x和y是像素坐标。
像素坐标在这里是浮点的,即:
Figure BDA0002415761210000135
其中,
Figure BDA0002415761210000136
是整数像素坐标。
反函数被定义为:
3d-1:M"(X,Y,Z)→M(x,y)
Figure BDA0002415761210000137
其中
Figure BDA0002415761210000138
Figure BDA0002415761210000139
由所描述的实施例解决的一个问题是适应于ERP映射的运动矢量预测,尽管一般方面也可以应用于其他映射。
在HEVC中,或者在实验模型联合探索模型(Joint Exploration Mode,JEM)中,运动矢量预测量可以是两种类型。空域预测来自于要处理的当前块的因果邻域中的邻近块。在(A)TMVP((高级)时域运动矢量预测)或单向帧速率上转换(FRUC/UniDir)中使用的时域预测量来自于已经解码的另一个参考帧的块(见图18中的180)。
所描述的实施例处理由运动矢量的重新缩放引起的问题。HEVC标准描述了时域运动缩放,其中预测量被缩放以考虑当前帧和参考帧之间的时间差。在图17中,将时间t=1处的帧视为要处理的当前帧,将时间t=0处的帧视为要解码/编码的当前块B1的参考帧,将时间t=3处的帧视为包含用于块B1的时域运动矢量预测的块B3的帧,并且将时间t=0处的帧视为块B3的运动矢量的参考帧,将运动矢量按因子1/3缩小以考虑帧定时。在ERP转换过程中,需要考虑到这种缩小。
对于高级运动矢量预测(AMVP),如果预测块的参考图片与当前块的参考图片不同,则可以以相同的方式重新缩放运动矢量。
类似地,在ATMVP(-EXT)的情况下,执行若干次重新缩放,以从空域邻居计算初始“时域运动矢量”,并适配(adapt)共位的子PU运动矢量的缩放比例。
所描述的实施例可以发生在例如运动补偿过程期间(图18的编码器中的170和图19的解码器中的375)。更具体地,该过程可以发生在(多个)运动矢量预测阶段期间。
图20示出了运动补偿过程的更详细视图。例如,JEM软件具有以下特征。对于运动矢量预测,取决于模式,来自空域邻近块和时域块的一个或多个预测量是可用的。如果未使用MERGE或SKIP模式,则发送运动矢量残差以细化预测量。如果使用FRUC模式或BIO,则初始运动矢量被细化。如果使用FRUC或仿射模式,则每一子块的运动矢量被推导出或被细化。
在ATMVP和ATMP-EXT(高级时域运动矢量预测量(ATMVP)的扩展)中,运动矢量预测过程可以被概括为:
1-找到具有运动矢量的空域邻居。
2-以与对TMVP运动矢量预测量相同的方式重新缩放此预测量。
3-使用该时域运动矢量从当前块的运动补偿后的共位的子块中找到时域运动矢量。
在ATMVP-EXT中,运动矢量被进一步处理,以与空域运动矢量预测量进行平均。
当前实施例改变运动矢量预测过程。所描述的实施例允许改进变换后的ERP运动矢量,从而改进整个视频压缩方案的性能。
基于上述应用中描述的推理,可以注意到运动矢量预测量的几何自适应对于较小的矢量更有效。这里提出基于应用于运动矢量预测量的缩放因子来执行缩放和变换过程的转换。
在一个实施例中,例如,如果缩放因子小于或等于1,则首先进行重新缩放,然后进行运动矢量变换。如果不是,则首先进行转换,然后进行缩放。
在另一个实施例中,缩放总是首先完成。基本原理是,对于随机存取模式中的常规GOP结构,运动矢量更可能被缩小(缩放因子小于1)而不是被放大。可以使用其他缩放因子值。
在图21中,ERP运动矢量变换是在所述应用中描述的。请注意,该过程可以应用于AMVP、TMVP、ATMVP、ATMVP-EXT或FRUC/UniDir的运动矢量重新缩放。对于AMVP,预测量和当前块时间索引是相同的。对于ATMVP初始“时间矢量”,预测量和当前块时间索引是相同的。对于ATMVP和ATMVP-EXT,共位的子PU运动矢量预测量也被重新缩放。
图22示出了所描述的方面中的方法2200的一个实施例。该方法从开始框2201开始,并且控制进行到框2210,用于计算图片块的运动矢量预测量的缩放因子。控制从框2210前进到框2220,用于基于缩放因子按顺序对运动矢量预测量执行运动矢量重新缩放和运动矢量变换。控制然后从框2220前进到框2230,用于使用经变换和重新缩放的运动矢量预测量对图片块执行运动补偿。控制然后从框2230前进到框2240,用于对运动补偿的视频数据块进行编码。
图23示出了所描述的方面下的方法2300的一个实施例。该方法从开始框2301开始,控制进行到框2310,用于计算图片块的运动矢量预测量的缩放因子。控制从框2310前进到框2320,用于基于缩放因子按顺序对运动矢量预测量执行运动矢量重新缩放和运动矢量变换。控制然后从框2320前进到框2330,用于使用经变换和重新缩放的运动矢量预测量对图片块执行运动补偿。控制然后从框2330前进到框2340,用于对运动补偿的视频数据块进行编码。
图24示出了用于编码或解码视频数据块的装置2400的一个实施例。该装置包括处理器2410,其具有输入和输出端口,并且与也具有输入和输出端口的存储器2420以信号连接。该装置可以执行任何前述方法实施例或变型。
图中所示的各种元件的功能可以使用专用硬件以及能够运行与适当软件相关联的软件的硬件来提供。当由处理器提供时,功能可以由单个专用处理器、单个共享处理器或多个单独的处理器提供,其中一些处理器可以被共享。此外,术语“处理器”或“控制器”的显式使用不应被解释为专门指能够运行软件的硬件,并且可以隐含地包括但不限于数字信号处理器(“DSP”)硬件、用于存储软件的只读存储器(“ROM”)、随机存取存储器(“RAM”)和非易失性存储器。
也可以包括传统的和/或定制的其他硬件。类似地,图中所示的任何开关都只是概念性的。它们的功能可以通过程序逻辑的操作、通过专用逻辑、通过程序控制和专用逻辑的交互或者甚至手动来实现,具体技术可以由实施者选择,如从上下文中更具体地理解的。
本描述说明了本原理。因此,应当理解,本领域的技术人员将能够设计各种布置,尽管在此没有明确描述或示出,但是这些布置体现了本发明的原理,并且被包括在其范围内。
本文所列举的所有示例和条件语言都是为了教学目的,以帮助读者理解本发明的原理和发明人为推进本领域所贡献的概念,并被解释为不限于这些具体列举的示例和条件。
此外,本文列举本原理的原理、方面和实施例的所有陈述,以及其具体示例,都意图涵盖其结构和功能等同物。此外,这种等同物意图包括当前已知的等同物以及将来开发的等同物,即无论结构如何,开发的执行相同功能的任何元件。
因此,例如,本领域技术人员将会理解,本文呈现的框图表示体现本原理的说明性电路的概念图。类似地,将会理解,任何流程图表、流程图、状态转换图、伪代码等表示可以基本上在计算机可读介质中表示并由计算机或处理器执行的各种过程,无论是否明确示出了这样的计算机或处理器。
在其权利要求中,表示为用于执行特定功能的装置的任何元件意图涵盖执行该功能的任何方式,包括例如a)执行该功能的电路元件的组合,或者b)任何形式的软件,因此包括固件、微码等,与用于运行该软件以执行该功能的适当电路相结合。由这样的权利要求定义的本原理在于这样的事实,即由各种列举的装置提供的功能以权利要求所要求的方式被组合和集合在一起。因此,可以认为能够提供这些功能的任何装置都等同于本文所示的那些装置。
说明书中对本原理的“一个实施例”或“实施例”以及其其他变型的引用意味着结合该实施例描述的特定特征、结构、特性等被包括在本原理的至少一个实施例中。因此,在整个说明书的不同地方出现的短语“在一个实施例中”或“在实施例中”以及任何其他变型不一定都指同一实施例。
总之,提出了一种用于适应于全向视频的适应运动矢量预测的方法和装置。一个实施例改进了对时域运动矢量预测量或重新缩放的运动矢量预测量的处理。另一个实施例适用于空域运动矢量预测量,另一个实施例适用于时域或空域运动矢量预测量的组合。该方法分析从预测量的时间索引、参考图像的预测量的时间索引、参考图像的当前块的时间索引和当前块的时间索引中的至少一个推导出的缩放因子。例如,如果缩放因子大于1,则在运动矢量重新缩放之前执行运动矢量变换。然而,如果缩放因子小于或等于1,则在运动矢量变换之前执行运动矢量重新缩放。

Claims (15)

1.一种方法,包括:
计算图片的块的运动矢量预测量的缩放因子;
基于所述缩放因子,按顺序对所述运动矢量预测量执行运动矢量重新缩放和运动矢量变换;以及,
使用经变换和重新缩放的运动矢量预测量对块执行运动补偿;以及,
对运动补偿后的图片的块进行编码。
2.一种方法,包括:
计算图片的块的运动矢量预测量的缩放因子;
基于所述缩放因子,按顺序对所述运动矢量预测量执行运动矢量重新缩放和运动矢量变换;以及,
使用经变换和重新缩放的运动矢量预测量对所述块执行运动补偿;以及,
对运动补偿后的图片的块进行解码。
3.一种用于编码视频数据块的装置,包括:
存储器,和
处理器,被配置为执行:
计算图片的块的运动矢量预测量的缩放因子;
基于所述缩放因子,按顺序对所述运动矢量预测量执行运动矢量重新缩放和运动矢量变换;并且,
使用经变换和重新缩放的运动矢量预测量对所述块执行运动补偿;并且,
对运动补偿后的图片的块进行编码。
4.一种用于解码视频数据块的装置,包括:
存储器,和
处理器,被配置为执行:
计算图片的块的运动矢量预测量的缩放因子;
基于所述缩放因子,按顺序对所述运动矢量预测量执行运动矢量重新缩放和运动矢量变换;并且,
使用经变换和重新缩放的运动矢量预测量对所述块执行运动补偿;并且,
对运动补偿后的图片的块进行解码。
5.根据权利要求1或2所述的方法,或者根据权利要求3或4所述的装置,其中,对于大视场视频,所述大视场视频的至少一个图片被表示为使用投影函数投影到至少一个二维图片上的三维表面,所述运动矢量变换包括:
在三维表面上将所述块的点P投影到点P”’,将另一个块的点V投影到点V”’,并且将所述另一个块的点V移位运动矢量(dV)到点W”’;
确定矢量OV”’和平面G之间的交点Vp以及矢量OW”’和平面G之间的交点Wp,其中平面G是在P”’处与表面相切的平面,O是球体的原点;
将P”’移位dVp,以获得平面G中的点Qp,其中dVp等于矢量VpWp;
将所述图片中的点Qp投影到点Q;以及
将所述块的当前运动矢量(dP)确定为从P到Q的矢量。
6.根据权利要求1或2所述的方法,或者根据权利要求3或4所述的装置,其中,对于大视场视频,所述大视场视频的至少一个图片被表示为使用投影函数投影到至少一个二维图片上的三维表面,所述运动矢量变换包括:
在投影空间中计算使用所述运动矢量预测量而进行的对所述块的至少一个点的移位,获得所述投影空间中的移位点;
将所述移位点投影到所述图片上;以及
计算调整后的运动矢量预测量,作为投影后的移位点在图片上的位置和所述当前块的所述点之间的差;
将所述运动矢量预测量应用于所述图片的锚点,以获得移位的锚点;
将所述块的点、所述锚点和所述移位的锚点投影到所述投影空间上;以及
在所述投影空间中计算投影的运动矢量预测量,作为投影的移位的锚点和所述投影的锚点之间的差,在所述投影空间中计算使用所述投影的运动矢量预测量执行的对所述块的至少一个点的移位。
7.根据权利要求1或2所述的方法,或者根据权利要求3或4所述的装置,其中,所述缩放因子基于所述预测量的时间索引、参考图像预测量的时间索引、参考图像当前块的时间索引和当前块的时间索引。
8.根据权利要求1或2所述的方法,或者根据权利要求3或4所述的装置,其中,所述运动矢量预测量来自所述块的空域邻近块。
9.根据权利要求1或2所述的方法,或者根据权利要求3或4所述的装置,其中,所述运动矢量预测量来自于已经解码或重构的参考帧的块。
10.根据权利要求1或2所述的方法,或者根据权利要求3或4所述的装置,其中,当所述缩放因子小于或等于1时,在所述运动矢量变换之前,对所述运动矢量预测量执行所述运动矢量重新缩放。
11.根据权利要求1或2所述的方法,或者根据权利要求3或4所述的装置,其中,当所述缩放因子大于1时,在所述运动矢量变换之后,对所述运动矢量预测量执行所述运动矢量重新缩放。
12.根据权利要求1或2所述的方法,或者根据权利要求3或4所述的装置,其中,对于高级时域运动矢量预测,共位的子预测单元运动矢量预测量也进行重新缩放。
13.一种非暂时性计算机可读介质,包含根据权利要求1和5至12中任一项所述的方法或者由根据权利要求3和5至12中任一项所述的装置生成的数据内容,以用于使用处理器进行回放。
14.一种信号,包括根据权利要求1和5至12中任一项所述的方法或者由根据权利要求3和5至12中任一项所述的装置生成的视频数据,以用于使用处理器进行回放。
15.一种包括指令的计算机程序产品,当程序由计算机执行时,使得计算机执行根据权利要求2和5至12中任一项所述的方法。
CN201880060512.3A 2017-09-18 2018-09-14 适应于全向视频的运动矢量预测量的方法和装置 Active CN111108751B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP17306198.7 2017-09-18
EP17306198.7A EP3457695A1 (en) 2017-09-18 2017-09-18 Method and apparatus for motion vector predictor adaptation for omnidirectional video
PCT/US2018/051081 WO2019055782A1 (en) 2017-09-18 2018-09-14 METHOD AND APPARATUS FOR ADAPTATION OF MOTION VECTOR PREDICTOR FOR OMNIDIRECTIONAL VIDEO

Publications (2)

Publication Number Publication Date
CN111108751A true CN111108751A (zh) 2020-05-05
CN111108751B CN111108751B (zh) 2024-04-16

Family

ID=60001808

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201880060512.3A Active CN111108751B (zh) 2017-09-18 2018-09-14 适应于全向视频的运动矢量预测量的方法和装置

Country Status (5)

Country Link
US (1) US11076166B2 (zh)
EP (2) EP3457695A1 (zh)
KR (1) KR20200053498A (zh)
CN (1) CN111108751B (zh)
WO (1) WO2019055782A1 (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020004990A1 (ko) * 2018-06-27 2020-01-02 엘지전자 주식회사 인터 예측 모드 기반 영상 처리 방법 및 이를 위한 장치

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030138049A1 (en) * 2002-01-23 2003-07-24 Samsung Electronics Co., Ltd. Video reproduction apparatus with fast post-processing and method thereof
EP1443771A2 (en) * 2003-02-03 2004-08-04 Samsung Electronics Co., Ltd. Video encoding/decoding method and apparatus based on interlaced frame motion compensation
CN104170381A (zh) * 2012-03-16 2014-11-26 高通股份有限公司 在高效率视频译码及其扩展中的运动矢量译码及双向预测
CN105308965A (zh) * 2013-04-12 2016-02-03 诺基亚技术有限公司 用于3d视频编码的协调视图间和视图合成预测
WO2016076680A1 (en) * 2014-11-14 2016-05-19 Samsung Electronics Co., Ltd. Coding of 360 degree videos using region adaptive smoothing

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101752418B1 (ko) 2010-04-09 2017-06-29 엘지전자 주식회사 비디오 신호 처리 방법 및 장치
KR101712156B1 (ko) 2010-12-06 2017-03-06 에스케이 텔레콤주식회사 임의의 형태의 블록을 이용한 인터예측에 의한 영상의 부호화/복호화 방법 및 장치
US9288501B2 (en) 2011-03-08 2016-03-15 Qualcomm Incorporated Motion vector predictors (MVPs) for bi-predictive inter mode in video coding
US9124899B2 (en) 2012-09-28 2015-09-01 Sharp Laboratories Of America, Inc. Motion derivation and coding for scaling video
JP6301933B2 (ja) * 2012-10-01 2018-03-28 ジーイー ビデオ コンプレッション エルエルシー 空間内部予測パラメータの中間層予測を使用するスケーラブルビデオ符号化
BR112015015575A2 (pt) 2013-01-30 2020-02-04 Intel Corp particionamento adaptativo ao conteúdo para a previsão e codificação para vídeo da próxima geração
US20140301463A1 (en) * 2013-04-05 2014-10-09 Nokia Corporation Method and apparatus for video coding and decoding
US9917877B2 (en) * 2014-10-20 2018-03-13 Google Llc Streaming the visible parts of a spherical video
US9918082B2 (en) * 2014-10-20 2018-03-13 Google Llc Continuous prediction domain
WO2016068674A1 (ko) * 2014-10-31 2016-05-06 삼성전자 주식회사 움직임 벡터 부복호화 방법 및 장치
CN109644279B (zh) * 2016-09-02 2023-09-22 Vid拓展公司 用于用信号通知360度视频信息的方法和系统

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030138049A1 (en) * 2002-01-23 2003-07-24 Samsung Electronics Co., Ltd. Video reproduction apparatus with fast post-processing and method thereof
EP1443771A2 (en) * 2003-02-03 2004-08-04 Samsung Electronics Co., Ltd. Video encoding/decoding method and apparatus based on interlaced frame motion compensation
CN104170381A (zh) * 2012-03-16 2014-11-26 高通股份有限公司 在高效率视频译码及其扩展中的运动矢量译码及双向预测
CN105308965A (zh) * 2013-04-12 2016-02-03 诺基亚技术有限公司 用于3d视频编码的协调视图间和视图合成预测
WO2016076680A1 (en) * 2014-11-14 2016-05-19 Samsung Electronics Co., Ltd. Coding of 360 degree videos using region adaptive smoothing

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
GEERT VAN DER AUWERA, MUHAMMED: "AHG8: ACP with padding for 360-degree video", 《JOINT VIDEO EXPLORATION TEAM (JVET)》 *
JILL BOYCE: "HEVC Additional Supplemental Enhancement Information (Draft 3)", 《JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC)》 *
LAROCHE G ET AL: "RD Optimized Coding for Motion Vector Predictor Selection", 《IEEE TRANSACTIONS ON CIRCUITS AND SYSTEMS FOR VIDEO TECHNOLOGY》 *
PHILIPPE HANHART, XIAOYU XIU, FANYI: "InterDigital’s Response to the 360º Video Category in Joint Call for Evidence on Video Compression with Capability beyond HEVC", 《JOINT VIDEO EXPLORATION TEAM (JVET)》 *
YAN YE: "Algorithm descriptions of projection format conversion and video quality metrics in 360Lib Version 4", 《JOINT VIDEO EXPLORATION TEAM (JVET)》 *

Also Published As

Publication number Publication date
EP3457695A1 (en) 2019-03-20
CN111108751B (zh) 2024-04-16
US11076166B2 (en) 2021-07-27
EP3685582A1 (en) 2020-07-29
WO2019055782A1 (en) 2019-03-21
US20200275110A1 (en) 2020-08-27
KR20200053498A (ko) 2020-05-18

Similar Documents

Publication Publication Date Title
JP7043148B2 (ja) 適応型イントラ最確モードを用いた全方位映像符号化のための方法および装置
EP3520413A1 (en) Method and apparatus for omnidirectional video coding and decoding with adaptive intra prediction
US20190281319A1 (en) Method and apparatus for rectified motion compensation for omnidirectional videos
US11812066B2 (en) Methods, devices and stream to encode global rotation motion compensated images
US20190238853A1 (en) Method and apparatus for encoding and decoding an omnidirectional video
EP3301933A1 (en) Methods, devices and stream to provide indication of mapping of omnidirectional images
CN111448799A (zh) 全向视频切片段
US11653014B2 (en) Method and apparatus for encoding and decoding an omnidirectional video
CN111108751B (zh) 适应于全向视频的运动矢量预测量的方法和装置
US20200236370A1 (en) Method and apparatus for coding of omnidirectional video
EP3698543A1 (en) Stereo omnidirectional frame packing

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant