CN111373441B - 使用运动估计的随时间注视点渲染 - Google Patents
使用运动估计的随时间注视点渲染 Download PDFInfo
- Publication number
- CN111373441B CN111373441B CN201880075127.6A CN201880075127A CN111373441B CN 111373441 B CN111373441 B CN 111373441B CN 201880075127 A CN201880075127 A CN 201880075127A CN 111373441 B CN111373441 B CN 111373441B
- Authority
- CN
- China
- Prior art keywords
- image
- pixel
- pixels
- motion vector
- cell
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000009877 rendering Methods 0.000 title claims abstract description 97
- 239000013598 vector Substances 0.000 claims abstract description 111
- 238000000034 method Methods 0.000 claims description 40
- 238000012545 processing Methods 0.000 abstract description 19
- 230000000694 effects Effects 0.000 abstract description 8
- 230000000875 corresponding effect Effects 0.000 description 36
- 238000010586 diagram Methods 0.000 description 14
- 230000008859 change Effects 0.000 description 9
- 230000008901 benefit Effects 0.000 description 8
- 238000013461 design Methods 0.000 description 6
- 230000002123 temporal effect Effects 0.000 description 6
- 238000004519 manufacturing process Methods 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 238000011960 computer-aided design Methods 0.000 description 2
- 229910003460 diamond Inorganic materials 0.000 description 2
- 239000010432 diamond Substances 0.000 description 2
- 239000000945 filler Substances 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 239000000872 buffer Substances 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 239000011800 void material Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
- G06T15/205—Image-based rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/403—Edge-driven scaling; Edge-based scaling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/223—Analysis of motion using block-matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/005—General purpose rendering architectures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/77—Retouching; Inpainting; Scratch removal
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/136—Segmentation; Edge detection involving thresholding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/248—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20021—Dividing image into blocks, subimages or windows
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/08—Bandwidth reduction
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Computer Graphics (AREA)
- Computing Systems (AREA)
- Geometry (AREA)
- Image Analysis (AREA)
- Television Systems (AREA)
Abstract
一种处理系统[100],选择性地渲染图像的像素或像素块并且留下一些像素或像素块未渲染以节约资源。所述处理系统生成运动矢量场[125]以识别图像的具有移动区域的区域。所述处理系统使用渲染处理器[130]来将基于所述运动矢量场而几乎没有运动和具有大量边缘活动的那些单元识别为感兴趣区域,并且最小化这些区域中的未渲染像素或“空洞”的概率。为了避免显眼的图案,所述渲染处理器应用概率图[527]来确定可能的空洞位置,从而向每个单元分配指示所述单元内将成为空洞的像素的百分比的概率,并且向识别为感兴趣区域的单元分配较低概率。
Description
背景技术
计算机图形或图像渲染是计算系统基于计算机程序来显示图像的过程。包含关于场景中的对象的信息的场景文件传递到一个或多个处理单元,所述处理单元基于场景文件来渲染图像以进行显示。显示器包含像素阵列,每个像素是显示装置中的最小可寻址元素。渲染显示器的每个像素以生成高分辨率图像是计算上密集的。为了减少渲染工作负载,可通过留下“空洞”或未渲染像素来以较低分辨率渲染图像的一些区域。可通过改变复杂性的技术来“填充”空洞来尝试使空洞不太明显。然而,在查看者感兴趣的图像的区域处留下空洞的结果和填充空洞的方法可显著地损害图像质量。
附图说明
通过参考附图,可更好地理解本公开,并且本公开的许多特征和优点对本领域技术人员来说可显而易见。在不同的图中使用相同的参考符号表示类似或相同的项。
图1是根据一些实施方案的处理系统的框图,所述处理系统包括运动估计器引擎以生成运动矢量场来渲染随时间注视点图像。
图2是根据一些实施方案的图1的运动估计器引擎和渲染处理器的框图。
图3是根据一些实施方案的图2的运动估计器引擎的运动矢量场生成器的框图。
图4是根据一些实施方案的图2的渲染处理器的边缘检测器的框图。
图5是根据一些实施方案的图2的渲染处理器的概率图生成器的框图。
图6是根据一些实施方案的图2的渲染处理器的空洞内插器的框图。
图7是示出根据一些实施方案的用于生成空洞的概率图并且基于运动矢量场来识别用于填充空洞的值以渲染随时间注视点图像的方法的流程图。
具体实施方式
随时间注视点渲染可用于通过选择性地渲染图像的像素或像素块并且留下一些像素或像素块未渲染来减少处理系统上的计算工作负载。通过识别查看者对图像的哪些区域感兴趣,有可能以最高分辨率渲染预期查看者聚焦于的图像的那些区域(“中央凹区域”),并且在感兴趣区域之外选择用于“空洞”或未渲染像素的更多位置,使得它们对查看者来说不那么显眼。像素离感兴趣区域越远,空洞就越可能容忍可接受的质量。
处理系统使用运动估计器引擎来将先前渲染的图像分成一个或多个像素的单元并且生成识别具有移动区域的那些单元的运动矢量场。处理系统使用渲染处理器来将基于运动矢量场而几乎没有运动和具有大量边缘活动的那些单元识别为感兴趣区域,并且最小化这些区域中的空洞的概率。为了避免显眼的图案,渲染处理器应用概率图来确定可能的空洞位置,从而向每个单元分配指示单元内的将成为空洞的像素的百分比的概率。例如,如果运动估计器引擎识别出几乎没有移动的区域位于图像的右上象限,那么渲染处理器将应用识别空洞在图像的右上象限之外的概率更高的更多单元的概率图。以此方式,几乎没有运动和/或具有更高边缘活动的单元将具有更少的空洞。
运动估计器引擎检查两个最近的完全渲染的图像(被称为“N”图像和“N-1”图像),以创建测量先前两个图像的运动的运动矢量场。运动估计器引擎将N图像和N-1图像的每个单元或块进行比较以确定每个块的运动矢量。块是用于基于块的运动估计的均匀大小的一组像素。在一些实施方案中,不基于块的运动估计器引擎生成每像素或每组多个像素的运动矢量。基于对N图像和N-1图像的分析,运动估计器引擎生成运动矢量场,所述运动矢量场指示先前两个图像之间的运动区域、幅度和方向。
如果N图像和N-1图像足够地相关而得出结论:N图像是就在其前面的N-1图像的延续,那么渲染处理器假设运动矢量场是有效的(例如,没有场景变化)并且下一图像(被称为“N+1”图像)的单元将沿着相同的轨迹继续。渲染处理器还分析N图像的像素组并且识别N图像的哪些像素组包含边缘以及边缘的强度,并且它可计算其他相关度量。在一些实施方案中,渲染处理器分析的像素组不同于(即,在大小方面)运动估计器引擎所使用的分析组。在一些实施方案中,渲染处理器识别相邻的像素(即,边缘)之间的大于阈值的差异。基于运动矢量场、检测到的边缘和其他相关度量中的一个或多个,渲染处理器生成概率图,所述概率图指示N+1图像的单元或“图片区域”内的每个像素将是空洞的概率。在一些实施方案中,概率图的单元形成多个像素的块的均匀或非均匀网格。概率图的单元的大小不需要与基础度量所使用的单元的大小相关。概率图将较低空洞概率分配到被确定为包含大于第一阈值量或强度的边缘的那些单元,并且分配到具有小于第二阈值量的运动的区域。其他相关度量将降低包含空洞的单元的概率,因为该单元的重要性被认为更高。
在场景变化的情况下,运动矢量场没有提供有用的信息并且渲染处理器应用默认概率图。在一些实施方案中,默认概率图在N+1图像上分配均匀的概率。在一些实施方案中,默认概率图在图像的中间分配较低空洞概率密度并且接近图像的边缘分配较高空洞概率密度。
另外,渲染处理器识别应基于时间上相邻的图像来如何填充空洞以使空洞对查看者来说不太惹眼的预测器。因此,如果N+1图像包含空洞,那么渲染处理器(使用来自运动估计器引擎的运动矢量场)识别N图像的与N+1图像的空洞相对应的像素,并且使用来自可用像素的时空数据来填充空洞(被称为“时空”内插)。在一些实施方案中,渲染处理器另外地基于局部结构和时间变化来填充空洞。
然而,如果就在前面的图像具有低于阈值的时间相关性(例如,在场景变化的情况下),那么渲染处理器使用空间内插算法来填充空洞。在一些实施方案中,空间内插算法基于图像的空间上相邻的像素的局部平均值来填充空洞。在一些实施方案中,空间内插算法另外地基于检查局部结构来填充空洞。
图1是根据一些实施方案的处理系统100的框图,所述处理系统包括用于生成运动矢量场125的运动估计器引擎120和用于基于运动矢量场125来渲染随时间注视点图像135的渲染处理器130。处理系统100可结合在多种电子装置中的任一种中,诸如服务器、个人计算机、平板计算机、机顶盒、游戏系统等。运动估计器引擎120耦合到存储器110和渲染处理器130,所述渲染处理器将随时间注视点渲染的图像135提供到显示器140。渲染处理器130执行指令并将信息存储在存储器110中,诸如执行的指令的结果。例如,存储器110存储其从渲染处理器130接收到的多个先前渲染的图像(未示出)。在一些实施方案中,存储器110被实现为动态随机存取存储器(DRAM),并且在一些实施方案中,也使用其他类型的存储器来实现存储器110,包括静态随机存取存储器(SRAM)、非易失性RAM等。处理系统100的一些实施方案包括输入/输出(I/O)引擎(未示出),以用于处理与显示器140以及处理系统100的其他元件(诸如键盘、鼠标、打印机、外部磁盘等)相关联的输入或输出操作。
运动估计器引擎120被配置为从中央处理单元(CPU)(未示出)接收用于最近渲染的图像(N图像)105和第二最近渲染的图像(N-1图像)107的存储器位置。运动估计器引擎120将存储在存储器110处的顺序的先前渲染的图像105和107进行比较以生成运动矢量场125。
渲染处理器130接收由中央处理单元(CPU)(未示出)生成的指示渲染处理器130渲染当前(N+1)图像(未示出)的命令。渲染处理器130的一些实施方案包括独立地同时或并行执行指令的多个处理器核心(为清楚起见,未示出)。由CPU生成的命令的一些实施方案包括限定由渲染处理器130用来渲染N+1图像中的对象或其部分的纹理、状态、着色器、渲染对象、缓冲器等的信息。渲染处理器130渲染对象以产生提供到显示器140的像素值,所述显示器使用像素值来显示表示渲染的对象的图像。
为了便于更有效地渲染图像,渲染处理器130识别N图像105的边缘,并且基于识别的边缘和运动矢量场125来生成概率图,所述运动矢量场指示N+1图像的每个单元的在该单元内的像素将成为空洞的概率。渲染处理器130渲染N+1图像,从而基于概率图留下空洞。渲染处理器130还被配置为基于时间上或空间上相邻的单元来识别空洞的填充值。基于由运动估计器引擎120提供的运动矢量场125,渲染处理器130识别N图像的与N+1图像的空洞相对应的像素。如果N图像的对应的像素被渲染(即,没有空洞),那么渲染处理器130将N图像的对应的渲染的像素的值识别为用于使用“时空”内插方法(例如,基于时间行为和局部结构的方法)来填充N+1图像的空洞的值。如果N图像的对应的像素是空洞,或者如果N图像的对应的单元与当前图像的对应性低于阈值(例如,在场景变化的情况下),那么渲染处理器130基于在空间上与N+1图像的空洞相邻的像素的值来得出用于填充N+1图像的空洞的值(被称为“空间内插”)。在一些实施方案中,渲染处理器130基于简单平均值来进行空间内插。在一些实施方案中,渲染处理器130另外地基于局部结构来进行空间内插。
在操作中,运动估计器引擎120从CPU(未示出)接收N图像105和N-1图像107的存储器位置。运动估计器引擎120至少分析存储在存储器110处的N图像105和N-1图像107以生成估计N+1图像(未示出)的移动区域的运动矢量场125。运动矢量场125指示图像的每个单元的运动方向和/或幅度。运动估计器引擎120将运动矢量场125提供到渲染处理器130。
渲染处理器130从运动估计器引擎120接收运动矢量场125,并且还分析N图像105以识别对象的边缘。基于识别的边缘和由运动矢量场125指示的移动,渲染处理器130生成概率图(未示出),所述概率图指示N+1图像的每个单元的在该单元内的像素将成为空洞的概率值。在一些实施方案中,概率图指示被识别为具有高于平均量的边缘或者超过第一阈值的数量和/或强度的边缘的那些单元的较低空洞概率。在一些实施方案中,概率图指示被识别为几乎没有移动或者具有低于第二阈值的移动的那些单元的较低空洞概率。在一些实施方案中,第一阈值和第二阈值是固定的参数,并且在一些实施方案中,第一阈值和/或第二阈值是基于当前视频或其他系统参数而自适应的。如果N图像105和N-1图像107具有低于第三阈值的相关性(指示场景变化),那么渲染处理器应用默认概率图,所述默认概率图不依赖于运动矢量场125。
渲染处理器130渲染N+1图像,从而留下如由概率图指示的空洞。渲染处理器130还识别用作空洞的填充物的值。渲染处理器130使用识别的值来填充空洞以生成随时间注视点渲染的图像135。渲染处理器130将随时间注视点渲染的图像135提供到显示器140,所述显示器使用随时间注视点渲染的图像135的像素值来显示表示N+1图像的图像。渲染处理器130还将随时间注视点渲染的图像135的副本提供到存储器110,所述副本存储在所述存储器中,以便后续生成下一图像的运动补偿版本。
图2是根据一些实施方案的图1的处理系统100的运动估计器引擎220和渲染处理器230的框图。运动估计器引擎220输出运动矢量场225,所述运动矢量场由渲染处理器230用来生成随时间注视点渲染的N+1图像235。
运动估计器引擎220被配置为基于从比较存储在存储器210处的先前渲染的N图像205和N-1图像207得出的估计来生成运动矢量场225。运动估计器引擎220包括运动矢量场生成器255。运动矢量场生成器255被配置为估计连续图像中的对象的移动。运动估计假设在大多数情况下,连续图像将是类似的,不同在于由在图像内移动的对象引起的变化。为了估计运动,运动矢量场生成器255确定描述根据图像序列的相邻的图像从一个二维图像转换到另一个二维图像的运动矢量。运动矢量是提供从一个图像中的坐标到另一个图像中的坐标的偏移二维矢量。
运动矢量场生成器255将N图像205(最近渲染的图像)和N-1图像207(就在N图像之前渲染的图像)的对应的像素进行比较,以创建模拟两个图像之间的对象的移动的运动矢量场225。在一些实施方案中,运动矢量场生成器255采用块匹配算法,诸如穷举搜索、三步搜索、简单有效搜索、四步搜索、菱形搜索或者块匹配中使用的其他算法。如果N图像205与N-1图像207之间的比较指示图像之间的大变化,那么渲染处理器可确定N图像与N-1图像之间的时间相关性低于阈值。
渲染处理器230包括边缘检测器260、概率图生成器265、渲染器270和空洞内插器275。在一些实施方案中,边缘检测器260、概率图生成器265、渲染器270和空洞内插器275被实现为渲染处理器230上的着色器程序。在一些实施方案中,边缘检测器260、概率图生成器265、渲染器270和空洞内插器275中的一个或多个被实现为运动估计器引擎220中的固定功能硬件。
边缘检测器260被配置为基于由运动图生成器255生成的运动图来识别对象的边缘。边缘检测器260识别N图像205中的图像亮度变化超过阈值量的点。图像亮度的急剧变化可指示深度、表面定向、材料性质的不连续,或者场景照明的变化。边缘检测器260可检测指示N图像205中的对象的边界的连接边缘系列。由于对象的边界可能对应于感兴趣区域,因此N图像205的由边缘检测器260识别为包含边缘的那些部分被分配较低包含空洞概率,如本文所描述。
概率图生成器265被配置为生成用于空洞识别的概率图(未示出)。概率图向N+1图像(将要渲染的下一图像)(未示出)的区域分配指示每个区域的将包含空洞的像素的百分比的概率。概率图生成器265基于运动矢量场225和由边缘检测器260检测到的边缘来生成概率图。概率图生成器265将较低包含空洞概率分配到N+1图像的被识别为几乎没有运动和/或包含更多边缘的那些区域。在一些实施方案中,如果渲染处理器230确定N图像205与N-1图像207之间的时间相关性低于阈值,那么渲染处理器230将默认概率分配到N+1图像的每个区域。
渲染器270被配置为渲染N+1图像,从而留下如由概率图指示的空洞。在一些实施方案中,渲染器270包括多个着色器(未示出),每个着色器是被配置为执行专门的计算并执行用于渲染计算机图形的某些指令的处理元件。例如,在一些实施方案中,着色器计算显示器的每个像素的颜色和其他属性。在一些实施方案中,渲染器270的着色器是二维(2D)着色器(诸如像素着色器)、或三维着色器(诸如顶点着色器、几何着色器或细分曲面着色器),或者它们的任何组合。在一些实施方案中,着色器并行工作以执行渲染N+1图像所需的操作。
空洞内插器275被配置为分配N+1图像的空洞中的每一个的填充值。空洞内插器275确定与运动矢量场225相关联的“成本”。成本表示运动矢量场225的运动矢量中的每一个的聚合幅度。在确定成本时,空洞内插器275考虑到例如在相机平移经过场景时发生的图像上的全局运动。如果成本高于阈值(例如,在场景变化的情况下,并且不考虑全局运动),那么空洞内插器275确定N图像205与N-1图像207之间的时间相关性太低,使得运动矢量场225无法可靠地预测N+1图像的像素的值。如果成本高于阈值,那么空洞内插器275基于与空洞相邻的像素的局部平均值来分配用于填充N+1图像的每个空洞的值。
如果成本处于或低于阈值,那么空洞内插器275基于N图像205的对应的像素来计算N+1图像的填充值。如果N图像205的对应的像素是渲染的像素(即,不是空洞),那么空洞内插器275将对应的渲染的像素的值识别为N+1图像的空洞的填充物。在一些实施方案中,空洞内插器275基于局部平均值和/或局部结构来计算N+1图像的空洞的填充值。例如,如果N图像205的对应的像素是白色的,但针对该像素的N+1图像的局部结构是黑线,那么空洞内插器275采用逻辑以基于局部结构或统计来填充空洞。在一些实施方案中,如果N图像205的与N+1图像的空洞相对应的像素也是空洞,那么空洞内插器275使用运动矢量场225来预测从N图像205到N+1图像的运动,并且用被预测为移动到N+1图像的空洞中的单元的N图像205的像素值来填充N+1图像的空洞。
在一些实施方案中,运动矢量场生成器255通过测量N图像与N+1图像之间的运动来生成运动矢量场225,并且然后,渲染处理器基于运动矢量场和先前的图片来填充N+1中的空洞。运动矢量场生成器255执行相对于两个图像的很多候选区域的多个比较的运动搜索。为了执行运动搜索中所需的比较,运动矢量场生成器用常量替换N+1图像的空洞。运动矢量场生成器255将N图像中的与N+1图像进行比较的候选比较区域视为在相同的位置(换句话说,在与图像N+1中的空洞位于一起的位置)具有相同的常量。通过用相同的常量替换N+1图像和N图像的比较区域的空洞,运动矢量场生成器255搜索移动,而忽略空洞。通过将常量用作N+1图像的空洞和N图像的对应的像素的替换,运动矢量生成器255将N图像205与N-1图像207进行比较,而忽略N+1图像的空洞,以创建修改的运动矢量场。空洞内插器275将N+1图像的空洞与修改的运动矢量场进行比较,并且基于修改的运动图的对应的单元来分配用于填充N+1图像的空洞的值。在一些实施方案中,空洞内插器275基于与空洞相邻的像素的局部平均值来分配用于填充N+1图像的一些空洞的值,并且基于修改的运动图的对应的单元来分配用于N+1图像的其他空洞的值。
图3是根据一些实施方案的图2的运动估计器引擎220的运动矢量场生成器355的框图。运动矢量场生成器355将N图像315和N-1图像317的对应的单元或像素组进行比较,以创建模拟从连续图像上的一个单元或另一个单元的对象的移动的矢量的运动矢量场325。运动矢量场生成器355可采用块匹配算法,诸如穷举搜索、三步搜索、简单有效搜索、四步搜索、菱形搜索或者块匹配中使用的其他算法。在图3所示的示例中,运动矢量场生成器355生成包含运动矢量的运动矢量场325,所述运动矢量指示例如从单元C4到单元C6、从单元D4到单元D6、从单元E4到单元E6从单元C8到单元C10、从单元D8到单元D10以及从单元E8到单元E10的运动。
图4是根据一些实施方案的图2的渲染处理器230的边缘检测器460的框图。边缘检测器460检测N图像415的单元内或之间的亮度变化。在一些实施方案中,由边缘检测器460分析的单元是被运动矢量场生成器355分析的相同像素组。在一些实施方案中,由边缘检测器460分析的单元是比由运动矢量场生成器355分析的单元更大或更小的像素组。边缘检测器460将亮度变化超过阈值的那些单元识别为包含边缘。阈值的幅度将决定检测到多少边缘。因此,如果阈值较低,那么将检测到更多的边缘,但结果可能易受噪声的影响,并且可检测到不相关特征的边缘。在图4所示的示例中,边缘检测器460检测单元C8、C9、C10、C11、C12、D8、E8、F8、F9、F10、F11、F12、D12和E12中的亮度变化。边缘检测器460将估计单元C8、C9、C10、C11、C12、D8、E8、F8、F9、F10、F11、F12、D12和E12包含边缘的经边缘检测的图像419提供到概率函数生成器(未示出)。
图5是根据一些实施方案的图2的渲染处理器230的概率图生成器565的框图。概率图生成器565接收来自边缘检测器(未示出)的经边缘检测的N图像519和来自运动图生成器(未示出)的运动矢量场525。概率图生成器565基于经边缘检测的图像519和运动矢量场525来生成概率图527。针对N+1图像(未示出)的每个单元,概率图生成器565分配指示单元内将成为空洞的像素的百分比。在一些实施方案中,由概率图生成器565分析的单元是与由运动矢量场生成器355或边缘检测器460分析的那些相同的像素组,并且在一些实施方案中,由概率图生成器565分析的单元是比由运动矢量场生成器355或边缘检测器460分析的那些更大或更小的像素组。
概率图生成器565基于单元包含边缘的估计和/或与单元相关联的运动图的运动矢量的幅度来得到单元包含空洞的概率。在一些实施方案中,概率图生成器565基于单元内的附加因素(诸如细节水平或像素值的变化量)来得到单元包含空洞的概率。概率图527指示包含与N+1图像的每个单元相关联的空洞的概率,并且分配概率,使得空洞的概率在N+1图像的包含估计有更多边缘、更大运动矢量和/或更多细节的单元的区域中较低。
图6是根据一些实施方案的图2的渲染处理器230的空洞内插器675的框图。空洞内插器675识别用于填充渲染的N+1图像中的空洞的值。在图6所示的示例中,渲染的N+1图像的单元605是4像素乘4像素,其中一个像素是空洞。空洞内插器675选择用于填充空洞的值,使得图像607的单元将具有用于每个像素的值,其中使用空洞内插器675选择的值来填充空洞。
在一些实施方案中,空洞内插器675基于就在前面的(N)图像(未示出)来得出用于N+1图像的每个单元的填充值。在一些实施方案中,如果N图像的与N+1图像的空洞相对应的像素中的一个或多个也是空洞,那么空洞内插器675用相同的常量来替换N图像的空洞和当前图像的空洞,以生成N图像和N+1图像的修改版本。空洞内插器675将修改的图像提供到运动矢量场生成器(未示出)。运动图生成器将修改的N图像和N+1图像的对应的单元进行比较以创建修改的运动矢量场(未示出)。空洞内插器675将N+1图像的空洞与修改的运动矢量场进行比较,并且基于空洞内插器675根据修改的运动矢量场预测将移动到N+1图像的空洞中的N图像的单元来分配用于填充N+1图像的空洞的值。如果N图像与N+1图像之间的相关性低于阈值,那么在一些实施方案中,那么空洞内插器675基于与空洞相邻的像素的局部平均值来分配用于填充N+1图像的一些空洞的值。
图7是根据一些实施方案的用于生成识别空洞的掩模并且基于运动估计来识别用于填充空洞的值以渲染随时间注视点图像的方法700的流程图。方法700在图1所示的处理系统100以及图2所示的运动估计器引擎220和渲染处理器230的一些实施方案中实现。
在框702处,运动估计器引擎220接收两个最近渲染的(N和N-1)图像。在框704处,运动估计器引擎220的运动矢量场生成器255将N图像和N-1图像进行比较以生成运动矢量场225。在框706处,渲染处理器230的边缘检测器260估计N图像的哪些单元包含边缘。在框708处,概率图生成器265基于运动矢量场225(假设N图像和N-1图像的相关性超过阈值)和检测到的边缘来生成指示N+1图像的每个单元的包含空洞的概率的概率图。概率图分配空洞的概率,使得与估计为不包含边缘或移动区域的单元相比,N+1图像的被估计为包含边缘或移动区域的单元不太可能包含空洞。
在框710处,渲染处理器230的渲染器270渲染N+1图像,从而在由概率图指示的地方留下空洞。在框712处,渲染处理器230的空洞内插器275填充N+1图像的空洞。如果N图像和N-1图像足够地相关,那么空洞内插器275基于N图像的对应的单元来得出N+1图像的空洞的填充物。在一些实施方案中,如果N图像在与N+1图像的空洞相对应的像素处包括空洞,那么空洞内插器275向N图像和N+1图像两者的空洞分配常量,并且运动矢量场生成器255基于修改的N图像和N+1图像来生成修改的运动矢量场。空洞内插器275然后基于修改的运动矢量场来识别将用于填充N+1图像的空洞的值。
在第一方面,所述方法包括:在运动估计器引擎处,通过将第二图像和第三图像的对应的单元进行比较来估计第一图像的多个单元中的每一个的运动矢量,每个单元包括一个或多个像素,其中所述第二图像包括就在所述第一图像之前渲染的图像并且所述第三图像包括就在所述第二图像之前渲染的图像;在渲染处理器处,针对所述多个单元中的每一个,基于所述单元的所述运动矢量的幅度来识别包括所述单元的像素将未渲染的概率;以及在所述渲染处理器处,基于所述识别的概率来选择性地渲染产生的渲染的图像的所述多个单元中的每个单元的所述像素。
在第一方面的一个实施方案中,所述方法还包括针对所述多个单元中的每一个,识别所述单元内的边缘和边缘的强度,并且其中所述概率进一步基于所述单元内的边缘的数量或强度是否超过阈值。在另一个实施方案中,所述方法包括:选择性地渲染包括渲染所述多个单元中的每个单元的与每个单元的所述概率相对应的百分比的所述像素。在又一个实施方案中,所述单元内的像素将未渲染的所述概率与所述单元的所述运动矢量的所述幅度成比例。在又一个实施方案中,所述方法包括基于所述第二图像的对应的像素的值来填充所述第一图像的每个未渲染像素。
在第一方面的另一个实施方案中,所述方法包括基于所述第一图像的与所述未渲染像素相邻的像素的局部平均值来填充所述第一图像的每个未渲染像素。在又一个实施方案中,所述方法包括向所述第一图像的每个未渲染像素分配常量以生成修改的第一图像;基于所述运动矢量来识别所述第二图像的与所述第一图像的每个未渲染像素相对应的像素;向所述第二图像的每个对应的像素分配所述常量以生成修改的第二图像;在所述运动估计器引擎处,通过将所述修改的第一图像和所述修改的第二图像的对应的单元进行比较来估计所述多个单元中的每一个的修改的运动矢量;以及基于包括未渲染像素的每个单元的所述修改的运动矢量来填充所述第一图像的每个未渲染像素。在又一个实施方案中,所述方法包括基于与包括所述未渲染像素的所述单元相对应的所述运动矢量来填充每个未渲染像素。
在第二方面,所述方法包括:针对第一图像的多个单元中的每个单元,其中每个单元包括一组一个或多个像素,基于所述单元包括超过第一阈值量的边缘或少于第二阈值量的移动来识别包括所述单元的像素将未渲染的概率;以及在渲染处理器处,基于对应的概率来选择性地渲染所述第一图像的所述像素。
在第二方面的一个实施方案中,所述方法包括:在运动估计器引擎处,在运动估计器引擎处,基于就在所述第一图像之前渲染的第二图像和就在所述第二图像之前渲染的第三图像的对应的单元之间的比较来生成所述第一图像的运动矢量场。在特定实施方案中,所述方法包括:向所述第一图像的每个未渲染像素分配常量;基于所述运动矢量场来识别所述第二图像的与所述第一图像的每个未渲染像素相对应的像素;向所述第二图像的每个对应的像素分配所述常量;在所述运动估计引擎处,基于所述第一图像和所述第二图像的对应的单元之间的比较来生成修改的运动矢量场;以及基于所述修改的运动矢量场来填充每个未渲染像素。在另一个特定实施方案中,所述方法包括基于所述第二图像的对应的像素的值来填充每个未渲染像素。
在第二方面的又一实施方案中,对于包括超过所述第一阈值量或强度的识别的边缘或少于所述第二阈值量的移动区域的单元,所述概率较低。在另一个实施方案中,所述方法包括基于与所述未渲染像素相邻的像素的局部平均值来填充每个未渲染像素。
在第三方面,一种装置包括:运动估计器引擎,所述运动估计器引擎被配置为基于就在第一图像之前渲染的第二图像和就在所述第二图像之前渲染的第三图像的对应的单元之间的比较来生成所述第一图像的运动矢量场,其中每个单元包括一个或多个像素;以及渲染处理器,所述渲染处理器被配置为:针对所述第一图像的所述多个单元中的每一个,基于所述运动矢量场来识别包括所述单元的所述像素将未渲染的概率;以及基于对应的概率来选择性地渲染所述第一图像的所述像素。
在第三方面的一个实施方案中,所述渲染处理器用于渲染所述多个单元中的每个单元的与每个单元的所述概率相对应的百分比的所述像素。在另一个实施方案中,所述渲染处理器还被配置为针对所述第一图像的所述多个单元中的每一个,识别所述单元内的边缘和边缘的强度,并且其中对于包括超过第一阈值量或强度的识别的边缘和少于第二阈值量的移动区域的单元,所述概率较低。在又一个实施方案中,所述渲染处理器用于基于所述第二图像的对应的像素的值来填充每个未渲染像素。
在第三方面的又一个实施方案中,所述渲染处理器用于基于所述第一图像的与所述未渲染像素相邻的像素的局部平均值来填充所述第一图像的每个未渲染像素。在又一个实施方案中,所述运动估计器引擎还用于:用常量替换所述第一图像的每个未渲染像素以生成修改的第一图像;基于所述运动矢量场来识别所述第二图像的与所述第一图像的每个未渲染像素相对应的像素;用所述常量替换所述第二图像的每个对应的像素以生成修改的第二图像;基于所述修改的第一图像和所述修改的第二图像的对应的单元之间的比较来生成修改的运动矢量场;并且其中所述渲染处理器还用于基于所述修改的运动矢量场来填充每个未渲染像素。
在至少一个实施方案中,上文所描述的设备和技术在包括一个或多个集成电路(IC)装置(也被称为集成电路封装或微芯片)的系统中实现,诸如上文参考图1至7所描述的多媒体系统。这些IC装置的设计和制造中使用了电子设计自动化(EDA)和计算机辅助设计(CAD)软件工具。这些设计工具典型地表示为一个或多个软件程序。所述一个或多个软件程序包括可由计算机系统执行的代码,以操纵计算机系统来操作表示一个或多个IC装置的电路的代码,从而执行用于设计或调适制造系统的过程的至少一部分来制造电路。这个代码包括指令、数据或指令和数据的组合。表示设计工具或制造工具的软件指令典型地存储在可由计算系统访问的计算机可读存储介质中。同样地,在一些实施方案中,表示IC装置的设计或制造的一个或多个阶段的代码存储在相同的计算机可读存储介质或不同的计算机可读存储介质中并从其中进行访问。
计算机可读存储介质包括任何非暂时性存储介质或非暂时性存储介质的组合,所述非暂时性存储介质在使用期间可由计算机系统访问,以将指令和/或数据提供给计算机系统。此类存储介质包括但不限于光学介质(例如,压缩光盘(CD)、数字通用光盘(DVD)、蓝光光盘)、磁性介质(例如,软盘、磁带或磁性硬盘驱动器)、易失性存储器(例如,随机存取存储器(RAM)或高速缓存)、非易失性存储器(例如,只读存储器(ROM)或快闪存储器)或基于微机电系统(MEMS)的存储介质。在一个实施方案中,计算机可读存储介质嵌入在计算系统中(例如,系统RAM或ROM)、固定地附接到计算系统(例如,磁性硬盘)、可移除地附接到计算系统(例如,光盘或基于通用串行总线(USB)的快闪存储器),或者经由有线或无线网络耦合到计算机系统(例如,网络可访问存储(NAS))。
在一些实施方案中,上文所描述的技术的某些方面由执行软件的处理系统的一个或多个处理器实现。软件包括存储或以其他方式有形地体现在非暂时性计算机可读存储介质上的一个或多个可执行指令集。软件包括在由一个或多个处理器执行时操纵一个或多个处理器来执行上文所描述的一个或多个方面的指令和某些数据。非暂时性计算机可读存储介质包括例如磁性或光学磁盘存储装置、固态存储装置(诸如快闪存储器、高速缓存、随机存取存储器(RAM)或一个或多个其他非易失性存储器装置)等。存储在非暂时性计算机可读存储介质上的可执行指令例如以源代码、汇编语言代码、对象代码或由一个或多个处理器解译或以其他方式执行的其他指令格式来实现。
应注意,并不需要上文在一般描述中所描述的所有活动或元件,特定活动或装置的一部分可能是不需要的,并且可执行一个或多个其他活动,或者可包括除所描述的那些元件之外的元件。此外,列出活动的顺序不一定是执行活动的顺序。另外,已经参考具体实施方案描述了概念。然而,本领域普通技术人员应了解,在不脱离如所附权利要求书中所阐述的本公开范围的情况下,可作出各种修改和改变。因此,本说明书和附图将被视为说明性而非限制性的,并且所有此类修改都意图被包括在本公开的范围内。
上文已经关于具体实施方案而描述了益处、其他优点以及问题解决方案。然而,所述益处、优点、问题解决方案以及可使任何益处、优点或问题解决方案出现或变得更突出的任何特征都不应被解释为是任何或所有权利要求的关键、必需或必要特征。此外,上文所公开的特定实施方案只是说明性的,因为所公开的主题可按受益于本文教义的本领域技术人员显而易见的不同但等效的方式来修改和实践。除了如所附权利要求书中所描述的之外,并不意图限制本文所展示的构造或设计的细节。因此,明显的是,上文所公开的特定实施方案可更改或修改,并且所有此类变化都被认为是在所公开的主题的范围内。因此,本文所寻求的保护正如在所附权利要求书中所阐述的那般。
Claims (20)
1.一种方法,所述方法包括:
在运动估计器引擎处,通过将第二图像和第三图像的对应的单元进行比较来估计第一图像的多个单元中的每一个的运动矢量,每个单元包括一个或多个像素,其中所述第二图像包括就在所述第一图像之前渲染的图像并且所述第三图像包括就在所述第二图像之前渲染的图像;
在渲染处理器处,针对所述多个单元中的每一个,基于所述单元的所述运动矢量的幅度来识别包括所述单元的像素将未渲染的概率;以及
在所述渲染处理器处,基于所述识别的概率来选择性地渲染产生的渲染的图像的所述多个单元中的每个单元的所述像素。
2.如权利要求1所述的方法,所述方法还包括针对所述多个单元中的每一个,识别所述单元内的边缘和边缘的强度,并且其中所述概率进一步基于所述单元内的边缘的数量或强度是否超过阈值。
3.如权利要求1所述的方法,其中选择性地渲染包括渲染所述多个单元中的每个单元的与每个单元的所述概率相对应的百分比的所述像素。
4.如权利要求1所述的方法,其中所述单元内的像素将未渲染的所述概率与所述单元的所述运动矢量的所述幅度成比例。
5.如权利要求1所述的方法,所述方法还包括基于所述第二图像的对应的像素的值来填充所述第一图像的每个未渲染像素。
6.如权利要求1所述的方法,所述方法还包括填充所述第一图像的每个未渲染像素,所述填充所述第一图像的每个未渲染像素是基于所述第一图像的与所述未渲染像素相邻的像素的局部平均值来实施的。
7.如权利要求1所述的方法,所述方法还包括:
向所述第一图像的每个未渲染像素分配常量以生成修改的第一图像;
基于所述运动矢量来识别所述第二图像的与所述第一图像的每个未渲染像素相对应的像素;
向所述第二图像的每个对应的像素分配所述常量以生成修改的第二图像;
在所述运动估计器引擎处,通过将所述修改的第一图像和所述修改的第二图像的对应的单元进行比较来估计所述多个单元中的每一个的修改的运动矢量;以及
基于包括未渲染像素的每个单元的所述修改的运动矢量来填充所述第一图像的每个未渲染像素。
8.如权利要求1所述的方法,所述方法还包括填充每个未渲染像素,所述填充每个未渲染像素是基于与包括所述未渲染像素的所述单元相对应的所述运动矢量来实施的。
9.一种方法,所述方法包括:
针对第一图像的多个单元中的每个单元,其中每个单元包括一组一个或多个像素,基于所述单元包括超过第一阈值量的边缘或少于第二阈值量的移动来识别包括所述单元的像素将未渲染的概率;以及
在渲染处理器处,基于对应的概率来选择性地渲染所述第一图像的所述像素。
10.如权利要求9所述的方法,所述方法还包括:
在运动估计器引擎处,基于就在所述第一图像之前渲染的第二图像和就在所述第二图像之前渲染的第三图像的对应的单元之间的比较来生成所述第一图像的运动矢量场。
11.如权利要求10所述的方法,所述方法还包括:
向所述第一图像的每个未渲染像素分配常量;
基于所述运动矢量场来识别所述第二图像的与所述第一图像的每个未渲染像素相对应的像素;
向所述第二图像的每个对应的像素分配所述常量;
在所述运动估计器引擎处,基于所述第一图像和所述第二图像的对应的单元之间的比较来生成修改的运动矢量场;以及
基于所述修改的运动矢量场来填充每个未渲染像素。
12.如权利要求10所述的方法,所述方法还包括基于所述第二图像的对应的像素的值来填充每个未渲染像素。
13.如权利要求9所述的方法,其中对于包括超过所述第一阈值量或强度的识别的边缘或少于所述第二阈值量的移动区域的单元,所述概率较低。
14.如权利要求9所述的方法,所述方法还包括填充每个未渲染像素,所述填充每个未渲染像素是基于与所述未渲染像素相邻的像素的局部平均值来实施的。
15.一种装置,所述装置包括:
运动估计器引擎,所述运动估计器引擎被配置为基于就在第一图像之前渲染的第二图像和就在所述第二图像之前渲染的第三图像的对应的单元之间的比较来生成所述第一图像的运动矢量场,其中每个单元包括一个或多个像素;以及
渲染处理器,所述渲染处理器被配置为:
针对所述第一图像的多个单元中的每一个,基于所述运动矢量场来识别包括所述单元的所述像素将未渲染的概率;以及
基于对应的概率来选择性地渲染所述第一图像的所述像素。
16.如权利要求15所述的装置,其中所述渲染处理器用于渲染所述多个单元中的每个单元的与每个单元的所述概率相对应的百分比的所述像素。
17.如权利要求15所述的装置,其中所述渲染处理器还被配置为针对所述第一图像的所述多个单元中的每一个,识别所述单元内的边缘和边缘的强度,并且其中对于包括超过第一阈值量或强度的识别的边缘和少于第二阈值量的移动区域的单元,所述概率较低。
18.如权利要求15所述的装置,其中所述渲染处理器用于基于所述第二图像的对应的像素的值来填充每个未渲染像素。
19.如权利要求15所述的装置,其中所述渲染处理器用于填充所述第一图像的每个未渲染像素,所述填充所述第一图像的每个未渲染像素是基于所述第一图像的与所述未渲染像素相邻的像素的局部平均值来实施的。
20.如权利要求15所述的装置,其中所述运动估计器引擎还用于:
用常量替换所述第一图像的每个未渲染像素以生成修改的第一图像;
基于所述运动矢量场来识别所述第二图像的与所述第一图像的每个未渲染像素相对应的像素;
用所述常量替换所述第二图像的每个对应的像素以生成修改的第二图像;
基于所述修改的第一图像和所述修改的第二图像的对应的单元之间的比较来生成修改的运动矢量场;并且
其中所述渲染处理器还用于基于所述修改的运动矢量场来填充每个未渲染像素。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/818,072 | 2017-11-20 | ||
US15/818,072 US10169843B1 (en) | 2017-11-20 | 2017-11-20 | Temporal foveated rendering using motion estimation |
PCT/US2018/051732 WO2019099101A1 (en) | 2017-11-20 | 2018-09-19 | Temporal foveated rendering using motion estimation |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111373441A CN111373441A (zh) | 2020-07-03 |
CN111373441B true CN111373441B (zh) | 2022-06-03 |
Family
ID=64739845
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201880075127.6A Active CN111373441B (zh) | 2017-11-20 | 2018-09-19 | 使用运动估计的随时间注视点渲染 |
Country Status (6)
Country | Link |
---|---|
US (1) | US10169843B1 (zh) |
EP (1) | EP3714435B1 (zh) |
JP (1) | JP2021503669A (zh) |
KR (1) | KR102398599B1 (zh) |
CN (1) | CN111373441B (zh) |
WO (1) | WO2019099101A1 (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11611773B2 (en) * | 2018-04-06 | 2023-03-21 | Qatar Foundation For Education, Science And Community Development | System of video steganalysis and a method for the detection of covert communications |
US11381825B2 (en) | 2018-11-27 | 2022-07-05 | Advanced Micro Devices, Inc. | Variable rate rendering based on motion estimation |
CN114175630A (zh) * | 2019-07-28 | 2022-03-11 | 谷歌有限责任公司 | 利用注视点网格渲染沉浸式视频内容的方法、系统和介质 |
US11363247B2 (en) * | 2020-02-14 | 2022-06-14 | Valve Corporation | Motion smoothing in a distributed system |
CN114786051B (zh) * | 2022-03-31 | 2023-04-14 | 北京百度网讯科技有限公司 | 一种视频渲染方法、装置、电子设备及存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102342102A (zh) * | 2008-12-31 | 2012-02-01 | 先进微装置公司 | 具有先进的空间过滤差动矢量的多候选运动估计 |
CN102461150A (zh) * | 2009-04-23 | 2012-05-16 | 想象技术有限公司 | 在运动估计系统中使用动量和加速度矢量的对象跟踪 |
CN103929568A (zh) * | 2013-01-11 | 2014-07-16 | 索尼公司 | 用于稳定数字图像帧的第一序列的方法以及图像稳定单元 |
CN105225264A (zh) * | 2014-06-27 | 2016-01-06 | 三星电子株式会社 | 基于运动的自适应渲染 |
US9811914B2 (en) * | 2013-06-17 | 2017-11-07 | Immedia Semiconductor, Inc. | Multi-window image processing and motion compensation |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9384564B2 (en) * | 2007-11-19 | 2016-07-05 | Microsoft Technology Licensing, Llc | Rendering of data sets comprising multiple-resolution samples |
US9897805B2 (en) * | 2013-06-07 | 2018-02-20 | Sony Interactive Entertainment Inc. | Image rendering responsive to user actions in head mounted display |
US20130202194A1 (en) * | 2012-02-05 | 2013-08-08 | Danillo Bracco Graziosi | Method for generating high resolution depth images from low resolution depth images using edge information |
US9928610B2 (en) * | 2014-06-27 | 2018-03-27 | Samsung Electronics Co., Ltd. | Motion based adaptive rendering |
US9904971B2 (en) * | 2014-06-27 | 2018-02-27 | Samsung Electronics Co., Ltd. | Adaptive desampling in a graphics system with composited level of detail map |
JPWO2016158001A1 (ja) * | 2015-03-30 | 2018-01-25 | ソニー株式会社 | 情報処理装置、情報処理方法、プログラム及び記録媒体 |
US10043281B2 (en) * | 2015-06-14 | 2018-08-07 | Sony Interactive Entertainment Inc. | Apparatus and method for estimating eye gaze location |
US20160379400A1 (en) * | 2015-06-23 | 2016-12-29 | Intel Corporation | Three-Dimensional Renderer |
US10330935B2 (en) * | 2016-09-22 | 2019-06-25 | Apple Inc. | Predictive, foveated virtual reality system |
US10043318B2 (en) * | 2016-12-09 | 2018-08-07 | Qualcomm Incorporated | Display synchronized image warping |
US20180165799A1 (en) * | 2016-12-12 | 2018-06-14 | Daniel Pohl | Screen matrix rendering in head mounted displays |
US10152822B2 (en) * | 2017-04-01 | 2018-12-11 | Intel Corporation | Motion biased foveated renderer |
-
2017
- 2017-11-20 US US15/818,072 patent/US10169843B1/en active Active
-
2018
- 2018-09-19 EP EP18878973.9A patent/EP3714435B1/en active Active
- 2018-09-19 KR KR1020207017892A patent/KR102398599B1/ko active IP Right Grant
- 2018-09-19 JP JP2020527885A patent/JP2021503669A/ja active Pending
- 2018-09-19 CN CN201880075127.6A patent/CN111373441B/zh active Active
- 2018-09-19 WO PCT/US2018/051732 patent/WO2019099101A1/en unknown
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102342102A (zh) * | 2008-12-31 | 2012-02-01 | 先进微装置公司 | 具有先进的空间过滤差动矢量的多候选运动估计 |
CN102461150A (zh) * | 2009-04-23 | 2012-05-16 | 想象技术有限公司 | 在运动估计系统中使用动量和加速度矢量的对象跟踪 |
CN103929568A (zh) * | 2013-01-11 | 2014-07-16 | 索尼公司 | 用于稳定数字图像帧的第一序列的方法以及图像稳定单元 |
US9811914B2 (en) * | 2013-06-17 | 2017-11-07 | Immedia Semiconductor, Inc. | Multi-window image processing and motion compensation |
CN105225264A (zh) * | 2014-06-27 | 2016-01-06 | 三星电子株式会社 | 基于运动的自适应渲染 |
Also Published As
Publication number | Publication date |
---|---|
EP3714435A1 (en) | 2020-09-30 |
KR20200078678A (ko) | 2020-07-01 |
KR102398599B1 (ko) | 2022-05-16 |
JP2021503669A (ja) | 2021-02-12 |
WO2019099101A1 (en) | 2019-05-23 |
US10169843B1 (en) | 2019-01-01 |
EP3714435B1 (en) | 2024-04-10 |
EP3714435A4 (en) | 2021-08-11 |
CN111373441A (zh) | 2020-07-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111373441B (zh) | 使用运动估计的随时间注视点渲染 | |
Huang et al. | Temporally coherent completion of dynamic video | |
US11455712B2 (en) | Method and apparatus for enhancing stereo vision | |
US8970580B2 (en) | Method, apparatus and computer-readable medium rendering three-dimensional (3D) graphics | |
US8866821B2 (en) | Depth map movement tracking via optical flow and velocity prediction | |
JP5518967B2 (ja) | グラフィック・パフォーマンス改善のための方法、装置およびコンピュータ・プログラム・プロダクト | |
JP4740657B2 (ja) | カラーセグメンテーションに基づくステレオ3次元再構成システムおよびプロセス | |
KR102350235B1 (ko) | 영상 처리 방법 및 장치 | |
US10818018B2 (en) | Image processing apparatus, image processing method, and non-transitory computer-readable storage medium | |
EP2856425A1 (en) | Segmentation of a foreground object in a 3d scene | |
JP2005301902A (ja) | 画像処理装置および画像処理システム | |
US20180005039A1 (en) | Method and apparatus for generating an initial superpixel label map for an image | |
KR20150146419A (ko) | 시간적으로 일관된 수퍼픽셀들을 생성하기 위한 방법 및 장치 | |
Mukherjee et al. | A hybrid algorithm for disparity calculation from sparse disparity estimates based on stereo vision | |
JP5896661B2 (ja) | 情報処理装置、情報処理装置の制御方法、およびプログラム | |
KR100969420B1 (ko) | 프레임 레이트 변환 방법 | |
Mahmoudpour et al. | Superpixel-based depth map estimation using defocus blur | |
Somraj et al. | Temporal view synthesis of dynamic scenes through 3D object motion estimation with multi-plane images | |
US9401038B2 (en) | Information processing apparatus, generation method, and storage medium | |
JP2013150094A (ja) | タスクスケジューリング装置、タスクスケジューリング方法およびタスクスケジューリングプログラム | |
US20230102620A1 (en) | Variable rate rendering based on motion estimation | |
US20200068214A1 (en) | Motion estimation using pixel activity metrics | |
Kim et al. | Block-Level Processing of a Video Object Segmentation Algorithm for Real-Time Systems | |
CN114972087A (zh) | 视频处理方法、装置、设备以及计算机存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |