CN1144157C - 用于从顺序的2d图象数据产生3d模型的系统和方法 - Google Patents

用于从顺序的2d图象数据产生3d模型的系统和方法 Download PDF

Info

Publication number
CN1144157C
CN1144157C CNB998146315A CN99814631A CN1144157C CN 1144157 C CN1144157 C CN 1144157C CN B998146315 A CNB998146315 A CN B998146315A CN 99814631 A CN99814631 A CN 99814631A CN 1144157 C CN1144157 C CN 1144157C
Authority
CN
China
Prior art keywords
distinguished
image
little lattice
information
strengthen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CNB998146315A
Other languages
English (en)
Other versions
CN1331822A (zh
Inventor
�е¡�����ɭ
托德·辛普森
C
爱德华·C·凡夫特林
A
戴维·A·斯普纳
T
伦纳德·T·布拉顿
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Conversion Products Co
HEADPLAY Inc
Original Assignee
Push Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Push Entertainment Inc filed Critical Push Entertainment Inc
Publication of CN1331822A publication Critical patent/CN1331822A/zh
Application granted granted Critical
Publication of CN1144157C publication Critical patent/CN1144157C/zh
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/286Image signal generators having separate monoscopic and stereoscopic modes

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Processing Or Creating Images (AREA)

Abstract

公布了用于从只具有两维空域信息的一个源图象产生具有增强的三维属性的图象的一种系统和方法。通过采用机器视觉技术的对象图象识别被用来识别源图象内的对象。随后,对象图象被分解成图象小网格,其中这些对象图象得到公司以包括丢失的信息。发生技术被用来把这些图象小网格重新组合成具有所希望的增强三维属性的图象。

Description

用于从顺序的2D图象数据产生3D模型的系统和方法
技术领域
本发明一般地说涉及图象信号的数字操纵且更具体地说涉及用于从2D数字输入图象产生3D模型的一种系统和方法。
背景技术
用一种系统,以在适当的显示装置(诸如电视机或计算机监视器的阴极射线管(CRT))上或经过投影到屏幕上的胶片上的空域表示的形式显示可视图象,这样的技术是现有技术中已知的。然而,由于这样的显示装置通常限于以显示装置表面上的两维空间表示的形式提供显示,这些空域表示不包括完整的可视图象信息。例如,由于前景对象的遮挡,有关背景对象的图象信息可能会丢失。类似地,当观看角度改变时以对照更远的背景或其他对象看到的一个对象的位置的视在位移的形式表现出的图象深度或视差信息,在两维表现中通常被丢失了。
然而,以两维方式表现的这样的可视图象的获得是直接的,即利用诸如电影摄象机、录相机和计算机扫描装置来从一个单个的有利点获得一种空域表示,其中可视图象的源是一个可感受到的图象。类似地,利用各种计算机软件程序,诸如字处理、画图和动画程序,获得在数字系统上产生的两维图象,也是直接了当的,其中可视图象的源是不可感受到的。因此,有多种以两维表示的形式获得和存储的视频图象和胶片图象及其设施-包括系统和设备,以用于这样的两维图象取得。
不论它们的来源如何,这些获得的图象可以以数字阵列的形式被表示和存储在数字系统中。一个数字图象不过是一组数字,它们与显示的图象的象素有直接对应的关系。例如,一个显示的图象可以由512乘640个象素组成,其中每一个象素由一个范围的可能的亮度强度和颜色来表征。胶片图象也可被处理成象素的矩阵,这与视频图象类似。
数字视频图象的处理是现有技术中众所周知的。传统上,这样的现有技术数字视频处理已经被分成了两种主要的类别。第一种现有技术类别产生了一种新的视频图象-它们通过诸如利用色度键入、图象合成和重叠、描绘、包括刮和逐渐减弱的过渡而被产生,以及计算机产生的图象,包括三维计算机模型和标题。这些技术和等通常被分入“视频产生”技术,并产生了视频图象的新的两维空域表示。
相反地,第二种现有技术类别处理一种视频图象,但不产生一种新的视频图象,而只是从其鉴别信息,诸如为了从图象中识别出对象。这种处理经常被用在机器人中,例如为了对一个操纵者的操作进行反馈。为了鉴别图象中出现的对象或是为了鉴别图象中包含的信息的图象处理,通常可被分入“机器视觉”技术。
应该理解的是,上述技术的应用,都没有产生具有所提供的图象以外的信息的图象。如上所述,该产生技术只是从复合或操纵输入图象而产生了一个新的空域数据组。类似地,该机器视觉技术只是产生了表示出现在一个输入图象中的对象的位置、运动等的数字组。
另外,上述的技术在它们的应用上已经产生了隔离。例如,图象产生技术通常通过机械地把所希望的产生技术应用于选定的图象或数据组而产生图象。另外,色度键入视频产生只是除去输入图象中具有与其相关的一种具体颜色的区域并用一个第二输入图象来取代该区域。类似地,计算机产生的模型和标题只是把计算机产生的图象迭加在一个输入信号或空白屏幕上。如在现有技术中所应用的,图象产生技术的这种机械的应用从机器视觉技术的应用所获得的好处是极少的。
类似地,机器视觉技术通常用于产生有关一个图象中的一个对象的数据。所以,利用机器视觉技术的应用对一个输出图象的操纵通常没有兴趣。因此,现有技术中的机器视觉技术应用从图象产生技术的应用所获得的好处是很小的。
然而,可能希望的,是操纵一个图象以产生可通过上述技术获得的两维空域信息之外的图象信息的一个图象。例如,在立体镜中,可由于产生观看者的各个眼的略微图象差的小视差而用双目视觉获得深度感觉,且需要比简单的两维表示更为复杂的图象。然而,上述的孤立的数字处理技术每一个都不足以从数字视频图象提取出信息,以适当地操纵图象而产生立体的图象。
一种现有技术的例子在1996年12月20日递交的国际申请PCT/AU96/00820中得到了显示,它显示了如何通过加长和/或移动已有的图象而从2D输入产生3D图象。这种系统不能使对象从它们的背景中被“释放”出来,且在被观看时看上去是似乎是从屏幕上突出出来。
因此,需要一种系统和方法,用于对图象进行处理,以提取从一个图象表示可直接确定的信息以外的信息。
一种进一步的需要,是应用从图象表示提取的信息以操纵图象,从而产生一种图象表示-它包括了可从一个来源获得的图象以外的信息。
还有一个需要,就是利用从图象的两维空域表示提取的信息,以产生一种提供健全的图象的增强的图象,诸如输入图象的立体三维表示。
发明内容
这些和其他的目的、特征和技术优点,通过一种系统和方法而得到了实现,该系统和方法利用了有关一个依次输入图象(诸如可从上述机器视觉技术获得的输入图象)中的对象的信息,以提取、外插和/或内插有关不由两维空域表示直接提供的图象的信息。这种信息随后被可获得的图象操纵技术用来产生一种图象-该图象具有单纯利用图象操纵技术不能获得的健全的属性。
在本发明的一个最佳实施例中,利用标准胶片或视频获取技术获得的、诸如上述的两维空域表示的源图象,被转换成具有三维效果的增强图象。在一种替换实施例中,所产生的视频图象是立体三维图象的形式的。因此,利用机器视觉技术,本发明把源图象分解成了对象分量。通过这种处理,本发明可提取或外插图象内包含的有关对象和它们的相互关系的信息。
根据本发明的一个方面,用于对一个序列的源图象进行数字处理的系统,所述系统包括:用于区分所述序列的源图象中表示的各个对象以产生被区分的对象的装置;用于根据所述被区分的对象把所述源图象的序列分解成图象小格的装置,其中各个所述图象小格只包括有关一个被区分的对象的图象数据;用于标明与在一个临时域中的缩放变换有关的选定的被区分的对象的装置;用于确定所述选定的被区分的对象的相对平面的装置;用于产生立体增强的图象小格的装置,其中所述用于产生立体增强的图象小格的所述装置利用所述相对平面来产生所述立体增强的图象小格。
根据本发明的另一个方面,用于对一个序列的源图象进行数字处理的一种方法,所述方法包括:区分所述序列的源图象中表示的各个对象以产生被区分的对象;根据所述被区分的对象把所述源图象序列分解成图象小格,其中各个所述图象小格只包括有关一个被区分的对象的图象数据;标明与在一个临时域中的缩放变换有关的选定的被区分的对象;确定所述选定的被区分的对象的相对平面;利用所述相对平面而从所述图象小格产生立体增强的图象小格。
源图象可以从若干种来源提供,并可包括单个或一系列相关的图象。例如,可采用一系列略微不同的图象,这些图象可以以快速暂态序列的方式得到显示,以产生平稳运动的效果,就如在电视或胶片图象序列中那样。利用上述机器视觉技术,本发明通过参照暂态域信息而内插有关对象的空域信息。例如,当空域表示的前景中的一个对象相对于其他的对象移过暂态域时,任何具体图象的空域信息都可从可从序列中的其他图象获得的信息得到内插。当可视图象的各个对象与全体分离时,这种内插的信息被用来填充“丢失”的信息。
随后,本发明用于利用上述获得的信息来产生一种新的图象。这种新图象的产生可利用图象操纵技术,诸如描绘、计算机模型处理、合成和重叠,以把源图象的对象重新组合成包含上述获得的信息的结果图象。
例如,本发明可利用该获得的信息来在另一对象处于背景的同时确定前景中的一个图象对象。从这种信息,并利用描绘和重叠的图象产生技术,本发明可产生一种新图象,它包括了从以前不存在的光源产生出的对象阴影。
类似地,本发明可利用这种信息,与重叠的图象产生技术相结合地,产生两个新的图象,其中各个图象的对象以略微的变化得到重叠。通过把一个图象提供给观看者的每一只眼睛,由于小的视差而产生了深度的感觉。
因而应该理解的是,本发明的技术优点是其能够提取可直接从源图象确定的信息以外的信息。
一个进一步的技术优点,在于从源图象提取的信息可被用来操纵图象,从而产生一种结果图象表示-它包括了可从源图象直接获得的信息以外的信息。
本发明的再一个技术优点,是其能够从只具有两维空域表示的源图象产生一种立体的三维图象。这样,本发明能够独特地从已经存在的图象产生出立体的三维图象。
类似地,一种额外的技术优点,在于本发明独特地适合于利用普通的且通常成本低廉的图象获取设备来产生增强的图象,诸如上述立体图象。
以上相当概括地列出了本发明的特征和技术优点,以使以下对本发明的详细描述能够得到更好的理解。本发明的其他特征和优点将在以下进行描述,这些特征和优点形成了本发明的权利要求书的主题。本领域的技术人员应该理解的是,所公布的具体实施例的概念可被方便地使用作修正或设计执行本发明的目的的其他结构的基础。本领域的技术人员应该理解的是,这样的等价构造并不脱离如所附权利要求书所限定的本发明的精神和范围。
附图说明
从以下结合附图进行的描述,可以获得对本发明及其优点的更为完整的理解。在附图中:
图1显示了一系列的视频(或胶片)图象帧;
图2显示了分解成小网格的图1的帧,每一个小网格都具有与其相关的单个的对象;
图3显示了图2的小网格,其中根据本发明填充了丢失的信息;
图4显示了从本发明的一个最佳实施例产生的一种健全的图象;
图5A显示了图1的一个帧中表示的对象的深度方面和物理位置的上方视图;
图5B显示了一个健全图象,它表示了从本发明的一个最佳实施例产生的图5A的对象设置和深度方面;
图6A显示了图1的一个帧中表示的物理对象的上方视图;
图6B显示了一组立体图象,它们显示了从本发明的一个最佳实施例产生的图6A的对象设置;
图7显示了本发明的一个最佳实施例的框图;且
图8显示了闭锁填充所涉及的步骤。
具体实施方式
参见图1,一组获得的视频(或胶片)图象被显示为帧101-107。这些帧中表示的图象可以由若干种方法获得。例如,可采用诸如录相机和计算机扫描装置的光-电子传感装置。类似地,这些图象可被产生在数字系统中,诸如基于通用的处理器的系统或个人计算机(PC)。另外,这些图象可利用上述方法的结合而产生,或者这些图象可从胶片图象提取的抽取。视频一词在此包括了所有上述的情况。
图1的帧可用暂态域中的一个图象序列表示。在此,例如,帧102-106表示了一个系列的略微不同的图象中的对象的一个连续过程,当在一个快速暂态序列中显示时,这些图象产生出其中这些对象平滑地运动的一个“画面”。
视频图象,诸如帧101-107中所显示的图象,可被数字化,其中数字信息(一组数字,它们与空域中的图象信息有直接的对应关系)被用来存储、操纵和/或再现图象。例如,一个显示的图象-诸如帧101,可由512乘640个象素组成,其中每一个象素都由一定范围的可能的亮度强度和颜色来表征。这些象素的特性每一个都包括了表示空域的一个具体的点处的图象的信息。
因此,帧101-107的图象可得到数字化,从而使空域信息得到保持,以由一个数字处理系统进行处理、操纵、存储和/或展现。例如,基于一种通用处理器的系统,诸如一个PC,可接受这样的数字化表示,以根据一个用户的希望来对图象进行处理。数字处理可包括对象识别,诸如通过采用上述的机器视觉技术。类似地,PC可处理数字化的表示,以操纵和显示该图象,诸如通过采用上述的视频发生技术。
然而,根据本发明的一个最佳实施例,数字图象处理包括了以一种新颖的方式采用的视频处理技术,从而从一个源图象提取、外插和/或内插新且有用的信息。随后,产生了一个视频图象,它包括了比可从源图象获得的简单空域数据更多的新的信息。
因此,本发明的一个最佳实施例采用了一种基于通用处理器的系统-诸如图7所示的PC 700,它适合于通过采用机器视觉算法710和视频发生算法720来操纵视频图象信息。PC 700表示与存储器(RAM)702耦合的处理器(CPU)701。RAM 702提供了对与源视频图象以及从本发明的操作产生的任何视频图象有关的数字化图象信息的存储。PC 700还适合于接受源视频的输入以及输出一个所产生的图象。当然,这种视频的接受和输出可以是数字形式的。或者,PC 700可以适合于接受和/或输出模拟视频,诸如国家电视系统委员会(NTSC)兼容信号的形式的。应该注意的是,虽然显示了一个处理器,该系统可以是线路形式的,或者可以是一系列处理。
PC 700还可包括提供与一个系统操作者的信息交换的操作者界面。这种信息交换可包括源和/或所产生的视频图象在一个适当的显示装置上的显示。另外,该信息交换可包括一种操作者相对于根据本发明的视频图象的产生而选择和/或输入的信息。
当一个图象序列随着时间而被分段时,当所希望的段的部分被其他的段所遮挡时,它们可不被定义。例如图1中的矩形段120,当圆110如图1所示地遮挡了它时可不被定义,段104和F162、段204C。本发明的要点,是以一种实际的方式填充丢失的信息的能力。
为了描述的目的,我们将从一些简单的情况开始,并推广到一般的情况下,如图8中所概括的。
图1中的背景108代表了最容易的情况。当圆110和矩形120移过背景108时,背景的不同区域被暴露。当背景不移动时,第一帧中的未定义的象素的值可通过看随后的帧中的相同的象素位置而被找到。这是一种直接的暂态查询。注意这种查询在时间上可以是向前或向后的。
图1中的矩形120提供一种更难的情况。当矩形移动时,我们不能在其他的时刻在相同的位置寻找矩形的一个值-该矩形不在那里。对于该矩形,我们必须确定其运动并随后在暂态查询中对这种运动进行补偿。对于每对随后的帧,我们分析数据的运动。这可借助区域(诸如MPEG运动估计)或借助象素或借助很多其他的方法来进行。这种运动应该在分段的图象上进行分析;否则,运动对象的运动可能进行干扰。例如,如果我们试图在圆仍然在帧中的情况下分析矩形的运动,我们可能被掷出。然而,我们不能在矩形没有被定义的情况下直接分析它的运动。因此,我们内插定义的区域的运动以完全定义该矩形的运动。这对应于图8的步骤801和803。可选地,所产生的运动矢量可能得到暂态平滑,以定义一种均匀的运动,如步骤802所示。
一旦已经确定的矩形的运动,我们就能够通过沿着运动矢量在时间上向前和向后地进行搜索,而暂态地查询丢失的值(步骤804)。一旦有关的象素被找到,它们就能够得到过滤以产生未定义的象素的值(步骤805)。这种过程得到重复,直到所有未定义的象素都得到填充。随后,可采用一些空间边缘清晰化处理(如步骤806所示)。
在此例中,运动是帧或帧的部分之间的变换。
在最一般的情况下,超出运动之外的变换可以得到确定;转动、平移、缩放、以及变形都可得到分析。在这些情况下,暂态相关的信息变得更为复杂。例如,如果发现了缩放变换,当前的象素可与其他帧中的一个象素的一部分或其他帧中的一组象素相关。在这两种情况中的任何一种之下,所有暂态相关的象素都可被用来确定当前的值。考虑一个对象向屏幕移来,该对象将具有缩放变换-它随着时间而增大。在一个时刻t未定义的象素可在时刻t+5与8个象素暂态相关。这8个象素随后可被空间滤波(即被平均),并与来自其他帧的其他暂态相关数据相结合以产生在时刻t的一个值。
当然,也有没有可获得的暂态信息的时候-诸如当一个对象静止时。在这些情况下,在关键帧中的信息利用其他的方法(即手动或采用空间映象和滤波)而得到产生。一旦完成了一个关键帧,这种信息可暂态时间提供给其他的帧。
虽然本发明的一个最佳实施例利用了一种基于通用处理器的系统,应该理解的是可采用适合于根据本发明的操作的专用装置和/或通用装置的任何组合。例如,一种基于通用处理器的系统可得到适配,以实现本发明的具体的方面,而与其耦合的一个专用视频图象发生装置则实现其他的方面。
机器视觉算法710提供的机器视觉技术可用于区分在一个具体的源图象中出现的对象。例如,利用这些技术,本发明能够把帧102-106的圆110和矩形120彼此区分或与一个背景相区分等等。
用于区分一个图象的对象的具体方法可以是若干这样的方法中的任何一个。在最简单的形式下,一个操作者通过采用操作者界面可把感兴趣的具体对象分开,诸如通过识别借助具体对象识别的空域信息的一个子集。或者,该处理器系统可通过采用诸如可选的知识数据库711的基于知识的系统,而区分一个图象中的对象。类似地,该处理器系统可访问一系列的帧以通过结合整个该系列的帧中的空域数据而区分具体的对象。后两种方法的优点在于需要很少或不需要操作者的输入来区分对象。
来自在图象内区分的对象,可选择将要对其或为其进行图象修正的具体对象。例如,一个操作者可识别将要被本发明操纵的具体对象图象。类似地,本发明可根据诸如一个对象从帧到帧的相对运动的信息,而进行一种确定。当然,所有的对象都可被用于图象修正,如果希望的话。
随后,根据本发明的一个最佳实施例,机器视觉算法710跟踪一个画面的所有帧(诸如帧序列102-106)中的选定对象,如此,该处理器系统被用来区分整个帧系列中的各个选定对象。
当然,当根据本发明跟踪图象时,可能需要基于知识的系统或图象内插,其中选定的对象之一被另一对象所遮挡。例如,在帧104的圆110和矩形120根据本发明而得到跟踪的情况下,处理器系统可能通过参照矩形的未遮挡部分和内插它们之间的区域而进行了有关矩形120的存在和所在的一个判定。另外,或或者,本发明可通过参照一个序列中的其他的帧,而对该系列的帧中的一个帧中的一个对象进行跟踪。例如,矩形120在帧104中的存在和所在可从矩形120在帧103和105中的存在在所在而得到内插。
从通过跟踪画面的各个帧中的各个选定对象而收集的信息,各个帧的图象可被分解成“小网格”。本发明的小网格是这样的帧图象表示,即它具有所有的信息,只是与从其除去的一个具体识别的对象相关的信息除外。较好地,本发明的小网格是存储在RAM 702中的数字化的图象信息组,用于在源视频图象信息的操纵中得到利用。当然,这些小网格可以按照需要而作为图象被显示或输出,诸如通过PC 700的操作者界面。
参见图2,其中显示了与图1中所示的画面的帧102-106有关的小网格图象。在一个帧的各个小网格中,在此与帧102相关的小网格202a、202b和202c包括了在整个画面中被跟踪的对象。应该理解的是,小网格202a-206a,虽然在此被称为包括“对象”,实际不包括被跟踪的对象,但包括了当所涉及的对象被除去时一个图象的其余部分。然而,在此术语对象的使用应该包括这样的一种背景图象。
图2的小网格包括图象中的间隙。例如,小网格202a-206a每一个都包括了间隙,在这些间隙除去的对象遮挡了背景。类似地,小网格204c包括了矩形120中的一个间隙,在那里其一个部分被该帧图象中的圆110所遮挡。应该理解的是,这些间隙是由于图象的两维表示造成的信息缺乏而产生的。
虽然在开始时不是可从一个画面的各个图象中获得的,本发明用于提取有关各个小网格的各个对象的信息。上述基于知识的系统或图象内插技术可被用来填充由于一个对象的遮挡而丢失的信息。较好地,为了提供有关小网格图象的丢失部分的信息,本发明可参照序列中的、其中感兴趣的信息未被遮挡的其他帧。例如,从小网格203的图象中丢失的信息可从小网格202a和/或204a内插。当然,对从画面中的邻接小网格内插丢失信息是没有限制的。来自与丢失信息有关的任何小网格的信息都可根据本发明而得到使用。
当一个图象序列随着时间而被分段时,所希望的段的部分在它们被其他段所遮挡时可能未被定义。例如,图1中的矩形段120在圆110如图1所示地已经遮挡它时未被定义,以及段104和图2及段204c。本发明的基本之处是以一种实际的方式填充这种丢失的数据。
为了展示的目的,我们开始于某些简单的情况并推广到一般的情况,如图8所概括的。
图1中的背景108代表了最容易的情况。当圆110和矩形120移过背景108时,背景的不同区域被暴露。当背景不移动时,第一帧中的未定义的象素的值可通过看随后的帧中的相同的象素位置而被找到。这是一种直接的暂态查询。注意这种查询在时间上可以是向前或向后的。
图1中的矩形120提供一种更难的情况。当矩形移动时,我们不能在其他的时刻在相同的位置寻找矩形的一个值-该矩形不在那里。对于该矩形,我们必须确定其运动并随后在暂态查询中对这种运动进行补偿。对于每对随后的帧,我们分析数据的运动。这可借助区域(诸如MPEG运动估计)或借助象素或借助很多其他的方法来进行。这种运动应该在分段的图象上进行分析;否则,运动对象的运动可能进行干扰。例如,如果我们试图在圆仍然在帧中的情况下分析矩形的运动,我们可能被掷出。然而,我们不能在矩形没有被定义的情况下直接分析它的运动。因此,我们内插定义的区域的运动以完全定义该矩形的运动。这对应于图8的步骤801和803。可选地,所产生的运动矢量可能得到暂态平滑,以定义一种均匀的运动,如步骤802所示。
一旦已经确定的矩形的运动,我们就能够通过沿着运动矢量在时间上向前和向后地进行搜索,而暂态地查询丢失的值(步骤804)。一旦有关的象素被找到,它们就能够得到过滤以产生未定义的象素的值(步骤805)。这种过程得到重复,直到所有未定义的象素都得到填充。随后,可采用一些空间边缘清晰化处理(如步骤806所示)。
在此例中,运动是帧或帧的部分之间的变换。
在最一般的情况下,超出运动之外的变换可以得到确定;转动、平移、缩放、以及变形都可得到分析。在这些情况下,暂态相关的信息变得更为复杂。例如,如果发现了缩放变换,当前的象素可与其他帧中的一个象素的一部分或其他帧中的一组象素相关。在这两种情况中的任何一种之下,所有暂态相关的象素都可被用来确定当前的值。考虑一个对象向屏幕移来,该对象将具有缩放变换-它随着时间而增大。在一个时刻t未定义的象素可在时刻t+5与8个象素暂态相关。这8个象素随后可被空间滤波(即被平均),并与来自其他帧的其他暂态相关数据相结合以产生在时刻t的一个值。
当然,也有没有可获得的暂态信息的时候-诸如当一个对象静止时。在这些情况下,在关键帧中的信息利用其他的方法(即手动或采用空间映象和滤波)而得到产生。一旦完成了一个关键帧,这种信息可暂态时间提供给其他的帧。
或者,本发明可通过引用具体的帧(而不是一个画面的那些帧)的信息,来内插丢失的信息,或者该信息可被手工着色或从直接输入以外的来源获得。一旦输入了数据的一部分,该系统就能够利用该数据来完成3D模型。在此,例如,基于处理器的系统可利用一种基于知识的系统,以引用可获得的数据并从其产生兼容的填充数据。在丢失的信息是一个均匀图象的一部分-诸如小网格202a-206a的背景,填充数据的产生是必须的。然而,当图象不是均匀图象时,填充数据的产生可能要求根据丢失部分周围的图象信息来进行信息外插。
一旦产生了填充数据,小网格的对象可被完成,从而使各个小网格包括有关帧图象的边界内的各个对象的图象的完整信息。参见图3,图2的小网格得到了显示,它们包括所产生的填充数据。在此小网格302a-206a,302b-206b,以及302c-206c分别对应于小网格202a-206a,202b-206b和202c-206c,这些小网格又对应于图1的帧102-106。
应该理解的是,通过利用可从本发明的小网格获得的信息,图象对象能够得到操纵,从而通过诸如采用视频发生算法720,以产生与源图象非常不同的所产生的视频图象。例如,对象可相对彼此和/或背景而移动,而不造成在所产生的图象上出现洞或间隙。类似地,根据本发明对象可被完全除去,同时仍然产生完整的图象。另外,本发明提取的信息可被用于产生原来的帧,诸如将要被暂态置于图--的画面之间的那些帧。在此所产生的图象可被用来提供显示例如对象的更为平滑的运动的一个画面。
另外,本发明提供了足够的信息,从该信息可确定和显示图象的三维方面。例如,通过在上述图象对象的跟踪中取得的信息,可以容易地想到当矩形120和圆110通过画面时矩形120被设置在比圆110距该有利点更远的一个平面内。这是显然的,因为圆110必须被设置在距观看者更近处以在对象通过时遮挡矩形120。
另外,具有了有关各个小网格因而各个帧的各个对象的完整信息,本发明可确定各个对象的三维平面方面。例如,各个对象从帧到帧的相对大小信息可被用来确定对象在整个画面中进入或出来的运动。这种信息与对象彼此的相对平面信息相结合,即使在一个对象未遮挡另一的情况下,也可被用来外插对象的相对平面。
本发明可以以若干方式中的任何一种来利用上述信息。通过与上述确定的相对平面信息相结合地提供深度信息,图象可被给予三维图象增强。例如,通过采用视频发生技术,诸如描绘,代表对象投向的阴影的图象阴影处理可被用来产生一种三维效果。
这种阴影处理的结果被加到帧104的图象的结果被显示在图4中。从图4的图象,应该理解的是,单独的深度信息的提供虽然产生了一种比两维源图象健全得多的三维光学效果,但也未提供象一个人实际所能够观看到的那样健全的图象。这是由于出现在该图象中的对象是平坦的图象,它们根据上述的深度信息而被彼此相距地设置。
因此,根据本发明的一个最佳实施例,除了深度信息之外,对象本身被给予了深度。这是通过诸如三维计算机模型处理的视频发生技术而实现的。在此,例如,处理器系统可产生表示对象的全部形状的一种三维连线帧。随后,如在本发明的小网格中描绘的该图象信息图象信息可被围绕在这种连线帧周围以给予对象一个深度方面。
当然,根据本发明也可以采用上述三维模型处理以外的方法,以给予对象一种深度方面。例如,对象阴影处理和高调处理可根据一种视频发生技术而得到实现,以模拟一个具体对象的深度。
在为小网格的各个对象给出了一个深度方面之后,本发明可利用该小网格信息来提供一种健全的产生图象。参见图5A,其中显示了具有深度方面的帧104的矩形120和圆110的一个上方视图。从此视图,可以看到圆110被倾斜以使圆的顶部比底部更接近背景。类似地,可以看到矩形仍然是纵向的,但围绕在了一个连线帧模型周围(即一个ovular柱面的左边)。当然,图5A所示的对象的方面可以是任意的,且实际上可以包括使用任何图象操纵技术。
参见图5B,其中显示了如图5A中显示的采用小网格的健全信息而产生的图象。如在图4的图象中,阴影已经被加到所产生的图象上以产生一种三维光学效果。然而,应该理解的是,与图4的图象不同,图5的图象包括了表示更为健全的对象的深度方面的阴影处理。这种阴影处理以圆110和矩形120的矩形影子以及矩形110离开光源的弯曲造成的其面上的影子的畸变的形式来表现其自己。
除了提供如上所述的更为健全的两维图象的能力之外,本发明还被用于产生立体图象。利用从本发明的小网格获得的信息,对象可得到操纵,以产生相关的所产生的视频图象组,这些图象当被同时观看时提供了牢固或深度的效果。例如,本发明可利用小网格信息并与重叠的视频发生技术相结合,以产生两个新的视频图象,其中各个图象的对象以略微的变化重叠。利用如上所述的深度信息,本发明可确定一个适当的量,以调节各个产生的图象内的各个对象的设置,以当略微不同的图象被提供给观看者的两眼中的每一只眼睛时产生深度的感觉。这种三维感觉是由于图象内的对象的设置所引起的视差的小的差别而获得的。
参见图6A,其中显示了加有上述健全深度信息的对象圆110和矩形120可如何被物理放置的一个上方视图。还显示了与对象的观看者的左和右眼有关的投射视线。从该图可以看到,存在与观看者的左和右眼相关的一个略微的位移。由于与各眼相联系的视点略微不同,这种位移造成了视差的差别。
通过获得有关各个小网格的全部对象信息,本发明可产生图6A所示的与各眼的视点相关的一种图象。因此,提供圆110和矩形120的略微不同的重叠的两个图象可根据本发明而得到产生,如图6B所示。当观看者的左和右眼各被提供了一个图象时,实现了立体的视觉,因为各眼的视点(包括视差的不同)被相关的眼所准确而独立地再现。
应该理解的是,根据本发明实现的立体三维视觉是根据本发明从单个的两维源图象导出的。当然,虽然在图6B中未显示,诸如上述阴影处理的额外的健全信息可被包括在该立体图象中以进一步增强三维表示的效果。
虽然结合一个序列或画面的源图象描述了本发明的一个最佳实施例,应该理解的是,一种替换实施例可利用内插技术和/或如上所述的基于知识的系统,以提取有关一个单个的帧的丢失信息。因此,本发明可被用来提供一种增强的图象,而不参照一系列的源图象。
类似地,虽然在此已经讨论了使用一个单个的源图象或一系列的源图象,应该理解的是,本发明可结合多个源图象而得到利用。例如,经过视频摄象机而获得的一个源图象可与一个基于处理器的系统所产生的一个图象相混合,以产生根据本发明的一种立体的图象组。
另外,应该理解的是,虽然已经讨论了一个最佳实施例,其中有关对象的信息得到提取以产生具有与各个对象相关的完整对象信息的小网格,也可以采用部分的对象信息。例如,由于提供具有适当的视差所需的信息通常只要求少量的有关遮挡的对象部分的额外信息,根据本发明可在所用的小网格不具有完整的对象信息的情况下产生立体图象。
虽然已经详细描述了本发明及其优点,应该理解的是,在不脱离如所附权利要求书所限定的本发明的精神和范围的前提下可以进行各种改变、取代和替换。

Claims (14)

1.用于对一个序列的源图象进行数字处理的系统,所述系统包括:
用于区分所述序列的源图象中表示的各个对象以产生被区分的对象的装置;
用于根据所述被区分的对象把所述源图象的序列分解成图象小格的装置,其中各个所述图象小格只包括有关一个被区分的对象的图象数据;
用于标明与在一个临时域中的缩放变换有关的选定的被区分的对象的装置;
用于确定所述选定的被区分的对象的相对平面的装置;
用于产生立体增强的图象小格的装置,其中所述用于产生立体增强的图象小格的所述装置利用所述相对平面来产生所述立体增强的图象小格。
2.根据权利要求1的系统,其中所述用于产生立体增强的图象小格的装置为所述被区分的对象中的一个被区分的对象产生立体的图象小格对。
3.根据权利要求2的系统,其中所述用于产生立体增强的图象小格的装置利用所述立体的图象小格对中的不同的相对位置来定位所述被区分的对象中的所述一个被区分的对象。
4.根据权利要求1的系统,进一步包括:
用于向所述被区分的对象提供深度增强的装置。
5.根据权利要求4的系统,其中所述用于提供深度增强的装置为所述被区分的对象中的某些被区分的对象产生一种连线帧。
6.根据权利要求4的系统,其中所述用于提供深度增强的装置产生阴影信息。
7.根据权利要求6的系统,其中所述用于提供深度增强的装置在所述被区分的对象中的一个第二被区分的对象上产生所述被区分的对象中的一个第一个被区分的对象的一个阴影。
8.用于对一个序列的源图象进行数字处理的一种方法,所述方法包括:
区分所述序列的源图象中表示的各个对象以产生被区分的对象;
根据所述被区分的对象把所述源图象序列分解成图象小格,其中各个所述图象小格只包括有关一个被区分的对象的图象数据;
标明与在一个临时域中的缩放变换有关的选定的被区分的对象;
确定所述选定的被区分的对象的相对平面;
利用所述相对平面而从所述图象小格产生立体增强的图象小格。
9.根据权利要求8的方法,其中所述用于产生立体增强的图象小格的所述步骤为所述被区分的对象中的一个被区分的对象产生立体的图象小格对。
10.根据权利要求9的系统,其中所述用于产生立体增强的图象小格的步骤利用所述立体的图象小格对中的不同的相对位置来定位所述被区分的对象中的所述一个被区分的对象。
11.根据权利要求8的方法,进一步包括:
用于向所述被区分的对象提供深度增强。
12.根据权利要求11的方法,其中所述用于提供深度增强的步骤为所述被区分的对象中的某些被区分的对象产生一种连线帧。
13.根据权利要求11的方法,其中所述用于提供深度增强的步骤产生阴影信息。
14.根据权利要求13的方法,其中所述用于提供深度增强的所述步骤在所述被区分的对象中的一个第二被区分的对象上产生所述被区分的对象中的一个第一个被区分的对象的一个阴影。
CNB998146315A 1998-11-19 1999-11-18 用于从顺序的2d图象数据产生3d模型的系统和方法 Expired - Fee Related CN1144157C (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US09/195,889 US6466205B2 (en) 1998-11-19 1998-11-19 System and method for creating 3D models from 2D sequential image data
US09/195,889 1998-11-19

Publications (2)

Publication Number Publication Date
CN1331822A CN1331822A (zh) 2002-01-16
CN1144157C true CN1144157C (zh) 2004-03-31

Family

ID=22723245

Family Applications (1)

Application Number Title Priority Date Filing Date
CNB998146315A Expired - Fee Related CN1144157C (zh) 1998-11-19 1999-11-18 用于从顺序的2d图象数据产生3d模型的系统和方法

Country Status (8)

Country Link
US (1) US6466205B2 (zh)
EP (1) EP1141893B1 (zh)
CN (1) CN1144157C (zh)
AT (1) ATE294425T1 (zh)
AU (1) AU760594B2 (zh)
CA (1) CA2350657C (zh)
DE (1) DE69925033T2 (zh)
WO (1) WO2000030039A1 (zh)

Families Citing this family (92)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8396328B2 (en) 2001-05-04 2013-03-12 Legend3D, Inc. Minimal artifact image sequence depth enhancement system and method
US7907793B1 (en) 2001-05-04 2011-03-15 Legend Films Inc. Image sequence depth enhancement system and method
JP2002123708A (ja) * 2000-10-16 2002-04-26 Sony Corp 商品受注システム及び商品受注方法
US7203648B1 (en) 2000-11-03 2007-04-10 At&T Corp. Method for sending multi-media messages with customized audio
US6963839B1 (en) 2000-11-03 2005-11-08 At&T Corp. System and method of controlling sound in a multi-media communication application
US20080040227A1 (en) 2000-11-03 2008-02-14 At&T Corp. System and method of marketing using a multi-media communication system
US7091976B1 (en) 2000-11-03 2006-08-15 At&T Corp. System and method of customizing animated entities for use in a multi-media communication application
US6976082B1 (en) 2000-11-03 2005-12-13 At&T Corp. System and method for receiving multi-media messages
US6990452B1 (en) 2000-11-03 2006-01-24 At&T Corp. Method for sending multi-media messages using emoticons
US6621500B1 (en) * 2000-11-17 2003-09-16 Hewlett-Packard Development Company, L.P. Systems and methods for rendering graphical data
US6985162B1 (en) * 2000-11-17 2006-01-10 Hewlett-Packard Development Company, L.P. Systems and methods for rendering active stereo graphical data as passive stereo
US9286941B2 (en) 2001-05-04 2016-03-15 Legend3D, Inc. Image sequence enhancement and motion picture project management system
US8401336B2 (en) 2001-05-04 2013-03-19 Legend3D, Inc. System and method for rapid image sequence depth enhancement with augmented computer-generated elements
US7671861B1 (en) * 2001-11-02 2010-03-02 At&T Intellectual Property Ii, L.P. Apparatus and method of customizing animated entities for use in a multi-media communication application
US20030187820A1 (en) 2002-03-29 2003-10-02 Michael Kohut Media management system and process
CN1304958C (zh) * 2002-04-15 2007-03-14 Kaj株式会社 显示虚拟现实空间的方法和显示虚拟现实空间的装置
US7179171B2 (en) * 2002-06-24 2007-02-20 Mitsubishi Electric Research Laboratories, Inc. Fish breeding toy for cellular telephones
US20040204127A1 (en) * 2002-06-24 2004-10-14 Forlines Clifton L. Method for rendering with composited images on cellular telephones
US7639838B2 (en) * 2002-08-30 2009-12-29 Jerry C Nims Multi-dimensional images system for digital image input and output
JP3854229B2 (ja) * 2003-01-07 2006-12-06 株式会社東芝 画像処理装置
WO2004060157A1 (en) * 2003-01-07 2004-07-22 Philips Intellectual Property & Standards Gmbh Method and arrangement for tracking a medical instrument
US10140514B1 (en) * 2004-01-30 2018-11-27 Ip Holdings, Inc. Capturing and sharing images with mobile device users including for a limited duration of time
US11455799B2 (en) 2004-01-30 2022-09-27 Airspace Reality Image networks for mobile communication
EP1587035A1 (en) * 2004-04-14 2005-10-19 Koninklijke Philips Electronics N.V. Ghost artifact reduction for rendering 2.5D graphics
DE102004037464A1 (de) * 2004-07-30 2006-03-23 Heraeus Kulzer Gmbh Anordnung zur Abbildung von Oberflächenstrukturen dreidimensionaler Objekte
US7542034B2 (en) 2004-09-23 2009-06-02 Conversion Works, Inc. System and method for processing video images
US20080259073A1 (en) * 2004-09-23 2008-10-23 Conversion Works, Inc. System and method for processing video images
US20080246836A1 (en) * 2004-09-23 2008-10-09 Conversion Works, Inc. System and method for processing video images for camera recreation
US8004515B1 (en) * 2005-03-15 2011-08-23 Nvidia Corporation Stereoscopic vertex shader override
US7318001B2 (en) 2005-05-03 2008-01-08 Cnv Technologies, Llc Method and apparatus for collecting data for detecting and locating disturbances
US20090167843A1 (en) * 2006-06-08 2009-07-02 Izzat Hekmat Izzat Two pass approach to three dimensional Reconstruction
EP2082372A1 (en) * 2006-11-17 2009-07-29 THOMSON Licensing System and method for model fitting and registration of objects for 2d-to-3d conversion
US7952576B2 (en) * 2006-12-20 2011-05-31 Canon Kabushiki Kaisha Image processing apparatus and method thereof
US8655052B2 (en) * 2007-01-26 2014-02-18 Intellectual Discovery Co., Ltd. Methodology for 3D scene reconstruction from 2D image sequences
US20080228449A1 (en) * 2007-03-12 2008-09-18 Conversion Works, Inc. Systems and methods for 2-d to 3-d conversion using depth access segments to define an object
US20080226128A1 (en) * 2007-03-12 2008-09-18 Conversion Works, Inc. System and method for using feature tracking techniques for the generation of masks in the conversion of two-dimensional images to three-dimensional images
US20080226181A1 (en) * 2007-03-12 2008-09-18 Conversion Works, Inc. Systems and methods for depth peeling using stereoscopic variables during the rendering of 2-d to 3-d images
US20080226194A1 (en) * 2007-03-12 2008-09-18 Conversion Works, Inc. Systems and methods for treating occlusions in 2-d to 3-d image conversion
US20080226160A1 (en) * 2007-03-12 2008-09-18 Conversion Works, Inc. Systems and methods for filling light in frames during 2-d to 3-d image conversion
US8274530B2 (en) * 2007-03-12 2012-09-25 Conversion Works, Inc. Systems and methods for filling occluded information for 2-D to 3-D conversion
US20080225059A1 (en) * 2007-03-12 2008-09-18 Conversion Works, Inc. System and method for using off-screen mask space to provide enhanced viewing
US20080225040A1 (en) * 2007-03-12 2008-09-18 Conversion Works, Inc. System and method of treating semi-transparent features in the conversion of two-dimensional images to three-dimensional images
US20080225045A1 (en) * 2007-03-12 2008-09-18 Conversion Works, Inc. Systems and methods for 2-d to 3-d image conversion using mask to model, or model to mask, conversion
US20080225042A1 (en) * 2007-03-12 2008-09-18 Conversion Works, Inc. Systems and methods for allowing a user to dynamically manipulate stereoscopic parameters
US20110043540A1 (en) * 2007-03-23 2011-02-24 James Arthur Fancher System and method for region classification of 2d images for 2d-to-3d conversion
FR2914437A1 (fr) * 2007-04-02 2008-10-03 Artistic Images Soc Par Action Procede de traitement d'image pour la synthese d'image autostereoscopique
US9138636B2 (en) 2007-05-16 2015-09-22 Eyecue Vision Technologies Ltd. System and method for calculating values in tile games
CN100562092C (zh) * 2007-06-25 2009-11-18 中兴通讯股份有限公司 基于可视电话通话的图片信息录入方法和系统
US8086071B2 (en) * 2007-10-30 2011-12-27 Navteq North America, Llc System and method for revealing occluded objects in an image dataset
US7746098B2 (en) * 2008-03-10 2010-06-29 Qimonda North America Corp. Termination switching based on data rate
US8200466B2 (en) 2008-07-21 2012-06-12 The Board Of Trustees Of The Leland Stanford Junior University Method for tuning patient-specific cardiovascular simulations
US9172940B2 (en) 2009-02-05 2015-10-27 Bitanimate, Inc. Two-dimensional video to three-dimensional video conversion based on movement between video frames
US8436852B2 (en) * 2009-02-09 2013-05-07 Microsoft Corporation Image editing consistent with scene geometry
US9405886B2 (en) 2009-03-17 2016-08-02 The Board Of Trustees Of The Leland Stanford Junior University Method for determining cardiovascular information
US8326088B1 (en) * 2009-05-26 2012-12-04 The United States Of America As Represented By The Secretary Of The Air Force Dynamic image registration
US9595108B2 (en) 2009-08-04 2017-03-14 Eyecue Vision Technologies Ltd. System and method for object extraction
KR20120089452A (ko) 2009-08-04 2012-08-10 아이큐 비젼 테크놀로지즈 리미티드 물체 추출 시스템 및 방법
US8254760B2 (en) * 2009-08-28 2012-08-28 Apple Inc. Pixel analysis and frame alignment for background frames
WO2011118215A1 (ja) * 2010-03-24 2011-09-29 パナソニック株式会社 映像処理装置
US9053562B1 (en) 2010-06-24 2015-06-09 Gregory S. Rabin Two dimensional to three dimensional moving image converter
US9132352B1 (en) 2010-06-24 2015-09-15 Gregory S. Rabin Interactive system and method for rendering an object
KR20120007289A (ko) * 2010-07-14 2012-01-20 삼성전자주식회사 디스플레이 장치 및 그 입체감 설정 방법
EP2596475B1 (en) * 2010-07-19 2019-01-16 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Filling disocclusions in a virtual view
US8315812B2 (en) 2010-08-12 2012-11-20 Heartflow, Inc. Method and system for patient-specific modeling of blood flow
US8157742B2 (en) 2010-08-12 2012-04-17 Heartflow, Inc. Method and system for patient-specific modeling of blood flow
US9336452B2 (en) 2011-01-16 2016-05-10 Eyecue Vision Technologies Ltd. System and method for identification of printed matter in an image
US8730232B2 (en) 2011-02-01 2014-05-20 Legend3D, Inc. Director-style based 2D to 3D movie conversion system and method
US9288476B2 (en) 2011-02-17 2016-03-15 Legend3D, Inc. System and method for real-time depth modification of stereo images of a virtual reality environment
US9113130B2 (en) 2012-02-06 2015-08-18 Legend3D, Inc. Multi-stage production pipeline system
US9282321B2 (en) 2011-02-17 2016-03-08 Legend3D, Inc. 3D model multi-reviewer system
US9407904B2 (en) 2013-05-01 2016-08-02 Legend3D, Inc. Method for creating 3D virtual reality from 2D images
US9241147B2 (en) 2013-05-01 2016-01-19 Legend3D, Inc. External depth map transformation method for conversion of two-dimensional images to stereoscopic images
JP2012256110A (ja) * 2011-06-07 2012-12-27 Sony Corp 情報処理装置、情報処理方法およびプログラム
KR20130021127A (ko) * 2011-08-22 2013-03-05 삼성전자주식회사 영상처리장치 및 그 제어방법
US9236024B2 (en) 2011-12-06 2016-01-12 Glasses.Com Inc. Systems and methods for obtaining a pupillary distance measurement using a mobile computing device
US9813607B2 (en) 2011-12-16 2017-11-07 Nokia Technologies Oy Method and apparatus for image capture targeting
US8548778B1 (en) 2012-05-14 2013-10-01 Heartflow, Inc. Method and system for providing information from a patient-specific model of blood flow
US9483853B2 (en) 2012-05-23 2016-11-01 Glasses.Com Inc. Systems and methods to display rendered images
US9286715B2 (en) 2012-05-23 2016-03-15 Glasses.Com Inc. Systems and methods for adjusting a virtual try-on
US9235929B2 (en) 2012-05-23 2016-01-12 Glasses.Com Inc. Systems and methods for efficiently processing virtual 3-D data
JP2014038229A (ja) * 2012-08-17 2014-02-27 Sony Corp 画像処理装置、画像処理方法、及びプログラム
US9007365B2 (en) 2012-11-27 2015-04-14 Legend3D, Inc. Line depth augmentation system and method for conversion of 2D images to 3D images
US9547937B2 (en) 2012-11-30 2017-01-17 Legend3D, Inc. Three-dimensional annotation system and method
US9992021B1 (en) 2013-03-14 2018-06-05 GoTenna, Inc. System and method for private and point-to-point communication between computing devices
US9007404B2 (en) 2013-03-15 2015-04-14 Legend3D, Inc. Tilt-based look around effect image enhancement method
US9438878B2 (en) 2013-05-01 2016-09-06 Legend3D, Inc. Method of converting 2D video to 3D video using 3D object models
US9609307B1 (en) 2015-09-17 2017-03-28 Legend3D, Inc. Method of converting 2D video to 3D video using machine learning
US10282898B1 (en) 2017-02-23 2019-05-07 Ihar Kuntsevich Three-dimensional scene reconstruction
US10453252B2 (en) 2017-05-08 2019-10-22 Disney Enterprises, Inc. 3D model construction from 2D assets
CN109191369B (zh) * 2018-08-06 2023-05-05 三星电子(中国)研发中心 2d图片集转3d模型的方法、存储介质和装置
US10810759B2 (en) 2018-11-20 2020-10-20 International Business Machines Corporation Creating a three-dimensional model from a sequence of images
CN112712584B (zh) 2019-10-25 2024-05-24 阿里巴巴集团控股有限公司 空间建模方法、装置、设备

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4925294A (en) 1986-12-17 1990-05-15 Geshwind David M Method to convert two dimensional motion pictures for three-dimensional systems
JP2953712B2 (ja) * 1989-09-27 1999-09-27 株式会社東芝 移動物体検知装置
US5633995A (en) * 1991-06-19 1997-05-27 Martin Marietta Corporation Camera system and methods for extracting 3D model of viewed object
US5706417A (en) * 1992-05-27 1998-01-06 Massachusetts Institute Of Technology Layered representation for image coding
US5598515A (en) * 1994-01-10 1997-01-28 Gen Tech Corp. System and method for reconstructing surface elements of solid objects in a three-dimensional scene from a plurality of two dimensional images of the scene
US5511153A (en) * 1994-01-18 1996-04-23 Massachusetts Institute Of Technology Method and apparatus for three-dimensional, textured models from plural video images
US5635982A (en) * 1994-06-27 1997-06-03 Zhang; Hong J. System for automatic video segmentation and key frame extraction for video sequences having both sharp and gradual transitions
US5805733A (en) 1994-12-12 1998-09-08 Apple Computer, Inc. Method and system for detecting scenes and summarizing video sequences
US5546518A (en) * 1995-01-06 1996-08-13 Microsoft Corporation System and method for composing a display frame of multiple layered graphic sprites
IL113496A (en) * 1995-04-25 1999-09-22 Cognitens Ltd Apparatus and method for recreating and manipulating a 3d object based on a 2d projection thereof
US5768415A (en) * 1995-09-08 1998-06-16 Lucent Technologies Inc. Apparatus and methods for performing electronic scene analysis and enhancement
US5818959A (en) * 1995-10-04 1998-10-06 Visual Interface, Inc. Method of producing a three-dimensional image from two-dimensional images
US6052492A (en) * 1997-12-09 2000-04-18 Sun Microsystems, Inc. System and method for automatically generating an image to represent a video sequence

Also Published As

Publication number Publication date
CA2350657C (en) 2008-05-20
DE69925033T2 (de) 2006-03-09
US20010052899A1 (en) 2001-12-20
CA2350657A1 (en) 2000-05-25
EP1141893B1 (en) 2005-04-27
US6466205B2 (en) 2002-10-15
CN1331822A (zh) 2002-01-16
EP1141893A1 (en) 2001-10-10
AU1918000A (en) 2000-06-05
AU760594B2 (en) 2003-05-15
WO2000030039A1 (en) 2000-05-25
DE69925033D1 (de) 2005-06-02
ATE294425T1 (de) 2005-05-15

Similar Documents

Publication Publication Date Title
CN1144157C (zh) 用于从顺序的2d图象数据产生3d模型的系统和方法
Cao et al. Semi-automatic 2D-to-3D conversion using disparity propagation
Konrad et al. Learning-based, automatic 2D-to-3D image and video conversion
CN1241419C (zh) 用于多视图合成的方法
RU2612378C1 (ru) Способ замены объектов в потоке видео
CN108513123B (zh) 一种集成成像光场显示的图像阵列生成方法
US20160172002A1 (en) Multi-stage production pipeline system
US20050104878A1 (en) Method of hidden surface reconstruction for creating accurate three-dimensional images converted from two-dimensional images
CN104272377B (zh) 运动图片项目管理系统
CN102075694A (zh) 用于视频制作、后期制作和显示适应的立体编辑
JP2010522469A (ja) 2d−to−3d変換のための2d画像の領域分類のシステム及び方法
CN102905145B (zh) 立体影像系统、影像产生方法、影像调整装置及其方法
US10271038B2 (en) Camera with plenoptic lens
CN113192206B (zh) 基于目标检测和背景去除的三维模型实时重建方法及装置
US20130257851A1 (en) Pipeline web-based process for 3d animation
US10127714B1 (en) Spherical three-dimensional video rendering for virtual reality
Kekre et al. Creating the color panoramic view using medley of grayscale and color partial images
JP2018528733A (ja) 2dから3dへのビデオフレーム変換
KR20220014037A (ko) 3차원 입체 콘텐츠 제공 장치 및 그 방법
CN101686335A (zh) 一种图像三维模型的获取方法和装置
KR101451236B1 (ko) 3차원 영상 변환 방법 및 그 장치
Feng et al. Asymmetric bidirectional view synthesis for free viewpoint and three-dimensional video
Seitner et al. Trifocal system for high-quality inter-camera mapping and virtual view synthesis
CN114332356A (zh) 一种虚实画面结合方法和装置
WO2006078250A1 (en) Method of hidden surface reconstruction for creating accurate three-dimensional images converted from two-dimensional images

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
ASS Succession or assignment of patent right

Owner name: CONVERSION PRODUCTS CO., LTD.

Free format text: FORMER OWNER: HEADPLAY INC

Effective date: 20050318

C41 Transfer of patent application or patent right or utility model
C56 Change in the name or address of the patentee

Owner name: HEADPLAY INC

Free format text: FORMER NAME OR ADDRESS: PUSH ENTERTAINMENT INC

CP03 Change of name, title or address

Address after: Alberta Canada

Patentee after: HEADPLAY, Inc.

Address before: Alberta Canada

Patentee before: PUSH ENTERTAINMENT Inc.

TR01 Transfer of patent right

Effective date of registration: 20050318

Address after: Alberta Canada

Patentee after: Conversion products Co.

Address before: Alberta Canada

Patentee before: HEADPLAY, Inc.

C17 Cessation of patent right
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20040331

Termination date: 20111118