CN101971211A - 用于修改数字图像的方法和设备 - Google Patents

用于修改数字图像的方法和设备 Download PDF

Info

Publication number
CN101971211A
CN101971211A CN200980108466.0A CN200980108466A CN101971211A CN 101971211 A CN101971211 A CN 101971211A CN 200980108466 A CN200980108466 A CN 200980108466A CN 101971211 A CN101971211 A CN 101971211A
Authority
CN
China
Prior art keywords
user
digital picture
shade
place
nearside
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN200980108466.0A
Other languages
English (en)
Inventor
H·J·W·贝尔特
C·P·詹斯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips Electronics NV filed Critical Koninklijke Philips Electronics NV
Publication of CN101971211A publication Critical patent/CN101971211A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/60Shadow generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/142Constructional details of the terminal equipment, e.g. arrangements of the camera and the display

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

把被显示给用户(118)的数字图像(110)修改成包括所检测到的、用户(118)的至少一个特征的示象(120),以便使用户(118)有该用户(118)就存在于由该数字图像(110)显示的场景内的印象。

Description

用于修改数字图像的方法和设备
发明领域
本发明涉及用于修改数字图像的方法和设备。
发明背景
已经开发了许多用来改进数字成像的质量的技术。特别是,已经开发了使成像更真实和有较少二维感的技术。一种已知的技术是添加由光源生成的阴影或暗影。已经开发了多种技术,例如像由GB2267409和论文IEEE Transactions on multimedia,vol.1,No.2,June 1999“AugmentedReality with Automatic Illumination Control Incorporating EllipsoidalModels”Jürgen Stauder所公开的。
然而这些技术远不够多。用户越来越多地要求在感觉上更沉浸到(immerse)他们正在观看的场景中,“仿佛他们就在那里”,尤其是在诸如视频电话那样的交互系统中。
随着能访问宽带互联网的人数的增长,IP电话(VOIP)应用正被越来越多地使用,且互联网视频电话也将更广泛地可用。
迄今为止,在这个领域中的许多研究都集中在通过信号处理手段改进视频电话的视听质量。迄今为止,高的视听质量和低的通信延迟被认为是视频电话的大的突破的关键。
即使有完美的视听质量,即使有在非常大的屏幕上的3D图像、有3D声音,以及有最小的通信延迟,但在靠媒介的个人对个人的通信(视频电话)与相同地方的个人对个人的通信之间仍旧有根本的差别。一个这样的方面涉及到以下事实:如果你和其他人在一个房间中,那么你会由于你的确实存在而影响房间中的照明状况:取决于光源的位置,你在墙壁上和/或在与你进行谈话的人身上产生阴影。对于视频电话,你并不影响另一个房间中的照明状况,所以,即使具有最高的视听质量,仍旧没有那种“仿佛你就在那里”的感觉。
发明概要
本发明寻求提供一种系统,它在图像中显示一个场景,并且当观看者在观看它时使观看者有他们就存在于该场景内的感觉。
按照本发明的一个方面,这是通过一种修改正被显示给用户的数字图像的方法而达到的,该方法包括以下步骤:检测正在观看由数字图像显示的场景的用户的至少一个特征;修改数字图像以包括所检测到的至少一个特征的示象(aspect),以便使用户有该用户就存在于由数字图像显示的场景内的印象。
按照本发明的另一个方面,这也是通过一种用于修改正被显示给用户的数字图像的设备而达到的,该设备包括:检测装置,用于检测正在观看由数字图像显示的场景的用户的至少一个特征;和处理装置,用于修改数字图像以包括所检测到的至少一个特征的示象,以便使用户有该用户就存在于由数字图像显示的场景内的印象。
在一个实施例中,用户的所述至少一个特征是从以下项目中选择的至少一项:用户的位置;用户的轮廓;用户的视点。该示象可以是阴影。
这样,正在观看场景的用户在场景中看见他们的阴影,从而在他们观看该场景的时候,使他们有就在那里和增强的沉浸到场景内的感觉。
这个效果可以通过以下方式达到:在用户附近提供虚拟光源;确定由虚拟光源投射的用户的阴影;通过把所确定的阴影添加到数字图像上,而修改正被显示给观看者的数字图像。
数字图像可以通过以下方式而被修改:确定数字图像的每个像素是否处在所确定的阴影的区域内;以及如果确定所述像素处在所确定的阴影的区域内则修改它的亮度。
在一个实施例中,考虑用户的运动,并根据这个运动调节该示象;以及数字图像被修改成包括调节的示象。例如,通过针对特征——诸如用户的轮廓——的任何改变来修改图像而考虑用户的运动。
这样,修改的数字图像保持用户在观看场景时有用户就在该场景内的真实感。
为了增加真实感,可以确定场景内物体的深度信息,以及数字图像可包括根据深度信息来调节示象。
数字图像可以是视频图像,它包括数字图像的多个帧,以及修改数字图像的步骤包括修改每个帧的图像。
本发明的诸方面可被包括在视频电话中,其中数字图像在远侧地点被生成,并经由视听通信链路被传送以便在近侧地点显示。近侧地点远离远侧地点。为了对近侧地点的用户改进真实感,以及可能也对正进行面对面通信的远侧地点的用户改进真实感,检测被包括在数字图像的场景内的在远侧地点的物体的至少一个特征,以及数字图像把该至少一个特征的示象包括到该数字图像内。
按照本发明的再一个方面,提供了用于把具有相关联的音频的数字图像从远侧地点传送到近侧地点的系统,该系统包括:在远侧地点与近侧地点之间的视听通信链路;用于在远侧地点生成数字图像的装置;传送装置,用于把所生成的数字图像经由视听通信链路传送到近侧地点;位于近侧地点的虚拟光源;处理装置,用于确定由虚拟光源投射的、在近侧地点的用户的阴影,并通过把所确定的虚拟阴影添加到传送的数字图像上而修改所传送的数字图像;以及显示装置,用于把修改的数字图像显示给用户。
该处理装置还可以确定由虚拟光源投射的、由所生成数字图像的场景内的远侧地点的至少一个物体投射的阴影,并修改该数字图像以包括所确定的阴影。
附图简述
为了更全面地了解本发明,现在参考结合附图作出的以下的说明,其中:
图1a-d显示在并入本发明实施例的视频电话应用中的、具有显示器的近侧地点(房间)的简单示意图;
图2a-c显示在本发明另一个实施例中的、在示出“流光溢彩(Ambilight)”操作的变例的视频电话应用中的、具有显示器的近侧地点的简单示意图;
图3是使用中的、本发明的实施例的视频电话系统的简单平面图;
图4图示在图3的安排中的虚拟光源及其阴影范围;
图5图示被近侧用户感知的、在远侧地点中的虚拟阴影;
图6显示在图3的实施例的近侧地点中的摄影机安排;
图7a图示远侧图像的例子;
图7b图示按照本发明中实施例的、图7a的图像的分割的结果;
图8图示按照本发明的实施例的、验证显示器的像素是否为阴影像素的例子;
图9图示按照本发明的实施例的、验证显示器的像素是否为阴影像素的另一个例子;
图10a图示在近侧地点中看见的远侧图像,其中添加了远侧用户的阴影;
图10b图示在近侧地点中看见的图10a的远侧图像,其中添加了近侧用户的阴影。
本发明实施例的详细说明
在附图中显示了本发明的应用的例子。参照图1a,显示了包括有显示器110的空的近侧房间(或地点)100,该显示器110显示视频电话系统的远侧用户112的图像。如图1b所示,在近侧地点100(在近侧房间内)提供虚拟光源114。依据远侧用户112相对于远侧地点处环境的位置、光源114的位置和近侧用户的视点,计算远侧用户112的虚拟阴影116,并把它添加到在近侧地点100处接收和显示的图像上,以使得看起来好像远侧用户就在近侧地点100处并受到虚拟光源114影响。图1c图示在近侧地点100处移动虚拟光源114的影响,这使得虚拟阴影116发生改变。图1d图示在近侧地点的、位于虚拟光源114与显示器110之间的近侧用户118的影响。由近侧用户118投射的虚拟阴影被添加到近侧用户118所看见的显示器110上。远侧用户112的虚拟阴影116被显示在他/她后面的墙壁上。
至少一个摄影机被放置在近侧地点100处靠近显示器110的固定的预定位置,并依据摄影机视频信号来计算近侧用户118的位置。依据这个信息,确定由虚拟光源114投射的近侧用户118的虚拟阴影120。近侧用户118的虚拟阴影120被添加到所显示的图像上,且投影在远侧用户112上和他/她后面的墙壁上。为了计算阴影,考虑在近侧地点100处的虚拟光源114的位置、在两侧的用户112、118相对于显示器110的深度位置、以及在远侧地点的墙壁的深度位置,正如下面解释的。
阴影计算在近侧地点100处实时发生,并且仅仅是对于近侧用户118可见的。通过看见他/她在另一个房间中的阴影,对于近侧用户产生改进的存在感觉。为了使得效果更自然,在图像中还提供了远侧用户112的阴影116。
图2a-c图示被安装在显示屏里把光投映在墙壁上的附加光源的效果,比如由流光溢彩TV所提供的,它可以在情境光(ambilight)电视机上提供的显示器中使用。近侧房间200并入了情境光电视,它依据视频内容的分析以这样一种方式生成它的情境光的色彩和强度,即屏幕上的光印象(light impression)以感觉上舒适的方式在墙壁上延伸。结果是增强的‘沉浸的(immersiveness)’感觉。按照本实施例,情境光设置的计算考虑由安装在显示器210内或附近的已知位置处的摄影机(未示出)记录的近侧用户218的图像。由虚拟光源214投射的阴影印象220延伸超出显示器210。
参照图3到7,描述确定虚拟阴影的方法。在视频电话的例子中,在近侧地点303中的近侧用户301经由视听通信链路与在远侧地点307处的远侧用户305通信。远侧地点307远离近侧地点303,而不是如图3所示的。每个用户301、305具有显示器309、313。近侧用户301离显示器309的距离d2是从位于显示器309附近的摄影机确定的。摄影机检测近侧用户301的运动,从而检测d2的改变。在近侧地点303在近侧用户301的后面提供虚拟光源311,这样使得近侧用户301位于显示器309与虚拟光源311之间。虚拟光源311的精确的位置是已知的,因此从所确定的近侧用户301的位置,确定距离d1。同样地,从位于远侧地点307处的显示器313附近的摄影机来确定远侧用户305的位置,从而确定远侧用户305离远侧显示器313的距离d3。而且,通过摄影机确定在远侧用户305后面的墙壁315的位置,从而确定远侧用户305离墙壁315的距离d4
可以意识到,在远侧地点307处也可以提供虚拟光源,以便给远侧用户305提供类似的效果。为了简化起见,本实施例是参考正被近侧用户301看到的效果进行描述的。所以,为了解释本实施例,近侧地点接收来自远侧地点的视听信号,为此,近侧地点此后被看作为通信设置的接收端。远侧地点因此是传送端。
如图3所示,地点是根据坐标系被定义的,其中坐标x,y,z是实数(所以是连续定值的)。在两个房间(地点)之间的墙壁是z=0的平面(墙壁被描绘为有某个厚度,但为了在这里解释起见,它被看作为无限薄的)。虚拟光源的位置由向量plight=(xlight,ylight,zlight)t指示,其中(·)t表示向量转置,这个位置被选择一次,然后就被固定。距离d1到d4沿z方向,屏幕的左和右x坐标分别是xsl和xsr,屏幕的顶部和底部y坐标分别是yst和ysb(yst和ysb在图3上未示出)。
图4图示虚拟光源311如何产生由近侧用户301和近侧(虚拟)光源311造成的、在远侧地点307处的阴影。为了这个解释目的,显示器用连接近侧地点303与远侧地点307的墙壁上的孔替代。
阴影319的投射是虚拟的,且是通过对适当的图像像素进行数字视频处理而被添加到所显示的图像上,以使得它仅仅在近侧地点303处是可见的。
为了创建虚拟阴影,确定哪些图像像素值必须被修改。为了做到这一点,考虑近侧用户301的视点317,如图5所示。在知道虚拟光源311、近侧用户的身体301、显示器309的近侧用户的视点317(peye)、远侧用户的身体305、和远侧背景(墙壁315)的3D位置后,可以计算出显示器图像中应当被修改来显示阴影的像素。
当有多个近侧用户时,那么就有多个视点。原则上,从每个不同的视点看去,在显示器上呈现的阴影应当是不同的。这可以用例如基于双凸透镜设计或基于屏障式(barrier)设计的多视图显示器来完成。阴影效果的感观重要性主要是在于以下概念:在近侧房间中的用户的阴影与该同一个人的运动相一致地移动。然而,对于每个不同的视点呈现不同的阴影在感观上是不太重要的。所以,多视点的呈现可以被忽略,且只需要计算一个阴影。结果,使用普通的2D显示器就足够了。
结果,不必考虑近侧用户的精确的视点。所以,只需要视点距离值d2,并且把视点角度设置为90度(垂直于显示器)。替换地,可以考虑近侧用户的视点位置的精确的知识。为了简化计算,如下地做出近侧视点定位的良好的近似:d2被设置为固定值。接着使用熟知的面部检测算法,诸如由P.Viola和M.J.Jones在“Robust real-time face detection,”International Journal of Computer Vision,vol.57,no.2,pp.137-154,2004中公开的那种算法,以便找到摄影机图像中的矩形面部区域。这个区域的中心然后被取为朝向近侧用户视点的角度。
接着,实时地测量近侧用户在3D环境中占据的空间的图。这被简化为2D分割图。使用被安装在靠近显示器的固定且已知位置处的摄影机601,如图6所指示的,其中为了计算的简单性,已使摄影机对准显示器的垂直中心线。
通过使用基于背景物体(即,房间)是静止而前景物体(即,用户)是非静止的知识的已知图像物体分割技术之一,从摄影机序列中获得近侧分割掩模。一种这样的技术在文献中被称为背景减法(backgroundsubtraction),参阅例如P Noriega和O Bernier,“Real TimeIllumination Invariant Background Subtraction Using Local KernelHistograms”,British Machine Vision Conference BMVC06(III:979)。
近端分割图(或图像)由下式表示:
Dne(c,r)有c∈[0,Wne-1],r∈[0,Hne-1]    (1)
其中c和r分别是整数列和行索引,以及Wne和Hne是近端分割图像的各自的水平和垂直像素量。Dne(c,r)仅仅在其中在摄影机图像中检测到近侧用户的位置处才具有非零值。在图6所描绘的情形下,非零的Dne(c,r)对应于近侧地点中离显示器距离d2处的物体,即,检测到用户301的轮廓。如果距离d2是未知的,则取决于对于给定应用的场景的几何学先验知识而把它固定到某个值。d2的精度不是关键性的。
另外,紧跟在正常接收的图像数据之后,在每个图像帧周期需要来自远侧地点的分割图像。这个分割掩模或者是在传送端被计算出来并被发送到另一侧,或者是在接收端依据进入的视频而计算出来的(通过使用例如背景减法),在图7a和b中给出了例子。优选地,在每个帧周期接收“深度加图像”画面,使得d3和d4是已知的。替换地,可以使用图像的分割和简单地预先定义d3和d4为某些固定值,这些值是基于应用的几何学的先验知识。
在近侧地点303处的显示器309上显示的远侧亮度图像被表示为:
Ife(c,r)有c∈[0,Wfe-1],r∈[0,Hfe-1],   (2)
以及对应的分割图(或图像)被表示为:
Dfe(c,r)有
Figure BPA00001221435100071
Figure BPA00001221435100072
其中c和r再次分别是整数列和行索引。Wfe和Hfe是远端图像和分割图的各自的水平和垂直像素量。Dfe(c,r)在其中在摄影机图像中检测到近端个人的位置处具有非零值,而对于背景(墙壁)具有零值,见图7右面。在图6所描绘的情形下,非零的Dfe(c,r)对应于远端房间中在离显示器平面z=0有距离d3处的物体,以及零的Dfe(c,r)对应于在离显示器平面z=0有距离d3+d4处的物体(墙壁)。
接着计算在近侧地点的屏幕上显示的图像中想要的阴影效果。
扫描图像中的每一行像素,以确定该行中的每个像素是否为阴影像素。如果它不是阴影像素,则亮度Ife(c,r)不改变。如果它是阴影像素,则亮度Ife(c,r)按照下式进行修改:
I ~ fe ( c , r ) = max { I fe ( c , r ) - s , 0 } , - - - ( 4 )
其中s是反映由于阴影而造成的亮度中的想要的下降的数字。为了最具真实感,s被选择为依赖于场景的所有的几何学参数,以使得阴影强度依赖于在虚拟光源、近侧及远侧用户、和远侧墙壁之间的距离而改变。为了简单但仍旧提供逼真的效果,当阴影来自远侧用户时,s可被选择为小的常数s=sfe,而当阴影来自近侧用户时,s可被选择为稍大的常数s=sne
为了确定远侧图像中的像素是否为阴影像素,考虑远侧图像Ife(c,r)中第c1列第r1行的像素,并计算在(x,y,z)坐标系中的对应的位置。这个位置用向量a1表示,它被计算为:
a 1=(xa1,ya1,0)t x a 1 = | x sr - x sl | c 1 W fe - 1 + x sl , y a 1 = | y sb - y st | r 1 H fe - 1 + y st . - - - ( 5 )
其中|·|表示绝对值。在图8的示例性情形下,深度图Dfe(c,r)在(c1,r1)处为零,所以,它被确定是对应于远端房间中的背景(墙壁)的像素。然后,通过求解以下的具有三个未知数κ、λ和μ的三个线性方程组,计算出作为穿过peye和a1的线与平面z=d3+d4(它是远端墙壁)的交点的点a2的地点坐标:
p ‾ eye + κ ( a ‾ 1 - p ‾ eye ) = 0 0 d 3 + d 4 + λ 1 0 0 + μ 0 1 0 - - - ( 6 )
当(6)式中的求解的未知数由κ0、λ0和μ0表示时,则a2由下式给出:
a ‾ 2 = p ‾ eye + κ o ( a ‾ 1 - p ‾ eye ) = 0 0 d 3 + d 4 + λ o 1 0 0 + μ o 0 1 0 - - - ( 7 )
在图9的示例性情形下,Dfe(c,r)在(c1,r1)处为非零,a2作为穿过peye和a1的线与平面z=d3的交点被计算。这可以通过在方程6和7中设置d4=0而完成。
接着验证经过a2和plight的线是否穿越由近侧用户占据的空间。位置a3作为那条线与平面z=-d2的交叉点的位置被计算,见图8,从而得到具有三个未知数的三个方程:
求解ρ和σ给出
Figure BPA00001221435100093
ρ0和σ0,因此a3变为:
Figure BPA00001221435100094
现在把来自(x,y,z)坐标系的a3的实数值元素转换成用于近侧分割掩模Dne(c,r)的(c,r)坐标,由坐标(c3,r3)表示。假设分割图像Dne(c,r)正好位于由z=-d2定义的垂直图像平面的坐标范围x∈[xcl,xcr]和y∈[yct,ycb]内,见图6。图6上的坐标xcl和xcr定义由摄影机捕获的最左面和最右面的图像边界。同样地,(未绘出的)坐标yct和ycb定义最顶部和最底部的摄影机图像边界,这样使得:
c 3 = ( W ne - 1 ) | x a 3 - x cl x cr - x cl | , r 3 = ( H ne - 1 ) | y a 3 - y ct y cb - y ct | . - - - ( 10 )
方程(10)的c3和r3的值是实数,并且在被用作为图像索引之前被四舍五入到最接近的整数。替换地,为了更高的精确度,c3和r3不被四舍五入,而是当在非整数位置处从图像取装像素值时,应用双线性图像内插。
以同样的方式计算点a4的位置,点a4是经过peye和a2的线与平面z=0的交叉点,见图8和图9。最后,以类似于计算a3、c3和r3的方法计算对应的远侧图像坐标c4和r4
依据这些计算,现在有可能对远侧图像Ife(c,r)中位置(c1,r1)处的像素是否为阴影像素作出判决。
当a3与近侧用户的位置相符时,因此也就是当下式成立时,像素Ife(c1,r1)是近侧用户的阴影像素:
Dne(c3,r3)≠0.                (11)
当三个条件被满足,即像素Ife(c1,r1)不是近侧用户的阴影像素、它不是属于远侧用户的像素(所以a2是墙壁像素)、以及经过peye和a2的直线与远侧用户的位置交叉时,则像素Ife(c1,r1)是远侧用户的阴影像素。因此,当满足以下条件时,像素Ife(c1,r1)就是远侧用户的阴影像素:
Dne(c3,r3)=0,且Dfe(c1,r1)=0,且Dfe(c4,r4)≠0.    (12)
当方程(11)中的条件满足时,方程(4)中的阴影常数s被设置为s=sne=30(假设图像亮度值在范围[0,255]内)。当方程(12)中的条件满足时,设置s=sne=20。图10a显示一个例子,其中在左面仅仅描绘了远侧个人的虚拟阴影(对应于图1b或c的情形),在右面的图10b中显示了近侧和远侧个人的虚拟阴影(对应于图1d的情形)。
在右面的图10b中,应注意近侧个人头部的阴影部分地落在远侧个人的脸上而阴影的其余部分落在墙壁上的效果,其中显然考虑到在这两个远侧物体之间的深度差别(阴影位置有移位)。这达到更自然的效果。
对于每个时间帧,如上所述地检测用户的当前的轮廓,以及确定当前轮廓的对应的阴影,以使得当用户移动时,阴影对应地移动。
本发明可应用于视频电话和视频会议系统,以产生“在那里”的感觉。替换地,本发明也可以应用于在虚拟环境(游戏,第二人生)中创建你自己的阴影。
本发明也可以被使用在如下的应用内,其中目的是能够捕获、共享和(重新)经历“仿佛你就在那里”的体验。为了被记录体验的逼真的完全感官的重建,例如正在观看你的假期电影,以及在观看者观看它时,让他们自己的生活阴影(life shadoW)实时地显示在假期场景中会使他们有就在那里和增强的沉浸的感觉。
虽然本发明的实施例在附图中被图示并在以上的说明中予以描述,但应明白,本发明并不限于所公开的实施例,而是能够有许多的修改,而不背离在以下权利要求中阐述的本发明的范围。

Claims (15)

1.一种修改正被显示给用户(118,218,301)的数字图像(0,210,309)的方法,该方法包括以下步骤:
-检测正在观看由数字图像(110,210,309)显示的场景的用户(118,218,301)的至少一个特征;
-修改数字图像(110,210,309)以包括所检测到的至少一个特征的示象(120,220,319),以便使用户(118,218,301)有该用户(118,218,301)就存在于由数字图像(110,210,309)显示的场景内的印象。
2.按照权利要求1的方法,其中用户(118,218,301)的所述至少一个特征是从以下项目中选择的至少一项:
-用户(118,218,301)的位置;用户(118,218,301)的轮廓;用户(118,218,301)的视点(317)。
3.按照权利要求1或2的方法,其中所述示象是阴影(120,220,319)。
4.按照权利要求3的方法,其中检测用户的步骤还包括以下步骤:
-在用户(118,218,301)附近提供虚拟光源(114,214,311);
-确定由虚拟光源(114,214,311)投射的用户(118,218,301)的阴影(120,220,319);
-通过把所确定的阴影(120,220,319)添加到数字图像(110,210,309)上,而修改正被显示给用户(118,218,301)的数字图像(110,210,309)。
5.按照权利要求4的方法,其中修改数字图像(110,210,309)的步骤包括以下步骤:
-确定数字图像(110,210,309)的每个像素是否处在所确定的阴影(120,220,319)的区域内;
-如果确定所述像素是处在所确定的阴影(120,220,319)的区域内,则修改它的亮度。
6.按照前述权利要求的任一项的方法,其中检测用户(118,218,301)的步骤还包括以下步骤:
-检测用户(118,218,301)的至少一个特征的改变;以及
-修改数字图像(110,210,309)以包括根据所述至少一个特征的改变而调节的示象(120,220,319)。
7.按照前述权利要求的任一项的方法,其中所述数字图像(110,120,309)具有在场景内的物体的深度信息,以及修改数字图像(110,120,309)的步骤包括根据深度信息调节所述示象。
8.按照前述权利要求的任一项的方法,其中所述数字图像(110,120,309)是包括该数字图像的多个帧的视频图像,以及修改数字图像(110,120,309)的步骤包括修改每个帧的图像。
9.一种计算机程序产品,其包括用于实行按照前述权利要求的任一项的方法的多个程序代码部分。
10.用于修改正被显示给用户(118,218,301)的数字图像(110,210,309)的设备,该设备包括:
-检测装置,用于检测正在观看由数字图像(110,210,309)显示的场景的用户(118,218,301)的至少一个特征;
-处理装置,用于修改数字图像(110,210,309)以包括所检测到的至少一个特征的示象,以便使用户(118,218,301)有该用户(118,218,301)就存在于由数字图像(110,210,309)显示的场景内的印象。
11.按照权利要求10的设备,其中用户的所述至少一个特征是从以下项目中选择的至少一项:
-用户(118,218,301)的位置;用户(118,218,301)的轮廓;用户(118,218,301)的视点(317)。
12.按照权利要求10或11的设备,其中所述示象是阴影(120,220,319)。
13.按照权利要求12的设备,其中该设备还包括:
-位于用户(118,218,301)附近的虚拟光源(114,214,311);以及
-所述处理装置确定由虚拟光源(114,214,311)投射的用户(118,218,301)的阴影(120,220,319),并通过把所确定的阴影(120,220,319)添加到数字图像(110,210,309)上,而修改正被显示给用户(118,218,301)的数字图像(110,210,309)。
14.一种用于把具有相关联的音频的数字图像(309)从远侧地点(307)传送到近侧地点(303)并予以显示的系统,该系统包括:
-在远侧地点(307)与近侧地点(303)之间的视听通信链路;
-用于在远侧地点(307)生成数字图像(309)的装置;
-传送装置,用于把所生成的数字图像(309)经由视听通信链路传送到近侧地点(303);
-位于近侧地点(303)的虚拟光源(311);
-处理装置,用于确定由虚拟光源(311)投射的、在近侧地点(303)的用户(301)的阴影(319),并通过把所确定的虚拟阴影(319)添加到传送的数字图像(309)上,而修改所传送的数字图像(309);以及
-显示装置,用于把修改的数字图像(309)显示给用户(301)。
15.按照权利要求14的系统,其中所述处理装置还确定由虚拟光源(311)投射的、由所生成的数字图像(309)的场景内的远侧地点(307)的至少一个物体(305)投射的阴影,并修改该数字图像(309)以包括所确定的阴影。
CN200980108466.0A 2008-03-10 2009-03-03 用于修改数字图像的方法和设备 Pending CN101971211A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP08152535.4 2008-03-10
EP08152535 2008-03-10
PCT/IB2009/050843 WO2009112967A1 (en) 2008-03-10 2009-03-03 Method and apparatus for modifying a digital image

Publications (1)

Publication Number Publication Date
CN101971211A true CN101971211A (zh) 2011-02-09

Family

ID=40673939

Family Applications (1)

Application Number Title Priority Date Filing Date
CN200980108466.0A Pending CN101971211A (zh) 2008-03-10 2009-03-03 用于修改数字图像的方法和设备

Country Status (8)

Country Link
US (1) US8847956B2 (zh)
EP (1) EP2255339A1 (zh)
JP (1) JP2011513871A (zh)
KR (1) KR20110002025A (zh)
CN (1) CN101971211A (zh)
RU (1) RU2010141561A (zh)
TW (1) TWI479452B (zh)
WO (1) WO2009112967A1 (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103606182A (zh) * 2013-11-19 2014-02-26 华为技术有限公司 图像渲染方法及装置
CN104794699A (zh) * 2015-05-08 2015-07-22 四川天上友嘉网络科技有限公司 应用于游戏的图像渲染方法
CN109191398A (zh) * 2018-08-29 2019-01-11 Oppo广东移动通信有限公司 图像处理方法、装置、计算机可读存储介质和电子设备
CN111815750A (zh) * 2020-06-30 2020-10-23 深圳市商汤科技有限公司 对图像打光的方法及装置、电子设备和存储介质

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI427545B (zh) * 2009-11-16 2014-02-21 Univ Nat Cheng Kung 以尺度不變特徵轉換和人臉角度估測為基礎的人臉辨識方法
WO2012059781A1 (en) * 2010-11-03 2012-05-10 Alcatel Lucent System and method for providing a virtual representation
US9053455B2 (en) * 2011-03-07 2015-06-09 Ricoh Company, Ltd. Providing position information in a collaborative environment
EP2675157A1 (en) * 2012-06-15 2013-12-18 Alcatel Lucent A method for generating an immersive video of a plurality of persons
CN111985344A (zh) * 2013-12-17 2020-11-24 索尼公司 信息处理设备和方法以及非易失性计算机可读存储介质
US9240077B1 (en) 2014-03-19 2016-01-19 A9.Com, Inc. Real-time visual effects for a live camera view
CN106133796B (zh) * 2014-03-25 2019-07-16 苹果公司 用于在真实环境的视图中表示虚拟对象的方法和系统
US9706166B1 (en) * 2014-07-23 2017-07-11 Shared Space Studios LLC Network architecture for immersive audio-visual communications by temporary communication structures
US9998708B1 (en) * 2014-07-23 2018-06-12 Shared Space Studios LLC Network architecture for immersive audio-visual communications by temporary communication structures
KR20160121287A (ko) 2015-04-10 2016-10-19 삼성전자주식회사 이벤트에 기반하여 화면을 디스플레이하는 방법 및 장치
JP6400551B2 (ja) * 2015-09-18 2018-10-03 日本電信電話株式会社 空間像演出装置、空間像演出装置の制御方法および映像システム
USD830982S1 (en) 2016-06-23 2018-10-16 Shared Space Studios LLC Video wall
EP3651453A4 (en) * 2017-07-06 2020-06-24 Fujitsu Limited INFORMATION PROCESSING DEVICE, METHOD AND PROGRAM
DE102021117961A1 (de) 2021-07-12 2023-01-12 Audi Aktiengesellschaft Verfahren zum Bereitstellen einer virtuellen Beleuchtung während eines Videotelefonats
WO2024096496A1 (ko) * 2022-11-01 2024-05-10 삼성전자주식회사 복수의 가상 조명들을 제공하기 위한 전자 장치 및 방법

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5327177A (en) 1992-05-26 1994-07-05 The Grass Valley Group, Inc. Method of and apparatus for processing a shaped video signal to add a simulated shadow
US5737031A (en) * 1996-07-30 1998-04-07 Rt-Set System for producing a shadow of an object in a chroma key environment
US6288753B1 (en) * 1999-07-07 2001-09-11 Corrugated Services Corp. System and method for live interactive distance learning
US6530662B1 (en) * 2000-09-19 2003-03-11 Disney Enterprises, Inc. System and method for enhancing the realism of a displayed image
US6980697B1 (en) * 2001-02-01 2005-12-27 At&T Corp. Digitally-generated lighting for video conferencing applications
JP2004021388A (ja) 2002-06-13 2004-01-22 Nippon Hoso Kyokai <Nhk> 画像処理装置及びそれを備えた撮影システム
US7134080B2 (en) * 2002-08-23 2006-11-07 International Business Machines Corporation Method and system for a user-following interface
US7274365B1 (en) 2003-01-31 2007-09-25 Microsoft Corporation Graphical processing of object perimeter information
JP2005078313A (ja) * 2003-08-29 2005-03-24 Sony Corp 画像処理装置および画像処理方法、並びにプログラム
US9841809B2 (en) * 2003-12-12 2017-12-12 Kurzweil Technologies, Inc. Virtual encounters
EP2057445A1 (de) * 2004-10-13 2009-05-13 Siemens Aktiengesellschaft Vorrichtung und verfahren zur beleuchtungs- und schattensimulation in einem augmented-reality-system
US7574043B2 (en) 2005-06-27 2009-08-11 Mitsubishi Electric Research Laboratories, Inc. Method for modeling cast shadows in videos

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103606182A (zh) * 2013-11-19 2014-02-26 华为技术有限公司 图像渲染方法及装置
CN103606182B (zh) * 2013-11-19 2017-04-26 华为技术有限公司 图像渲染方法及装置
US9805501B2 (en) 2013-11-19 2017-10-31 Huawei Technologies Co., Ltd. Image rendering method and apparatus
CN104794699A (zh) * 2015-05-08 2015-07-22 四川天上友嘉网络科技有限公司 应用于游戏的图像渲染方法
CN109191398A (zh) * 2018-08-29 2019-01-11 Oppo广东移动通信有限公司 图像处理方法、装置、计算机可读存储介质和电子设备
CN111815750A (zh) * 2020-06-30 2020-10-23 深圳市商汤科技有限公司 对图像打光的方法及装置、电子设备和存储介质

Also Published As

Publication number Publication date
WO2009112967A1 (en) 2009-09-17
US8847956B2 (en) 2014-09-30
JP2011513871A (ja) 2011-04-28
TWI479452B (zh) 2015-04-01
US20110007073A1 (en) 2011-01-13
RU2010141561A (ru) 2012-04-20
KR20110002025A (ko) 2011-01-06
TW200943225A (en) 2009-10-16
EP2255339A1 (en) 2010-12-01

Similar Documents

Publication Publication Date Title
CN101971211A (zh) 用于修改数字图像的方法和设备
US10504274B2 (en) Fusing, texturing, and rendering views of dynamic three-dimensional models
US9215452B2 (en) Stereoscopic video display apparatus and stereoscopic video display method
Fehn et al. Interactive 3-DTV-concepts and key technologies
Lebreton et al. Evaluating depth perception of 3D stereoscopic videos
Isgro et al. Three-dimensional image processing in the future of immersive media
US8189035B2 (en) Method and apparatus for rendering virtual see-through scenes on single or tiled displays
US7528830B2 (en) System and method for rendering 3-D images on a 3-D image display screen
Chen et al. New stereoscopic video shooting rule based on stereoscopic distortion parameters and comfortable viewing zone
Daly et al. Perceptual issues in stereoscopic signal processing
KR100560464B1 (ko) 관찰자의 시점에 적응적인 다시점 영상 디스플레이 시스템을 구성하는 방법
US20120307023A1 (en) Disparity distribution estimation for 3d tv
EP3935602B1 (en) Processing of depth maps for images
CN105894567A (zh) 放缩三维场景中的用户控制的虚拟对象的像素深度值
Rotem et al. Automatic video to stereoscopic video conversion
WO2023244320A1 (en) Generating parallax effect based on viewer position
US20230122149A1 (en) Asymmetric communication system with viewer position indications
Smith et al. Perception of size and shape in stereoscopic 3d imagery
Kim et al. Photorealistic interactive virtual environment generation using multiview cameras
Fehn et al. Interactive Virtual View Video (IVVV): the bridge between immersive TV and 3D-TV
Lee et al. Temporally consistent depth map estimation for 3D video generation and coding
Su et al. Objective visual comfort assessment model of stereoscopic images based on BP neural network
Wafa Automatic real-time 2D-to-3D video conversion
Laldin Perceived Acceleration in Stereoscopic Animation
Muntjir et al. An Innovative Evolution on 3D Multimedia Technology

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C12 Rejection of a patent application after its publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20110209