CN1885953A - 中间矢量内插方法和执行该方法的三维显示装置 - Google Patents

中间矢量内插方法和执行该方法的三维显示装置 Download PDF

Info

Publication number
CN1885953A
CN1885953A CNA2006100945800A CN200610094580A CN1885953A CN 1885953 A CN1885953 A CN 1885953A CN A2006100945800 A CNA2006100945800 A CN A2006100945800A CN 200610094580 A CN200610094580 A CN 200610094580A CN 1885953 A CN1885953 A CN 1885953A
Authority
CN
China
Prior art keywords
frame
center pixel
motion
margin
piece
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CNA2006100945800A
Other languages
English (en)
Inventor
河泰铉
金在锡
朴志容
李元宰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of CN1885953A publication Critical patent/CN1885953A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/573Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明提供了一种中间矢量内插方法和执行该方法的三维显示装置。一种使用从第一摄像机连续接收的第一帧和第三帧以及从第二摄像机连续接收的第二帧和第四帧产生第一帧和第二帧之间的中间图像的方法,包括:以块为单位计算和求和第一帧与第三帧之间的像素值差;确定块的中心像素是否具有运动;计算与第一帧和第二帧之间的运动矢量相对应的当前视差矢量,并计算与第三帧和第四帧之间的运动矢量相对应的在前视差矢量;和如果该块的中心像素具有运动,则使用当前视差矢量产生中间图像,和如果所述块的中心像素没有运动,则计算在前视差矢量的中间值并使用在前视差矢量的中间值产生中间图像。

Description

中间矢量内插方法和执行该方法的三维显示装置
技术领域
本发明涉及一种使用在前视差(disparity)矢量、而不是当前视差矢量来产生用于没有运动的像素的中间图像的方法和执行该方法的三维(3D)显示装置。
背景技术
近来,美国、欧洲和日本等正在积极进行关于包括多视图(multiview)视频编码方法的三维(3D)视频技术的研究。多视图3D TV允许观众根据他们的位置观看不同的3D图像,从而提供更加自然的3D图像。但是,在所有视点处提供不同的3D图像实际上是不可能的,此外,为所有视点发送大量数据会导致高成本。因此,需要使用发送的图像产生用于不存在视点的图像的中间矢量内插。
中间矢量内插是检测两个图像之间的类似性并将两个图像之间的视差表示为矢量的视差估计。所述视差估计被分类成检测和匹配图像特性点的基于特性的视差估计方案、检测和匹配价值函数最短路径的动态编程视差估计方案、以及估计和匹配窗口的关联性的基于区域的视差估计方案。
但是,当这些视差估计方法应用于运动图像时,靠近两个对象之间的边界部分会发生闪烁(flicker)现象。在图像中的未运动对象的情况下,必须以每秒最少45帧来显示相同的图像。如果在每秒45帧的期间内没有保持相同的图像,或者如果没有显示相同的图像,那么,观众将经历没有运动对象的瞬间(blink)。没有运动对象的瞬间被称做闪烁。
在对运动图像进行中间矢量内插的情况下,在对象没有运动的同时,必须利用每帧相同的图像来显示未运动的对象。但是,由于立体摄像机的少量摆动或光的变化等,不能正确地执行视差矢量估计。如果由于这种不正确的视差矢量而导致插入了失真的中间视点图像帧,则当观看运动图像上的未运动对象时,观众将会觉察到闪烁。因此,需要一种在内插运动图像的中间视点图像时防止闪烁的方法。
发明内容
本发明的一方面是提供一种中间图像产生方法和执行该方法的三维(3D)显示装置,通过根据从至少两个摄像机接收的图像是否具有运动将当前帧的视差矢量或在前帧的视差矢量应用于每个图像并由此产生中间图像,该方法能够防止闪烁。
为了实现本发明的特定方面,提供了一种使用从第一摄像机连续接收的第一帧和第三帧以及使用从第二摄像机连续接收的第二帧和第四帧产生第一帧和第二帧之间的中间图像的方法,包括:以块为单位计算并求和第一帧和第三帧之间的像素值差;基于求和的结果,确定块的中心像素是否具有运动;计算与第一帧和第二帧之间的运动矢量相对应的当前视差矢量,并且计算与第三帧与第四帧之间的运动矢量相对应的在前视差矢量;和如果确定所述块的中心像素具有运动,则使用所述当前视差矢量产生中间图像,和如果确定所述块的中心像素没有运动,则计算所述在前视差矢量的中间值并通过计算在前视差矢量的中间值产生所述中间图像。
确定所述块的中心像素是否具有运动包括:将所述像素值差的和与第一阈值进行比较,并将其中像素值差的和大于第一阈值的块的中心像素确定为具有运动的第一中心像素,和将其中像素值差的和小于第一阈值的块的中心像素确定为没有运动的第二中心像素;将第一帧的预定区域内的第一中心像素的数量或第二中心像素的数量与第二阈值进行比较;和如果所述像素值差的和大于第二阈值,则确定所述预定区域的中心像素是具有运动的第一中心像素,和如果第一中心像素的数量或第二中心像素的数量小于第二阈值,则确定所述预定区域的中心像素是没有运动的第二中心像素。
另外,将所述像素值差的和与第一阈值进行比较是通过以块为单位计算和求和第二帧与第四帧之间的像素值差并将求和的结果与该第一阈值进行比较执行的。
为了实现本发明的其它方面,提供了一种三维显示装置,用于使用从第一摄像机连续接收的第一帧和第三帧以及从第二摄像机连续接收的第二帧和第四帧产生第一帧和第二帧之间的中间图像,包括:第一计算器,用于以块为单位计算和求和第一帧与第三帧之间的像素值差,然后将求和的结果与第一阈值进行比较;运动确定单元,用于将其中像素值差的和大于第一阈值的块的中心像素确定为具有运动的第一中心像素,和将其中像素值差的和小于第一阈值的块的中心像素确定为没有运动的第二中心像素;视差矢量计算器,用于计算与第一帧与第二帧之间的运动矢量相对应的当前视差矢量,和计算与第三帧与第四帧之间的运动矢量相对应的在前视差矢量;和中间图像发生器,用于如果确定所述块的中心像素具有运动,则使用所述当前视差矢量产生中间图像,和如果确定所述块的中心像素没有运动,则计算在前视差矢量的中间值,并使用在前视差矢量的中间值产生中间图像。
所述3D显示装置还包括第二计算器,用于将第一帧的预定区域内的第一中心像素的数量或第二中心像素的数量与第二阈值进行比较。
如果由第二计算器所计算的在第一帧的某个区域中的像素值差的和大于第二阈值,则所述运动确定单元确定所述预定区域的中心像素是具有运动的第一中心像素,和如果在该预定区域中的第一中心像素的数量或第二中心像素的数量小于第二阈值,则所述运动确定单元确定该预定区域的中心像素是没有运动的第二中心像素。
第一计算器以块为单位计算和求和第一帧与第三帧之间的像素值差,并将求和的结果与第一阈值进行比较。
附图说明
通过参考附图对本发明范例性实施例的描述,本发明的上述方面将会更加明显,其中:
图1是根据本发明范例性实施例的执行中间图像产生方法的三维(3D)显示装置的方框图;
图2图解说明了根据本发明范例性实施例的中间图像产生方法的流程图;
图3是用于详细解释图2的中间图像产生方法的视图;
图4是用于解释根据图2的中间图像产生方法、确定在各帧中像素是否具有运动的方法的视图;和
图5是用于解释根据图2的中间图像产生方法、估计视差矢量的方法的视图。
具体实施方式
下面将结合附图更详细地说明本发明的范例性实施例。
下文中,作为例子将描述这样一种操作,即,使用由彼此相隔预定距离的第一摄像机和第二摄像机分别捕捉的第一帧和第二帧产生与第一摄像机和第二摄像机的中间视点相对应的中间图像。
图1是根据本发明范例性实施例执行中间图像产生方法的三维(3D)显示装置的方框图。
参看图1,所述3D显示装置包括存储单元100、解码器200、确定单元300、发生器400和显示单元500。
存储单元100以帧为单位暂时存储连续输入的图像。详细地说,存储单元100依次存储作为由第一摄像机捕捉的图像的第一帧、第三帧和第五帧等,并且依次存储作为由第二摄像机捕捉的图像的第二帧、第四帧和第六帧等。
这里,第一帧是由第一摄像机捕捉的当前帧,第三帧是在接收第一帧之前接收的,而第五帧是在接收第三帧之前接收的。
另外,第二帧是由第二摄像机捕捉的当前帧,第四帧是在接收第二帧之前接收的,而第六帧是在接收第四帧之前接收的。因此,第一和第二帧、第三和第四帧、以及第五和第六帧分别是由第一摄像机和第二摄像机同时捕捉的图像。
解码器200解码编码的输入图像。
确定单元300包括第一计算器310、第二计算器320、和运动确定单元330,并使用当前帧和在前帧之间的像素值差以像素为单位确定作为当前帧的第一和第二帧相对于在前帧是否具有运动。即,确定单元300使用第一帧和第三帧之间的像素值差或使用第二帧和第四帧之间的像素值差确定当前帧的像素是否具有运动。下文中,作为例子,将说明使用第一帧和第三帧之间的像素值差确定是否存在运动的情况。
具体地说,确定单元300的第一计算器310以块为单位计算第一帧和第三帧之间的像素值差,并求和计算结果,然后将求和的结果与第一阈值进行比较。
第二计算器320将在第一帧的预定区域内的像素值差的和大于第一阈值的每个块中的中心像素的数量,或者在第一帧的预定区域内的像素值差的和小于第一阈值的每个块中的中心像素的数量与第二阈值进行比较。
在如果在一个块中的像素值差的和大于第一阈值从而第一帧的该块的中心像素值被判定为“1”,和如果在该块中的像素值差的和小于第一阈值从而第一帧的该块的中心像素值被判定为“0”的情况下,将像素值差的和大于第一阈值的每个块中的块中心像素的数量与第二阈值进行比较。
相反,在如果在一个块中的像素值差的和大于第一阈值从而第一帧的该块的中心像素值被判定为“0”,和如果在一个块中的像素值差的和小于第一阈值从而第一帧的该块的中心像素值被判定为“1”的情况下,将像素值差的和小于第一阈值的每个块中的块中心像素的数量与第二阈值进行比较。
即,在第一帧的预定区域的像素被判定为“1”或“0”之后,求和所判定的值并将该求和的结果与第二阈值进行比较。
如果第二计算器320确定所述和大于第二阈值,那么,运动确定单元330确定预定区域的中心像素具有运动。如果第二计算器320确定所述和小于第二阈值,那么,运动确定单元330确定所述预定区域的中心像素没有运动。
因此,如果第一计算器310确定块的中心像素具有运动和在预定区域中存在多个具有运动的像素,那么,运动确定单元330确定与该块的中心像素对应的预定区域的中心像素具有运动。其间,如果确定块的中心像素没有运动和在预定区域中存在多个没有运动的像素,那么,运动确定单元330确定与该块的中心像素对应的预定区域的中心像素没有运动。
其间,运动确定单元330能够只使用来自第一计算器310的结果确定第一帧的各像素是否具有运动。第一计算器310确定其中像素值差的和大于第一阈值的块的中心像素具有运动,并且确定其中像素值差的和小于第一阈值的块的中心像素没有运动。但是,通过使用来自第二计算器320的结果,可以更精确地确定块的中心像素是否具有运动。
发生器400包括视差矢量计算器410和中间图像发生器420。发生器400根据确定单元300的确定结果,使用当前视差矢量或在前视差矢量产生第一帧和第二帧之间的中间图像。
即,视差矢量计算器410计算当前视差矢量,其是第一帧和与当前帧对应的第二帧之间的视差矢量,并计算在前视差矢量,其是第三帧和与在前帧对应的第四帧之间的视差矢量。这里,所述视差矢量被用于根据摄像机的位置估计由第一摄像机和第二摄像机同时捕捉的同一对象的图像之间的差,其中,以块为单位计算视差矢量。
如果确定单元300确定第一帧的像素具有运动,那么,中间图像发生器420使用当前视差矢量产生中间图像。如果确定单元300确定第一帧的像素没有运动,那么,中间图像发生器420使用在前视差矢量产生中间图像。即,根据第一帧是否具有运动,第一帧和第二帧之间的中间图像的每个像素值被判定为当前视差矢量的中间值或在前视差矢量的中间值。
因此,通过使用在前视差矢量产生用于具有运动的像素的中间值,而不是通过使用当前视差矢量产生中间图像,可以防止由于亮度值的变化所导致的闪烁。
显示单元500显示由第一和第二摄像机捕捉的图像、以及使用该图像所产生的与第一和第二摄像机的中间视点相对应的中间图像。
图2是图解说明根据本发明范例性实施例的中间图像产生方法的流程图。图3是用于详细解释图2的中间图像产生方法的视图。
参看图3,中间图像产生方法被用于使用被彼此相邻的第一摄像机C1和第二摄像机C2同时捕捉的图像来产生与第一摄像机C1和第二摄像机C2的中间视点对应的中间图像。在图3中,水平轴表示摄像机编号,垂直轴表示时间。因此,利用第一摄像机C1连续捕捉帧P1、P3、P5和P7,而利用第二摄像机C2连续捕捉帧P1、P4、P6和P8。
下面,作为例子,将说明产生由第一摄像机C1和第二摄像机C2在时间T4处分别捕捉的帧P1和P2的中间图像的方法。为了产生中间图像,使用在捕捉帧P1之前被第一摄像机C1捕捉的帧P3、和在捕捉帧P2之前被第二摄像机C2捕捉的帧P4。
参看图2,首先,计算第一帧P1和第三帧P3之间的像素值差(操作S901)。以帧为单位存储由第一和第二摄像机C1和C2捕捉的图像,并且计算从第一摄像机C1连续接收的第一帧P1与第三帧P3之间的像素值差。执行所述像素值差的计算,以便确定第一帧P1的每个像素是否具有运动。或者,通过计算从设置在与第一摄像机C1不同位置处的第二摄像机C2连续接收的第二帧P2与第四帧P4之间的像素值差,可以确定是否存在运动。
接着,求和以块为单位计算的第一帧P1的像素值差并将该求和结果与第一阈值相比较(操作S903)。
图4是用于解释根据图2的中间图像产生方法用于确定在各帧中的像素是否具有运动的方法的视图。参看图4,为了确定在时间T4处接收的第一帧P1的中心像素S1相对位于在时间T3处接收的第三帧P3的对应位置处的像素S3是否具有运动,求和在位于中心像素S1的中心具有水平长度为bx和垂直长度为by的块与位于中心像素S3的中心具有水平长度为bx和垂直长度为by的块之间的各像素值差。因此,可以用下述等式1来表示所述像素值差的和:
CV ( x , y ) = Σ i = x - bx / 2 x + bx / 2 Σ j = y - by / 2 y + by / 2 \ I P 3 ( i , j ) - I P 1 ( x , y ) . . . ( 1 )
其中,CV表示第一帧P1的块的像素值差的和,P1和P3分别表示第一帧和第三帧,IP1和IP3分别表示第一帧P1的亮度和第三帧P3的亮度。另外,bx和by分别表示第一帧P1和第三帧P3的每个块中的块的水平和垂直长度,和(x,y)表示每个块的中心像素的位置。
然后,将以块为单位计算的帧P1和帧P3之间的像素值差的和与第一阈值进行比较。这里,第一阈值是基于图像的尺寸和在图像中的运动程度用实验方法判定的。
接着,在第一帧P1的预定区域中,其像素值差的和大于第一阈值的块的中心像素和其像素值差的和小于第一阈值的块的中心像素被分别判定为是“1”和“0”,然后,求和该预定区域中的所判定的值(操作S905)。在该范例性实施例中,在第一帧P1的预定区域中,其像素值差的和大于第一阈值的块的中心像素值(第一中心像素值)被判定为是“1”,和其像素值差的和小于第一阈值的块的中心像素值(第二中心像素值)被判定为是“0”。因此,可以利用下述等式2来表示第一和第二中心像素值:
CM(x,y)=1,CV≥Th1
CM ( x , y ) = 0 , CV < Th 1
                                                     (2)
其中,CM表示第一帧P1的块的中心像素,和(x,y)表示中心像素的位置。另外,CV表示第一帧P1和第三帧P3之间的像素值差的和,以及Th1表示第一阈值。
随后,求和被分配给预定区域中各像素的值“1”和“0”并将求和后的值与第二阈值相比较(S907)。可以利用下述等式3来计算求和值:
SCM ( x , y ) = &Sigma; i = x - h / 2 x + w / 2 &Sigma; j = y - h / 2 y + w / 2 CM ( i , j ) . . . ( 3 )
其中,SCM是分配给第一帧P1的预定区域内每个像素的中心像素值,以及(x,y)表示像素在预定区域中的位置。另外,CM是一个块的中心像素,它可以是如等式2表达的第一中心像素或第二中心像素。另外,h和w分别表示预定区域的水平和垂直长度。
如等式3所表达的,分配给预定区域中像素的第一中心像素值和第二中心像素值被求和。将经过求和的值与第二阈值相比较,从而确定该预定区域的中心像素是否具有运动。
或者,使用等式2,可以确定,如果一个块的像素值差的和大于第一阈值则该块的中心像素具有运动,并且可以确定如果一个块的像素值差的和小于第一阈值则该块的中心像素没有运动。但是,由于中心像素的噪声等,没有运动的第二中心像素可能被确定为具有运动的第一中心像素。如果根据这种错误的确定来产生中间图像,则通过所产生的中间图像可能引起闪烁现象。
因此,代替仅使用每个块的像素值差的和来确定第一帧的各像素是否具有运动,在由等式2判定的块的中心像素的中心设置预定区域。这样,求和使用等式2分配给该预定区域中各像素的值“1”和“0”。如果求和的值(被分配值“1”的具有运动的像素的数量)大于第二阈值,那么,可以确定该预定区域的中心像素具有运动。即,如果一个块的中心像素具有运动和在该预定区域中具有运动的像素的数量大于第二阈值,那么,可以确定该预定区域的中心像素具有运动。
随后,如果被分配给预定区域中的各像素的值“1”和“0”的和大于第二阈值,那么,使用当前视差矢量产生中间图像(操作S909)。预定区域中各像素值(“1”和“0”)的和大于第二阈值的情况对应于其中该预定区域中像素差值的和超过第一阈值的像素的数量大于第二阈值的情况。在这种情况下,可以确定所述预定区域中的中心像素具有运动。因此,在估计了是当前帧的第一帧和第二帧之间的视差矢量之后,使用当前视差矢量产生第一帧和第二帧之间的中间图像。因此,通过使用当前视差矢量的中间值判定中间图像的像素值来产生第一帧和第二帧之间的中间图像。
其间,根据第一摄像机和第二摄像机的位置,通过估计分别由该第一摄像机和第二摄像机同时捕捉的同一对象的图像之间的差,执行视差矢量的估计。图5是用于解释根据图2的中间图像产生方法估计视差矢量的方法的视图。参看图5,以块为单位估计第一帧P1和第二帧P2之间的视差矢量DV。这里,块的尺寸最好是16×16,也可以根据图像的特征是8×8或更低。
其间,如果分配给预定区域中各像素的值“1”和“0”的和小于第二阈值,则使用在前视差矢量来产生中间图像(操作S911)。预定区域中各像素值(“1”和“0”)的和小于第二阈值的情况对应于其中预定区域中像素差值的和超过第一阈值的像素的数量小于第二阈值的情况。在这种情况下,可以确定该预定区域的中心像素没有运动。
因此,如果确定该预定区域的中心像素没有运动,则使用在前视差矢量产生第一帧和第二帧之间的中间图像。这里,在前视差矢量是在作为第一帧的在前图像的第三帧与作为第二帧的在前图像的第四帧之间的视差矢量。已经结合图5描述了在前视差矢量。
然后,将在前视差矢量的中间值判定为中间图像的像素值,从而产生第一帧和第二帧之间的中间图像。此时,如果确定第一帧的像素相对于作为第一帧的在前帧的第三帧没有运动,那么,通过使用是所述在前帧的第三帧所产生的在前视差矢量、而不是使用通过使用第一帧所产生的当前视差矢量来产生所述中间图像。
其间,如果能够从基于MPEG标准等的压缩运动图像接收正确的运动信息,那么,可以基于根据操作S909和S911所接收的运动信息产生所述中间图像,而不是根据操作S901至S907确定像素是否具有运动。
在上述的范例性实施例中,已经披露了一种在显示由两个摄像机捕捉的图像的立体视图显示装置中产生中间图像的方法,但是,这种方法也可以被应用于显示由彼此相隔预定距离并连续放置的多个摄像机捕捉的图像的多视图显示装置。
如上所述,根据本发明的范例性实施例,当根据从至少两个摄像机接收的图像产生中间图像时,通过将使用在前帧估计的在前视差矢量应用于没有运动的像素,可以防止由于在运动图像中没有运动的对象的亮度值变化所引起的闪烁。
前述的实施例仅仅用于解释并不能被曲解为对本发明的限制。本发明可以被很容易地应用于其它类型的范例性实施例。另外,本发明范例性实施例的描述意在解释说明,而不是对权利要求范围的限制,很多替换、修改和变化对本领域普通技术人员来讲是很明显的。

Claims (7)

1.一种使用从第一摄像机连续接收的第一帧和第三帧以及使用从第二摄像机连续接收的第二帧和第四帧产生第一帧和第二帧之间的中间图像的方法,包括:
以块为单位计算并求和第一帧和第三帧之间的像素值差;
基于求和的结果,确定块的中心像素是否具有运动;
计算与第一帧和第二帧之间的运动矢量相对应的当前视差矢量,并且计算与第三帧与第四帧之间的运动矢量相对应的在前视差矢量;和
如果确定所述块的中心像素具有运动,则使用所述当前视差矢量产生中间图像,和如果确定所述块的中心像素没有运动,则计算所述在前视差矢量的中间值并通过计算在前视差矢量的中间值产生所述中间图像。
2.如权利要求1所述的方法,其中,所述确定包括:
将所述像素值差的和与第一阈值进行比较,并将其中像素值差的和大于第一阈值的块的中心像素确定为具有运动的第一中心像素,和将其中像素值差的和小于第一阈值的块的中心像素确定为没有运动的第二中心像素;
将第一帧的预定区域内的第一中心像素的数量或第二中心像素的数量与第二阈值进行比较;和
如果所述像素值差的和大于第二阈值,则确定所述预定区域的中心像素是具有运动的第一中心像素,和如果第一中心像素的数量或第二中心像素的数量小于第二阈值,则确定所述预定区域的中心像素是没有运动的第二中心像素。
3.如权利要求2所述的方法,其中,将所述像素值差的和与第一阈值进行比较是通过以块为单位计算和求和第二帧与第四帧之间的像素值差并将求和的结果与该第一阈值进行比较执行的。
4.一种三维显示装置,用于使用从第一摄像机连续接收的第一帧和第三帧以及从第二摄像机连续接收的第二帧和第四帧产生第一帧和第二帧之间的中间图像,包括:
第一计算器,用于以块为单位计算和求和第一帧与第三帧之间的像素值差,然后将求和的结果与第一阈值进行比较;
运动确定单元,用于将其中像素值差的和大于第一阈值的块的中心像素确定为具有运动的第一中心像素,和将其中像素值差的和小于第一阈值的块的中心像素确定为没有运动的第二中心像素;
视差矢量计算器,用于计算与第一帧与第二帧之间的运动矢量相对应的当前视差矢量,和计算与第三帧与第四帧之间的运动矢量相对应的在前视差矢量;和
中间图像发生器,用于如果确定所述块的中心像素具有运动,则使用所述当前视差矢量产生中间图像,和如果确定所述块的中心像素没有运动,则计算在前视差矢量的中间值,并使用在前视差矢量的中间值产生中间图像。
5.如权利要求4所述的三维显示装置,还包括:
第二计算器,用于将第一帧的预定区域内的第一中心像素的数量或第二中心像素的数量与第二阈值进行比较。
6.如权利要求5所述的三维显示装置,其中,如果由第二计算器所计算的在第一帧的某个区域中的像素值差的和大于第二阈值,则所述运动确定单元确定所述预定区域的中心像素是具有运动的第一中心像素,和如果在该预定区域中的第一中心像素的数量或第二中心像素的数量小于第二阈值,则所述运动确定单元确定该预定区域的中心像素是没有运动的第二中心像素。
7.如权利要求4所述的三维显示装置,其中,第一计算器以块为单位计算和求和第一帧与第三帧之间的像素值差,并将求和的结果与第一阈值进行比较。
CNA2006100945800A 2005-06-21 2006-06-21 中间矢量内插方法和执行该方法的三维显示装置 Pending CN1885953A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020050053594A KR100720722B1 (ko) 2005-06-21 2005-06-21 중간영상 생성방법 및 이 방법이 적용되는 입체영상디스플레이장치
KR53594/05 2005-06-21

Publications (1)

Publication Number Publication Date
CN1885953A true CN1885953A (zh) 2006-12-27

Family

ID=37573299

Family Applications (1)

Application Number Title Priority Date Filing Date
CNA2006100945800A Pending CN1885953A (zh) 2005-06-21 2006-06-21 中间矢量内插方法和执行该方法的三维显示装置

Country Status (4)

Country Link
US (1) US20060285595A1 (zh)
KR (1) KR100720722B1 (zh)
CN (1) CN1885953A (zh)
NL (1) NL1032014C (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102223552A (zh) * 2010-04-14 2011-10-19 佳能株式会社 图像处理设备和图像处理方法
CN105359504A (zh) * 2013-09-09 2016-02-24 索尼公司 利用摄像机位置顺位的图像信息处理方法,设备和程序
WO2017143572A1 (en) * 2016-02-25 2017-08-31 Intel Corporation Calculation of temporally coherent disparity from sequence of video frames
CN107454426A (zh) * 2012-07-27 2017-12-08 寰发股份有限公司 三维视频编码或解码方法
CN113711272A (zh) * 2019-04-23 2021-11-26 Oppo广东移动通信有限公司 用于非失实运动检测的方法及系统

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8265157B2 (en) * 2007-02-07 2012-09-11 Lsi Corporation Motion vector refinement for MPEG-2 to H.264 video transcoding
US8433159B1 (en) * 2007-05-16 2013-04-30 Varian Medical Systems International Ag Compressed target movement model using interpolation
US8144780B2 (en) * 2007-09-24 2012-03-27 Microsoft Corporation Detecting visual gestural patterns
KR101050135B1 (ko) * 2009-01-29 2011-07-19 서강대학교산학협력단 광류 정보를 이용한 중간 영상 생성 방법
JP5149861B2 (ja) * 2009-05-01 2013-02-20 富士フイルム株式会社 中間画像生成装置およびその動作制御方法
WO2011066848A1 (en) * 2009-12-04 2011-06-09 Nokia Corporation A processor, apparatus and associated methods
KR101666019B1 (ko) 2010-08-03 2016-10-14 삼성전자주식회사 외삽 뷰 생성을 위한 장치 및 방법
KR101682137B1 (ko) 2010-10-25 2016-12-05 삼성전자주식회사 텍스처 및 움직임 감지를 사용한 시간적으로-일관된 변이 추정을 위한 방법 및 장치
US20130120528A1 (en) * 2011-01-09 2013-05-16 Thomson Licensing Video processing apparatus and method for detecting a temporal synchronization mismatch
US9113142B2 (en) * 2012-01-06 2015-08-18 Thomson Licensing Method and device for providing temporally consistent disparity estimations
EP2667354B1 (en) * 2012-05-24 2015-07-08 Thomson Licensing Method and apparatus for analyzing stereoscopic or multi-view images

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100246106B1 (ko) * 1996-11-27 2000-03-15 전주범 입체 화상 구현을 위한 방송시스템
JP4056154B2 (ja) * 1997-12-30 2008-03-05 三星電子株式会社 2次元連続映像の3次元映像変換装置及び方法並びに3次元映像の後処理方法
KR100267259B1 (ko) * 1998-02-20 2000-10-16 박호군 여러대의 카메라 입력 영상을 이용한 조밀한 깊이정보 추출방법및 그를 이용한 중간영상 합성방법
KR100375708B1 (ko) * 2000-10-28 2003-03-15 전자부품연구원 3차원 입체영상을 위한 다시점 비디오 시스템 및영상제조방법
KR20030049642A (ko) * 2001-12-17 2003-06-25 한국전자통신연구원 스테레오스카픽 실사 동영상 정보와 컴퓨터 그래픽 영상합성을 위한 카메라 정보 부호화/복호화 방법
KR100828353B1 (ko) * 2003-02-05 2008-05-08 삼성전자주식회사 영상 블록 분할 방법 및 그 장치
KR20050021826A (ko) * 2003-08-26 2005-03-07 박용규 무안경 나안 입체영상 콘텐츠 제작장치 및 방법
KR100636785B1 (ko) * 2005-05-31 2006-10-20 삼성전자주식회사 다시점 입체 영상 시스템 및 이에 적용되는 압축 및 복원방법

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102223552A (zh) * 2010-04-14 2011-10-19 佳能株式会社 图像处理设备和图像处理方法
US8675051B2 (en) 2010-04-14 2014-03-18 Canon Kabushiki Kaisha Image processing apparatus and image processing method
CN102223552B (zh) * 2010-04-14 2014-08-27 佳能株式会社 图像处理设备和图像处理方法
CN107454426A (zh) * 2012-07-27 2017-12-08 寰发股份有限公司 三维视频编码或解码方法
CN105359504A (zh) * 2013-09-09 2016-02-24 索尼公司 利用摄像机位置顺位的图像信息处理方法,设备和程序
WO2017143572A1 (en) * 2016-02-25 2017-08-31 Intel Corporation Calculation of temporally coherent disparity from sequence of video frames
US10701335B2 (en) 2016-02-25 2020-06-30 Intel Corporation Calculation of temporally coherent disparity from sequence of video frames
CN113711272A (zh) * 2019-04-23 2021-11-26 Oppo广东移动通信有限公司 用于非失实运动检测的方法及系统

Also Published As

Publication number Publication date
US20060285595A1 (en) 2006-12-21
KR20060133764A (ko) 2006-12-27
KR100720722B1 (ko) 2007-05-22
NL1032014C (nl) 2010-04-19
NL1032014A1 (nl) 2006-12-22

Similar Documents

Publication Publication Date Title
CN1885953A (zh) 中间矢量内插方法和执行该方法的三维显示装置
CA2305735C (en) Improved image conversion and encoding techniques
EP2594077B1 (en) Hybrid video coding supporting intermediate view synthesis
CN104539929B (zh) 带有运动预测的立体图像编码方法和编码装置
Rahaman et al. Virtual view synthesis for free viewpoint video and multiview video compression using Gaussian mixture modelling
CN102158712B (zh) 一种基于视觉的多视点视频信号编码方法
US20090129667A1 (en) Device and method for estimatiming depth map, and method for generating intermediate image and method for encoding multi-view video using the same
CN108513131B (zh) 一种自由视点视频深度图感兴趣区域编码方法
CN1925627A (zh) 控制三维图像深度的装置和方法
JP2009505550A (ja) 奥行き抽出のためのビデオ処理方法及び装置
CN1694512A (zh) 一种交互式多视点视频系统中虚拟视点的合成方法
US20170064279A1 (en) Multi-view 3d video method and system
CN102256143A (zh) 视频处理装置及方法
CN102761765B (zh) 一种用于三维立体视频的深度快速插帧方法
US10122987B2 (en) 3D system including additional 2D to 3D conversion
WO2016078162A1 (zh) 一种基于hevc的3d视频快速编码方法
JP4320271B2 (ja) 立体画像表示方法
Yoon et al. A framework for multi-view video coding using layered depth images
US20170140571A1 (en) 3d system including rendering with curved display
JP2014072809A (ja) 画像生成装置、画像生成方法、画像生成装置用プログラム
US20120294374A1 (en) Conditional replenishment for three-dimensional images with block-based spatial thresholding
WO2023110592A1 (en) Reduction of redundant data in immersive video coding
US10277880B2 (en) 3D system including rendering with variable displacement
Chen et al. multisource surveillance video coding by exploiting 3d and 2d knolwedge
US10225542B2 (en) 3D system including rendering with angular compensation

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C02 Deemed withdrawal of patent application after publication (patent law 2001)
WD01 Invention patent application deemed withdrawn after publication