CN104254868A - 使用至少一个较高帧速率图像流提高图像流帧速率的方法和装置 - Google Patents

使用至少一个较高帧速率图像流提高图像流帧速率的方法和装置 Download PDF

Info

Publication number
CN104254868A
CN104254868A CN201380007015.4A CN201380007015A CN104254868A CN 104254868 A CN104254868 A CN 104254868A CN 201380007015 A CN201380007015 A CN 201380007015A CN 104254868 A CN104254868 A CN 104254868A
Authority
CN
China
Prior art keywords
image stream
image
frame
bunch
existing frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201380007015.4A
Other languages
English (en)
Inventor
D·V·帕克霍门库
I·L·马祖雷恩库
P·A·阿里塞切克
D·N·巴比恩
D·V·扎伊特塞弗
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LSI Corp
Infineon Technologies North America Corp
Original Assignee
Infineon Technologies North America Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Infineon Technologies North America Corp filed Critical Infineon Technologies North America Corp
Publication of CN104254868A publication Critical patent/CN104254868A/zh
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0127Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level by changing the field or frame frequency of the incoming video signal, e.g. frame rate converter
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/75Media network packet handling
    • H04L65/762Media network packet handling at the source 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/587Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal sub-sampling or interpolation, e.g. decimation or subsequent interpolation of pictures in a video sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Television Systems (AREA)

Abstract

一种图像处理系统包括图像处理器,所述图像处理器被配置为获得具有第一帧速率的第一图像流和具有第二帧速率的第二图像流,所述第二帧速率低于所述第一帧速率,基于所述第一图像流和第二图像流的现有帧恢复所述第二图像流的附加帧,以及使用附加帧来为第二图像流提供增加的帧速率。基于所述第一图像流和第二图像流的现有帧为所述第二图像流恢复附加帧包括确定用于在各自的迭代中插入第二图像流中的连续现有帧的相应的对之间的一个或多个附加帧的集合。

Description

使用至少一个较高帧速率图像流提高图像流帧速率的方法和装置
技术领域
领域总的来说涉及图像处理,并且更具体地,涉及具有不同帧速率的多个图像流的处理。
背景技术
图像处理在许多不同机器视觉应用中是重要的,并且这样的处理可能涉及从许多不同的图像源获得的多个不同类型的图像,可能包括二维(2D)图像和三维(3D)图像。例如,由诸如视频摄像机的图像源提供2D图像,以及由诸如结构光(SL)摄像机或飞行时(ToF)摄像机的深度成像器提供3D图像。因此,传统的图像处理技术经常需要处理来自多个不同源的图像流。然而,当不同的源以不同的帧速率产生图像时会产生问题。
概述
在一个实施例中,一种图像处理系统包括图像处理器,该图像处理器被配置来获得具有第一帧速率的第一图像流和具有低于所述第一帧速率的第二帧速率的第二图像流,基于所述第一和第二图像流的现有帧为第二图像流恢复附加帧,以及利用附加帧为所述第二图像流提供增加的帧速率。仅作为示例,基于所述第一和第二图像流的现有帧为第二图像流恢复附加帧可以示例性地包括:确定用于插入第二图像流中的相应对的连续现有帧之间的一个或多个附加帧的集合。
本发明的其它实施例包括(但不限于)方法、装置、系统、处理设备、集成电路和其中嵌入有计算机程序代码的计算机可读存储介质。
附图说明
图1是在一个实施例中的图像处理系统的框图。
图2示出了将恢复的附加帧插入到低帧速率图像流中以增加图1的系统中的图像流的帧速率。
图3是用于增加图1系统中的低帧速率图像流的帧速率的示例性处理的流程图。
图4是用于增加图1系统中的低帧速率图像流的帧速率的另一示例性处理的流程图。
图5至图7是示出图1系统中的图像处理器的簇(cluster)对应模块的操作的流程图。
具体实施方式
在此将结合包括图像处理器或其它类型的处理设备的示例图像处理系统,以及用于使用至少一个较高速率的图像流提高深度图像流或其它类型图像流的帧速率的实现技术,说明本发明的实施例。然而,应理解,本发明的实施例更一般地适用于涉及处理具有不同帧速率的多个图像流的任何图像处理系统或相关的设备或技术。
图1示出了本发明的一个实施例中的图像处理系统100。图像处理系统100包括图像处理器102,其通过网络104与多个处理设备106通信。图像处理器102从相应的图像源107接收至少两个不同的图像流。更具体地,图像处理器102从高速率图像源107-1接收具有第一帧速率的第一图像流Fs1,并从低速率图像源107-2接收具有比第一帧速率低的第二帧速率的第二图像流Fs2。可以不受限制构思图像源107提供从给定场景的相同或相似视点获得的图像流,使得可以在高帧速率图像流和低帧速率图像流中都呈现相似的像素簇或其它图像分段。在本文中应用到帧速率的术语“高”和“低”是相对术语,并且不应解释为需要任何特定绝对的帧速率。
例如,高帧速率图像源107-1可以包括提供2D图像序列的视频摄像机或其它视频源,而低帧速率图像源107-2可以包括提供深度图像序列的深度成像器,例如SL摄像机或ToF摄像机。
在其它实施例中,可以使用许多其它类型的图像源生成多个图像流,包括配置为产生2D红外图像、灰度图像、彩色图像或其它类型的2D图像的2D成像器以及3D成像器(例如,SL和ToF摄像机),其可以任意组合。
示例性地,图像源107可以包括各自的图像源,每一个产生单独的图像流。可以单独地安装传感器并将其布置为相互分开,或者,传感器可以包括一体的传感器的不同的部分,其中所述一体的传感器具有用于产生第一图像流的第一组传感器和用于产生第二图像流的第二组传感器。因此,可以从配置为对给定场景成像的相应的不同图像传感器获得第一和第二图像流。此处,通常假定这样不同的图像传感器基本上捕获相同的场景,但是以不同的帧速率捕获。
尽管由分开的图像源107-1和图像源107-2提供图1的实施例中的第一图像流Fs1和第二图像流Fs2,但是在其它实施例中,可以仅仅使用单一的成像器或其它类型的图像源来提供不同帧速率的多个图像流。因此,例如,第一和第二图像源107-1和107-2可以代表单一的多流成像器的不同部分,例如,如上所示的不同的传感器。作为此处广泛使用的术语,给定的图像源可以包括存储之前捕获的图像流以供图像处理器102或代表图像处理器102的取回的存储器和其它存储设备。又例如,图像源可以包括提供一个或多个图像流到图像处理器102用于处理的服务器。
另外,在图1中仅处理两个输入图像流以提高其中一个图像流的帧速率,但是,在其它实施例中,可以不止使用第一和第二图像流。例如,可以处理每一个都具有不同帧速率的三个或更多个图像流,以恢复附加帧,来提高至少一个图像流的帧速率。
在本实施例中,图像处理器102被配置为基于第一图像流Fs1和第二图像流Fs2的现有帧为第二图像流Fs2恢复附加帧,并被配置为使用所述附加帧为第二图像流Fs2提供增加的帧速率。例如,图像处理器102可以增加第二图像流的帧速率,直到其基本上等于第一图像流的帧速率,使得第一和第二图像流可以更容易地由一个或多个目标设备处理。
更具体地,图像处理器102可以被配置为确定一个或多个附加帧的集合以用于插入在第二图像流中相应对的连续现有帧之间。每一这样的确定可以认为是将要结合图3和图4的流程图描述的示例性处理过程之一的迭代。对于给定的这样的迭代,基于第一图像流中的多个对应的现有帧和第二图像流中的连续现有帧对中的对应的连续现有帧对,确定一个或多个附加帧的特定集合,以用于插入在第二图像流中的连续现有帧对中对应的对之间。
在图2中示出了该技术,其中图2示出了第一图像流Fs1的现有帧和第二图像流Fs2的现有帧之间的对应的一个例子。在这一例子中,假定第二图像流是包括深度图像流的深度流。由于第一图像流具有比第二图像流高的帧速率,所以第一图像流在图中示出的时间段上包括比第二图像流多的帧。图中标为未知的第二图像流的帧是由图像处理器102为第二图像流Fs2恢复的以为第二图像流Fs2提供增加的帧速率的附加帧的例子。
第二图像流Fs2中的两个连续现有帧对应于第一图像流Fs1中的R+1个连续现有帧,从而第一图像流Fs1中的第N现有帧对应于第二图像流中的第M现有帧,并且第一图像流中的第(N+R)现有帧对应于第二图像流中的第(M+1)现有帧。如此,对于在该例子中的第一图像流中的每R+1个连续现有帧,在第二图像序列中仅有两个连续现有帧。
第一图像流Fs1和第二图像流Fs2中对应的帧可以是由各自的图像传感器在基本上相同的时刻捕获的帧。然而,在本上下文中术语“对应”应当被更宽泛地解释,以包含第一和第二图像流的帧之间的其它类型的时间关系。
在为第二图像流Fs2恢复附加帧中,图像处理器102确定用于插入第二图像流中的第M现有帧和第(M+1)现有帧之间的R+1个附加帧。如下面将详细描述的,所确定的用于插入第二图像流中的第M现有帧和第(M+1)现有帧之间的R+1个附加帧是基于第一图像流中的对应的R+1个连续现有帧和第二图像流中的第M和第(M+1)现有帧确定的。例如,恢复附加帧可以涉及:识别第一图像流的一个或多个现有帧的部分和第二图像流的一个或多个现有帧的部分之间的对应性,以及使用来自已识别部分的图像信息形成至少一个所述附加帧。在一些实施例中,这些部分被更特定地称为“簇”。
从上述可见,本实施例中的图像处理器102被配置来生成修改的第二图像流Fs2′,其包括在给定的时间段内的一个或多个附加帧,并且因此其具有比原始输入第二图像流Fs2高的帧速率。
应理解,仅通过说明性的例子呈现了图2中示出的特定布置,而在其它实施例中,可以存在第一和第二图像流的帧之间的其它类型的对应性。本公开的技术可以以直接了当的方式适用于任何具有帧速率比的多流布置中,其中Fr1表示第一图像流Fs1的帧速率而Fr2表示第二图像流Fs2的帧速率。
如图1所示的图像处理器102包括帧捕获模块108,其被配置用于从第一图像序列Fs1和第二图像序列Fs2捕获帧以用于进一步处理。应理解,在本上下文中“帧捕获”通常指获得第一和第二图像序列的特定帧以供图像处理器进一步处理的一种方式。这区别于由相关联的图像传感器对图像的原始捕获。
处理捕获的帧以恢复第二图像序列的附加帧,从而为第二图像序列提供较高的帧速率。如上所指出的,较高速率的第二图像序列在此处也称为修改的第二图像序列Fs2′,因为其包括恢复的附加帧,所述恢复的附加帧不是原始输入第二图像序列的一部分。
使用图像处理器102的仿射变换模块110、聚簇模块112、簇对应模块114、深度填充模块116和后处理模块118来实现为第二图像序列恢复附加帧。将结合图3至图7的流程图更加详细地描述这些模块的操作。尽管在图1实施例中分开地示出了这些示例性的模块,但是在其它实施例中,这些模块中的两个或更多个可以组合到更少数目的模块中。
由图像处理器102产生的修改的第二图像流Fs2′可以经网络104提供到一个或多个处理设备106。处理设备106可以包括例如计算机、移动电话、服务器或存储设备的任何组合。一个或多个该设备还可包括例如显示屏或其它用于呈现由图像处理器102产生的图像的用户界面。因此,处理设备106可以包括多种不同的目标设备,其经网络104从图像处理器102接收处理过的图像流,包括例如从图像处理器102接收一个或多个处理过的图像流的至少一个服务器或存储设备。
尽管在本实施例中,图像处理器102被示出为与处理设备106分离,但是图像处理器102也可以至少部分地与一个或多个处理设备结合。因此,例如,可以至少部分地使用处理设备106中给定的一个来实现图像处理器102。例如,计算机或移动电话可以被配置为包括图像处理器102及可能的一个或多个图像源107。因此,图像源107可以包括与计算机、移动电话或其它处理设备相关联的摄像机或其它成像器。因此,显然,图像处理器102可以至少部分地与一个或多个图像源或图像目标结合在普通处理设备上。
构思使用至少一个处理设备实现本实施例中的图像处理器102,并且图像处理器102包括耦接到存储器122的处理器120。处理器120执行存储在存储器122中的软件代码以控制图像处理操作的执行。图像处理器102还包括支持经网络104的通信的网络接口124。
处理器120可以包括例如下列的任意组合:微处理器、专用集成电路(ASIC)、现场可编程门阵列(FPGA)、中央处理器(CPU)、算术逻辑单元(ALU)、数字信号处理器(DSP)或其它类似的处理设备组件,以及其它类型和布置的图像处理电路。
存储器122存储由处理器120在实现图像处理器102的部分功能(例如,模块110、112、114、116和118)中执行的软件代码。存储由对应的处理器执行的软件代码的给定的该存储器是此处更一般地称作其中嵌入有计算机程序代码的计算机可读介质或其它类型的计算机程序产品的一个例子,并且可以包括,例如下列的任何组合:电子存储器,诸如,随机存取存储器(RAM)或只读存储器(ROM);磁存储器;光学存储器;或,其它类型的存储设备。如上所述的,处理器可以包括微处理器、ASIC、FPGA、CPU、ALU、DSP或其它图像处理电路的组合或部分。
还应理解,可以以集成电路的形式实现本发明的实施例。在给定的该集成电路实现方式中,通常在半导体晶片表面上以重复的图案形成相同的管芯(die)。每一个管芯包括此处所描述的图像处理电路并可以包括其它结构或电路。从晶片切片或切割单独的管芯,并随后将其封装为集成电路。本领域的技术人员知晓如何对晶片切片和封装管芯以生产集成电路。如此制作的集成电路被认为是本发明的实施例。
如图1中示出的图像处理系统100的特定配置仅仅是示例性的,并且在其它实施例中系统100可以包括另外的或替代那些具体示出的元件的其它元件,包括在这类系统的常规实现方式中常见的形式的一个或多个元件。
例如,在一些实施例中,图像处理系统100被实现为视频游戏系统或处理图像流以识别用户姿势的其它类型的基于姿势的系统。所公开的技术可以类似地适于在需要基于姿势的人机界面的许多其它系统中使用,并且还可以适于除了姿势识别以外的其它应用,例如在机器人和其它工业应用中的机器视觉系统。
现参照图3,示出了用于提高第二图像流Fs2的帧速率的示例处理300。设想该处理由图像处理器102至少使用其模块108、110、112、114、116和118实现。该实施例中的处理包括步骤302至312,对于多次迭代的每一次重复这些步骤。在每一次迭代中,该处理获得R+3个帧,包括来自第一图像流Fs1的R+1个帧和来自第二图像流Fs2的两个帧,并恢复R-1个帧以用于插入第二图像流Fs2的两个帧之间以提高该图像流的帧速率。该处理过程恢复的附加帧此处还被称为第二图像流的“连接”帧。另外,该实施例中的帧被称为相应的图像。此处使用的术语“帧”应当被宽泛地理解,以包括图像或它类型和布置的图像信息。
在步骤302中,图像处理器102在图3处理的给定的迭代中,从Fs1和Fs2图像流“获取”或者获得特定的指定图像。这些图像包括来自第一图像流Fs1的被表示为Im1(N)到Im1(N+R)的R+1个图像,以及来自第二图像流Fs2的被表示为Im2(M)和Im2(M+1)的两个图像。为了清楚简洁的描述,假定所有图像Imi(j)具有相同的尺寸或像素分辨率,尽管在其它实施例中可以使用不同尺寸或分辨率的图像。
在步骤302的上下文中所引述的R+3个图像此处更一般地是指上述来自第一图像流Fs1的R+1帧和来自第二图像流Fs2的两帧。可以使用帧捕获模块108从相应的图像流中获得所述图像。
在步骤304中,至少对在步骤302中获得的R+3个图像的子集应用仿射变换。例如,仅对来自图像流Fs1的R+1个图像,或仅对来自第二图像流Fs2的两个图像,应用仿射变换。仿射变换是用于基本上使图像的视点均等以利于后续的聚簇操作的校准变换的一种类型的例子。仿射变换可以基于在传感器制造或设置时执行的图像传感器校准的结果,并使用图像处理器102的仿射变换模块110来应用仿射变换。在其中来自第一和第二图像流的图像的视点已基本上均等的实施例中(例如,由于用于第一和第二图像流的图像传感器的布置或设置),可以省略仿射变换操作。
在步骤306中,通过对这些图像应用聚簇操作,将该R+3个图像划分到簇中。使用图像处理器102的聚簇模块112实现该操作。更具体地,聚簇操作涉及为R+3个图像中的每一个生成单独的簇映射。更特定地,为输入图像集合{Im1(N),Im1(N+1),…,Im1(N+R);Im2(M),Im2(M+1)}中的每一个图像生成单独的簇映射。不同图像的簇映射可以具有不同的特征,例如,不同数目的簇和不同的簇编号顺序。
例如,可以以如下的方式定义图像Imi(j)的给定的簇映射Cmi(j)。假定来自图像Imi(j)的所有像素的集合被划分到像素的不交叉的子集中,每一个这样的子集代表一个簇。在这种情况下的簇映射可以是具有与图像Imi(j)相同大小的矩阵Cmi(j)的形式。来自Cmi(j)的元素(m,n)对应于具有坐标(m,n)的图像像素所属的Imi(j)的特定簇的索引。在其它实施例中可以使用其它类型的簇映射。因此,此处使用的术语“簇映射”应被宽泛地解释。例如,由簇对应模块114产生的簇对应信息的至少一部分也可以以一个或多个簇映射的形式产生。
在实现步骤306中可以使用许多不同的聚簇技术。在此将在其它地方描述基于统计区域合并(SRM)的聚簇技术的详细例子。在R.Nock和Nielsen所著的“Statistical region merging”(IEEETransactions on Pattern Analysis and Machine Intelligence,Vol.26,No.11,2004年11月)中公开了SRM的常规方面,通过引用将其合并在此。该实施例中的聚簇技术通常试图确保所识别的簇的边界包括成像场景中对应的物体的显著边界,即使这些物体可能位于离相应的第一和第二图像流的成像传感器不同的距离,或者,可能呈现不同的颜色或在两个图像流中具有其它不同的特征。
在步骤308中,基于在步骤306中为相应的图像生成的簇映射确定簇对应信息。由图像处理器102的簇对应模块114执行该确定。簇对应信息指示步骤306中生成的簇映射的簇之间的对应性,并且如上所述的,表达簇对应信息本身可以至少部分地使用其它类型的簇映射(例如,本文其它地方表示为Cg1和Cg2的簇映射)来表示。
作为一个例示,步骤308中的簇对应操作可以接受来自于步骤306的簇映射Cm1(N),…,Cm1(N+R);Cm2(M),Cm2(M+1),和输入图像的集合{Im1(N),Im1(N+1),…,Im1(N+R);Im2(M),Im2(M+1)}作为其输入。在这种情况下,确定簇对应涉及寻找不同图像中的簇的集合之间的关系,使得例如,来自第一图像流的一个输入图像Im1(j)的簇的非交叉集合对应于来自第二图像流的另一输入图像Im2(k)的簇的非交叉集合。
因此,簇对应可以将Im1(j)中的多个簇的集合识别为对应于Im2(k)中的多个簇的不同的集合,两者簇都与相同的成像物(一个或多个)相关联。假定Im1(j)和Im2(k)的簇的集合基本上覆盖这些对应的图像的图像像素的整个集合。还假定由各自的图像传感器在基本上相同的时间捕获图像Im1(j)和Im2(k),例如图2的例子中的帧N和M或帧N+R和M+1。将在下面结合图5至图7描述示例性的簇对应确定的附加细节。
在步骤310中,使用在步骤308中获得的簇对应信息应用深度填充操作。这一般涉及将来自第一和第二图像流的图像中的对应簇的深度数据合并到一个或多个附加帧中。更具体地,如图中所指示的,在恢复帧N+i中,用来自第二图像流Fs2的帧M和M+1的对应簇的深度数据填充来自第一图像流Fs1的帧N+i的至少一个簇。在深度填充操作中填充到恢复的帧中的深度数据可以以在本文中其它地方描述的方式预处理。在其它实施例中,在基于簇对应信息恢复附加帧中可以使用不同于深度数据的图像信息,或者除了深度数据以外还使用其它图像信息。
如步骤312所示的,对于i=1到R-1,重复步骤310的深度填充操作,以恢复用于提高第二图像流Fs2的帧速率的R-1个附加帧的完整集合。由图像处理器102的深度填充模块116执行这些深度填充操作。
尽管在图3的实施例中没有明确示出,但是在步骤310和312的深度填充操作之后,可以应用后处理操作以增强恢复的附加帧的质量。使用图像处理器102的后处理模块118执行该后处理操作。在其它实施例中,可以省略后处理或将后处理至少部分地与深度填充操作结合。另外,在实现处理300中,可以使用其它的附加或替换操作的集合,并因此,图中所示出的特定操作应被认为仅仅是示例性的。
在图4中示出了用于提高低帧速率图像流Fs2的帧速率的另一示例性处理过程400。如所示出的,该处理取来自第一图像流Fs1的R+1个帧402和来自第二图像流Fs2的两个帧404作为其输入,并产生第二图像流Fs2的R-1个恢复的附加帧406作为其输出。在该图中,来自第一图像流的R+1个帧402被表示为帧N到N+R,来自第二图像流的两个帧404被表示为帧M到M+1,并且R-1个输出帧406被表示为恢复的帧1到R-1。再次地,在其它实施例中可以使用其它数量和类型的输入帧和输出帧。
处理过程400包括用于仿射变换410、聚簇412、簇对应414、深度填充416和后处理418的处理操作,在附图中示出为相应的块,设想这些操作由图像处理器102的相应的模块110、112、114、116和118实现。如前所述的,这些处理操作仅仅是示例性的,并且其它实施例可以使用附加或替换的操作集合来提高图像流的帧速率。
在本实施例中,仅对来自第一图像流Fs1的R+1个帧402应用仿射变换。这在图中通过仿射变换块410-1、410-2、...、410-(R-1)示出,其处理来自输入帧402的集合的相应的输入帧N、N+1、...、N+R。直接将包含第二图像流Fs2的两个帧M和M+1的输入帧404施加到聚簇块412和深度填充块416。如附图中所出的,还将在仿射变换块410-1、410-2、...、410-(R-1)的输出处的仿射变换过的帧施加到聚簇块412和深度填充块416。聚簇块412以先前描述的方式产生簇映射,并且簇对应块414确定来自第一和第二输入流的帧中的簇之间的对应性。所得到的簇对应信息(如上所述的,其可以包括附加的簇映射)被提供到深度填充块416,深度填充块416使用该信息恢复第二图像流的R-1个附加帧。如后处理块418-1、418-2、...、418-(R-1)所示的,分别对这些附加帧中的每一个应用后处理。这些后处理块418在其相应的输出处提供R-1个输出帧406。
如图3的实施例中那样,对于多次迭代中的每一次迭代重复图4的实施例的处理操作,每一次这样的迭代确定用于插入在第二图像流Fs2的给定对的连续现有帧之间以提高该图像流的帧速率的附加帧的集合。
现将更加详细地描述由图像处理器102的仿射变换模块110执行的示例性仿射变换操作。
设Imi(N)为在图像流Fsi的第N帧中捕获的图像,其中i=1,2。可以确定仿射变换T以使得将T(Im1(N))置入Im2(N)的坐标系中。
在其中图像传感器相对于彼此固定并且预先已知其并置(collocation)的实施例中,可以在传感器制造或设置时定义仿射变换T为T1=T(T2),其中Ti是3D空间中第i图像传感器的向量基(vectorbasis),并且仿射变换T是放大矩阵,其中放大矩阵通常提供将一组向量映射到另一组向量的线性变换。因此,例如,可以使用给定的放大矩阵来将第一图像传感器的向量基变换到第二图像传感器的向量基,其中在单一3D空间中考虑所述向量基。
根据使用的图像传感器的类型,期望与仿射变换T相关联的关键点在2D或3D空间中,并且可以手动地或通过自动技术(例如,使用边缘分析)选择关键点。对于许多实际应用,关键点的合适的数目将在大约20的量级上,然而在其它实施例中可以使用其它数目的关键点。
如下面将描述的,可以通过通过使用最小二乘法求解超定线性方程组来确定仿射变换。设m表示关键点的数目,定义Dxyz为2×m或3×m矩阵,其包括逐列书写的来自Im1(N)的每m个点的坐标,并定义Txyz为为2×m或3×m矩阵,其包括逐列书写的来自Im2(N)的对应的m个点。令A和TR分别表示在最小均方意义上优化的仿射变换矩阵和相关联的变换向量。对于3D情况:
{ A · x 1 1 y 1 1 z 1 1 . . . x m 1 y m 1 z m 1 T + TR ‾ = x 1 2 y 1 2 z 1 2 . . . x m 2 y m 2 z m 2 T , D xyz = x 1 1 y 1 1 z 1 1 . . . x m 1 y m 1 z m 1 T , T xyz = x 1 2 y 1 2 z 1 2 . . . x m 2 y m 2 z m 2 T
其中(xi j,yi j,zi j)是Imj(N)第i个关键点的坐标,并且矩阵A和向量TR共同定义仿射变换:
Txyz=A·Dxyz+TR,
可以作为如下的优化问题的解而获得矩阵A和向量TR:
||A·Dxyz+TR–Txyz||2→最小值。
使用元素方式的标记A=(aij),其中(i,j)=(1,1)…(3,3),并且TR=(trk)其中k=1..3,在最小均方意义下的优化问题的解基于如下线性方程组,其包括总共12个变量和12m个方程式:
dR/daij=0,i=1,2,3,j=1,2,3,
dR/dtrk=0,k=1,2,3。
以如上所述的方式确定了仿射变换参数A和TR之后,如下,将图像Im1(N)变换到Im2(N)的坐标系中:
D1xyz=A·Dxyz+TR。
作为应用仿射变换的结果,在所得到的变换的图像D1中的像素的坐标(x,y)不总是整数,而是,更一般地为有理数。可以使用例如最近毗邻或插值的技术,来将这些有理数坐标映射到Im2(N)的规则等距正交整数格子。该映射提供具有与Im2(N)相同分辨率的图像Im1(N),尽管由于映射可能在标准格子中留下未填充的一些点,使得可能存在空像素位置(即,未定义的数据)。
前述仅是可以通过图像处理器102实现的映射变换的一个例子,其它实施例可以使用其它类型的变换或技术来将用于产生第一图像流和第二图像流的图像传感器的坐标系对准。
现在将更加详细地描述由图像处理器102的聚簇模块112执行的示例性聚簇操作。首先应注意,聚簇模块可以实现需要不同水平的计算资源的若干不同的聚簇技术,并且可以基于图像处理器102的当前计算负载在这些技术之间切换。
如前所述的,适于在聚簇模块112中使用的聚簇技术可以基于统计区域合并或SRM。该技术通常抗随机噪声,并具有适中的计算复杂度和良好的定量误差界(quantitative error bounds)。另外,可以以允许动态控制计算需求的方式调节划分程度。
在基于SRM的聚簇技术的更特定的例子中,通过与优化图像Idi(j)相关的独立分布随机变量表示实际图像Imi(j)的每一个像素,实际图像Imi(j)被认为是优化图像Idi(j)的特定观察。使用指定每一个统计区域内像素具有相同的期望并且相邻区域的期望不同的均质性规则(homogeneity rules),将实际图像Imi(j)和优化图像Idi(j)每一个分到优化统计区域中。
该示例性的基于SRM的技术使用规定定的合并谓词(predicate)P实现递归合并。考虑任意图像Imi(j)。设由Q随机变量表示Imi(j)的每一个像素。那么,对于Imi(j)的任意两个区域R1,R2,合并谓词P可以如下表示:
其中 b ( R ) = G 1 2 Q | R | · ln ( | R | | R | / δ )
其中|R|表示区域R中像素的数目,G表示当前图像的给定像素的最大可能值(例如,对于来自Kinect图像传感器的图像G=212),而δ是小于1的正值。因此,|R1–R2|表示区域R1中的像素数和区域R2中的像素数之差的大小。如果P(R1,R2)=真,则该技术将区域R1和R2合并到单一的簇。
该技术以像素级别开始,每一个像素初始地被认为是单个的区域。针对谓词P测试区域合并的顺序遵照不变式A,其指示两个不同区域的两个部分之间的任何测试何时发生,这意味着在这两个区域内的所有测试先前已经发生。可以使用函数f(pix1,pix2)=|pix1-pix2|获得不变式A,其中pixi是图像像素值。
然后,以如下的方式进行基于SRM的技术。首先,以函数f(pix1,pix2)=|pix1-pix2|的升序排序所有可能的像素对(pix1,pix2),并所得到的顺序仅遍历一次。对于任何R(pix1)≠R(pix2)的当前像素对(pix1,pix2)(其中R(pix)表示pix所属的当前区域),执行测试P(R(pix1),R(pix2)),并且,当且仅当测试返回真(true)时,合并R(pix1)和R(pix2)。在对当前图像的合并处理完成时,图像像素已经分到多个簇中,所述簇通过先前描述的类型的簇映射来表征。
在该实施例中使用函数f(pix1,pix2)=|pix1-pix2|作为不变式A的近似,然而也可以使用其它函数。另外,在上述基于SRM的技术中,可以改变合并谓词和其它参数。另外,可以使用不是基于SRM的多种聚簇技术。
现在将参照图5至图7更详细地描述由图像处理器102的簇对应模块114执行的示例性的簇对应操作。图5示出了总体的簇对应处理过程500,其包括分别在图6和图7的处理过程600和处理过程700中示出的被标示为(1)和(2)的部分。在步骤502中,有部分(1)的单一的实例,并且在相应的步骤504、506、508和510中有部分(2)的多个单独的实例。部分(1)通常涉及确定两个簇映射之间的对应性,并且部分(2)的给定的实例通常涉及将簇的一个集合映射到簇的另一个集合。然而应理解,在其它实施例中可以使用附加的或可替换的簇对应操作。
首先参照图5,簇对应处理500包括与部分(1)相关联的步骤502和每一个与部分(2)的例子相关联的步骤504、506、508和510。
在步骤502中,确定簇映射Cm2(M)和Cm2(M+1)之间的对应,并形成簇映射Cg2(M)和Cg2(M+1)。
在步骤504中,将簇映射Cg2(M)映射到簇映射Cm1(N),以获得簇映射Cg1(N)。
在步骤506中,将簇映射Cg2(M+1)映射到簇映射Cm1(N+R),以获得簇映射Cg1(N+R)。
在步骤508中,将簇映射Cg1(N)映射到簇映射Cm1(N+1),以获得簇映射Cg1(N+1)。
在步骤510中,将簇映射Cg1(N+R)映射到簇映射Cm1(N+R-1),以获得簇映射Cg1(N+R-1)。
对一个或多个剩余帧继续进行由步骤504和508示出的映射操作序列。
类似地,对一个或多个剩余帧继续进行由步骤506和510示出的映射操作序列。
如所示出的,处理500在完成以上提到的映射操作序列时产生簇映射Cg1(N),Cg1(N+1),…,Cg1(N+R),Cg2(M)和Cg2(M+1),以及这些簇映射中的每一个中的簇的数目k。
簇映射Cg1和Cg2也称为对准的簇映射,并且可以被认为是此处更一般地称作“簇对应信息”的概念的例子。如同在此公开的其它簇映射类似,Cg1和Cg2簇映射可以被表示为相应的矩阵。在本发明的其它实施例中可以使用许多其它类型的簇对应信息。
现在将参考图6描述用于执行图5的步骤502中的部分(1)的示例性处理600。如上所述的,部分(1)通常涉及确定两个簇映射之间的对应性。用于实现该功能的处理600包括步骤602至618。
设C1和C2表示要使用将要描述的处理600相互映射的两个簇映射。在图5的步骤502的上下文中,C1=Cm2(M)并且C2=Cm2(M+1)。设N1表示C1中簇的数目,并设N2表示C2中簇的数目。
考虑来自C1的任意簇CL1和来自C2的任意簇CL2。如果满足如下条件,则簇CL2被称作与簇CL1交叉:
ρ(CL1,CL2)>threshold1
这里,0≤ρ(CL1,CL2)≤1表示两个像素集合的相对交叉量度。例如,可以使用如下对称和非对称交叉量度中给定的一个:
ρ 1 ( CL 1 , CL 2 ) = | CL 1 ∩ CL 2 | | CL 1 ∪ CL 2 | 以及 ρ 2 ( CL 1 , CL 2 ) = | CL 1 ∩ CL 2 | | CL 2 |
阈值threshold1对应于预定的阈值(例如,0.1),其可以被控制作为处理过程的参数。
处理600中的簇映射从空的簇映射Cg1和Cg2开始,其可以以零矩阵的形式表示。初始化三个附加变量,包括簇的数目k和分别表示来自C1和C2已经使用的簇的集合的变量Used1和Used2
在步骤602中,处理过程的全局初始化设置Used1={},Used2={},Cg1=0,Cg2=0,以及k=0。
在步骤604中,基于每一个簇中像素的数目以大小减少的顺序排序来自C1的簇。
在步骤606中,确定是否来自C1的所有簇已经用于分组到集合中。如果来自C1的所有簇已经被使用,那么处理过程600对Cg1和Cg2中的簇进行后处理,如步骤607中所示,并然后如所示的,退出该处理过程。如果不是所有的来自C1的簇已被使用,则处理过程600行进到步骤608。
在步骤608中,查找来自C1的未使用的簇CL1
在步骤610中,通过将集合g1初始化为{CL1}以及将对应的集合g2初始化为空集合,执行集合搜索初始化。然后处理过程通过步骤612、614、616和617循环。
在步骤612中,将g2定义为与来自g1的簇相交叉的来自CL2的簇的集合,如下:
g 2 = { CL 2 ∈ C 2 \ Used 2 | ∃ cl ∈ g 1 : ρ ( cl , CL 2 ) > threshold 1 } .
在步骤614中,定义为与来自步骤612中定义的新的g2的簇相交叉的来自CL1的簇的集合,如下:
g ^ 1 = { CL 1 ∈ C 1 \ Used 1 | ∃ cl ∈ g 2 : ρ ( CL 1 , cl ) > threshold 1 } .
在步骤616中,确定g1是否等于如果g1不等于那么处理过程进行到步骤617,否则进行到步骤618。
在步骤617中,设置g1等于并重复步骤612、614和616直到满足条件此时处理过程进行到步骤618。由于在C1和C2中簇的数目有限,因此在有限次的包括步骤612、614、616和617的迭代循环后,该条件将满足。
在步骤618中,k增加1,并更新使用的簇的集合,使得k=k+1,Used1=Used1∪g1以及Used2=Used2∪g2。此外,通过将Cg1(g1)和Cg2(g2)都设置为等于k,将g1和g2添加到所得到的簇映射Cg1和Cg2,其中Cg1(g1)=k意指将用于与来自簇g1的像素对应的簇映射Cg1的矩阵的所有元素设置为k,并且类似地,Cg2(g2)=k意指将用于与来自簇g2的像素对应的簇映射Cg2的矩阵的所有元素设置为k。
随后,如所示的,处理返回步骤606。如上所述的,如果在步骤606中确定来自C1的所有簇已被使用,那么如步骤607所示,处理过程600对Cg1和Cg2中的簇进行后处理。例如,该后处理(其不同于图4中的后处理块418所执行的后处理)可以涉及识别Cg1中的任何在Cg2中具有对应的空簇的簇,以及识别Cg2中的任何没有分配给Cg1中任何簇的簇。在这两种情况中,将每一个识别的簇组合到与其共享最长边界的相邻的簇中,其中,两个簇之间的边界长度被定义为这些簇的边界像素的数目,并且其中给定的边界像素是这样的像素,其具有一个或多个来自两个簇的相邻像素。
步骤607中的后处理可以涉及使用簇之间的深度距离量度的附加操作。例如,该深度距离量度可以被定义为两个簇的平均深度之间的绝对差值,或者两个簇的边界像素的平均深度之间的绝对距离。所述附加操作可以包括:如果Cg1中相邻的簇之间的对应的深度距离量度小于预定的阈值threshold2,则合并Cg1中所述相邻的簇。可以应用图5处理过程的部分(2)来确定Cg2的对应的合并过程。
可以使用替代的技术来替代处理过程600。例如,可以应用第二图像流的图像M和M+1两者中的所有簇集合的穷尽搜索。
现在将参考图7描述用于执行图5的步骤504、506、508和510中的特定的一个中的部分(2)的给定的实例的示例性处理过程700。如上所述的,部分(2)的给定的实例通常涉及将簇的一个集合映射到簇的另一个集合,并且可以被认为是处理过程600的简化版本。例如,在该简化版本中,来自Cg的簇被保持不变,而仅将来自Cm的簇分组到集合中。这样的设置在Cm中的簇的数目大于Cg中的簇的数目时尤其有用。用于实现该功能性的处理700包括步骤702至710。
在步骤702中,处理过程的全局初始化设置Used1={},Used2={},Cg1=Cm1,Cg2=0,以及k=0。
在步骤704中,确定是否来自C1的所有簇已经被用于分组到集合中。如果已经使用来自C1的所有簇,则处理过程700对Cg2中的簇进行后处理,如在步骤705中所示,并如所示的随后退出处理过程。如果不是来自C1的所有簇都已被使用,则处理过程700进行到步骤706。
在步骤706中,查找来自C1的未使用的簇g1
在步骤708中,如下,定义g2为与来自g1的簇相交叉的来自CL2的簇的集合:
g 2 = { CL 2 ∈ C 2 \ Used 2 | ∃ cl ∈ g 1 : ρ ( cl , CL 2 ) > threshold 1 } .
在步骤710中,k增加1,并更新使用的簇的集合,使得k=k+1,Used1=Used1∪g1,并且Used2=Used2∪g2。另外,通过将Cg2(g2)设置为等于k,将g2添加到所得到的簇映射Cg2,其中Cg2(g2)=k意指将与来自簇g2的像素对应的簇映射Cg2的矩阵的所有元素设置为k。
随后,处理如所示的返回步骤704。如上所述的,如果在步骤704中确定来自C1所有簇已经被使用,则如步骤705中所示,处理过程700对Cg2中的簇进行后处理。
应理解,在图3至7的流程图中使用的特定的处理步骤仅是示例性的,其它实施例可以使用不同类型和设置的图像处理操作。例如,在其它实施例中可以改变具体的聚簇操作的类型。另外,在给定的流程图中被示为串行执行的步骤,在其它实施例中可以至少部分地与一个或多个其它步骤并行执行。
现在将更详细的描述由图像处理器102的深度填充模块116执行的示例性深度填充操作。
在簇对应模块114以如上所述的方式确定簇对应信息之后,该信息被传送到深度填充模块116,深度填充模块116恢复用于插入在第二图像流Fs2的现有帧M和M+1之间的附加帧。深度填充模块将来自这些现有帧的深度数据添加到附加帧中的特定簇。
例如,利用簇对应信息,深度填充模块可以处理Cm1(N+i),I=1,2,…,R-1以确定簇的集合{CL1,…,CLP}和{CL1′,…,CLT′},其中P小于来自Im2(M)的Cm2(M)中的不同元素的最大数目,并且T小于来自Im2(M+1)的Cm2(M+1)中的不同元素的最大数目。
如前所示的,可以在由深度填充模块116将深度数据填充到附加帧之前,对深度数据预处理。例如,可以以如下的方式放大深度数据:
其中dData(i,j)表示坐标为(i,j)的深度数据,并且pix(i,j)是坐标为(i,j)的图像像素的值。另外或替代地,可以如下对深度数据进行平滑(smooth):
dData=smooth(dData,smooth_str)
其中该光滑技术用邻近像素的深度数据的加权和替换给定像素的深度数据dData(i,j)。通过smooth_str(例如,smooth_str=5)给出邻近性模板大小。应理解,这些特定的预处理操作仅是示例性的,并且在其它实施例中可以使用深度填充之前的其它类型的预处理。
在为来自Im1(N+i),i=1,2,..R-1的给定的簇构建深度数据dData之后,深度填充模块116使用该深度数据来填充给定的恢复的图像中的对应的簇。由于在该例子中,给定的簇是从高帧速率图像流Fs1的图像提取的,因此可以提供比来自低帧速率图像流Fs2的图像准确得多的相关联的成像对象的定位和边缘。
恢复的图像可以被如下表示为来自与Im1(N+i)相关的簇映射的所有簇上的指示器(indicator)Ind的和:
iData ( p , q ) = Σ CL ∈ Cm 1 ( N + i ) Ind ( pix ( p , q ) ∈ CL ) · dData ( p , q ) ,
其中给定的指示器Ind由下式给出:
并且,其中p,q采取由size(Im2(M))给出的所有值。在这种情况下,设想第二图像流Fs2的恢复的图像具有与第一图像流Fs1的对应的图像相同的大小。
现在将更详细地描述由图像处理器102的后处理模块118执行的示例性后处理操作。这些后处理操作通常被配置用于增强恢复的图像的质量,并且可以涉及对恢复的图像应用一个或多个过滤器以提高锐度或消除不期望的冗余阴影。
作为更特定的例子,可以通过应用如下的后处理操作消除冗余阴影和提高恢复的图像的总体质量。将给定的恢复的图像Im2(N)分到非交叉的簇中,使得每一阴影区域属于特定的簇。假定,如果来自Im2(N)的簇CL和其对应的来自Im2(N+1)的簇CL′之间的相关性小于或等于预定阈值乘以CL面积(area),则来自Im2(N)的簇CL未显著改变。因此,假定如果:
sum ( sum ( C . * C ′ ) ) sum ( sum ( C | C ′ ) ) > change _ thr
则簇CL未改变,其中change_thr表示预定的实值(例如,0.95),并且C和C′分别是与簇CL和CL′相关的矩阵。显然,不随时间显著变化的簇满足该条件。
如果来自Im2(N)的簇CL包括阴影区域,则保留该簇。然而,如果Im2(N+1)和Im2(N+2)中的对应的簇对于两个结果帧不变,则使用来自CL的深度数据减少Im2(N+2)中的阴影区域。更具体地,设iData为基于Im2(N+2)簇的恢复的图像,并且设其包含阴影区域,并且还设具有矩阵C的CL是来自Im2(N)的簇,从而CL并不显著地改变,并且对于时间N+2相关的簇包含阴影区域。后处理识别所有使得pix(i,j)=Inf的坐标(i,j),其中pix(i,j)是来自iData的像素,并且随后,对于C(i,j)>0,所识别的(i,j)坐标的CL像素被分配与Inf不同的值m,使得pix(i,j)=m。这迫使iData包含更少的阴影区域。由于阴影区域对于不同的成像器可以有不同的值,因此用于Inf的具体值取决于用于产生对应图像的成像器的类型,并且通常表示可以用于指示作为阴影区域的一部分的给定像素的任何值。例如,其可以是大的负数。
该示例性的后处理引起1/Fr2秒的附加处理延迟,或一帧的延迟,其并不是可察觉地那么显著,并因此能够适用于实际应用中。再次地,在其它实施例中可以使用各种其它类型的预处理操作。
本发明的实施例提供了用于使用至少一个较高速率的图像流提高较低帧速率图像流的帧速率的有效的技术。例如,所公开的技术允许提高图像流的帧速率,即使所成像的场景包括静态和并不必然跟随线性轨迹的移动物体的组合。然而,使用常规的技术例如移动插值处理这样的流将很困难。
应当再次强调,本文所述的本发明的实施例仅仅是示例性的。例如,本发明的其它实施例可以利用与这里所描述的特定实施例中所使用的不同的各种不同类型和布置的图像处理电路、模块和处理操作来实现。此外,这里在描述某些实施例的上下文中所作的特定假设或设想并不是在其它实施例中必须施用的。在所附的权利要求范围内的这些及许多其它替代实施例对于本领域技术人员来说将是显而易见的。

Claims (20)

1.一种方法,包括:
获得具有第一帧速率的第一图像流和具有比所述第一帧速率低的第二帧速率的第二图像流;
基于所述第一图像流和第二图像流的现有帧为所述第二图像流恢复附加帧;以及
使用所述附加帧来为所述第二图像流提供增加的帧速率;
其中在至少一个包括耦接到存储器的处理器的处理设备中执行所述获得、恢复和使用。
2.如权利要求1所述的方法,其中获得所述第一图像流和第二图像流包括从深度成像器获得作为深度图像流的、所述第一图像流和第二图像流中的至少一个图像流。
3.如权利要求1所述的方法,其中获得所述第一图像流和第二图像流包括:从配置用于对给定的场景成像的相应的不同图像传感器获得所述第一图像流和第二图像流。
4.如权利要求1所述的方法,其中所述第二图像流中的两个连续现有帧对应于所述第一图像流中的R+1个连续现有帧,从而如果所述第一图像流中的第N个现有帧对应于所述第二图像流中的第M个现有帧,则所述第一图像流中的第(N+R)现有帧对应于所述第二图像流中的第(M+1)现有帧。
5.如权利要求4所述的方法,其中基于所述第一图像流和第二图像流的现有帧为所述第二图像流恢复附加帧包括:确定用于插入所述第二图像流中的第M现有帧和第(M+1)现有帧之间的R+1个附加帧。
6.如权利要求5所述的方法,其中所确定的用于插入所述第二图像流中的第M现有帧和第(M+1)现有帧之间的R+1个附加帧是基于所述第一图像流中的对应的R+1个连续现有帧和所述第二图像流中的第M现有帧和第(M+1)现有帧确定的。
7.如权利要求1所述的方法,其中基于所述第一图像流和第二图像流的现有帧为所述第二图像流恢复附加帧包括:确定用于插入所述第二图像流中的相应对的连续现有帧的之间的一个或多个附加帧的集合。
8.如权利要求7所述的方法,其中对于给定的迭代,确定用于插入第二图像流中的所述连续现有帧中的对应的一对之间的一个或多个附加帧的特定集合,所述确定是基于第一图像流中多个对应的现有帧和第二图像流中的所述对应对的连续现有帧的。
9.如权利要求1所述的方法,其中基于所述第一图像流和第二图像流的现有帧为所述第二图像流恢复附加帧包括:
对所述现有帧中相应的帧应用聚簇操作,以产生相应的簇映射;以及
产生指示所述簇映射的簇之间的对应性的簇对应信息。
10.如权利要求9所述的方法,还包括在对其应用聚簇操作之前,至少对所述第一图像流和第二图像流中的至少一个图像流的现有帧的子集应用仿射变换。
11.如权利要求9所述的方法,其中对所述现有帧中给定的现有帧应用的聚簇操作包括基于统计区域合并的聚簇操作,其中,将所述给定的现有帧分到多个簇中,所述多个簇中的每一个对应不同统计区域。
12.如权利要求11所述的方法,其中所述基于统计区域合并的聚簇操作根据以下式,对于所述给定的现有帧的任意两个统计区域R1和R2,使用规定的合并谓词实现回归合并:
其中|R1–R2|表示区域R1中的像素的数目和区域R2中的像素的数目之间的差的大小,并且b(Ri)是区域Ri中像素的数目的函数并且是在所述给定的帧中的像素的最大可能值,使得如果P(R1,R2)=真,则将区域R1及R2合并到单一的簇中。
13.如权利要求9所述的方法,还包括使用簇对应信息执行深度填充操作,其中,与恢复所述附加帧关联地,将与第一图像流和第二图像流的一个或多个现有帧中的一个或多个簇相关联的深度数据,添加到所述一个或多个所述附加帧中对应的簇。
14.如权利要求1所述的方法,其中基于所述第一图像流和第二图像流的现有帧为所述第二图像流恢复附加帧包括:
识别所述第一图像流的一个或多个现有帧的部分和所述第二图像流的一个或多个现有帧的部分之间的对应性;以及
使用来自所述识别的部分的图像信息形成所述附加帧中的至少一个。
15.一种其中嵌入有计算机程序代码的计算机可读存储介质,其中所述计算机程序代码当在处理设备中执行时,使得所述处理设备执行如权利要求1所述的方法。
16.一种装置,包括:
至少一个处理设备,其包括耦接到存储器的处理器;
其中所述至少一个处理设备被配置来获得具有第一帧速率的第一图像流和具有比所述第一帧速率低的第二帧速率的第二图像流,基于所述第一图像流和第二图像流的现有帧为所述第二图像流恢复附加帧;以及使用所述附加帧来为所述第二图像流提供增加的帧速率。
17.如权利要求16所述的装置,其中所述处理设备包括图像处理器,所述图像处理器包括:
聚簇模块,配置为对所述现有帧中相应的现有帧应用聚簇操作,以产生相应的簇映射;以及
簇对应模块,配置为产生指示所述簇映射的簇之间的对应性的簇对应信息。
18.如权利要求17所述的装置,其中所述图像处理器还包括深度填充模块,所述深度填充模块被配置为使用所述簇对应信息执行深度填充操作,其中,与恢复所述附加帧关联地,将与第一图像流和第二图像流的一个或多个现有帧中的一个或多个簇相关联的深度数据,添加到一个或多个所述附加帧中相应的簇。
19.一种图像处理系统,包括:
第一图像源,提供具有第一帧速率的第一图像流;
第二图像源,提供具有比所述第一帧速率低的第二帧速率的第二图像流;以及
图像处理器,耦接到所述第一图像源和第二图像源;
其中所述图像处理器被配置为基于所述第一图像流和第二图像流的现有帧为所述第二图像流恢复附加帧,以及使用所述附加帧为所述第二图像流提供增加的帧速率。
20.如权利要求19所述的系统,其中所述第一图像源和第二图像源中的至少一个包括深度成像器。
CN201380007015.4A 2013-01-30 2013-08-23 使用至少一个较高帧速率图像流提高图像流帧速率的方法和装置 Pending CN104254868A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
RU2013102854 2013-01-30
RU2013102854/08A RU2013102854A (ru) 2013-01-30 2013-01-30 Способ и устройство для повышения кадровой частоты потока изображений с использованием, по меньшей мере, одного потока изображений с более высокой кадровой частотой
PCT/US2013/056402 WO2014120281A1 (en) 2013-01-30 2013-08-23 Increasing frame rate of an image stream

Publications (1)

Publication Number Publication Date
CN104254868A true CN104254868A (zh) 2014-12-31

Family

ID=51262820

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201380007015.4A Pending CN104254868A (zh) 2013-01-30 2013-08-23 使用至少一个较高帧速率图像流提高图像流帧速率的方法和装置

Country Status (7)

Country Link
US (1) US9386266B2 (zh)
JP (1) JP2016509805A (zh)
KR (1) KR20150114950A (zh)
CN (1) CN104254868A (zh)
RU (1) RU2013102854A (zh)
TW (1) TW201436552A (zh)
WO (1) WO2014120281A1 (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105118077A (zh) * 2015-09-02 2015-12-02 广东建设职业技术学院 一种提高文件拍摄流畅性的方法及系统
CN109040591A (zh) * 2018-08-22 2018-12-18 Oppo广东移动通信有限公司 图像处理方法、装置、计算机可读存储介质和电子设备

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2013102854A (ru) 2013-01-30 2014-08-10 ЭлЭсАй Корпорейшн Способ и устройство для повышения кадровой частоты потока изображений с использованием, по меньшей мере, одного потока изображений с более высокой кадровой частотой
GB201515615D0 (en) * 2015-09-03 2015-10-21 Functional Technologies Ltd Clustering images based on camera fingerprints
GB2582592A (en) * 2019-03-26 2020-09-30 Sony Corp A method, apparatus and computer program product for storing images of a scene
US11303847B2 (en) 2019-07-17 2022-04-12 Home Box Office, Inc. Video frame pulldown based on frame analysis
CN113393629B (zh) * 2021-05-25 2022-11-15 浙江大华技术股份有限公司 入侵行为检测方法、装置和多路视频监控系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070081794A1 (en) * 2005-07-19 2007-04-12 Baynger Michael P Hierarchical data storage
CN101485192A (zh) * 2006-10-30 2009-07-15 松下电器产业株式会社 图像生成装置以及图像生成方法
CN102334339A (zh) * 2009-12-28 2012-01-25 松下电器产业株式会社 显示装置和方法、记录介质、发送装置和方法、以及再现装置和方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5808617A (en) * 1995-08-04 1998-09-15 Microsoft Corporation Method and system for depth complexity reduction in a graphics rendering system
US6031573A (en) 1996-10-31 2000-02-29 Sensormatic Electronics Corporation Intelligent video information management system performing multiple functions in parallel
US6476802B1 (en) * 1998-12-24 2002-11-05 B3D, Inc. Dynamic replacement of 3D objects in a 3D object library
US7133041B2 (en) * 2000-02-25 2006-11-07 The Research Foundation Of State University Of New York Apparatus and method for volume processing and rendering
US8026910B2 (en) * 2005-06-29 2011-09-27 Qualcomm Incorporated Offline optimization pipeline for 3D content in embedded devices
CN102106152A (zh) 2008-07-24 2011-06-22 皇家飞利浦电子股份有限公司 通用3-d画面格式
US20120229460A1 (en) 2011-03-12 2012-09-13 Sensio Technologies Inc. Method and System for Optimizing Resource Usage in a Graphics Pipeline
RU2013102854A (ru) 2013-01-30 2014-08-10 ЭлЭсАй Корпорейшн Способ и устройство для повышения кадровой частоты потока изображений с использованием, по меньшей мере, одного потока изображений с более высокой кадровой частотой

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070081794A1 (en) * 2005-07-19 2007-04-12 Baynger Michael P Hierarchical data storage
CN101485192A (zh) * 2006-10-30 2009-07-15 松下电器产业株式会社 图像生成装置以及图像生成方法
CN102334339A (zh) * 2009-12-28 2012-01-25 松下电器产业株式会社 显示装置和方法、记录介质、发送装置和方法、以及再现装置和方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105118077A (zh) * 2015-09-02 2015-12-02 广东建设职业技术学院 一种提高文件拍摄流畅性的方法及系统
CN105118077B (zh) * 2015-09-02 2018-02-09 广东建设职业技术学院 一种提高文件拍摄流畅性的方法及系统
CN109040591A (zh) * 2018-08-22 2018-12-18 Oppo广东移动通信有限公司 图像处理方法、装置、计算机可读存储介质和电子设备

Also Published As

Publication number Publication date
US9386266B2 (en) 2016-07-05
TW201436552A (zh) 2014-09-16
WO2014120281A1 (en) 2014-08-07
KR20150114950A (ko) 2015-10-13
RU2013102854A (ru) 2014-08-10
US20140362289A1 (en) 2014-12-11
JP2016509805A (ja) 2016-03-31

Similar Documents

Publication Publication Date Title
CN104254868A (zh) 使用至少一个较高帧速率图像流提高图像流帧速率的方法和装置
CN111179324B (zh) 基于颜色和深度信息融合的物体六自由度位姿估计方法
CN110458939B (zh) 基于视角生成的室内场景建模方法
CN108537876B (zh) 三维重建方法、装置、设备及存储介质
CN110705448B (zh) 一种人体检测方法及装置
EP3042361B1 (en) Estimating depth from a single image
CN109598754B (zh) 一种基于深度卷积网络的双目深度估计方法
US9942535B2 (en) Method for 3D scene structure modeling and camera registration from single image
CN110648397B (zh) 场景地图生成方法、装置、存储介质及电子设备
CN108335322A (zh) 深度估计方法和装置、电子设备、程序和介质
CN110674829A (zh) 一种基于图卷积注意网络的三维目标检测方法
CN103019671A (zh) 面向数据密集型遥感图像处理的泛型编程的框架编程方法
CN111583381B (zh) 游戏资源图的渲染方法、装置及电子设备
Zha et al. A real-time global stereo-matching on FPGA
CN103839222A (zh) 一种基于分层次边界拓扑搜索模型的栅格转矢量并行系统
CN106952304A (zh) 一种利用视频序列帧间相关性的深度图像计算方法
CN111881985B (zh) 立体匹配方法、装置、终端和存储介质
CN112183506A (zh) 一种人体姿态生成方法及其系统
CN104025155B (zh) 可变深度压缩
CN111553296A (zh) 一种基于fpga实现的二值神经网络立体视觉匹配方法
CN113592015B (zh) 定位以及训练特征匹配网络的方法和装置
CN109961516B (zh) 表面获取方法、装置及非暂态电脑可读取记录媒体
Dong et al. A 4.29 nJ/pixel stereo depth coprocessor with pixel level pipeline and region optimized semi-global matching for IoT application
Arampatzakis et al. Monocular Depth Estimation: A Thorough Review
Bao et al. Robust tightly-coupled visual-inertial odometry with pre-built maps in high latency situations

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20141231