CN101278314A - 用于确定图像拍摄类型的方法和装置 - Google Patents
用于确定图像拍摄类型的方法和装置 Download PDFInfo
- Publication number
- CN101278314A CN101278314A CNA2006800360231A CN200680036023A CN101278314A CN 101278314 A CN101278314 A CN 101278314A CN A2006800360231 A CNA2006800360231 A CN A2006800360231A CN 200680036023 A CN200680036023 A CN 200680036023A CN 101278314 A CN101278314 A CN 101278314A
- Authority
- CN
- China
- Prior art keywords
- group
- image
- depth
- difference
- depth value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/78—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/783—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/7847—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content
- G06F16/786—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content using motion, e.g. object motion or camera motion
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Library & Information Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
- Apparatus For Radiation Diagnosis (AREA)
Abstract
公开一种用于确图像定拍摄类型的方法和装置。该方法包括以下步骤:将图像的部分分配(203,205)到至少第一群组或第二群组,该群组具有与之相关的不同的深度值范围;基于所述第一群组和第二群组是否都被分配至少一个部分或者是所述第一群组和第二群组的深度之间的差是否有分级或逐渐的变化,来确定(207,209)图像的拍摄类型。
Description
技术领域
本发明涉及用于确定图像拍摄(shot)类型的方法和装置。
背景技术
影像内容(video content)由各种不同的拍摄类型构成,其中导演的意愿贯穿于各种不同的信息中。通常,这些拍摄划分为三种类型,也就是远景(long shot)、中景(medium shot)、特写(close-up)或近景(short shot)。远景显示动作(action)的整个区域,包括全部的地点、人物、对象。在中景中,所述主题和它的背景(setting)在画面(frame)中占据着近乎相等的区域。特写或近景是一个场景(scene)的一小部分,例如是人物的脸部细节,所以它填满了镜头。图1a显示的是远景的例子,图1b显示的是中景的例子。
把拍摄镜头(shot)(或者甚至单独的画面)自动分类成远景、中景、特写,可以提供非常有用的信息,用于影像内容(video content)的分析应用,如场景章节编辑。在一些视频信号处理的方法中,拍摄的自动分类也证明是有用的,例如,3D屏上的绘制(rendering),其中远景的绘制(rendering)与特写的不同,例如,在特写中靠近屏幕面显示前景(foreground)以使特写尽可能的锐利(sharp),而对于远景,可以在屏幕前面绘制(rendering)场景的更大部分。
对于自动分类,需要可以从画面(frame)或镜头(shot)计算出的特征(feature)。这种特征(feature)需要能够区分远景、中景、特写。一种众所周知的技术是使用几类的信息来测定镜头的类型。其包括运动、聚焦(focus)、结构(texture)、相机运动、视场(field of view)和许多其他信息。然而,这种技术是复杂的,且可能区分拍摄类型不准确。
发明内容
需要提供计算简单并且精度提高的镜头自动分类技术。
根据本发明的一个方面,通过提供确定图像拍摄类型的方法,实现以上所述目的,该方法包括如下步骤:将图像的(多个)部分分配(assign)给至少第一群组(cluster)或第二群组,该群组具有与之相关的不同的深度值(depth value)范围;基于所述第一群组和第二群组是否都被分配至少一个部分或者所述第一群组和第二群组的深度值之间的差是否是有分级(stepped)或逐渐(gradual)的变化,来确定该图像的拍摄类型(shot type)。
根据本发明的另一个方面,通过提供用于测定图像拍摄类型的装置也能实现以上需求,该装置包括:用于图像输入的接口装置;和一种处理器,其用于:把图像的(多)部分分配给至少第一群组或第二群组,该群组具有与之相关的不同深度值范围;以及基于所述第一群组和第二群组是否都被分配至少一个部分或者所述第一群组和第二群组的深度值之间的差是否是有分级或逐渐的变化,来确定该图像的拍摄类型。
基本概念是,如果能区分至少两个深度值群组,即,该深度有明显的或分级的不同,则该影像画面是特写或中景类型,而如果在这些群组中没有那样的差异,而是一个渐变的轮廓(profile),或者仅仅是一组群组,则表示是远景。在一个优选实施例中,当该深度信号与该场景有直接关系,则该深度信号能直接用作场景分类器(classifier)。
优选地,决定该深度值是否有明显或分级差异,是依据所述群组的统计特性。这些统计特性至少包括下述之一:所述第一群组和第二群组之间的所述深度平均值的差、群组内的深度值标准偏差和群组的面积(area)。
这些特性参数提供了一个简单的计算方法,该方法是快速的、有效的、准确的。
确定所述第一群组和第二群组的深度之间的差是否有分级或逐渐的变化的方法可以包括以下步骤:将所述第一群组和第二群组之一的深度值标准偏差与所述第一群组和第二群组之间的平均深度值的差进行对比;以及,如果该标准偏差与所述平均深度值的差相比相对较小,则所述第一群组和第二群组的深度之间的差有分级变化,以及该影像分类为近景(short shot)类型。
然后,通过对该群组的统计参数做简单测试,可以很容易的区分中景或者近景以及特写。
确定所述第一群组和第二群组的深度之间的差是否有逐渐变化的步骤包括以下步骤:对比所述第一群组与第二群组之间的平均深度值的差别;确定该平均深度之间的差是否小于某阈值;以及如果该平均深度值之间的差小于这个阈值,则所述第一群组和第二群组的深度之间的差有逐渐变化,以及该影像确定为远景。
该方法还包括以下步骤:对比所述第一群组和第二组每一个的面积(area);以及如果所述第一群组和第二群组有一个是小的,或者是零,或者如果该面积差大于阈值,则该图像确定为远景。
所述第一群组和第二群组可以包括该图像的前景和背景。
可以识别所述第一群组和第二群组之间边界上的图像部分,以及可以计算像素深度与所述第一群组和第二群组每一个的平均深度值识别部分之间的差;然后,该部分可以被分配到具有最小深度差的群组。
这样,能够更精确的分配(assign)边界上的部分。
如果该图像是3-D影像,可以利用与之相关的深度轮廓图(depthprofile map),且该深度值可以从深度轮廓图获得。因此,该优选实例的计算使用了现成的或容易得到的数据。
如果该图像是2-D影像,则该深度值可以从2D影像的估计深度轮廓图中获得,并且该处理方式与3-D影像处理方式相同。
若深度轮廓图不能被估计或者是对于2-D影像,其难以计算,则第一群组和第二群组可以取自多个不同的提示(cue),例如,运动(motion)和聚焦(focus)。
因此,在优选实施例中,给定深度轮廓情况下,这个轮廓的适合(fit)可以与两种不同的深度模型相比较:光滑的深度轮廓(例如,具有垂直图像坐标的线性深度变化),和由两个群组(例如是前景和背景)构成的轮廓。对于远景,光滑的轮廓更合适,而对于中景或者特写,群组轮廓(cluster profile)更合适一些。
附图说明
为了更全面的理解本发明,结合附图参照下面的描述,其中:
图1a和图1b是分别是远景影像画面和中景影像画面的例子;
图2示出根据本发明优选实例的镜头分类系统的步骤的流程图;
图3示出图2中的205步骤的细节流程图;以及
图4示出根据本发明第二优选实施例的镜头分类系统的步骤的流程图。
具体实施方式
尽管本描述提到了远景(long shot)和特写(close up)的区别,但是应当理解为,仅仅通过阈值的适当设置,本实施例也能等效地用于中景的分类。
第一优选实施例的方法用于2-D或3-D图像的分类。
尽管通常在2D影像中没有深度轮廓(depth profile),但是可以从根据影像自身计算出所述深度轮廓图。对于2D-到3D的影像转换,使用了从图像数据计算得到的深度提示(depth cue)。这些技术在现有技术中是众所周知的,在这里不作具体描述。在3-D影像中,提供了深度轮廓。例如,如果使用了3D相机,除标准视频流之外,还记录了直接深度流(direct depth stream)。另外,可以利用立体材料,从中提取出深度信息。
参照图2,根据第一优选实施例,该方法包括以下步骤:201步,读出所述输入视频信号;203步,计算(在2-D图像或者3D图像情况下,其中没有记录所述深度轮廓)或者读出(在具有与之相关的深度轮廓的3-D图像情况下)所述该深度轮廓;205步,计算检验统计量(test statistic);以及207步,把这些参数与相应的阈值做比较;以及209步,根据以上限定拍摄类型(shot type)。
根据本发明的优选实施例的设备,包括用于输入图像的接口装置。该接口装置连接到处理器,该处理器适于执行图2中的方法步骤。
步骤205的细节在图3中示出,其计算测试统计量(test statistic)。
首先,是步骤301,影像画面被依深度分成群组。该影像画面的像素分成两个深度值群组,也就是,前景(foreground)和背景(background)。初步分组由下述构成:将左边界、上边界、右边界的像素块或图像部分(即图像的1/4)指定给所述‘背景’群组,以及将其他像素指定给‘前景’群组。然后重复执行步骤303到307,来改进(refine)这种群组:
在303步中,对所述两群组的每一组,计算平均群组深度。然后在步骤305中,扫描(sweep)图像,以及对于每一群组边界上的部分,其指定给具有和群组的平均深度最小差值的群组。重复执行以上这些步骤,直到在307步出现收敛(convergence)。已经注意到,通常反复执行四次。
步骤308,在已经产生了两个群组后,计算用于测试该群组的不同统计量(statistics)。
计算出的这些统计量,例如可以是它们的平均值之差、它们的标准偏差以及它们的面积(areas)。
通常,对于其中一个群组,平均值的差或面积较小,则表示群组无不明显(no evidence),即该画面是远景,而,一个小的标准偏差(与平均值的差相比)表示分组(clustering)是显著的,即表示特写镜头类型。
用于区分拍摄类型的检验统计量如下:
其中,α1和α2是每个群组的面积(area)分数(使得α1+α2=1),tm是该群组平均值之间的差,以及是深度信号的标准偏差。
对于每个群组占据半个画面这种情况,这个表达式是用于测试平均值之差是否显著的常规检测。因此,对于95%的可靠区间(confidenceinterval),
tm>1.96 (2)
这就表示,两个不同的群组(clusters)都存在;是特写镜头。由于前景部分,以及背景深度通常不是恰50%,所以可以选择稍微小一点的阈值。另外一种方法是,基于大量视频内容的统计量,例如基于精度/查全率曲线,经验性地确定一个阈值。
如果该深度是从2D影像计算而来,则以上的实施例将能直接执行。然而,下面参照图4描述一种替代的方法。
在当前的深度估算过程中,从不同提示(cue,或译“线索”)导出的深度信号被(线性地)合并。由此,可以使用提示(cue)的有限子集,替代使用合并的深度轮廓。本质上来讲,深度提示(cue)可以是生理或心理现象。在本发明的实施例中,仅使用从运动和聚焦分析导出的深度信号。下面表1示出了不同情形的区别。
存在运动 | 运动群组 | 聚焦群组 | 结论 | |
是是是是否否 | 是是否否否否 | 是否是否是否 | 特写或中景特写或中景特写或中景远景特写或中景未定 |
表一
基本上,如果能够获得由两组(在任一所述深度提示(cues)上)差异明显的群组构成的深度信号,则表明这是特写;如果没有具有截然不同的群组的深度提示,则表明这是远景。然而,在静止场景的这种情况下(没有镜头或目标运动),则不可能作出区分(distinction)。
参照图4,本发明的第二个实施例将被描述。
首先,401步,读出所述输入视频信号。然后,403步,计算该运动估计值。通过使用一种常规的3DRS运动估值方案,执行这个步骤,如在G de Haan和P.W.A.C.Biezen的“An efficient true-motion estimator usingcandidate vectors from a parametric motion model”,IEEE Transactions onCircuits and Systems for Video Technology,vol.8,p.85-91,1998”中所描述。一个非优选的替代方案(因为该运动区域比较不平滑)将使用MPEG运动向量(motion vector)。
在步骤405中,计算所述运动检测检验统计量。为了检测是否运动,使用下面的检验统计量:
其中b标注在所有的块上,Nb是块的序号,以及m(b)是运动向量。从而,tc是运动的平均幅度。
然后,在407步骤中,tc与运动检测阈值相比较。如果
tc<1像素, (4)
则该画面被分类为是没有运动的。
在步骤409中,计算运动深度(depth-from-motion)。为了从运动区域计算深度信号,背景运动被减除。背景运动的估算包括估算全景模式(pan-zoom model)(由平移和缩放参数构成)。这在现有技术中是公知的。随后,该运动深度(depth-from-motion)信号dm计算为:
dm=||m(b)-mbg(b)|| (5)
其中,mbg是在指定块中的所述预测背景运动向量。
然后,在411步骤中,在运动深度分组情况下,检验统计量被计算,并且在步骤413中其与一个阈值相比较,类似于由上面关系式(1)和(2)描述和给出的方法。
另外,在步骤415中,计算该景深(depth from focus)。例如,通过使用由J.H.Elder和S.W.Zucker的“Local scale control for edge detectionand blur estimation(IEEE Transactions on Pattern Analysis and MachineIntelligence”,vol.20,p.689-716,1998),中公开的方法能够计算焦距(focus,或聚焦)。
紧接着,在步骤417中,在所述景深分组情况下,检验统计量被计算,并在步骤419与一个阈值相比较,类似于上面描述和由关系式(1)和(2)给出的方法。
根据图表1,在步骤421内,作出关于镜头类型的决定。这个决定能基于单独画面完成,或者作为镜头内的整个画面的多数表决结果。在一个可替换的实施例中,给出检验统计量数值,可以确定某种拍摄类型的几率,从其获得拍摄类型。
尽管优化的本发明的实施例在附图中说明,且在上面详细描述,但是应该注意的是,本发明并没有限制所发表的实施例,仅仅是做了大量的修改且没有背离本发明在下面的权利要求书所陈述的范围。
Claims (15)
1.一种方法,用于确定图像的拍摄类型,该方法包括以下步骤:
把所述图像的部分(多个)分配给至少第一群组或第二群组,其中所述群组具有与其关联的不同深度值范围;和
基于所述第一群组和第二群组是否都被分配至少一个部分或者所述第一群组和第二群组的深度值之间的差是否有分级或逐渐的变化,确定所述图像的拍摄类型。
2.根据权利要求1所述的方法,其中确定深度值的差是否有分级或逐渐的变化,是基于所述群组的统计特性。
3.根据权利要求2所述的方法,其中所述统计特性至少包括下述中的一个:
所述第一群组和第二群组之间的所述深度平均值的差、群组内深度值的标准偏差、和群组的面积。
4.根据权利要求3所述的方法,其中确定所述第一群组和第二群组的深度值之间的差是否有分级或逐渐变化的步骤包括以下步骤:
将所述第一群组和第二群组之一内的深度值标准偏差与所述第一群组和第二群组之间的平均深度值的差值相比较;和
如果所述标准偏差与所述平均深度值的差相比相对较小,则所述第一群组和第二群组的深度值之间的差有分级变化,以及该图像分类为近景类型。
5.根据权利要求3或4所述的方法,其中,确定所述第一群组和第二群组的深度之间的差是否有逐渐变化的步骤包括以下步骤:
比较所述第一群组和第二群组之间平均深度值的差;
确定平均深度值之间的差是否小于某一阈值;和
如果所述平均值之间的差小于该阈值,则所述第一群组和第二群组的深度之间的差有逐渐的变化,以及该图像确定为远景。
6.根据权利要求3到5任一所述的方法,其中该方法还包括以下步骤:
比较所述第一群组和第二群组每一个的面积,以及如果所述第一群组和第二群组之一的面积较小,或为零,或者如果面积的差大于某一阈值,则该图像被确定为远景。
7.根据前面权利要求任一所述的方法,其中,所述第一群组和第二群组包括所述图像的背景和前景。
8.根据前面权利要求任一所述的方法,还包括以下步骤:
识别所述第一群组和第二群组之间边界上的所述图像部分;
利用所述第一群组和第二群组每一组的平均深度值,计算所述图像的所述识别部分的像素深度的差;和
将所述部分分配给具有最小深度差的群组。
9.根据前面权利要求任一所述的方法,其中所述图像是具有与其相关的深度轮廓图的3-D图像,所述深度值是从所述深度轮廓图获得。
10.根据权利要求1到8任一所述的方法,其中所述图像是2-D图像。
11.根据权利要求10所述的方法,其中该深度值是从所述2-D图像的估计深度轮廓图获得。
12.根据权利要求10或11所述的方法,其中所述第一群组和第二群组取于多数个不同的提示。
13.根据权利要求12,其中所述提示包括运动和聚焦。
14.一种装置,用于确定图像的拍摄类型,该装置包括:
接口装置,其用于输入图像;和
处理器,其用于将图像的(多个)部分分配给至少第一群组或第二群组,所述群组具有与之相关的不同深度值范围,以及用于基于所述第一群组和第二群组是否都被分配至少一部分或者基于所述第一群组和第二群组的深度值之间的差是否有分级或逐渐的变化,来确定该图像的拍摄类型。
15.一种计算机程序产品,包括用于执行根据所述的权利要求1到13任一所述的方法的多个程序代码部分。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP05109019.9 | 2005-09-29 | ||
EP05109019 | 2005-09-29 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN101278314A true CN101278314A (zh) | 2008-10-01 |
Family
ID=37836617
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CNA2006800360231A Pending CN101278314A (zh) | 2005-09-29 | 2006-09-11 | 用于确定图像拍摄类型的方法和装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20080253617A1 (zh) |
EP (1) | EP1932117A2 (zh) |
JP (1) | JP2009512246A (zh) |
CN (1) | CN101278314A (zh) |
WO (1) | WO2007036823A2 (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104135658A (zh) * | 2011-03-31 | 2014-11-05 | 富士通株式会社 | 在视频中检测摄像机运动类型的方法及装置 |
CN109165557A (zh) * | 2018-07-25 | 2019-01-08 | 曹清 | 景别判断系统及景别判断方法 |
CN113572958A (zh) * | 2021-07-15 | 2021-10-29 | 杭州海康威视数字技术股份有限公司 | 一种自动触发摄像机聚焦的方法及设备 |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2008129643A1 (ja) * | 2007-04-13 | 2008-10-30 | Pioneer Corporation | ショットサイズ識別装置及び方法、電子機器、並びにコンピュータプログラム |
JP4876080B2 (ja) * | 2008-01-25 | 2012-02-15 | 富士重工業株式会社 | 環境認識装置 |
JP4956452B2 (ja) * | 2008-01-25 | 2012-06-20 | 富士重工業株式会社 | 車両用環境認識装置 |
US8452599B2 (en) * | 2009-06-10 | 2013-05-28 | Toyota Motor Engineering & Manufacturing North America, Inc. | Method and system for extracting messages |
US8269616B2 (en) * | 2009-07-16 | 2012-09-18 | Toyota Motor Engineering & Manufacturing North America, Inc. | Method and system for detecting gaps between objects |
US8337160B2 (en) * | 2009-10-19 | 2012-12-25 | Toyota Motor Engineering & Manufacturing North America, Inc. | High efficiency turbine system |
US8237792B2 (en) | 2009-12-18 | 2012-08-07 | Toyota Motor Engineering & Manufacturing North America, Inc. | Method and system for describing and organizing image data |
US8424621B2 (en) | 2010-07-23 | 2013-04-23 | Toyota Motor Engineering & Manufacturing North America, Inc. | Omni traction wheel system and methods of operating the same |
US8861836B2 (en) | 2011-01-14 | 2014-10-14 | Sony Corporation | Methods and systems for 2D to 3D conversion from a portrait image |
EP2679014B1 (en) * | 2011-02-23 | 2015-01-07 | Koninklijke Philips N.V. | Processing depth data of a three-dimensional scene |
US20140181668A1 (en) | 2012-12-20 | 2014-06-26 | International Business Machines Corporation | Visual summarization of video for quick understanding |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6084979A (en) * | 1996-06-20 | 2000-07-04 | Carnegie Mellon University | Method for creating virtual reality |
US6556704B1 (en) * | 1999-08-25 | 2003-04-29 | Eastman Kodak Company | Method for forming a depth image from digital image data |
US7016540B1 (en) * | 1999-11-24 | 2006-03-21 | Nec Corporation | Method and system for segmentation, classification, and summarization of video images |
JP2003018604A (ja) * | 2001-07-04 | 2003-01-17 | Matsushita Electric Ind Co Ltd | 画像信号符号化方法、画像信号符号化装置および記録媒体 |
US7031844B2 (en) * | 2002-03-18 | 2006-04-18 | The Board Of Regents Of The University Of Nebraska | Cluster analysis of genetic microarray images |
JP4036328B2 (ja) * | 2002-09-30 | 2008-01-23 | 株式会社Kddi研究所 | 動画像データのシーン分類装置 |
JP2006244424A (ja) * | 2005-03-07 | 2006-09-14 | Nippon Telegr & Teleph Corp <Ntt> | 映像シーン分類方法及び装置及びプログラム |
-
2006
- 2006-09-11 EP EP06809281A patent/EP1932117A2/en not_active Withdrawn
- 2006-09-11 JP JP2008532915A patent/JP2009512246A/ja active Pending
- 2006-09-11 CN CNA2006800360231A patent/CN101278314A/zh active Pending
- 2006-09-11 WO PCT/IB2006/053211 patent/WO2007036823A2/en active Application Filing
- 2006-09-11 US US12/067,993 patent/US20080253617A1/en not_active Abandoned
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104135658A (zh) * | 2011-03-31 | 2014-11-05 | 富士通株式会社 | 在视频中检测摄像机运动类型的方法及装置 |
CN104135658B (zh) * | 2011-03-31 | 2016-05-04 | 富士通株式会社 | 在视频中检测摄像机运动类型的方法及装置 |
CN109165557A (zh) * | 2018-07-25 | 2019-01-08 | 曹清 | 景别判断系统及景别判断方法 |
CN113572958A (zh) * | 2021-07-15 | 2021-10-29 | 杭州海康威视数字技术股份有限公司 | 一种自动触发摄像机聚焦的方法及设备 |
Also Published As
Publication number | Publication date |
---|---|
EP1932117A2 (en) | 2008-06-18 |
JP2009512246A (ja) | 2009-03-19 |
WO2007036823A2 (en) | 2007-04-05 |
WO2007036823A3 (en) | 2007-10-18 |
US20080253617A1 (en) | 2008-10-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN101278314A (zh) | 用于确定图像拍摄类型的方法和装置 | |
US8326042B2 (en) | Video shot change detection based on color features, object features, and reliable motion information | |
CN103336954B (zh) | 一种视频中的台标识别方法和装置 | |
CN101329766B (zh) | 运动图像分析装置、方法及系统 | |
CN106780565B (zh) | 一种基于光流与k-means聚类的多学生起坐检测方法 | |
US20110128354A1 (en) | System and method for obtaining camera parameters from multiple images and computer program products thereof | |
CN103208006B (zh) | 基于深度图像序列的对象运动模式识别方法和设备 | |
CN106663325B (zh) | 图像处理装置及其图像处理方法 | |
CN104978567B (zh) | 基于场景分类的车辆检测方法 | |
US20100067863A1 (en) | Video editing methods and systems | |
CN106991686B (zh) | 一种基于超像素光流场的水平集轮廓跟踪方法 | |
CN103003842A (zh) | 运动物体检测装置、运动物体检测方法、运动物体检测程序、运动物体跟踪装置、运动物体跟踪方法以及运动物体跟踪程序 | |
CN104023249A (zh) | 电视频道识别方法和装置 | |
CN111161313B (zh) | 一种视频流中的多目标追踪方法及装置 | |
CN111160243A (zh) | 客流量统计方法及相关产品 | |
CN105912977B (zh) | 基于点聚类的车道线检测方法 | |
CN109544592A (zh) | 针对相机移动的运动目标检测算法 | |
CN111652900B (zh) | 基于场景流的客流量的计数方法、系统及设备、存储介质 | |
CN109194955B (zh) | 一种场景切换检测方法及系统 | |
CN109697385A (zh) | 一种目标跟踪方法及装置 | |
Battikh et al. | Camera calibration using court models for real-time augmenting soccer scenes | |
CN102314591A (zh) | 静止前景物体的检测方法和设备 | |
JP2011087144A (ja) | テロップ文字領域検出方法,テロップ文字領域検出装置およびテロップ文字領域検出プログラム | |
CN112233139A (zh) | 用于在3d数据重建过程中检测运动的系统和方法 | |
CN108154521B (zh) | 一种基于目标块融合的运动目标检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C02 | Deemed withdrawal of patent application after publication (patent law 2001) | ||
WD01 | Invention patent application deemed withdrawn after publication |
Open date: 20081001 |