CN102939609A - 基于人类交互轨迹的系统 - Google Patents
基于人类交互轨迹的系统 Download PDFInfo
- Publication number
- CN102939609A CN102939609A CN2010800574097A CN201080057409A CN102939609A CN 102939609 A CN102939609 A CN 102939609A CN 2010800574097 A CN2010800574097 A CN 2010800574097A CN 201080057409 A CN201080057409 A CN 201080057409A CN 102939609 A CN102939609 A CN 102939609A
- Authority
- CN
- China
- Prior art keywords
- track
- candidate
- component
- image
- connection component
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/98—Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns
- G06V10/987—Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns with the intervention of an operator
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
- G06V20/42—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items of sport video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/91—Television signal processing therefor
- H04N5/93—Regeneration of the television signal or of selected parts thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30221—Sports video; Sports image
- G06T2207/30228—Playing field
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30241—Trajectory
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Quality & Reliability (AREA)
- Signal Processing (AREA)
- Image Analysis (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
一种方法和相关联的装置,用于通过用户界面结合人类交互地使用基于轨迹的技术来检测视频序列中的移动对象。该方法包括以下步骤,标识并且评价视频帧中的连接分量的集合,通过将连接分量的特征与预定准则相比较来过滤连接分量的列表,标识跨越多个帧的候选者轨迹,评价候选者轨迹以确定所选轨迹,通过使用界面消除不正确的轨迹,以及响应于评价和消除步骤处理所述视频序列中的图像。
Description
相关申请的交叉引用
本申请要求2009年12月16日提交的美国临时申请第61/284,261的权益并且并入于此。
技术领域
本申请涉及视频序列中基于轨迹的检测系统。
背景技术
随着移动设备变得更有能力以及已经开发移动数字电视标准,在这样的设备上观看视频节目变得日益实际。然而,这些设备的小屏幕呈现某些限制,特别是对于观看体育赛事。诸如体育节目中的球之类的小对象难于被看见。高视频压缩率的使用通过显著降低特别是在远视场景中的类似球的小对象的出现可能恶化情况。
因此可以期望应用图像处理,来增强球的出现。然而,检测体育视频或者具有其它小移动对象的视频中的球是具有挑战性的问题。例如,球可以被遮挡或者与场线融合。即使当它是完全可见时,它的属性(诸如形状、面积以及颜色之类)可能从帧到帧改变。另外,如果帧中存在于具有类似球的属性的很多对象,则难以基于仅仅一个帧判定哪个是球,并且由此难以执行图像增强。
之前已经开发检测并且跟踪诸如足球等之类的移动对象的方法,该方法是相当具有鲁棒性并且准确的。这样的方法在PCT/US10/002039中公开。
然而,之前的方法在某些情况下失效。失效的示例包括不跟踪诸如球之类的期望对象或者跟踪不是期望对象的另一对象。
这样,存在以下需要:提供克服现有技术缺点的、检测并且跟踪移动对象的改进的方法。
发明内容
为了解决以上描述的问题,本发明针对以下方法和相关联的装置,用于通过用户界面结合人类交互地使用基于轨迹的技术来检测视频序列中的移动对象。该方法包括以下步骤,标识并且评价视频帧中的连接分量的集合,通过将连接分量的特征与预定准则相比较来过滤连接分量的列表,标识跨越多个帧的候选者轨迹,评价候选者轨迹以确定所选轨迹,通过使用界面消除不正确的轨迹,以及响应于评价和消除步骤处理所述视频序列中的图像。
附图说明
现在将通过参考附图的示例的方式来描述本发明,在附图中:
图1是根据本发明的基于轨迹的球检测方法的一般流程图;
图2是生成球场掩模并且标识球候选者的处理的图示;
图3是视频帧中球候选者的图示;
图4是示例候选者轨迹的绘图;
图5是示例候选者轨迹和实际球轨迹的绘图;
图6是示出候选者之间的区别并且示出如何在很多候选者轨迹中呈现给定候选者的示例候选者轨迹的3维绘图;
图7是来自不同视点的图6的示例候选者轨迹的绘图;
图8是根据本发明的用户界面的视图;
图9是根据本发明的用户界面的另一视图;
图10是根据本发明的基于轨迹的球检测和显示方法的流程图;
图11是根据本发明的基于轨迹的球检测方法的流程图。
具体实施方式
本发明的一个关键方面是通过使用来自人类或者另一可靠信息源的最小输入来改进对象检测系统的性能。
基于轨迹的检测系统的目的是生成可能代表实际对象的路径的轨迹集合T={T1,T2,…TM}是所有候选者轨迹的集合,其中每个候选轨迹是形成某一时间间隔中的平滑移动对象的可行假设的相邻帧中的候选者集合,其中,每个帧存在一个候选。候选者是可能是感兴趣的球或者对象的特定帧中的对象。(应该注意,候选者还可以称作替代物)。所有候选者的集合称为C,并且候选者是轨迹Ti的第k个元素。
创建BT的方法可以是以下算法:从具有最高置信指数Ω(Ti)(其基于组成轨迹Ti的元素计算)的T重复取得轨迹并且将其移动到集合BT。然后修剪或者删除具有与BT某一程度的不兼容度的T中的所有轨迹。当T中不存在轨迹时,停止算法。
图1是本发明利用的基于轨迹的球检测方法100的一个实施例的流程图。该方法可以应用到可以是诸如足球比赛的体育赛事的输入视频序列110。
在步骤120,生成球场掩模PM。掩模生成包括检测草地区域以生成草地掩模GM,并且然后计算球场掩模,该球场掩模是覆盖这些草地区域的没有孔的面积。
在步骤130,检测可以是球的候选者对象。通过卷积帧F的辉度分量与归一化的高斯核Gnk,以生成输出图像Yconv,来检测强度图像中的局部最大值。如果Y,(x,y)>Yconv(x,y)+TImax,则将pixel(x,y)指定为局部最大值,其中,TImax是预置阈值。该方法在隔离球像素中成功,但是还隔离球员、场线、球门等的一些部分,这是因为这些特征还包含可能是局部最大值的亮点。最后结果是二进制图像IIm,1表示亮点。在IIm中的连接的分量的集合Z={Z1,Z2,...Zn}被称为“候选者”,在下面步骤中处理“候选者”以检测“球候选者”。在实施例中,Gnk是方差4并且阈值TImax是0.1的9×9高斯核,。
来自步骤120的球场检测的信息可以在步骤130和步骤140使用,以减小候选者的数量。在远视场景中,可以做出以下假设,球将在球场内并且可以忽略球场之外的对象。
图2提供用于检测候选者的处理的图形图示。给出帧210,使用场地由草制成的知识来识别足球场像素。处理的结果是二进制掩模230,其分类所有场地像素为1以及包括场地中的对象的所有非场地像素为0。球场面积Afield计算为场地边界内的像素数量,如图像240所示,包括非场地对象。在图像220中示出候选者检测的结果。不在场地面积内的候选者被消除,产生图像250。
来自步骤130的一些候选者非常不可能是球并且可以使用步骤140的筛选和证明合格处理来消除。对于每个候选者计算分数,以提供每个与球的预建立模型有多么相似的资格。
可以使用球特征的统计信息来消除一些候选者。在实施例中,考虑球的三个特征:
-面积(A)是候选者Zi的像素数量。
-偏心率(E)是“加长度”的测量。对象越加长,偏心率越高。在实施例中,可以使用二进制图像矩(moment)来计算偏心率。
-白度(W)是为白色的像素的质量。给出给定像素的r、g和b(分别是红色、绿色和蓝色分量),白色度可以定义为:
样本视频的分析已经示出面积和白度直方图二者遵循高斯分布。对称化之后偏心率直方图也遵循高斯分布,以说明偏心率的最小值是1。如果候选者的特征值位于范围μ±nσ外,则可以丢弃候选者,其中μ是平均值,并且σ是对应特征分布的标准偏差。基于筛选处理S,Z中的候选者可以作为类似球的对象被接受或者丢弃。使用宽松的范围,这是因为球的特征可以从帧到帧显著地改变。
面积A可以建模为μA=7.416并且σA=2.7443的高斯分布,并且范围由nA=3控制。E建模为高斯分布,μE=1以及σE=1.2355,并且范围由nE=3控制。W建模为μW=0.14337以及σW=0.034274的高斯分布,并且范围由nW=3控制。候选者必须满足所有准则被保持。
此外,在步骤140,通过筛选处理S(Z)的候选者基于它们的特征与球的预建立的模型的相似度被证明合格。再次使用A、E、和W来计算球候选者的分数,并且除了以下之外使用n的更紧凑值(tighter value):
-到最近候选者的距离(DCC ),候选者Ci中的任意像素与其他候选者{C-Ci}中的其他像素之间的像素的最近距离,
-到场地边缘的距离(DF),给定候选者的中心和球场掩模PM的周长之间的像素的最近距离,以及
-对象掩模中的各个斑点内部的候选者的数量(NCOM),作为给定候选者Ci的位于对象掩模OM中的相同连接分量内部的C中的候选者的数量,其中OM,对象掩模是指示球场内非草地像素的二进制掩模,并且定义为PM内部的GM的逆。
与总是相互靠近的类似球员的袜子的对象相反,多数时间球被预期为球场内被隔离的对象。因此,不具有近邻并且具有高DCC的候选者更可能是球。同样,球不被预期为靠近场的边界。如果存在在草地内但是在球场边界线之外的备用球,则这个假设特别重要。
OM提供关于球场内的哪些像素不是草地的信息。这包括球员和场线,其可以包含在它们内部的“类似球”的斑点(例如,球员的短袜或者线分段)。理想地,球候选者应该不位于其他较大斑点内部。如可以期望OM的连接分量内部的仅仅一个候选者Ci,在我们的理想模型中NCOMi可以期望是1。由此可以从计算NCOM中获益。
候选者Ci的分数Si计算如下:
Si=SA,i+SE,i+Sw,i
其中
在该点,丢弃具有分数等于0的候选者。对于剩余候选者,使用如下的其他特征处罚分数Si:
在实施例中,μA=7.416,σA=2.7443,nA=1.3;μE=1,σE=1.2355,nE=1.3;μw=0.14337,σw=0.034274,nw=1.3;DCCthr=7个像素,DFthr=10个像素以及NCOMthr=1。
图3图示帧中球候选者的标识的结果,边界框(对于球候选者310-390)指示球候选者的存在。在界面呈现代表候选者的分数的不同颜色。红色、绿色和蓝色分别代表分数3、2和1。在图3中,候选者390是红色(即,分数3),候选者350是绿色(即,分数2),以及剩余候选者是蓝色(即,分数1)。在该图示中,候选者310、320、335、340、360和380代表球员或者他们的服装的部分,候选者330和370代表场上的其他对象,以及390代表实际球。
在步骤150,标识轨迹的开始点或者“种子”。种子SEEDk是两个连续帧Ft,Ft+1中的一对球候选者{Ci,Cj},其中Ci属于Ft以及Cj属于Ft+1,使得对{Ci,Cj}的候选者在空间上比阈值SEEDthr,更互相靠近,以及另外,满足一个候选者的分数是三或者两个候选者的分数是2的准则的任意一个。在优选实施例中,SEEDthr=8个像素。准则可以改变以解决其它关注,诸如时间复杂性。
线性Kalman滤波器用于通过在两个方向扩展种子创建轨迹。构成种子的两个样本确定滤波器的初始状态。使用该信息,滤波器预测下一帧中的球候选者的位置。如果以预测位置为中心的搜索窗口内部存在下一帧的候选者,则距预测位置最近的候选者被添加到轨迹并且其位置用于更新滤波器。如果在窗口中没有发现候选者,则向轨迹添加预测位置作为未支持点并且用于更新滤波器。如果a)对于N个连续帧不存在靠近预测位置的候选者,以及b)靠近预测位置不存在多于K个候选者(例如,K=1),终止轨迹建立过程。滤波器以双向方式工作,所以后来在时间上向前扩展轨迹,Kalman滤波器被重新初始化并且在时间上向后扩展。用以终止轨迹的第一准则在其末端(extreme)产生无支持点的集合。这些无支持点然后从轨迹消除。
图4图示使用上面方法创建的候选者轨迹410-460的绘图400。X轴代表帧中的时间。y轴是潜在的球和图像的左上像素之间的欧几里得距离。多种颜色用于图示不同候选者轨迹。
候选者轨迹T={T1,T2,…TM}的一些可以是实际球描述的路径的部分,同时其他是与其他对象相关的轨迹。算法的目的是通过选择可能代表实际球的路径的轨迹的子集来创建轨迹BT,同时丢弃其他。算法包括使用轨迹置信指数,轨迹重叠指数以及轨迹距离指数。每个轨迹的分数是基于轨迹的长度、组成轨迹的候选者的分数以及轨迹中未支持点的数量生成的。
置信指数计算如下:
其中:
-Ω(Tj)是轨迹Tj的置信指数,
-pi是具有分数“i”的Tj的候选者的数量,
-qi=pi//Tj/其中/Tj/轨迹中的候选者的数量,表示轨迹中具有分数“i”的候选者的部分,
-λi和ωi(λ1<λ2<λ3和ω2<ω3)调整分量的重要性,
-r是轨迹中未支持点的数量,以及
-T是未支持点的重要性因子。
在实施例中,λ1=0.002,λ2=0.2,λ3=5,ω2=0.8,ω3=2以及T=10。
对于每个所选轨迹,可能是在时间上重叠的其他。如果重叠指数是高的,则将丢弃对应的轨迹。如果指数是低的,则将修剪竞争轨迹的重叠部分。
该重叠指数处罚重叠帧的数量,同时奖励具有高置信指数的长轨迹,并且计算为:
其中:
-X(Ti,Tj)是轨迹Ti与轨迹Tj的重叠指数,
-ρ(Ti,Tj)是其中Ti和Tj重叠的帧的数量,以及
-Ω(Ti)是轨迹Ti的置信指数。
轨迹距离指数的使用增加BT的空间时间一致性。使用球以最大速度Vmax像素/帧移动球的假设,如果轨迹的最近末端之间的球候选者的空间距离高于末端之间的帧数量Vmax倍加容差D,两个轨迹BT和Ti是不兼容的。否则,它们是兼容的并且Ti是BT的一部分。
距离给定如下:
其中:
以及其中
-dist(poos(Ci),pos(Cj))是候选者Ci和Cj之间的欧几里得距离,
-frame(Ci)是候选者Ci所属的帧,
-pos(C)是帧内候选者C的中心的(x,y)位置,
-BTi是BT中的第i个候选者,
-CPD代表最近的之前距离,
-CND代表最近下一距离,
-CPF代表最近的之前帧,以及
-CNF代表最近的下一帧。
如果Dl(BT,Ti)=1,则轨迹Ti与BT一致。在没有该准则的情况下,向BT添加Ti可能呈现时间不一致的问题,其中在不可能的小时间间隔球可以从一个空间位置跳到另一个空间位置。通过在轨迹选择算法中添加距离指数准则,解决该问题。在优选实施例中,Vmax=10个像素/帧以及D=10个像素。
可以实现并且测试两个轨迹选择算法。第一算法重复地选取具有最高置信指数的候选者并且去除或者修剪与所选取的候选者轨迹不兼容的轨迹。第二算法试图通过将其表达为最短路径问题来解决该问题。可以将该两个算法调节为具有可比较的性能。
给定T,候选者轨迹的集合,算法产生描述沿着视频序列的球的轨迹的候选者轨迹的子集作为输出BT。算法重复地采用来自T具有最高置信指数的轨迹并且将其移动到BT。然后,处理T中与BT重叠的所有轨迹,依赖于重叠指数X(BT,Ti)以及距离指数DI(BT,Ti)修剪或者删除它们。该算法当T中没有更多轨迹时停止。
该算法可以描述如下:
修剪操作trim(BT,Ti)包括从轨迹Ti去除位于BT和Ti之间的重叠帧中的所有候选者。如果该处理导致Ti时间分片(即,从中间去除候选者),则分片添加到T作为新轨迹,并且从T去除Ti。在优选实施例中,使用重叠指数阈值Othr=0.5。
图5是候选轨迹510-550的集合的绘图500,其中一些是实际球轨迹。x轴代表帧的时间。y轴是球和图像的左上像素之间的欧几里得距离。轨迹520和530由算法选择以描述球的轨迹并且是实际球轨迹。轨迹510、540和550由算法丢弃。椭圆部分570代表球的实际路径。对于该示例,可以看到轨迹选择算法提供了对实际球轨迹的高度精确估计。
用以创建最终球轨迹的另一方法是基于Dijkstra的最短路径算法。候选者轨迹看作图的节点。两个节点(或者轨迹)之间的边缘由两个轨迹之间的兼容性的测量加权。兼容性测量的倒数可以看作节点之间的距离。如果整个球路径的开始和结束轨迹(Ts,Te)是已知的,可以通过最小化沿着路径的距离的总和使用在节点Ts和Te之间的图中发现最短路径的Dijkstra的算法可以选择之间的轨迹。
作为第一步骤,生成包含轨迹之间的兼容性分数的兼容性矩阵。使N是候选者轨迹的数量。NxN兼容性矩阵的cell(i,j)包含轨迹Ti和Tj之间的兼容性分数。
如果两个轨迹Ti和Tj重叠多于某一阈值或者Ti在Tj之后结束,则它们之间的兼容性指数将是无限的。通过施加Ti在Tj之后结束,可以确保路径总是在时间上向前进。注意,该准则意味着兼容性矩阵不是对称的,因为φ(Ti,Tj)不需要与φ(Tj,Ti)相同。如果Ti和Tj之间的重叠指数是小的,则具有低置信指数的轨迹将为了计算兼容性指数的目的而被修剪。两个轨迹之间的兼容性指数定义为
其中,
-φ(Ti,Tj)是轨迹Ti和Tj之间的兼容性指数,
-Ω(Ti)是轨迹Ti的置信指数,
-sdist(Ti,Tj)是在Ti的结束和Tj的开始的候选者之间的像素的空间距离,
-tdist(Ti,Tj)是在Ti的结束和Tj的开始之间的帧的时间,以及
-α,β和γ(全部<0)是分量的相对重要性。在优选实施例中,
α=-1/70,β=-0.1以及γ=-0.1。
一旦创建兼容性矩阵,Dijkstra的最短路径算法可以用于最小化从一个轨迹节点到另一个行进的距离(即,兼容性的倒数)。如果整个球路径的开始和结束轨迹(Ts,Te)是已知的,则可以使用最短路径算法发现中间轨迹。
然而,Ts和Te是先验已知的。为了减小检查开始和结束轨迹的所有组合的复杂性,使用具有比阈值更高的置信指数的轨迹仅仅考虑所有组合的子集。依次考虑开始和结束轨迹(节点)的每个组合以及如早先描述地计算最短路径。最后,在所有这些组合中选择总的最佳路径。
最佳球路径将具有低成本并且是时间上长的,以最小化函数:
SC(Q)=w×(CD(Q)/max_c)+(1-W)×((1-length(Q))/max_l)
其中:
-Q是使用从初始轨迹Ti到最终轨迹Tj的最短路径算法构建的来自T(球路径)的轨迹的子集,
-SC(Q)是Q的分数,
-CD(Q)是从初始轨迹Ti行进到最终轨迹Tj通过Q中的轨迹的成本,
-length(Q)是时间上轨迹集合Q的长度(即,包括轨迹之间的间隙的Q覆盖的帧的数量),
-max_c和max_l是构建的所有最短路径中最大成本和最大长度(对于开始和结束轨迹的每个组合一个),以及
-w是成本对长度的相对重要性。
在优选实施例中,w=0.5。
改进算法的结果的一种方式是允许用户操纵轨迹的置信指数。通过这样做,可以指导算法生成轨迹的更好选择以生成BT。
遗憾的是,用户不能仅通过轨迹的形状保证轨迹包含球,并且另一方面,逐帧检验算法已经选择的候选者是否是实际上是球对于用户可能单调乏味。
替代直接处理候选者在轨迹的等级工作的益处之一是BT中的轨迹的集合的基数(cardinality)总是低于其中的候选者的集合的基数。此外,在高可能性中,形成给定轨迹的候选者与同一对象对应。使用这两种假设,对于构成BT的轨迹具有其所选候选者的仅仅一个帧可以足以使用户迅速注意BT中的轨迹是否被适当选择并且如果不是采用纠正措施。
重要的是注意对于用户的交互作用元素是候选者而不是轨迹。所以,用户可以将候选者分类为良好候选者(是球)或者错误候选者(不是球)。
最终,将候选者分类为Cg和Cw的目的是从Tg而不是从Tw生成包含轨迹的BT。因此,可以以几种方式修改用于生成BT的算法,以便利用分类的候选者。下面是这样的修改的示例。
清楚地,期望使来自Tg的轨迹是BT的一部分,所以对此进行完成的一个选项是向Tg给出比T中的其他轨迹更高的置信指数。上面写出的算法重复地采用来自T具有最高置信指数的轨迹。
追踪此的一种方式是向Tg给出比T中的最大值更高的新置信指数。即使这将工作,也不是最佳的选项,这是因为现在所有的轨迹Tg具有相同的置信指数,并且不可能在它们中决定哪个是最佳的。记住存在可以共享良好候选者的几个轨迹是重要的。见图6和图7。图6示出候选者轨迹的集合T。X轴代表帧中的时间。Y轴是候选者和图像的左上像素之间的欧几里得距离。Z轴用于示出不同的轨迹。注意候选者轨迹通常重叠是重要的。阴影的不同等级用于区分轨迹。图6中示出多个轨迹。例如,601到610的阴影带每个是具有作为给定候选者轨迹的每条窄线的轨迹的集合。
图7是候选者轨迹的集合T的二维表示。X轴代表帧中的时间。Y轴是候选者和图像的左上像素之间的欧几里得距离。图6中的一些轨迹在图7中被指出。
优选的选项是向它们的置信指数添加正偏置K。通过这样做,Tg中的轨迹将在它们当中竞争,这是因为它们之前的置信指数将决定哪个将是BT的首选。该偏置K可以设置为T中的最大置信指数或者更高的值。
图8示出用于用户与数据交互的用户界面。上部的用户界面绘图或者轨迹视图820示出候选者轨迹T,其中如图7,X轴代表帧中的时间以及Y轴代表候选者与图像的左上像素之间的欧几里得距离。粗轨迹604、608、610以及由粗线代表的未标记的两个其他轨迹属于时间上的该时刻的BT。绘图下面存在缩略801的集合,每个与BT的轨迹相关联。被检测为球的对象805是缩略的中心并且由圆圈环绕(为了清楚,被双下划线),所以用户可以迅速地看出轨迹是否跟踪球。当选择缩略时,所选缩略802的帧出现在下部或者选择帧810。用户可以通过将候选者对象设置/未设置为球来与它们交互。为了清楚被单下划线的矩形指示候选者以及圆圈指示哪个候选者被选为球。圆圈和其他记号可以是作为用户界面一部分的标记,其允许用户将缩略中的对象与缩略801、下部或者选择帧810中的对象以及用户界面绘图820中的轨迹相关联。
用户不希望来自Tw的轨迹是BT的一部分。在此观点下,在此两个选项是合理的。第一个是去除Tw中的所有轨迹以及第二个是修改它们的置信指数,以向它们给出差分数。
通过去除Tw的所有轨迹,保证它们将不出现在BT中。另一方面,还消除轨迹被修剪并且用于生成BT的机会,即使该发生的可能机会低。
通过向Tw的轨迹给出负值以及修改算法以丢弃其置信指数低于0的轨迹,可以避免使用来自Tw的轨迹来建立BT的问题。如果在生成BT的处理期间,来自Tw的一些轨迹以分类为错误的候选者被去除的方式被修剪,则轨迹可以变成BT的一部分。置信指数在去除错误候选者之后可以变成正的。
图9再次示出界面。在此,所选缩略802包含错误轨迹610。在此,在界面的下部810显示帧。通过点击候选者,上下文菜单815出现在屏幕上并且用户可以选择它作为作物候选者,如图9所示。这将降低包含错误候选者的所有轨迹的置信指数,并且BT将再次被再计算。
该系统具有用于生成候选者集合的球的预建立模型。偏心率、大小和颜色是模型的一些元素,如上面描述。
通过较小修改,系统可以从用户输入获益,以更新球的模型。例如,每次用户设置球候选者作为良好球候选者,模型的参数可以被修改以更好地匹配新候选者。
本发明可以是如图10中的流程图所示的方法。该方法可以包括步骤1010:标识作为视频序列的一部分的视频帧中的连接分量的集合。连接分量可以是球的像素或者诸如鞋子之类的一些其他对象的像素。可以利用步骤1020,该步骤1020可以关于至少一个图像特征来评价连接的分量的每个集合,其中图像特征可以是面积、偏心率或者白度。然后步骤1030将连接分量的每个集合的至少一个图像特征与预定准则相比较,以产生过滤后的连接分量的列表,其中该步骤可以涉及图1的步骤120和130的应用,可以使用帧的某些辉度值或者色度值作为预定准则,以及涉及滤掉背景。现在步骤1040在相邻帧中执行相同的重复、标识、评价和比较步骤。步骤1050涉及选择连接分量之一。步骤1060然后生成跨越多个帧生成的所选连接分量(即,感兴趣的对象)的候选者轨迹的集合。步骤1070是显示步骤,其中,向用户示出所选连接分量的候选者轨迹,其中,该方法可以并入允许用户看到图表、绘图等上的轨迹的用户界面。步骤108是以下步骤,其中用户通过用户界面通过用户提供的一些输入来去除所选连接分量的特定候选者轨迹。在至少一个实施例中,用户不直接去除轨迹,而是在该步骤中向应用给出反馈以指示候选者是否是球。在该去除步骤中,用户本质上标识错误候选者,使得这些候选者将不包括在BT中。步骤1090是以下步骤,其中,响应于选择和去除步骤,显示视频序列的最终图像,其中,在最终图像中可以选择改进期望对象和其轨迹的可视性的原始视频的部分。所选部分可以是特写、剪掉部分或者变焦部分。改进的可视性可以包括期望对象的集中或者不具有对象的帧的去除。
还可以从图11中认识本发明的特征,其中在步骤1110的算法中可以创建集合BT。在步骤1120,BT的轨迹被示出并且在可以并入缩略视图和轨迹的用户界面中被选择。在步骤1130,轨迹可以被分类为良好候选者(是球)或者错误候选者(不是球)。步骤1110还可以是BT的再形成步骤,其中响应于步骤1130再形成BT,以获得改进的BT。步骤1110、1120和1130可以被重复直至BT不再改变,由此允许检测诸如球之类的对象。在本发明的实施例中,缩略可以是候选者轨迹的运行视频。
虽然已经根据特定实施例描述了本发明,将认识可以做出将落入本发明范围内的修改。例如,各种处理步骤可以单独或者组合地实现,并且可以在通用或者专用数据处理硬件或者软件中实现,以及可以调整阈值或者其他参数来适应视频输入的不同类型。
Claims (17)
1.一种方法,包括以下步骤:
标识视频序列的视频帧中的连接分量的集合;
通过用户界面显示所选连接分量的替代轨迹;
响应于用户界面输入去除所选连接分量的至少一个替代轨迹;以及
响应于去除步骤,显示所述视频序列的图像。
2.如权利要求1所述的方法,包括以下步骤:
关于至少一个图像特征评价连接分量的所述集合的每一个;
将连接分量的所述集合的每一个的至少一个特征与预定准则相比较,以产生连接分量的过滤后的列表;
对于相邻帧重复所述标识、评价以及比较步骤;
选择连接分量之一;
生成跨越多个帧生成的所选连接分量的替代轨迹的集合用于显示步骤。
3.如权利要求2所述的方法,还包括以下步骤:
生成属于所选连接分量的替代轨迹的置信等级;以及
消除具有置信等级低于预定值的替代轨迹。
4.如权利要求3所述的方法,其中,至少一个图像特征包括面积、偏心率或者白度。
5.如权利要求4所述的方法,其中,用户界面利用代表替代轨迹的轨迹视图作为帧时间的函数。
6.如权利要求4所述的方法,其中,用户界面利用多个帧的缩略视图和突出所选连接分量的缩略视图中的指示符。
7.如权利要求6所述的方法,其中,用户界面利用附加指示符,该附加指示符使缩略视图中的所选连接分量与轨迹视图中的替代轨迹之一相关联。
8.如权利要求2所述的方法,其中,所述标识连接分量的集合的步骤包括处理所述视频序列的图像,以生成代表局部最大的图像。
9.如权利要求2所述的方法,还包括以下步骤,处理所述视频序列的图像,以创建代表局部最大的二进制图像,其中,处理包括卷积图像的辉度分量与核。
10.如权利要求9所述的方法,其中,核是归一化高斯核。
11.如权利要求2所述的方法,其中,所述准则包括到最近替代的距离、到场地边缘的距离或者二进制对象掩模内的同一连接分量内部的替代的数量。
12.如权利要求2所述的方法,其中,所述用以确定所选轨迹的评价所述替代轨迹的步骤包括:标识连接的分量的对,其中,该对中的一个分量是在第一图像中,并且该对的一个分量是在随后图像中,以及其中,该对中的两个连接分量的位置之间的距离小于预定距离阈值。
13.如权利要求2所述的方法,其中,所述用以确定所选轨迹的评价所述替代轨迹的步骤包括:评价轨迹的长度、组成轨迹的连接分量的特性以及轨迹中无支持点的数量。
14.如权利要求2所述的方法,其中,至少部分基于所选轨迹处理所述视频序列中的图像的所述步骤包括突出沿着所选轨迹移动的对象。
15.如权利要求7所述的方法,还包括以下步骤:通过所述用户界面分类去除步骤中所选连接分量的替代轨迹,其中,用户界面利用用于替代轨迹的分类的上下文菜单。
16.如权利要求2所述的方法,其中,用户界面利用多个帧的缩略视图、突出所选连接分量的缩略视图中的指示符、以及用于显示替代轨迹的轨迹视图,其中,指示符将特定轨迹与特定连接所选分量相关。
17.如权利要求6所述的方法,其中,缩略是替代轨迹的运行视频。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US28426109P | 2009-12-16 | 2009-12-16 | |
US61/284,261 | 2009-12-16 | ||
PCT/US2010/003140 WO2011084130A1 (en) | 2009-12-16 | 2010-12-10 | Human interaction trajectory-based system |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102939609A true CN102939609A (zh) | 2013-02-20 |
CN102939609B CN102939609B (zh) | 2016-08-03 |
Family
ID=43858115
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201080057409.7A Expired - Fee Related CN102939609B (zh) | 2009-12-16 | 2010-12-10 | 基于人类交互轨迹的系统 |
Country Status (6)
Country | Link |
---|---|
US (1) | US8977109B2 (zh) |
EP (1) | EP2513841A1 (zh) |
JP (1) | JP5795594B2 (zh) |
KR (1) | KR20120099072A (zh) |
CN (1) | CN102939609B (zh) |
WO (1) | WO2011084130A1 (zh) |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5906379B2 (ja) * | 2011-09-29 | 2016-04-20 | パナソニックIpマネジメント株式会社 | 移動体位置推定装置、移動体位置推定方法、及び、移動体位置推定プログラム |
WO2013086137A1 (en) | 2011-12-06 | 2013-06-13 | 1-800 Contacts, Inc. | Systems and methods for obtaining a pupillary distance measurement using a mobile computing device |
WO2013128852A1 (ja) * | 2012-02-29 | 2013-09-06 | 日本電気株式会社 | 動線情報生成システム、動線情報生成方法および動線情報生成プログラム |
US9378584B2 (en) | 2012-05-23 | 2016-06-28 | Glasses.Com Inc. | Systems and methods for rendering virtual try-on products |
US9483853B2 (en) | 2012-05-23 | 2016-11-01 | Glasses.Com Inc. | Systems and methods to display rendered images |
US9286715B2 (en) | 2012-05-23 | 2016-03-15 | Glasses.Com Inc. | Systems and methods for adjusting a virtual try-on |
US9098923B2 (en) * | 2013-03-15 | 2015-08-04 | General Instrument Corporation | Detection of long shots in sports video |
US9789619B2 (en) | 2013-04-30 | 2017-10-17 | Hasam Eljaouhari | Facial hair shaver with built-in facial hair pattern guides |
JP6269323B2 (ja) * | 2014-05-30 | 2018-01-31 | 富士ゼロックス株式会社 | 画像処理装置、画像処理方法、画像処理システムおよびプログラム |
JP6706577B2 (ja) * | 2014-08-05 | 2020-06-10 | パナソニック株式会社 | 修正確認方法および修正確認装置 |
JP6676873B2 (ja) * | 2014-09-22 | 2020-04-08 | カシオ計算機株式会社 | 画像処理装置、画像処理方法及びプログラム |
JP6525453B2 (ja) * | 2014-11-26 | 2019-06-05 | 日本放送協会 | オブジェクト位置推定システム、及びそのプログラム |
ITUB20156320A1 (it) * | 2015-12-03 | 2017-06-03 | Mfg Point Software Srl | Metodo per l?analisi della traiettoria di una palla |
US10595037B2 (en) * | 2016-10-28 | 2020-03-17 | Nec Corporation | Dynamic scene prediction with multiple interacting agents |
JP6962145B2 (ja) * | 2017-11-13 | 2021-11-05 | 富士通株式会社 | 画像処理プログラム、画像処理方法および情報処理装置 |
US11231834B2 (en) * | 2020-06-03 | 2022-01-25 | Micron Technology, Inc. | Vehicle having an intelligent user interface |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101329768A (zh) * | 2008-07-29 | 2008-12-24 | 浙江大学 | 基于背景视图合成卡通动画的方法 |
CN101449293A (zh) * | 2006-05-31 | 2009-06-03 | 汤姆森许可贸易公司 | 视频对象的多跟踪 |
US20090147992A1 (en) * | 2007-12-10 | 2009-06-11 | Xiaofeng Tong | Three-level scheme for efficient ball tracking |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6587574B1 (en) * | 1999-01-28 | 2003-07-01 | Koninklijke Philips Electronics N.V. | System and method for representing trajectories of moving objects for content-based indexing and retrieval of visual animated data |
JP2001264016A (ja) * | 2000-03-15 | 2001-09-26 | Sumitomo Rubber Ind Ltd | ボールの運動測定装置 |
JP3692500B2 (ja) * | 2000-09-12 | 2005-09-07 | インターナショナル・ビジネス・マシーンズ・コーポレーション | 画像処理方法、画像処理システムおよび記録媒体 |
JP4492036B2 (ja) | 2003-04-28 | 2010-06-30 | ソニー株式会社 | 画像認識装置及び方法、並びにロボット装置 |
ITRM20050192A1 (it) | 2005-04-20 | 2006-10-21 | Consiglio Nazionale Ricerche | Sistema per la rilevazione e la classificazione di eventi durante azioni in movimento. |
US8688675B2 (en) | 2006-02-27 | 2014-04-01 | Robert Bosch Gmbh | Trajectory-based video retrieval system, and computer program |
US7641565B2 (en) * | 2006-06-12 | 2010-01-05 | Wintriss Engineering Corporation | Method and apparatus for detecting the placement of a golf ball for a launch monitor |
JP4505760B2 (ja) * | 2007-10-24 | 2010-07-21 | ソニー株式会社 | 情報処理装置および方法、プログラム、並びに、記録媒体 |
WO2010027476A1 (en) * | 2008-09-03 | 2010-03-11 | Rutgers, The State University Of New Jersey | System and method for accurate and rapid identification of diseased regions on biological images with applications to disease diagnosis and prognosis |
US8758103B2 (en) * | 2009-01-19 | 2014-06-24 | Full Swing Golf | Methods and systems for sports simulation |
KR101078975B1 (ko) * | 2011-03-22 | 2011-11-01 | (주) 골프존 | 가상 골프 시뮬레이션 장치에 이용되는 센싱장치 및 센싱방법 |
-
2010
- 2010-12-10 KR KR1020127015413A patent/KR20120099072A/ko not_active Application Discontinuation
- 2010-12-10 WO PCT/US2010/003140 patent/WO2011084130A1/en active Application Filing
- 2010-12-10 JP JP2012544477A patent/JP5795594B2/ja not_active Expired - Fee Related
- 2010-12-10 EP EP10803292A patent/EP2513841A1/en not_active Ceased
- 2010-12-10 US US13/516,228 patent/US8977109B2/en not_active Expired - Fee Related
- 2010-12-10 CN CN201080057409.7A patent/CN102939609B/zh not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101449293A (zh) * | 2006-05-31 | 2009-06-03 | 汤姆森许可贸易公司 | 视频对象的多跟踪 |
US20090147992A1 (en) * | 2007-12-10 | 2009-06-11 | Xiaofeng Tong | Three-level scheme for efficient ball tracking |
CN101329768A (zh) * | 2008-07-29 | 2008-12-24 | 浙江大学 | 基于背景视图合成卡通动画的方法 |
Non-Patent Citations (3)
Title |
---|
YICHEN WEI, JIAN SUN, XIAOOU TANG, HEUNG-YEUNG SHUM: "《Interactive Offine Tracking for Color Objects》", 《IEEE 11TH INTERNATIONAL CONFERENCE》, 1 October 2007 (2007-10-01), pages 1 - 8 * |
徐哈宁等: "《体育视频序列中基于IMM的运动目标跟踪算法》", 《中国图像图形学报》, vol. 14, no. 5, 15 May 2009 (2009-05-15), pages 920 - 924 * |
赵敬等: "《基于区域增长算法的足球运动轨迹识别研究》", 《电脑知识与技术》, vol. 5, no. 12, 25 April 2009 (2009-04-25), pages 3224 - 3226 * |
Also Published As
Publication number | Publication date |
---|---|
EP2513841A1 (en) | 2012-10-24 |
CN102939609B (zh) | 2016-08-03 |
WO2011084130A1 (en) | 2011-07-14 |
US8977109B2 (en) | 2015-03-10 |
US20120263437A1 (en) | 2012-10-18 |
JP5795594B2 (ja) | 2015-10-14 |
KR20120099072A (ko) | 2012-09-06 |
WO2011084130A4 (en) | 2011-09-09 |
JP2013514581A (ja) | 2013-04-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102939609A (zh) | 基于人类交互轨迹的系统 | |
CN101443791B (zh) | 用于在数字图像中的前景和背景之间提供分离的方法和设备 | |
CN106709436A (zh) | 面向轨道交通全景监控的跨摄像头可疑行人目标跟踪系统 | |
US20120114184A1 (en) | Trajectory-based method to detect and enhance a moving object in a video sequence | |
DE112016002373T5 (de) | Tracking-support-vorrichtung, tracking-support-system und tracking-support-verfahren | |
CN104408743A (zh) | 图像分割方法和装置 | |
CN106815576B (zh) | 基于连续时空置信图和半监督极限学习机的目标追踪方法 | |
CN108805900A (zh) | 一种跟踪目标的确定方法及装置 | |
CN102932605A (zh) | 一种视觉感知网络中摄像机的组合选择方法 | |
CN107633226A (zh) | 一种人体动作跟踪识别方法及系统 | |
US20100017353A1 (en) | Methods and systems for data analysis and feature recognition | |
WO2017081839A1 (ja) | 移動体追跡方法、移動体追跡装置、およびプログラム | |
CN107564032A (zh) | 一种基于外观网络的视频跟踪对象分割方法 | |
US7492938B2 (en) | Methods and systems for creating data samples for data analysis | |
CN109376677A (zh) | 一种基于外形-运动双流信息融合的视频行为检测方法 | |
CN114782997A (zh) | 基于多损失注意力自适应网络的行人重识别方法及系统 | |
CN108898076A (zh) | 一种视频行为时间轴定位及候选框提取的方法 | |
CN106251348A (zh) | 一种面向深度相机的自适应多线索融合背景减除方法 | |
CN111428730B (zh) | 弱监督细粒度物体分类方法 | |
US11216956B2 (en) | Indicating objects within frames of a video segment | |
CN106682676A (zh) | 一种图像测试方法及装置 | |
CN114494272A (zh) | 一种基于深度学习的金属零件快速分割方法 | |
Berjón et al. | Soccer line mark segmentation and classification with stochastic watershed transform | |
CN112579811B (zh) | 面向视频侦查的目标图像检索识别系统、方法、装置、处理器及计算机可读存储介质 | |
JP7312082B2 (ja) | 領域分割装置、領域分割方法および領域分割プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20160803 Termination date: 20181210 |