CN1185850A - 活动视频图象中的对象识别 - Google Patents

活动视频图象中的对象识别 Download PDF

Info

Publication number
CN1185850A
CN1185850A CN96194232A CN96194232A CN1185850A CN 1185850 A CN1185850 A CN 1185850A CN 96194232 A CN96194232 A CN 96194232A CN 96194232 A CN96194232 A CN 96194232A CN 1185850 A CN1185850 A CN 1185850A
Authority
CN
China
Prior art keywords
mark
video image
edge
motion video
focus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN96194232A
Other languages
English (en)
Inventor
安东尼·J·伊莎多拉-巴雷卡
戴维·R·恩伯森
马克·I·希梅斯坦
唐纳德·E·迈耶
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Magic Circle Media Inc
Original Assignee
Magic Circle Media Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Magic Circle Media Inc filed Critical Magic Circle Media Inc
Publication of CN1185850A publication Critical patent/CN1185850A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/28Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S3/00Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
    • G01S3/78Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using electromagnetic waves other than radio waves
    • G01S3/782Systems for determining direction or deviation from predetermined direction
    • G01S3/785Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system
    • G01S3/786Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system the desired condition being maintained automatically
    • G01S3/7864T.V. type tracking systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/20Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding

Abstract

一种识别与跟踪视频图象(14)的对象(20)的活动对象识别方法(10),使对象(20)对于交互式计算机/用户界面(70)能作为热点(30)工作。多个标记(28)定义对象(20)的边沿(26),而多条热点边界(32)定义热点(30),使得热点(30)与对象(20)大致重合。可选用物理标记(28b)来定位标记(28)。对边沿(26)的消失的灵敏度是可以按照子标记(68)对对应的标记(28)的相对大小调整的。

Description

活动视频图象中的对象识别
本发明一般涉及计算机视频图象操作领域。而更具体地涉及用于识别视频图象内所关心的对象从而即使对象在图象内移动也能保持对象的识别的改进的装置与方法。
静止画面及活动视频图象的数字化视频图象操作为面向将“多媒体”引入我们生活中许多方面的当前趋势的重要方面,也是诸如制作动画等较传统的努力的现代方向。具有与本发明同一发明人的共有未决美国专利申请号08/146,964教示了将传统的“动画”图象转换成计算机/用户界面装置的方法。在实行该先有发明的方法中,必须在视频图象中识别所关心的特定对象。如在上面引用的公开中所讨论的,这种识别可以是相当费力的,并曾预言有可能在未来开发出将这种劳动中的某些从人类操作员转移给计算机的方法。公开了指定由活动图象内的对象构成的“热点”为“…通过观看各关键帧及至少为之研制出更自动化的系统之前手工指定要在关键帧中作为热点指定的感兴趣的对象或东西(如果有的话)”(在这一引文中已删除了关于前面的指示的参照号码)。本申请指向用于自动化这种对象的识别及在时间上保持这种识别的方法与装置。虽然本造性方法旨在结合交互式计算机界面系统制作使用,但并不限于这种应用。
动画或其它专门制作的活动视频图象中的对象能比较容易地识别,因为这种对象能按照特定的容易区别的标准(诸如颜色之类)来制作,或者甚至在制作该对象时能使该对象的象素位置成为在计算机内描述该对象的数据的一部分。然而,在并非专门产生或制作的现场动作图象中的对象便不能这样容易地隔离。
识别视频图象中的对象,诸如按照计算机可以理解的标准定义的对象的先有技术方法包括识别定义该对象的边沿、颜色或颜色模式与/或亮度级。对于静止视频图象的识别与/或操作,这些方法已相对地有效。例如,能用自动定义其外侧边沿的已知方法来区别对象,然后在该对象上操作。作为这些操作的示例,可使对象在图象内移动,从图象中消除或改变其颜色、亮度之类。一旦用位图定义了图象,在本发明的上下文中甚至还可以以图符或“热点”的方式使用对象,使得在对象的图象区上摁动按钮能导致计算机启动应答或进一步与最终用户交互作用。然而,应当记住,这种过程不能很好地转移到活动视频图象的领域内。首先,通过为活动图象的所有帧存储全体对象的位图来跟踪活动视频图象内的对象的位置会加重计算机的数据存储器容量的负担并降低计算机的操作速度。第二,即使在单个静止视频图象上工作时执行上述操作所需的用户交互作用与劳动量是可以容忍的,试图为一个活动图象每秒重复三十次左右这一操作会很快显露这一方法超出了可实现的范围。
用来分离活动视频图象中的对象的一种采纳的方法是基于图象的部分的颜色的。熟悉本技术的人员是熟知“兰色屏幕”法的,其中能够有选择地从图象中消除具有特定颜色(通常但并非必要是兰色)的图象的部分。这一技术在数字图象操作到来之前已用在电视中,但已发现应用在数字图象操作领域中时也工作得很好。虽然这一方法对其意想的目的工作得很好,但它通常只能成功地将背景诸如与前台对象区分。再者,它需要专门设定所关心的对象必须是相对于特殊的背景颜色原始“拍摄”的(意指拍摄、录在录象带上等)。更重要的是,虽然背景能与前台对象区分使得计算机能计算对象的位置以便在其上执行操作(诸如将对象叠加在不同的背景上),但对于计算机能使用对象来作为计算机/用户交互作用的手段来说,通常不能充分地识别不同的对象。再者,即使能够在兰色背景之类前方拍摄视频场景的特殊情况中,以及甚至在前台只有一个单一的对象而不存在对象之间的混淆的寻常的情况中,这种先有技术解决方法也不能解决巨大的数据存储器需求及计算资源枯竭问题,如上所述。
与更人为地引入的背景“兰色屏幕”法相比,识别视频图象内的边沿或复杂颜色模式的方法对于分离视频图象的特定“现实世界”部分更有效。然而,这种边沿或颜色识别法通常需要相对复杂的计算机分析,因此不适合于实时图象跟踪,至少除非将大量昂贵的计算能力专用在这种跟踪上。即使在任务可以利用实际上无限制的计算机资源量时,也已证明试图按照这种复杂的标准来跟踪视频图象内的活动对象也是令人不快地复杂的。当在图象中要跟踪一个以上对象时,或者当对象在图象内快速地移动与/或改变相对形状时,与这些方法相关联的问题便恶化了。
本发明人已注意到,为了实现他们自己的产品,若干计算机产生的卓越制造商具有对用于识别视频图象内的对象而使计算机能跟踪这些对象的更好地装置与/或方法的需求。然而,尽管这些公司中一些具有巨大的研究预算以及许多有经验的研究人员,它们还是转向本发明人寻求对这一已知问题的解决方案。
据本发明人所知,在先有技术中不存在用于计算机跟踪与操作的快速与容易地识别活动视频图象中的对象的廉价与容易实现并且可靠的可工作的方法。所有先有技术方法或者极为费事与/或需要异常大的计算力量来实现(或者甚至更坏,需要最终用户的极大计算力量来利用这些方法的产品)或者不可靠地识别对象而使计算机不能在不丢失对象或将它们与背景或图象中的其它对象混淆地跟踪视频图象中的对象。
从而,本发明的目的为提供容易地识别数字化活动视频图象中的对象而使计算机能跟踪这些对象的方法。
本发明的另一目的为提供识别数字化活动视频图象中的对象而只需要最少的操作员介入与劳动的方法。
本发明的又另一目的为提供不需要大量计算能力来实现的识别数字化活动视频图象中的对象的方法。
本发明的又一目的为提供计算机能使用最少量的数据存储器资源来存储识别标准的方式识别对象的识别数字化活动视频图象中的对象的方法。
本发明的又另一目的为提供在对象运动通过图象时计算机能容易地跟踪对象并且不过分增加计算机资源的负担的识别数字化活动视频图象中的对象的方法。
本发明的又另一目的为提供使对象能以计算机图符之类的方式作为计算机/用户交互作用的通路的识别数字化活动视频图象中的对象的方法。
简言之,本发明的较佳实施例为识别数字化活动视频图象中的对象的自动化方法,即使在对象改变形状或在视频图象中移动时也能不过分增加计算机的负担而使之能容易地识别这些图象。本创造性活动对象识别方法首先在活动视频图象的一个单一的帧内识别一个对象。初始识别能用众多的起始用户输入或者用更自动化的方法来完成。在本发明的第一较佳实施例中,利用传统的自动化软件方法于初始对象识别。在本发明的同样较佳替代实施例中,利用软件与硬件部件的独一无二的组合于初始对象识别。
虽然按照本发明,初始对象识别是根据已知的方法或已知方法与装置的新的组合完成的,本发明的主要创造性方面在于初始识别后面跟随着只在其中保留了可靠地跟踪对象所必需的数据的转换操作。因此,当对象在活动视频图象中逐帧移动与/或改变形状时,只需极少量重新计算来跟踪对象。
关于本发明,应理解计算机既在识别视频图象中的对象的创造性方法中扮演一部分,并且计算机(更为可能的是,用于原来识别对象的以外的不同计算机)将被用来最终使用本发明的最终产品。这一方面,此后将引用“起始用户”,它们是使用本创造性方法来建立计算机/用户界面或这里将要公开的创造性方法的其它适当应用的用户。对“最终用户”的引用便是指这些人而言,他们不直接使用本创造性方法,而是使用由起始用户按照本创造性方法产生的计算机/用户界面装置。
本发明的优点为不需要昂贵的高性能计算机来实现。
本发明的另一优点为不需要昂贵的高性能计算机来使用本方法的最终产品。
本发明的又一优点为不需要大量的用户输入。
本发明的又另一优点为使计算机能可靠地跟踪数字化活动图象中的对象,清楚地将对象与背景及其它对象区别开,从而使计算机与/或与计算机联合行动的计算机用户能够在感兴趣的对象上操作。
鉴于实现本发明的最佳当前已知模式的描述及这里所描述的及若干附图中所例示的较佳实施例的工业应用,对于熟本技术的人员,本发明的这些与其它目的与优点将是显而易见的。
图1为描述按照本发明的活动对象识别方法的流程图;
图2为诸如按照本创造性方法在其上操作的视频图象的描述;
图3为图2的感兴趣的对象的详细视图,示出对象对热点的关系;
图4为按照本发明的热点定义标记的详细视图;
图5为图1的标记对象操作的更详细流程图;
图6为展示图1的标记对象的替代子步骤序列的更详细流程图;以及
图7为展示简化的对象对摄象机的关系的图形表示。
实现本发明的最佳当前已知模式为主要通过利用计算机建立的活动对象识别方法。虽然该方法实质上可用在其中必须跟踪活动视频图象中的对象,但该创造性活动对象识别方法的突出预期用途是在制造交互式计算机/用户界面系统中。
本创造性活动对象识别方法在图1中的流程图中描述,并在其中用总的参照字符10指示。活动对象识别方法的第一步为“标准选择”操作。
图2为正显示在计算机18的显示屏16上的视频图象14的图形表示。视频图象14为已按照传统方法数字化而使得视频图象14能存储在计算机18并从而显示在显示屏16上的活动视频图象的一个单一的“帧”。应指出,虽然熟悉本技术的人员认识到在动画电影片、电视信号与数字化视频图象之间在格式上存在实质性差别,但关于这些不同的媒体的许多术语是可以在三者之间传递的。因此,虽然图1的视频图象14是数字化活动视频图象的一个元素,将视频图象14作为照相编码的活动画面图象的一“帧”来讨论是方便的。熟悉相关技术的人员容易理解数字化视频图象14与概念上对应的动画“帧”之间的关系。本技术中常用这一对照方法,而视频“帧”的意义可认为与单一的视频图象14对应,虽然可以不存在帧的实际物理实施例。
在图2的视图中,可以看到对象20描绘在背景22上。在这一意义上,背景22是除所关心的对象20以外的全部视频图象14。背景22可包含不可名状的且通常无法定义的部分,如图2的示例中的其它东西24,该其它东西24是背景22的潜城可定义部分,可以也可以不将它分开定义为附加的感兴趣的对象。
用于识别视频图象14中的对象20从而使计算机18能在其上执行诸如改变对象20的颜色或在视频图象14中删除或移动它之类的某些操作的方法在本技术中是已知的。在本发明的最佳当前已知实施例10中,利用了称作Sobel算法(Gonzolez与Woods在“数字图象处理”中详细讨论,Addison-Wesley出版社,1992,P197-201及416-420)的著名与广泛实行的边沿检测技术来检测对象20的边沿26。根据Gonzolez与Woods,边沿26为图象的两个区之间的边界(在图2的当前示例中,这两个区为对象20与背景22),这两个区相对地具有不同的亮度特征,然而除了或替代用亮度特征之外必然也可以想到根据颜色特征等来定义边沿26。
图2中描绘了多个(在图2的实例中为6个)标记28。对象20上的一个或多个标记28的组合定义一个热点30。即对于最终用户,热点30与对象20在感性上实质上通常是一个且是同一个。然而,如这里所定义的,只将对象20看作是人类观看者可定义的实体的视频图象14上的区域,而热点30则是定义成计算机18能识别与跟踪的热点30,即使热点30在视频图象14中改变位置与/或形状也一样能识别与跟踪。
图3为图2的对象20的更详细的视图。在图3的视图中,能够看出热点30是用标记28定义的,这便建立了热点的边界32。这便可看出,热点30与对象20大致上但不是精确地占据视频图象14(图1)的同一部分。在主要意向的应用中这没有实际意义,因为在对象20边界内但尚在热点20的范围外的任何未定义区34将在对象20的外边界上。试图在对象上摁按钮的最终用户将自然地趋向于在对象20的中心附近摁按钮,因而也靠近热点30的中心。即使最终用户看不见也无法知道热点边界32的确切位置,最终用户也会本能地不期望来自对象20的边沿附近的未定义区34中的摁按钮的响应。能够理解,正确地分布的标记28的量越大,热点30与对象20之间的互相关联也越大。
图4为图2的代表性标记25a的详图。如前所述,边沿26是按照本技术中熟知的原理与方法定义的。具体地,在本发明的最佳当前已知实施例10的实例中,采用了广泛实行的Sobel算法来识别边沿26。应指出,边沿识别进程通常不加区别地识别边沿,从而不仅对象20的边沿26,并且可能存在在视频图象14(图2)中的任何其它不同的边沿(未具体标识的)也被这样识别出。
再参见图1的流程图,如这里关于本发明的最佳当前已知实施例10的实例所描述的,能够看出“标准选择”操作12为选择使用Sobel算法根据亮度标准检测边沿(包含特别感兴趣的边沿28)。在活动对象识别方法的某些应用中,“标准选择”操作12有可能对于该应用的所有使用是固定不变的,从而在每一次执行该创造性活动对象识别方法10时,起始用户将不执行“标准选择”操作12。
再参见图1的流程图,能看出在“标准选择”操作12后面执行“标记对象”操作36。如此后将更详细地描述的,在本发明的最佳当前已知实施例10中,虽然在本发明的范围内将来有可能研制出某些装置或方法来实质上完全自动化“标记对象”操作36,或者至少为了减少对用户干预的需求而进一步帮助起始用户,但当前需要起始用户的于预来执行“标记对象”操作36。
在本发明的最佳当前已知实施例10中,用户在“标记对象”操作36中通过在对象的边沿26上摁按钮而将标记28放置在感兴趣的对象26的边界周围。图6为图1的“标记对象”操作36的更详细流程图。在图5的视图中,能够看出“在对象上附加标记”子步骤38中“在边沿上关联标记”子步骤40前面。按照本发明的最佳当前已知实施例10,起始用户将在对象20的边沿26上“摁铵钮”,诸如利用鼠标器40(图1)将光标42移动到边沿26上,然后起始用户摁下鼠标器40的按钮44。应记住,起始用户在进程的这一点上必须用视觉看到边沿26的存在。
再参见图4的视图,其中标识了多个象素44。熟悉本技术的人员将理解显示屏幕18上具有许多象素44,其确切数量将是显示屏18本身以及控制视频图象14的硬件与软件的特征的函数。为了便于描述本创造性活动对象识别方法10,将象素44示出在网格上,使得象素44呈现为大致上方形的,虽然熟悉本技术的人员将理解实际的物理象素(未示出)可以是园的、矩形的或其它形状的。
在本实例中,如果起始用户在选择点46上摁按钮(选择点46是在起始用户放置光标42(图2)并摁下鼠标按钮44时建立的),便将标记28a以其中心作为选择点4放置。在图4的示例中,标记28a的大小是9×9个象素36,该大小的意义将在下面更详细地讨论。
再参见图5,上述“在对象上附加标记”操作38后面跟随“在边沿上关联标记”操作48。按照本发明的最佳当前已知实施例10,在“在边沿上关联标记”操作48中,在标记28a内自动检测边沿26,并在边沿26及在标记28a的中心上建立边沿框50。如前所述,为了展示本发明的最佳当前已知实施例10的目的,在“标准选择”操作12(图1)中选择了Sobel算法作为边沿检测手段。熟悉Sobel算法的人员将注意到边沿检测进程中通常采用3×3的框,因此在采用Sobel算法时,对于边沿框50的大小为三个象素44乘三个象素44是方便的。令标记28a的大小为n×n个象素44也是方便的,其中n为大于1的整数,如图4的9×9大小的标记28a所示。当然,可以采用修正的Sobel算法而使边沿框50具有另一大小,或者作为替代可采用完全不同的边沿检测方法,从而按照这里详述的本发明的其它参数,边沿框50实际上可以是任何大小。
应指出,图4的实例中,如此前所述,起始用户先前已在边沿26上摁过按钮而使选择点46落在边沿26上。在实际实践中,起始用户对边沿2的位置的估计有可能不够精确从而使选择点46的初始位置不能精确地落在边沿46上。这一情况是比较容易纠正的,纠正方法如下:当在“在对象上附加标记”子步骤38中放置了标记28a,并随后在“在边沿上关联标记”子步骤48中检测到边沿26并将边沿框50定中在边沿26上时,如果边沿框50未定中在标记28a上,则计算机18自动地重新定位标记28a而使边沿框50定中在标记28a上。设想过可以采用替代的方法来处理在标记28a中没有检测到边沿26的部分的情况。例如,可知起始用户“未检测到边沿”的情况并通知他再试验。作为替代,可将对边沿的搜索扩展到标记28a以外预定数目的象素40上。如果在这一扩展的搜索中检测到边沿26,便可相应地自动调整边沿框50与标记28a的位置。如果即使在这一扩展搜中仍未检测到边沿26,则可以通知起始用户重复“在对象上附加标记”操作38。
图6为当前不作为本发明的最佳当前已知实施例10的操作次序提出的替用“标记对象”操作36a的流程图,而只是展示了在某些意想不到的环境中可能有用的最佳当前已知实施例10的变型。从图6的流程图能够看出,与图5的同名子步骤38与48相比,将替代的“在对象上附加标记”子步骤38a与替代的“在边沿上关联标记”子步骤的次序颠倒。这一次序颠倒要求此前已讨论过的“在对象上附加标记”子步骤38与“在边沿上关联标记”子步骤48的某些修改。
如上所述,在“在边沿上关联标记”操作48中,边沿检测(在本例中根据Sobel算法)通常出现在标记28a内。在图6的替代实施例中,在完成了“标准选择”操作12时,在整个视频图象14上运行边沿检测进程(图1)使得边沿26(以及这里没有具体描绘出的视频图象14内的任何其它边沿)突出,从而起始用户能看见边沿26。通过比较,在前面描述的“在对象上附加标记”操作38中,起始用户可估计计算机18有可能在何处理检测到边沿26,而在本替用实例中,在替代的“在边沿上关联标记”子步骤48a一开始,起始用户便知道了计算机18所确定的边沿26的精确位置,而使得起始用户能将标记28a精确地放置在边沿26上。起始用户在替代的“在边沿上关联标记”操作48a中将标记28a放置在边沿26上之后,计算机18在替代的“在对象上附加标记”子步骤38a中定中标记28a便是相对简单的事了,从而边沿框50(根据替代的“标记对象”操作38a,它已经与边沿26的一部分重合)便对称地布列在边沿框50四周。
“标记对象”后面(或者上述替代的“标记对象”操作38a后面)为“选择感兴趣的区域”(“选择ROI”)操作52。在“选择ROI”操作52中,起始用户只是在对象20所在的边沿26的一侧摁按钮来指定感兴趣的区域(“ROI”)54,ROI54便是视频图象14中标记28a与对象20重合的那一部分。
在“选择ROI”操作52后面,在“放置更多标记?”判定操作56中,给予起始用户选择是否想要在对象20上放置更多的标记28。如果想要放置更多的标记28,则本创造性进程返回到“标记对象”操作38。如果对“放置更多标记”判定操作56的回答为否“N”),则进程继续到“跟踪对象”操作28。
应指出,已在前面提出的创造性活动对象识别方法10的操作是在活动视频图象14(图2)的单一“帧”上进行的。现在开始讨论当视频图象14通过时间改变时本创造性过程如何继续进行,熟悉本技术的人员会认识到在数字化现场动作视频制品中,由于各种噪声因素、光照变化、视频图象14中的对象20及其它东西24(如果存在)的运动和/或原始捕捉视频图象14的摄象机(未示出)相对于对象20的运动等,诸如边沿26的尺寸、各象素44的彩色值、亮度特征等逐帧属性中各个与全体也能变化。
在讨论通过时间利用标记28跟踪对象20之前,本发明人预期要利用某些参数来判定标记28是否继续精确地表示对象20而使得热点30与对象20大致上重合。根据本发明的预期的最佳当前已知实施例10,这些参数为:亮度、颜色及标记灵敏度。
关于亮度,作为“跟踪对象”操作58的一部分,计算机18将计算边沿26两侧标记28内的平均亮度。起始用户可指定作为亮度差的百分比表示的一个量,在计算机18将各相应的标记28标志为丢失之前,亮度值可在这一百分比之内变化。(“标记丢失”条件的事实与后果将在下面更详细地讨论。)
关于颜色,计算机18在逐个分量(即RGB)的基础上跟踪ROI54内的象素44的颜色的平均值。彩色参数允许起始用户规定百分比表示的量,在将各相应的标记28标志为丢失之前,这些平均值能在这一百分比之内变化。
关于标记灵敏度:这一参数表示对于在二维空间(视频图象14)中跟踪三维对象20所特有的现象,它描述本创造性活动对象识别方法10的自然环境。图7为展示相对于摄象机60示出的简化的(矩形)对象20a的视图。只是为了当前的讨论的目的而在图7的视图中加重了一条垂直边沿26a(只是为了本实例的目的而任意选择的,因为水平的边沿[未特别描绘]或其它这种边沿能用来展示正在说明的问题)。关于图7的视图,能够看出该简化的对象20a可以按照第一转动箭头62转动而使得从摄象机60观察时垂直边沿26a的透视长度保持基本不变。此外,简化的对象26a可按照第二转动箭头64转动,使垂直边沿26a的透视长度根据转动量改变。当然,如果简化的对象20a在第二转动箭头64所指的任一方向上转动整整90度,从摄象机60的视角观看,垂直边沿28a实质上将变成无限地短。能够理解,取决于该边沿26相对于摄象机60的夹角并进一步取决于如用简化的对象20a(图7)所示出的对象20(图2)的实际转动方向,不完全垂直或水平的边沿26将在不同程度上经历这一现象。根据上面的讨论也能理解,摄象机60相对于简化的对象20a的运动和简化的对象20a相对于摄象机60的运动一样,也会产生基本上同样的边沿26(如用垂直边沿26a作典型的)的相对伸长与缩短。
现在再参见图4的视图,灵敏区66是标记28a不同时在子标记68内的部分。在图4的示例中,子标记68的大小为5×5个象素44。子标记68定中在标记28a内。实践中,子标记68可以也可以不与边沿框50一样大小并从而与之或不与之完全重合。在图4的示例中将垂直边沿26a描绘成水平地定中在代表性标记28a内的(如同根据此前讨论的“标记对象”操作36或替代的“标记对象”操作36a或替代的“标记对象”操作36a那样)。从图2的视图能够理解,当简化的对象20a如第二转动箭头所指转动时,便使垂直边沿26a从垂直方向上移开,从摄象机60的视角看来垂直边沿26a的视长度会越来越短。当垂直边沿26a短到子标记68之内但不在灵敏区66之内时,便为该特定标记28指示标记丢失条件。如根据从上讨论能够理解的,响应这一条件的“灵敏度”能够通过调节灵敏区66的大小而加以调节。这便是子标记68相对于标记28越大,则灵敏区66越小并且在出现边沿26丢失时(如用垂直边沿28a的示例所示的)指示标记丢失条件越快。(参见图7的视图会注意到,代表性标记28a并不实际叠加在简化的对象26a上而使得在其上面看见代表性标记。而只是为了表示垂直边沿26a的一部分也示出在图4的视图中的目的而在图7的视图中示出代表性标记28a)。
图8展示本创造性活动对象识别方法的同样较佳的替代实施例810。在图8的视图中,能够看到一个复杂的对象20b上分布有多个物理标记28b。这些物理标记28b为能将它们的相对位置转发给摄象机60的转发机,使得这些相对位置能与其视频图象14(图2)一起记录。构成物理标记的这种转发机现在已可普遍地购得。它们根据若干技术中任何一种工作,其中包括无线电三角测量与超声三角测量原理。例如,Logitechtm已作为开发人员成套仪器销售能够提供物理标记28b的非常精确的三维位置信息以及姿态信息(倾斜角、俯仰角与偏航角),同时不产生可听见的噪声并同时一般抗来自环境噪声的干扰的超声系统。应指出,本领域中已知在制作电影时将单个传感器附着在对象上(诸如人)用于记录该对象相对于摄影机的位置。然而从前已知与采用的这种对象不够灵敏,当将它们用在先有技术中采用它们的目的时,它们也不需要区别这些对象的限制。
当如图8中所示那样实现物理标记28b时,将物理标记的记录的位置传送到软件中便是简单的事件,从而使计算机18能够根据(软件)标记28定义对象20,如这里所描述的。从原始记录介质传送理理标记28b的位置之后而使计算机18具有视频图象14的这些位置的记录,则物理标记28b的位置与前面讨论的在软件中原来建立的标记28的位置没有明显的不同。
应指出,不论初始使用的是(软件)标记28或物理标记28a,将会出现此前未特别提到的某些共同情况。例如,经常会出现随着对象20在视频图象14内转动或移动,当从二维透视图观看时,边沿26会出现跨越。(这便是,例如当对象20整个转动去而使得从静止的视点上看来右边变成左边而左边变成右边时,则在某些中间点上边沿将出现跨越。)实际上这些变化对本创造性活动对象识别方法10提出很少问题或不成问题。当标记28穿过热点边界32而使标记28位于热点边界32内部时,可以简单地暂时忽略它,直到它再一次穿过存在的热点边界32并从热点30内出来为止。
图9示出用来协助执行本创造性方法的计算机18与在上面使用诸如交互式计算机/用户界面70等最终产品的最终用户计算机18a的关系。交互式计算机/用户界面70示出在实施在CD ROM中的图2的视图中。当然,交互式计算机/用户界面70通常只构成包含它的典型CD ROM的内容的一个相对地小的部分。在计算机28上产生之后,交互式计算机/用户界面70将被装入CD ROM中(或者作为替代,装入软盘或与最终用户计算机18a通信的其它装置中)。然后,通常拷贝该CD ROM并将该CD ROM(或者更经常地,其拷贝)传送给最终用户计算机18a,在那里将交互式计算机/用户界面70引导到其中,然后显示在最终用户计算机18a的最终用户显示屏16a上。
再返回到此前数次引用过的“标记丢失”条件的考虑,可注意到单个丢失的标记28通常对于本创造性活动对象识别方法10的延续性不是致命的。如这里所指出的,用于定义热点30的标记28的位置是在计算机18的辅助下由起始用户按照本创造性活动对象识别方法10与视频图象14关联的。如此前所述,起始用户能看到标记28与热点边界32,而最终用户则不能,因此通常也不能区别对象20与对应的热点30。在边沿26在透视上缩短时,在标记移动得太快而不能按照当前实施的本创造性方法跟踪时,或在一种或另一种噪声屏蔽标记28时,标记28便能成为“丢失”的。当告知起始用户标记丢失情况时,起始用户便能作出判定在热点30与对象20之间是否保持充分的相互关联。如果这仍表现基本上相同,则“跟踪对象”操作58将被允许继续跟踪对象20及存储其标记28的相关位置。如果作出判定在热点30与对象20之间不再有充分的相互关联,则起始用户能从在其中确定需要这样做的视频图象14的运行时间中的时间顺序点上开始重新起动本创造性活动对象识别方法10。
应指出对本创造性方法的修正是为了减少在初始用户的计算机18中跟踪标记28所需的计算时间设想的。当然,这不是关于最终用户计算机18a的考虑,由于初始计算机18已记录了标记28的位置而最终用户计算机18a将简单地注意标记28相对于视频图象14的适当位置。然而,在活动对象识别方法10的实际执行中,可能有大量的时间包含在跟踪对象操作58中,该操作是由计算机18执行的。为了减少跟踪标记28所需的计算时间量,已发现下述方法具有实际价值:通常,假设标记28未从其以前的位置移动是方便的。这一假设能很快得到检验,如果成立,则节省了花费在重新计算标记28的位置的时间。当证明了上面的假设不正确时,假定前面的运动方向保持不变是进一步方便的。因此,计算机18可试验将标记28放置在由该标记18的前面的方向与位移量所确定的位置上,借此避免在搜索边沿26中必须在较大的区域上移动边沿框50。当然,如果所有这些假设都证明是不正确的,计算机18将必须扩大搜索区或者报告前面所述的标记丢失情况。随着本创造性方法的实现与适应各种应用,可以期望将会研制出与改进本创造性活动对象识别方法10的这些与其它改善。
可以对本发明作出各种修改而不改变其价值或范围。例如,虽然本创造性方法的最佳当前已知实施例10利用边沿识别来初始定义对象28作为对放置软件标记28的协助,诸如彩色识别等手段也能同样好地应用。
另一种可能的修改可能是标记的定位的进一步自动化。例如,当采用了“巷代的标记对象”操作38a而在放置标记28之前识别边沿26时,可以编写出这样的软件,在其中起始用户只要在对象内摁按钮,便能从这样选择的位置上向外生成多条射线,并将这些射线与边沿26的交点标为标记28。这一方法的进一步改善可允许起始用户从这样产生的标记28中进行选择。
上述全体只是本发明的可得出的实施例的一些示例。熟悉本技术的人员容易看出可以作出无数其它修改与变动而不脱离本发明的精神与范围。从而,以上公开不是为了限制,而应将所附的权利要求书解释为包罗本发明的整个范围。
本创造性活动对象识别方法10旨在广泛地应用在多媒体工业中。突出的当前用途为识别与跟踪活动视频图象内的对象,使得能将这些对象好象是图符或类似措施等加以使用,用在最终用户与计算机之间的交互作用上。
实践中,本创造性活动对象识别方法10将被包含在许多更广泛的方法中,其中识别视频图象14内的活动对象20为用于与这些更广泛的方法的产品交互作用的必要或理想手段。原则示例将是在交互式计算机/用户界面的生产中,其中最终用户可在对象20上摁按钮来进一步访问信息或启动某些其它动作。例如,当关于这一对象20可以得到进一步的信息时,最终用户便能通过在该对象上摁按钮来访问进一步的信息。
按照本创造性方法,在给定的屏幕上热点30中可能还有热点30与/或在一个热点上摁按钮能带出另一屏面或局部屏面,而这些后续屏面还包含其它热点。从而,比先有技术大大地增进了程序或界面的交互性程度。
由于本发明的活动对象识别方法10可以容易地集成进现有的与未来的最终产品生产方法中,可以预期它将在工业中作为对从事计算机软件及软件/硬件组合产品生产的人员可利用的新颖与有用的工具受到接纳。由于这些与其它原因,可以预期,本发明的实用性及工业可应用性将是范围广泛与持续时间久远的。

Claims (19)

1、一种识别数字化活动视频图象内的对象的方法,包括:
a)在活动视频图象上放置若干标记,使所述标记大致勾划出该对象;
b)令所述标记随该活动视频图象前进而移动,使得即使对象在活动视频图象上中移动与改变形状时所述标记也继续大致勾划该对象。
2、权利要求1的方法,其中:
a)所述标记包括象素的一个二维阵列;以及
b)将所述标记初始放置在活动视频图象上使所述标记包含该对象的一条边沿。
3、权利要求1的方法,其中:
a)用包含多个转发机的装置将所述标记初始放置在对象上,使转发机定义该对象的边沿。
4、权利要求1的方法,其中:
a)将所述标记的位置存储在计算机中,使计算机能识别热点区,该热点区为所述标记所定义的视频图象部分。
5、权利要求1的方法,其中:
a)当起始用户为各所述标记在所要求的位置上摁按钮时,便将各所述标记放置在该对象上。
6、权利要求1的方法,其中:
a)各所述标记在其中包括一个较小的子标记;以及
b)当一条边沿落在子标记内且进一步当该边沿不落在灵敏区内时,将至少一个标记内的边沿报告丢失的,灵敏区为不存子标记内的标记部分。
7、一种在计算机的显示屏幕上建立热点的方法,包括:
a)定位多个标记,使所述标记大致上定义数字化活动视频图象中的对象的形状;
b)当对象在活动视频图象内移动时,令所述标记在对象上保持它们的相对位置;以及
c)记录所述标记的位置,将由所述标记限定的活动视频图象部分定义为热点。
8、权利要求7的方法,其中:
a)至少一个所述标记位于对象的边沿上。
9、权利要求8的方法,其中:
a)将标记初始放置在对象上,使边沿落在标记内。
10、权利要求8的方法,其中:
a)当边沿在活动视频图象中移动时,将标记移动而使边沿保持定中在标记内。
11、权利要求8的方法,其中:
a)在标记内定义一个感兴趣的区,使得该感兴趣的区是活动视频图象中标记与对象重合的部分;以及
b)当感兴趣的区的彩色按照预设的极限改变时,便报告标记丢失。
12、权利要求8的方法,其中:
a)在标记内定义一个感兴趣区,使该感兴趣区为活动视频图象内标记与对象重合的部分;以及
b)当感兴趣区的亮度按照预设的极限改变时,便报告标记丢失。
13、权利要求8的方法,其中:
a)当边沿在标记内成为透视缩短而边沿不再延伸到预定义的灵敏区中时,便丢失了标记。
14、权利要求13的计算机/用户界面,其中:
a)灵敏区为活动视频图象落入标记内并在子标记外的部分,其中该子标记为标记的一个较小全封闭子集。
15、权利要求14的方法,其中:
a)灵敏区至少与边沿检测框一样大,边沿检测框为用于检测边沿的一个象素阵列。
16、权利要求7的方法,其中:
a)当执行用于在计算机的显示屏上建立热点的方法时,初始用户能看见这些标记;以及
b)最终用户看不见这些标记,使得最终用户通常不能区别对象与计算机可识别的热点。
17、一种在活动视频图象内跟踪对象的方法,包括:
a)选择能用来初始定义对象的标准;
b)根据在步骤a中选择的标准将标记放置在对象上;
c)在标记内选择一个感兴趣区,该感兴趣区为标记与对象重合的部分;以及
d)重复步骤b与c直到用多个标记定义的一个热点大致上与对象重合为止。
18、权利要求17的方法,还包括:
a)在步骤d后面,令多个标记的各个根据在步骤a中选择的标准去跟踪对象。
19、权利要求17的方法,其中:
a)当一个热点边界不再大致上定义对象时,初始用户能重新起动本创造性方法,热点边界为互连热点的线,起始用户能看见该线叠加在活动视频图象上。
CN96194232A 1995-05-10 1996-05-10 活动视频图象中的对象识别 Pending CN1185850A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US08/435,439 1995-05-10
US08/435,439 US6205231B1 (en) 1995-05-10 1995-05-10 Object identification in a moving video image

Publications (1)

Publication Number Publication Date
CN1185850A true CN1185850A (zh) 1998-06-24

Family

ID=23728401

Family Applications (1)

Application Number Title Priority Date Filing Date
CN96194232A Pending CN1185850A (zh) 1995-05-10 1996-05-10 活动视频图象中的对象识别

Country Status (8)

Country Link
US (1) US6205231B1 (zh)
EP (1) EP0870273A1 (zh)
JP (1) JPH11505051A (zh)
CN (1) CN1185850A (zh)
AU (1) AU714213B2 (zh)
CA (1) CA2220277A1 (zh)
IL (1) IL118189A (zh)
WO (1) WO1996036007A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101398892B (zh) * 2004-08-03 2010-12-22 松下电器产业株式会社 人物搜索跟踪装置

Families Citing this family (62)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09214904A (ja) * 1996-02-05 1997-08-15 Matsushita Electric Ind Co Ltd テレビ受信機,及び付加情報送信方法
US6088469A (en) * 1996-09-30 2000-07-11 Sony Corporation Identifying apparatus and method, position detecting apparatus and method, robot apparatus and color extracting apparatus
US5774666A (en) * 1996-10-18 1998-06-30 Silicon Graphics, Inc. System and method for displaying uniform network resource locators embedded in time-based medium
GB9712724D0 (en) * 1997-06-18 1997-08-20 Holmes Steven Method and apparatus for interaction with broadcast television content
US6426778B1 (en) * 1998-04-03 2002-07-30 Avid Technology, Inc. System and method for providing interactive components in motion video
US6320623B1 (en) * 1998-11-13 2001-11-20 Philips Electronics North America Corporation Method and device for detecting an event in a program of a video and/ or audio signal and for providing the program to a display upon detection of the event
GB9902235D0 (en) * 1999-02-01 1999-03-24 Emuse Corp Interactive system
DE10033134B4 (de) 1999-10-21 2011-05-12 Frank Knischewski Verfahren und Vorrichtung zum Anzeigen von Informationen zu ausgewählten Bildelementen von Bildern einer Videosequenz
DE20012804U1 (de) * 1999-10-21 2000-11-30 Knischewski Frank Vorrichtung zur Aufbereitung von Videosequenzen
KR100295610B1 (ko) * 1999-11-09 2001-07-12 장영규 동영상 편집 시스템 및 이를 이용한 객체 정보 서비스 방법
US7343617B1 (en) 2000-02-29 2008-03-11 Goldpocket Interactive, Inc. Method and apparatus for interaction with hyperlinks in a television broadcast
US7367042B1 (en) 2000-02-29 2008-04-29 Goldpocket Interactive, Inc. Method and apparatus for hyperlinking in a television broadcast
GB2364590B (en) * 2000-07-07 2004-06-02 Mitsubishi Electric Inf Tech Method and apparatus for representing and searching for an object in an image
AUPQ921600A0 (en) * 2000-08-04 2000-08-31 Canon Kabushiki Kaisha Automatic person meta-data labeller
AU2001288552A1 (en) * 2000-08-30 2002-03-13 Watchpoint Media, Inc. A method and apparatus for hyperlinking in a television broadcast
WO2002029544A1 (en) * 2000-10-03 2002-04-11 Creative Frontier, Inc. System and method for tracking an object in a video and linking information thereto
US6774908B2 (en) * 2000-10-03 2004-08-10 Creative Frontier Inc. System and method for tracking an object in a video and linking information thereto
GB2372165A (en) * 2001-02-10 2002-08-14 Hewlett Packard Co A method of selectively storing images
DE10155215B4 (de) * 2001-11-09 2006-06-08 Elbert, Alexander, Dr. Verfahren und Vorrichtung zum interaktiven Fernsehen
US7274803B1 (en) 2002-04-02 2007-09-25 Videomining Corporation Method and system for detecting conscious hand movement patterns and computer-generated visual feedback for facilitating human-computer interaction
US20040210947A1 (en) * 2003-04-15 2004-10-21 Shusman Chad W. Method and apparatus for interactive video on demand
US7317812B1 (en) 2002-11-15 2008-01-08 Videomining Corporation Method and apparatus for robustly tracking objects
US20040233233A1 (en) * 2003-05-21 2004-11-25 Salkind Carole T. System and method for embedding interactive items in video and playing same in an interactive environment
US7428314B2 (en) * 2003-12-03 2008-09-23 Safehouse International Inc. Monitoring an environment
GB2408877A (en) 2003-12-03 2005-06-08 Safehouse Internat Inc Environment monitoring wherein parts of images may be masked
FR2885719B1 (fr) * 2005-05-10 2007-12-07 Thomson Licensing Sa Procede et dispositif de suivi d'objets dans une sequence d'images
JP2008124830A (ja) * 2006-11-13 2008-05-29 Funai Electric Co Ltd 撮像装置
US9071730B2 (en) 2007-04-14 2015-06-30 Viap Limited Product information display and purchasing
CA2689065C (en) * 2007-05-30 2017-08-29 Creatier Interactive, Llc Method and system for enabling advertising and transaction within user generated video content
US7987478B2 (en) * 2007-08-28 2011-07-26 Sony Ericsson Mobile Communications Ab Methods, devices, and computer program products for providing unobtrusive video advertising content
US8086071B2 (en) * 2007-10-30 2011-12-27 Navteq North America, Llc System and method for revealing occluded objects in an image dataset
EP2061004A1 (en) * 2007-11-14 2009-05-20 Sony Corporation Object boundary accurate motion detection using hierarchical block splitting and motion segmentation
US20090297045A1 (en) 2008-05-29 2009-12-03 Poetker Robert B Evaluating subject interests from digital image records
US20100034466A1 (en) * 2008-08-11 2010-02-11 Google Inc. Object Identification in Images
MY152566A (en) * 2008-08-13 2014-10-31 Mimos Berhad Method and system for tracking and tagging objects
US8295546B2 (en) * 2009-01-30 2012-10-23 Microsoft Corporation Pose tracking pipeline
US8320619B2 (en) 2009-05-29 2012-11-27 Microsoft Corporation Systems and methods for tracking a model
US20100319018A1 (en) * 2009-06-12 2010-12-16 Frank Zazza Directing Interactive Content
US10049379B2 (en) 2009-06-12 2018-08-14 Rentrak Corporation Quantitative branding analysis
TWI407776B (zh) * 2009-06-30 2013-09-01 Silicon Integrated Sys Corp 影像產生裝置、靜態文字偵測裝置及相關方法
US8294595B1 (en) 2009-09-21 2012-10-23 The Boeing Company Speed detector for moving vehicles
US20110091027A1 (en) * 2009-10-21 2011-04-21 Microsoft Corporation Discovering and using phone number location information
US8831279B2 (en) * 2011-03-04 2014-09-09 Digimarc Corporation Smartphone-based methods and systems
US8320621B2 (en) * 2009-12-21 2012-11-27 Microsoft Corporation Depth projector system with integrated VCSEL array
US8864581B2 (en) * 2010-01-29 2014-10-21 Microsoft Corporation Visual based identitiy tracking
US8670029B2 (en) 2010-06-16 2014-03-11 Microsoft Corporation Depth camera illuminator with superluminescent light-emitting diode
US8437506B2 (en) * 2010-09-07 2013-05-07 Microsoft Corporation System for fast, probabilistic skeletal tracking
US8620023B1 (en) 2010-09-13 2013-12-31 The Boeing Company Object detection and location system
US8787114B1 (en) 2010-09-13 2014-07-22 The Boeing Company Audio surveillance system
US8451174B1 (en) 2010-09-13 2013-05-28 The Boeing Company Beam-scanning system
US8762852B2 (en) * 2010-11-04 2014-06-24 Digimarc Corporation Smartphone-based methods and systems
US8526734B2 (en) 2011-06-01 2013-09-03 Microsoft Corporation Three-dimensional background removal for vision system
US9594430B2 (en) 2011-06-01 2017-03-14 Microsoft Technology Licensing, Llc Three-dimensional foreground selection for vision system
US9582577B2 (en) 2011-10-10 2017-02-28 International Business Machines Corporation Graphical diagram having elements that correspond to objects and that have locations in correspondence with appearance relationships of objects
US8811938B2 (en) 2011-12-16 2014-08-19 Microsoft Corporation Providing a user interface experience based on inferred vehicle state
US9406089B2 (en) 2013-04-30 2016-08-02 Intuit Inc. Video-voice preparation of electronic tax return
US9589179B2 (en) * 2013-12-19 2017-03-07 Microsoft Technology Licensing, Llc Object detection techniques
US9311639B2 (en) 2014-02-11 2016-04-12 Digimarc Corporation Methods, apparatus and arrangements for device to device communication
US10932103B1 (en) * 2014-03-21 2021-02-23 Amazon Technologies, Inc. Determining position of a user relative to a tote
US11076143B1 (en) * 2016-12-12 2021-07-27 Facebook Technologies, Llc In-band tear detection with compression
US11645766B2 (en) 2020-05-04 2023-05-09 International Business Machines Corporation Dynamic sampling for object recognition
US11526544B2 (en) 2020-05-07 2022-12-13 International Business Machines Corporation System for object identification

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5111511A (en) 1988-06-24 1992-05-05 Matsushita Electric Industrial Co., Ltd. Image motion vector detecting apparatus
JPH0820725B2 (ja) * 1990-02-06 1996-03-04 大日本スクリーン製造株式会社 画像輪郭データの作成方法
JP2975629B2 (ja) 1990-03-26 1999-11-10 株式会社東芝 画像認識装置
US5237648A (en) 1990-06-08 1993-08-17 Apple Computer, Inc. Apparatus and method for editing a video recording by selecting and displaying video clips
GB2279198B (en) 1990-08-02 1995-05-10 Hughes Aircraft Co Image tracking system and technique
US5243418A (en) * 1990-11-27 1993-09-07 Kabushiki Kaisha Toshiba Display monitoring system for detecting and tracking an intruder in a monitor area
GB9124337D0 (en) 1991-11-15 1992-01-08 Philips Electronic Associated Method of storing user information items and apparatus for reproducing stored items
JPH05250119A (ja) 1992-03-10 1993-09-28 Hitachi Ltd 動画ヘルプガイダンス方法
US5323470A (en) 1992-05-08 1994-06-21 Atsushi Kara Method and apparatus for automatically tracking an object
US5311305A (en) 1992-06-30 1994-05-10 At&T Bell Laboratories Technique for edge/corner detection/tracking in image frames
US5590262A (en) 1993-11-02 1996-12-31 Magic Circle Media, Inc. Interactive video interface and method of creation thereof
US5537155A (en) 1994-04-29 1996-07-16 Motorola, Inc. Method for estimating motion in a video sequence

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101398892B (zh) * 2004-08-03 2010-12-22 松下电器产业株式会社 人物搜索跟踪装置

Also Published As

Publication number Publication date
CA2220277A1 (en) 1996-11-14
EP0870273A1 (en) 1998-10-14
JPH11505051A (ja) 1999-05-11
AU714213B2 (en) 1999-12-23
IL118189A (en) 2001-08-08
EP0870273A4 (zh) 1998-10-14
WO1996036007A1 (en) 1996-11-14
IL118189A0 (en) 1996-09-12
US6205231B1 (en) 2001-03-20
AU5735696A (en) 1996-11-29

Similar Documents

Publication Publication Date Title
CN1185850A (zh) 活动视频图象中的对象识别
Saxena et al. Make3d: Learning 3d scene structure from a single still image
Hu et al. Deep 360 pilot: Learning a deep agent for piloting through 360 sports videos
CN104376548B (zh) 一种基于改进型surf算法的图像快速拼接方法
Brostow et al. Semantic object classes in video: A high-definition ground truth database
CN100349185C (zh) 地图生成设备、地图发送方法
CN101228477B (zh) 全景图像的实时预览系统和方法
US7944454B2 (en) System and method for user monitoring interface of 3-D video streams from multiple cameras
EP3855351B1 (en) Locating element detection method, apparatus, device and medium
CN101542529A (zh) 图像的深度图的生成
JP2011509451A (ja) 画像データのセグメント化
US11804015B2 (en) Methods for determining three-dimensional (3D) plane information, methods for displaying augmented reality display information and corresponding devices
US11170536B2 (en) Systems and methods for home improvement visualization
CN104272377A (zh) 运动图片项目管理系统
CN106682652B (zh) 基于增强现实的结构表面病害巡检和分析方法
Chen et al. Outdoor shadow estimating using multiclass geometric decomposition based on BLS
CN109525786A (zh) 视频处理方法、装置、终端设备及存储介质
Hu et al. Deep 360 pilot: Learning a deep agent for piloting through 360deg sports videos
CN112634125A (zh) 一种基于离线人脸数据库的自动面部替换方法
Xiong et al. Snap angle prediction for 360 panoramas
Wei et al. Simulating shadow interactions for outdoor augmented reality with RGBD data
Werner et al. Model selection for automated architectural reconstruction from multiple views
CN103903269B (zh) 球机监控视频的结构化描述方法和系统
CN116132610A (zh) 一种综采面视频拼接方法及系统
CN105930813B (zh) 一种在任意自然场景下检测行文本的方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C02 Deemed withdrawal of patent application after publication (patent law 2001)
WD01 Invention patent application deemed withdrawn after publication
REG Reference to a national code

Ref country code: HK

Ref legal event code: WD

Ref document number: 1009537

Country of ref document: HK