CN103996184B - 增强现实应用中的可变形表面跟踪 - Google Patents

增强现实应用中的可变形表面跟踪 Download PDF

Info

Publication number
CN103996184B
CN103996184B CN201410146516.7A CN201410146516A CN103996184B CN 103996184 B CN103996184 B CN 103996184B CN 201410146516 A CN201410146516 A CN 201410146516A CN 103996184 B CN103996184 B CN 103996184B
Authority
CN
China
Prior art keywords
video
key point
matching score
score value
mark
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201410146516.7A
Other languages
English (en)
Other versions
CN103996184A (zh
Inventor
周正华
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hong Kong Applied Science and Technology Research Institute ASTRI
Original Assignee
Hong Kong Applied Science and Technology Research Institute ASTRI
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hong Kong Applied Science and Technology Research Institute ASTRI filed Critical Hong Kong Applied Science and Technology Research Institute ASTRI
Publication of CN103996184A publication Critical patent/CN103996184A/zh
Application granted granted Critical
Publication of CN103996184B publication Critical patent/CN103996184B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/48Matching video sequences
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Studio Circuits (AREA)

Abstract

本发明提供一种用于增强现实应用的可变形表面上的标记跟踪的计算机实施方法,包括:在一个视频拍摄场景中的当前视频帧内,检测图像关键点;进行关键点关联搜索,并匹配图像关键点和标记的原始图像中的模型关键点,包括:为每个图像关键点,计算关键点匹配分值;在关键点匹配分值上使用关键点匹配分值滤波;将在当前视频帧上搜索一个或多个图像关键点,限制在和所述拍摄的视频帧中先前视频帧相同的网格块中搜索;在确定图像关键点是否是成功匹配时,在关键点匹配分值上使用一个自适应阈值;在视频拍摄场景中,进行标记的运动检测,如果标记有大幅度运动时,停止关键点匹配分值滤波,停止图像关键点搜索限制。

Description

增强现实应用中的可变形表面跟踪
【技术领域】
本发明涉及在增强现实(augmented reality,AR)应用里的标记跟踪(trackingof a marker)。本发明特别涉及在实际生活AR应用里的一种柔性的或可变形的标记跟踪。
【背景技术】
增强现实(AR)是通过使用传感器、计算机产生的数据、和/或多媒体播放设备,并结合虚拟对象和/或对物理现实世界环境的感知信息,以增强用户对物理真实世界环境的感知。例如,可以使用相机来拍摄场景视频,以及使用显示单元如视频眼镜或护目镜来投影计算机处理的场景视图给观看者。与虚拟现实(虚拟现实是,给观看者呈现的是一个完全虚假的计算机生成的场景)不同,只有某些计算机生成的图像或虚拟对象会叠加到计算机处理的场景视频中。计算机生成的图像或虚拟对象可以是与观看者互动的,或者通过用户实时控制而驱动的,或者通过预设的设置和指令而驱动的。
AR技术的一个重要指标是,感知到的增强视频到底有多逼真,或者计算机生成的图像或虚拟对象和场景的结合到底有多好。这要求计算机生成的图像或虚拟对象和它们在场景内的摆放位置,在整个运动序列中或场景的连续视频帧中有合适的关联。现有AR技术中的一个常见问题是,二维平面标记摆放在拍摄场景视频中虚拟对象上的三维坐标和方位的跟踪。在整个场景运动序列中,标记的跟踪使得虚拟对象能够在标记位置和方位上被叠加到场景中。
但是,本领域现有技术的状况是,对解决虚拟对象的跟踪标记放置在视频场景里一个可变形表面上的情况,并没有用一个令人满意的技术。可变形表面可以是一个柔软物品,如一个正在运动的人的衬衫、一个飘扬的旗帜、或流动的水的表面。叠加在可变形表面上的虚拟对象,在一个运动序列中不仅需要正确地出现在合适位置上合适方位上,它的纹理和形状还必须改变随着可变形表面的变形而改变。
【发明内容】
本发明的一个目的是提供一种用于增强现实(AR)应用的标记跟踪方法,其中所述标记被放置在一个可变形表面上。本发明的另一个目的是提供所述的标记跟踪方法的特征在于,具有提高的标记跟踪稳定性、标记关键点的匹配精度,减少标记的纹理粘性,并在背景照明波动和视频噪声下有更好的标记关键点匹配。
根据本发明的各种实施例,为了跟踪一个位于可变形表面上的标记,为视频拍摄场景中的标记生成一个多边形网格。多边形网格是为了跟踪标记在整个视频拍摄场景运动序列(或视频帧)中的三维位置、方向,以及三维变形。
在为视频拍摄场景中的标记生成多边形网格时,首先找到标记图像(markerimage)的原始关键点。关键点可以是一个尖锐的图案特征,如一个角、一个边缘,或在标记图像中一个物体上的一个兴趣点。在各种实施例中,可以使用现有的边缘/角/兴趣点检测方法或现有的特征检测技术来检测关键点。然后在视频拍摄场景的每个后续视频帧中,搜索同一个关键点,并与原始关键点进行匹配,这是关键点关联匹配过程(key-point-corresponding matching process)。
在关键点关联匹配过程中,计算关键点匹配分值(key-point matching score),该分值表示随后视频帧中找到的候选关键点与标记图像中的原始关键点之间的匹配程度。如果当前视频帧中找到的候选关键点的匹配分值高于一个预定的匹配阈值,那么就认为是一个成功匹配。最后,当前视频帧中和原始标记图像或第一个视频帧的标记图像的多边形网格的成功匹配的关键点信息被用于产生当前视频帧中标记的修复多边形网格(recovered polygon mesh)。因此,修复的多边形网格反映了视频拍摄场景中标记从先前视频帧到当前视频帧的三维位置、方向、三维变形上的变化。因此,位于可变形表面上的标记是通过一系列视频帧的一系列修复的多边形网格而跟踪的。
根据本发明的一个实施例,上述生成的标记的多边形网格,通过结合以下方法,可以在关键点匹配精度和标记跟踪稳定性方面带来增强效果:关键点匹配分值滤波;将当前视频帧中的候选关键点的搜索,限制在和先前视频帧中相同的网格块中;在确定候选关键点是否是成功匹配时,使用一个自适应阈值;并且对视频拍摄场景中的标记进行运动检测。
关键点匹配分值滤波的应用是为了减少在关键点匹配分值计算时视频噪声引入的抖动。当为多个视频帧计算某个特定关键点的关键点匹配分值时,偶尔会出现尖锐的负尖峰。实验表明,这些帧间关键点匹配分值的负尖峰很可能是由视频噪声造成的,而并不是候选关键点的不匹配或弱匹配。关键点匹配分值滤波的使用可以平滑帧间关键点匹配分值。在一个实施例中,负尖峰由帧间关键点匹配分值的加权平均值或移动平均值代替。在另一个实施例中,负尖峰由它们的前一分值取代。
修复的多边形网格所在的视频帧像素块被称为网格块(mesh block)。有时,由于视频噪声或其他视频影响,会在网格块的外部发现错误的关键点,当然这不可能是标记的有效关键点。在候选关键点搜索时限制网格块关键点搜索,是为了将当前视频帧中关键点搜索和匹配限制在和先前视频帧中相同的网格块内。这样,性能和精度都会得以提高。
在视频拍摄场景的整个运动序列中,背景照明的波动和视频噪声会使像素特性(如颜色和强度梯度)从一个视频帧到另一个视频帧有所改变。相应地,在具有不同背景照明和/或视频噪声的不同视频帧中找到的并正确匹配的同一关键点,在不同视频帧中可能有完全不同的关键点匹配分值。对所有视频帧,在判断是否成功匹配时,如果使用固定的阈值将不可避免地导致不正确的判断,将有效的关键点判断为不匹配。因此,本发明一个实施例使用自适应阈值,来判断视频帧中找到的关键点是否成功匹配,以适应不断变化的背景照明和/或视频噪声。在一个实施例中,自适应阈值是帧间关键点匹配分值的一个折扣移动平均值(discounted moving average),或是小于一个缓冲值的帧间关键点匹配分值的一个移动平均值。
因为标记的位置在运动序列中会发生变化,当标记从先前视频帧有大幅度移动时,网格块关键点搜索限制可能会找不到那些位于当前视频帧网格块之外的有效图像关键点,同时,关键点匹配分值计算也必须对那些找到的但与标记图像的原始关键点不匹配的关键点要更敏感。因此,当标记大幅度移动时,网格块关键点的搜索限制会被暂停,关键点匹配分值滤波的应用也被暂停。
在一个实施例中,通过使用从先前视频帧修复的多边形网格的顶点和从当前视频帧修复的多边形网格的顶点,来计算运动向量。如果运动向量大于一个预定的标记移动阈值,那么对于下一个要处理的视频帧,网格块关键点搜索限制被暂停,关键点匹配分值滤波应用程序也停止,直到运动矢量(其被连续地计算)不再大于所述预定的标记移动阈值。
【附图说明】
以下将参照附图更详细地描述本发明的实施例,其中:
图1显示本发明一个实施例的用于增强现实(AR)应用中的可变形表面上标记跟踪方法的流程图;
图2显示本发明一个实施例的示例性帧间关键点匹配分值(左图)和关键点匹配分值滤波后的帧间关键点匹配分值(右图);
图3显示一个视频帧的标记的示例性网格块,其中一些关键点在网格块内部,一些关键点在外部;
图4显示本发明一个实施例中的一个示例性的帧间关键点匹配分值及自适应阈值。
【具体实施方式】
在以下描述中,使用优选实施例来阐述用于增强现实(AR)等应用中的在可变形表面上跟踪标记的方法和系统。凡是对其做出没有脱离本发明范围和精神的修改,包括增加和/或替换,对本领域普通技术人员都是显而易见的。为了不模糊本发明,可能会省略一些具体细节,但是,本披露会使本领域普通技术人员能够实现本教义,而无需进行过多的试验。
参见图1。根据本发明的各种实施例,为了跟踪一个放置在可变形表面上的标记,为该标记在一个视频拍摄场景中生成一个多边形网格。该多边形网格是为了能在整个视频拍摄场景的运动序列(或视频帧)中跟踪该标记的三维位置、二维方位、以及三维变形。
在视频拍摄场景中产生标记的多边形网格时,首先找到标记图像(111)的最初关键点(以下称为模型关键点(model-key-point))(113),标记图像(111)可以是该标记的一个原始图像。关键点可以是一个锐利的图案特征,如一个角落、一个边缘、或在该标记图像中物体上的一个兴趣点。在各种实施例中,可以使用现有技术的边缘/角落/兴趣点检测方法或特征检测技术来检测模型关键点(112)。然后在视频拍摄场景的每个后续视频帧中,搜索同一个关键点并与模型关键点进行匹配,这是关键点关联匹配过程(131)。
在关键点关联匹配过程中(131),计算关键点匹配分值,该分值表示在后续视频帧中找到的候选关键点(以下称为图像关键点)(123)和模型关键点之间的匹配程度。只有在当前视频帧(121)中找到的图像关键点的匹配分值高于一个预定的匹配阈值时,才认为是一个成功的匹配。最后,在当前视频帧和标记原始图像或第一个视频帧的标记图像的最初标记多边形网格(115)中,成功匹配图像关键点的信息(也称为关键点关联)(132)被用于在当前视频帧中产生一个修复的标记多边形网格(134)。修复的多边形网格(134)反映了该标记从先前视频帧到当前视频帧的三维位置和方位上的变化,以及三维变形的变化。因此,一个位于可变形表面上的标记,是由一系列视频帧中生成的一系列的修复多边形网格来跟踪的。
仍参照图1。根据本发明的一个实施例,上述生成的多边形网格,通过结合以下方法,给标记在关键点匹配精度和标记跟踪稳定性方面带来了增强效果:关键点匹配分值滤波(也称为尖峰去除)(101);将当前视频帧中的图像关键点搜索,限制在和先前视频帧中相同的网格块中(也称为块搜索和匹配)(102);在确定图像关键点是否是成功匹配时,使用一个自适应阈值(104);并且对视频拍摄场景中的标记进行运动检测(103)。
关键点匹配分值滤波(101)的应用是为了减少在关键点匹配分值计算时视频噪声引入的抖动。当为多个视频帧计算某个特定图像关键点的关键点匹配分值时,偶尔会出现尖锐的负尖峰。图2的左半边图表显示一个示例性的多个视频帧的帧间关键点匹配分值,其有尖锐的负尖峰。实验表明,这些帧间关键点匹配分值的负尖峰可能是由视频噪声造成的,而不是候选关键点的不匹配或弱匹配。关键点匹配分值滤波的使用可以平滑帧间关键点匹配分值。在一个实施例中,负尖峰由帧间关键点匹配分值的加权平均值或移动平均值代替。在另一个实施例中,负尖峰由它们的前一分值取代。图2的右半图表显示关键点匹配分值滤波后的帧间关键点匹配分值。
修复的多边形网格所在的视频帧像素块被称为网格块。有时,由于视频噪声或其他视频影响,会在网格块的外部发现图像关键点,当然这不可能是标记的有效图像关键点。图3显示了这样一个例子,其中有一些图像关键点被发现在视频帧标记网格块的内部,有一些被发现在网格块的外部。在图像关键点搜索时的网格块关键点搜索限制,是为了将当前视频帧中关键点搜索和匹配限制在和先前视频帧中相同的网格块内。这样,性能和精度都会得以提高。
在视频拍摄场景的整个运动序列中,背景照明的波动和视频噪声会使像素特性(如颜色和强度梯度)从一个视频帧到另一个视频帧有所改变。相应地,在具有不同背景照明和/或视频噪声的不同视频帧中找到的并正确匹配的同一图像关键点,在不同视频帧中可以有完全不同的关键点匹配分值。对所有视频帧,在判断是否成功匹配时,如果使用固定的阈值将不可避免地导致不正确的判断,将有效的图像关键点判断为不匹配。因此,本发明一个实施例使用自适应阈值,来判断视频帧中找到的关键点是否成功匹配,以适应不断变化的背景照明和/或视频噪声。在一个实施例中,自适应阈值是帧间关键点匹配分值的一个折扣移动平均值(discounted moving average),或是低于一个缓冲值(buffer value)的帧间关键点匹配分值的移动平均值。图4显示一个示例性的帧间关键点匹配分值与一个自适应阈值。
因为标记的位置在运动序列中会发生变化,当标记从先前视频帧有大幅度移动时,网格块关键点搜索限制可能会找不到那些位于当前视频帧网格块之外的有效图像关键点,同时,关键点匹配分值计算也必须对那些找到的但不与模型关键点匹配的图像关键点要更敏感。因此,当标记大幅度移动时,网格块关键点的搜索限制会被暂停,关键点匹配分值滤波的应用也被暂停。
在一个实施例中,通过使用由从先前视频帧修复的多边形网格的顶点和由当前视频帧修复的多边形网格的顶点,来计算运动向量。如果运动向量大于一个预定的标记移动阈值,那么对于下一个要处理的视频帧,网格块关键点搜索限制被暂停,关键点匹配分值滤波应用程序也停止,直到运动矢量(其被连续地计算)不再大于所述预定的标记移动阈值。这样,标记的纹理粘性(texture stickiness)大大降低。
根据本发明的各种实施例,关键点关联匹配过程可以通过所有上述过程模块或以下任何组合来增强:关键点匹配分值滤波应用;将当前视频帧中的图像关键点搜索限制在和先前视频帧相同的网格块之内;在确定图像关键点是否是成功匹配时使用自适应阈值;在视频拍摄场景中对标记进行同时地或连续地运动检测。
通过使用通用或专用计算装置、计算机处理器、或包括但不限于数字信号处理器(DSP)、专用集成电路(ASIC)、现场可编程门阵列(FPGA)的电子电路、以及依照本披露而配置或编程的其它可编程逻辑装置,可以实施在此披露的本发明。根据本披露的教义,本领域普通技术人员能够容易地准备在通用或专用计算装置、计算机处理器、或可编程逻辑装置上运行的计算机指令或软件代码。
在一些实施例里,本发明包括其中存有计算机指令或软件代码的计算机存储媒介,这些指令和代码可被用来编程计算机或微处理器以执行本发明的任何过程。存储媒介可以包括但不限于软盘、光盘、蓝光光盘、DVD、CD-ROM、以及磁光盘、ROM、RAM、闪存装置、或适合存储指令、代码和/或数据的任何类型的媒介或装置。
出于说明和描述的目的,已提供了对本发明的前面的描述。其不是穷尽性的,也不将本发明限于所揭示的确切形式。鉴于以上教示,许多修改和变形对本领域普通技术人员是显而易见的。
在此所选择的和所描述的实施例是为了更好地解释本发明的原理及其实施应用,从而本领域普通技术人员能够理解本发明的不同实施例、以及根据具体特定应用而做出不同修改。这意味着本发明的范围是由所附权利要求及其等价物设定。

Claims (6)

1.一种用于增强现实应用的可变形表面上的标记跟踪的计算机实施方法,包括:
在一个视频拍摄场景中的当前视频帧内,检测一个或多个图像关键点;
进行关键点关联匹配,包括:
对应于一个或多个模型关键点,在所述拍摄的视频帧的当前视频帧中,搜索一个或多个图像关键点,其中所述一个或多个模型关键点是从所述标记的原始图像中找到的;
为每个所述图像关键点,计算关键点匹配分值;
在所述关键点匹配分值上使用关键点匹配分值滤波;
将在所述当前视频帧上对一个或多个图像关键点的搜索,
限制在和所述拍摄的视频帧中先前视频帧相同的网格块中;
其中不断变化的背景照明和/或视频噪声使得同一图像关键点在不同视频帧中可以有完全不同的关键点匹配分值,在确定所述图像关键点是否是成功匹配时,为每个所述图像关键点的关键点匹配分值,使用一个自适应阈值以适应不断变化的背景照明和/或视频噪声;
使用图像关键点和所述标记的原始标记多边形网格的成功匹配信息,在所述当前视频帧中产生所述标记的一个修复的多边形网格;
重复以上步骤,产生所述标记的一系列修复的多边形网格,用于跟踪所述标记。
2.如权利要求1所述的方法,还包括:
在所述视频拍摄场景中,进行所述标记的运动检测,包括:
使用所述拍摄视频帧的当前视频帧中的所述标记的所述修复的图像网格,和所述先前视频帧中的所述标记的所述修复的图像网格,计算一个或多个运动向量;
比较所述计算的运动向量和一个移动阈值;
如果所述计算的运动向量大于所述移动阈值,那么停止所述关键点匹配分值滤波,停止所述图像关键点搜索限制,直到所述运动向量不再大于所述移动阈值。
3.如权利要求1所述的方法,其中所述关键点匹配分值滤波将一个图像关键点的所述关键点匹配分值的一个负尖峰替换为在两个或多个先前视频帧中计算的所述图像关键点的两个或多个关键点匹配分值的加权平均值。
4.如权利要求1所述的方法,其中所述关键点匹配分值滤波将一个图像关键点的所述关键点匹配分值的一个负尖峰替换为在先前视频帧中计算的所述图像关键点的关键点匹配分值。
5.如权利要求1所述的方法,其中用于所述图像关键点的所述自适应阈值是在两个或多个先前视频帧中计算的所述图像关键点的关键点匹配分值的折扣移动平均值。
6.如权利要求1所述的方法,其中用于所述图像关键点的所述自适应阈值是在两个或多个先前视频帧中计算的所述图像关键点的关键点匹配分值的移动平均值。
CN201410146516.7A 2013-10-07 2014-04-11 增强现实应用中的可变形表面跟踪 Active CN103996184B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/047,039 US9147113B2 (en) 2013-10-07 2013-10-07 Deformable surface tracking in augmented reality applications
US14/047,039 2013-10-07

Publications (2)

Publication Number Publication Date
CN103996184A CN103996184A (zh) 2014-08-20
CN103996184B true CN103996184B (zh) 2017-04-12

Family

ID=51310340

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410146516.7A Active CN103996184B (zh) 2013-10-07 2014-04-11 增强现实应用中的可变形表面跟踪

Country Status (2)

Country Link
US (1) US9147113B2 (zh)
CN (1) CN103996184B (zh)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105163046B (zh) * 2015-08-17 2018-11-06 成都泛视微星科技有限公司 一种基于网格吸点非参数化运动模型的视频防抖方法
CN108702549B (zh) * 2016-03-17 2022-03-04 惠普发展公司有限责任合伙企业 帧传输
CN107633526B (zh) * 2017-09-04 2022-10-14 腾讯科技(深圳)有限公司 一种图像跟踪点获取方法及设备、存储介质
WO2019127320A1 (zh) * 2017-12-29 2019-07-04 深圳前海达闼云端智能科技有限公司 信息处理方法、装置、云处理设备及计算机程序产品
CN110852143B (zh) * 2018-08-21 2024-04-09 元平台公司 在增强现实环境中的交互式文本效果
CN110532891B (zh) * 2019-08-05 2022-04-05 北京地平线机器人技术研发有限公司 目标对象状态识别方法、装置、介质和设备
CN110738738B (zh) * 2019-10-15 2023-03-10 腾讯科技(深圳)有限公司 三维虚拟场景中的虚拟对象标记方法、设备及存储介质
CN112633303A (zh) * 2020-12-18 2021-04-09 上海影创信息科技有限公司 限高画面变形检测方法和系统及车辆
CN112949382A (zh) * 2021-01-22 2021-06-11 深圳市商汤科技有限公司 摄像头移动的检测方法及设备、电子设备
CN113514812B (zh) * 2021-09-14 2021-12-14 北京海兰信数据科技股份有限公司 一种岸基雷达杂波抑制处理方法及系统
CN113673632B (zh) * 2021-10-22 2022-02-01 交通运输部公路科学研究所 边坡视频监测方法及装置
US20240096030A1 (en) * 2022-09-15 2024-03-21 Sony Interactive Entertainment Inc. Interactive augmented reality trophy system

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102184008A (zh) * 2011-05-03 2011-09-14 北京天盛世纪科技发展有限公司 互动投影系统及方法
CN102222363A (zh) * 2011-07-19 2011-10-19 杭州实时数码科技有限公司 从人脸图像快速构建高精度个性化人脸模型的方法
CN102568026A (zh) * 2011-12-12 2012-07-11 浙江大学 一种多视点自由立体显示的三维增强现实方法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6754278B1 (en) * 1999-07-15 2004-06-22 Lg Electronics Inc. Method for recovering moving picture by extending a damaged region in which an error occurs
US6865227B2 (en) * 2001-07-10 2005-03-08 Sony Corporation Error concealment of video data using motion vector data recovery
DE10204500A1 (de) * 2002-02-03 2003-08-14 Fraunhofer Ges Forschung Echtzeitfähiges Erkennungs- und Kompensationsverfahren von Beleuchtungsschwankungen in digitalen Farbbildsignalen
EP2156869A1 (en) * 2008-08-19 2010-02-24 Sony Computer Entertainment Europe Limited Entertainment device and method of interaction
US20100067806A1 (en) * 2008-09-12 2010-03-18 Halberd Match Corp. System and method for pleographic recognition, matching, and identification of images and objects
US8660303B2 (en) * 2009-05-01 2014-02-25 Microsoft Corporation Detection of body and props
US20120092329A1 (en) * 2010-10-13 2012-04-19 Qualcomm Incorporated Text-based 3d augmented reality
US8811754B2 (en) * 2011-08-29 2014-08-19 Lawrence Livermore National Security, Llc Spatial clustering of pixels of a multispectral image
GB2504999B8 (en) * 2012-08-17 2015-04-22 Sony Comp Entertainment Europe Apparatus and method for object positioning

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102184008A (zh) * 2011-05-03 2011-09-14 北京天盛世纪科技发展有限公司 互动投影系统及方法
CN102222363A (zh) * 2011-07-19 2011-10-19 杭州实时数码科技有限公司 从人脸图像快速构建高精度个性化人脸模型的方法
CN102568026A (zh) * 2011-12-12 2012-07-11 浙江大学 一种多视点自由立体显示的三维增强现实方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Real- time non-rigid surface detection;Julien Pilet 等;《Conference on Computer Vision and Pattern Recognition》;20050625;第1卷;第2页第2.1节、第3页第3、3.1、3.2节、第6页第4节 *

Also Published As

Publication number Publication date
US9147113B2 (en) 2015-09-29
CN103996184A (zh) 2014-08-20
US20150098607A1 (en) 2015-04-09

Similar Documents

Publication Publication Date Title
CN103996184B (zh) 增强现实应用中的可变形表面跟踪
US10380763B2 (en) Hybrid corner and edge-based tracking
Wang et al. Multi-cue based tracking
US9898651B2 (en) Upper-body skeleton extraction from depth maps
US11610331B2 (en) Method and apparatus for generating data for estimating three-dimensional (3D) pose of object included in input image, and prediction model for estimating 3D pose of object
US11037325B2 (en) Information processing apparatus and method of controlling the same
US8682028B2 (en) Visual target tracking
CN109671105B (zh) 一种视觉导航系统的跟踪恢复方法和装置
US8577085B2 (en) Visual target tracking
Petersen et al. Real-time modeling and tracking manual workflows from first-person vision
CN107833271A (zh) 一种基于Kinect的骨骼重定向方法及装置
CN106599770A (zh) 一种基于体感动作识别及抠像的滑雪场景显示方法
US9098934B2 (en) Augmented reality system with correlation among multiple markers
CN103390174A (zh) 基于人体姿态识别的体育教学辅助系统和方法
CN104035557A (zh) 一种基于关节活跃度的Kinect动作识别方法
US20100197393A1 (en) Visual target tracking
CN103983334A (zh) 一种信息处理的方法及电子设备
CN102360504A (zh) 一种基于多自然特征的自适应虚实三维注册方法
JP2015201005A (ja) 軌跡解析装置および軌跡解析方法
CN110276239A (zh) 眼球追踪方法、电子装置及非暂态电脑可读取记录媒体
CN104299245A (zh) 基于神经网络的增强现实跟踪方法
JPWO2018207365A1 (ja) 距離画像処理装置、距離画像処理システム、距離画像処理方法および距離画像処理プログラム
CN111178170B (zh) 一种手势识别方法和一种电子设备
CN113689503A (zh) 目标对象的姿态检测方法、装置、设备及存储介质
US9990857B2 (en) Method and system for visual pedometry

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant