CN107368188B - 介导现实中的基于多重空间定位的前景抽取方法及系统 - Google Patents

介导现实中的基于多重空间定位的前景抽取方法及系统 Download PDF

Info

Publication number
CN107368188B
CN107368188B CN201710570923.4A CN201710570923A CN107368188B CN 107368188 B CN107368188 B CN 107368188B CN 201710570923 A CN201710570923 A CN 201710570923A CN 107368188 B CN107368188 B CN 107368188B
Authority
CN
China
Prior art keywords
video
processing computer
virtual
depth
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201710570923.4A
Other languages
English (en)
Other versions
CN107368188A (zh
Inventor
钟秋发
锡泊
黄煦
高晓光
李晓阳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hebei Zhongke Hengyun Software Technology Co ltd
Original Assignee
Hebei Zhongke Hengyun Software Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hebei Zhongke Hengyun Software Technology Co ltd filed Critical Hebei Zhongke Hengyun Software Technology Co ltd
Priority to CN201710570923.4A priority Critical patent/CN107368188B/zh
Publication of CN107368188A publication Critical patent/CN107368188A/zh
Application granted granted Critical
Publication of CN107368188B publication Critical patent/CN107368188B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)

Abstract

本发明提出了一种介导现实中的基于多重空间定位的前景抽取方法及系统,包括:制作等比例模型,并使用反差大的单一颜色,注上标记点;使用固定摄像头和测量工具标定物理空间中VR头盔相对VR定位摄像头位置,并设置虚拟空间中摄像机位置,即VR头盔位置;采用3D深度摄像头连接到视频图像处理计算机进行采集,采集后的彩色视频和深度视频进行深度抽取的预处理,将上一步处理后的视频以多个特征点或标记点作为轮廓进行前景抽取;结合虚实空间的不同深度,计算对齐偏差,再进行校正,采用着色器将虚拟场景中的模型作为遮罩,抽取遮罩下的视频图像。本发明对每帧拍摄视频和虚拟场景图像中的所有特征点进行逐一匹配,误差低且处理速度快。

Description

介导现实中的基于多重空间定位的前景抽取方法及系统
技术领域
本发明涉及图像处理技术领域,特别涉及一种介导现实中的基于多重空间定位的前景抽取方法及系统。
背景技术
图像前景抽取方法是智能视频处理的关键一步,其优劣直接影响到之后的判断、分析和识别。前景提取的通常方法受目标运动速度影响大,且精度不够高,只能获取目标大致位置和方向信息。而三维虚拟场景和视频实景的高度融合(以下简称虚实融合)的首要步骤就是需要知道图像前景的确切位置和方向,单一的前景抽取方法不足以满足虚实融合的要求。除精度外,虚实融合实时性要求极高,时间复杂度高的通常算法无法在单位帧生成时间内完成融合过程。并且,现有技术的处理速度慢,时间复杂度高。
现有的图像处理方法无法通过一帧彩色图像和一帧深度图像对物理空间尤其是深度定位到毫米mm级,忽略了虚拟空间中的定位。
发明内容
本发明的目的旨在至少解决所述技术缺陷之一。
为此,本发明的目的在于提出一种介导现实中的基于多重空间定位的前景抽取方法及系统。
为了实现上述目的,本发明的实施例提供一种介导现实中的基于多重空间定位的前景抽取方法,包括如下步骤:
步骤S1,制作等比例模型,并使用反差大的单一颜色,注上标记点;
步骤S2,使用固定摄像头和测量工具标定物理空间中VR头盔相对VR定位摄像头位置,并设置虚拟空间中摄像机位置,即VR头盔位置;
步骤S3,采用3D深度摄像头连接到视频处理计算机进行采集,采集后的彩色视频和深度视频进行深度抽取的预处理,将上一步处理后的视频以多个特征点或标记点作为轮廓进行前景抽取,
采用着色器在视景处理计算机对虚拟场景进行实时截图,进行虚实注册坐标系变换,并对齐视频图像和虚拟场景截图的特征点或标记点,采用着色器计算虚拟场景中的模型特征点或标记点上的深度;
步骤S4,结合虚实空间的不同深度,计算对齐偏差,再进行校正,采用着色器将虚拟场景中的模型作为遮罩,抽取遮罩下的视频图像。
进一步,在所述步骤S4中,采用着色器将虚拟场景中的模型作为遮罩,包括:模型贴图预先采用与场景颜色反差大的颜色。
本发明实施例的还提供一种介导现实中的基于多重空间定位的前景抽取系统,包括:虚拟现实头戴式设备、追踪定位器、视景处理计算机、视频处理计算机、3D深度摄像头、模拟器操作仪表和显示屏,其中,虚拟现实头戴式设备与视景处理计算机连接,虚拟现实头戴式设备与视频处理计算机连接,视景处理计算机和视频处理计算机连接,3D深度摄像头与虚拟现实头戴式设备连接;模拟器操作仪表和显示屏与视景处理计算机连接,所述追踪定位器与所述视景处理计算机连接,其中,所述3D深度摄像头用于采集视频图像,所述追踪定位器根据所述3D深度摄像头拍摄的视频图像,标定物理空间中VR头盔相对VR定位摄像头位置,并设置虚拟空间中摄像机位置,即VR头盔位置;所述视频处理计算机用于采用3D深度摄像头连接到视频处理计算机进行采集,采集后的彩色视频和深度视频进行深度抽取的预处理,将上一步处理后的视频以多个特征点或标记点作为轮廓进行前景抽取;所述视景处理计算机用于采用着色器在视景处理计算机对虚拟场景进行实时截图,进行虚实注册坐标系变换,并对齐视频图像和虚拟场景截图的特征点或标记点,采用着色器计算虚拟场景中的模型特征点或标记点上的深度;结合虚实空间的不同深度,计算对齐偏差,再进行校正,采用着色器将虚拟场景中的模型作为遮罩,抽取遮罩下的视频图像;所述模拟器操作仪表和显示屏用于提供仪表面板按钮以供用户输入操作指令,操作信号会在视景处理计算机进行处理,处理结果会在虚拟现实头戴式设备向所述用户进行呈现。
进一步,所述视景处理计算机采用着色器将虚拟场景中的模型作为遮罩,包括:模型贴图预先采用与场景颜色反差大的颜色。
进一步,所述3D深度摄像头安装于虚拟现实头戴式设备上。
进一步,所述3D深度摄像头采集的视频图像,包括:彩色视频、深度视频和红外视频。
进一步,所述追踪定位器安装于所述模拟器上,用于监测用户的头位姿态位置数据,并发送至所述视景处理计算机。
进一步,所述虚拟现实头戴式设备通过USB3.0和HDMI接口与视景处理计算机连接3D深度摄像头通过USB3.0与视频处理计算机连接,视景处理计算机和视频处理计算机之间通过LAN连接,3D深度摄像头与虚拟现实头戴式设备连接;模拟器操作仪表和显示屏通过USB3.0与视景处理计算机连接,所述追踪定位器通过USB3.0接口与所述视景处理计算机连接。
根据本发明实施例的介导现实中的基于多重空间定位的前景抽取方法及系统,采用以下技术:3D深度图像的预处理、标记点抽取物理空间前景图像、对齐物理空间和虚拟空间的标记点、计算标记点在虚拟空间深度、结合虚拟和物理空间深度计算对齐误差和着色器程序抽取模型遮罩下的视频图像等技术,对每帧拍摄视频和虚拟场景图像中的所有特征点进行逐一匹配,误差分析得到误差在图像总像素的千分之一左右,并且处理速度可以达到每秒平均30帧,比其他算法快2-3倍,通过对方案中的结果进行人眼和软件分析,人眼看不出误差。本发明结合了物理空间和虚拟空间的定位方法,区别于现有的仅对物理空间进行定位的方式。
本发明附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
本发明的上述和/或附加的方面和优点从结合下面附图对实施例的描述中将变得明显和容易理解,其中:
图1为根据本发明一个实施例的介导现实中的基于多重空间定位的前景抽取方法的流程图;
图2为根据本发明一个实施例的介导现实中的基于多重空间定位的前景抽取方法的流程图;
图3为根据本发明实施例的前景抽取的效果图;
图4为根据本发明一个实施例的介导现实中的基于多重空间定位的前景抽取系统的结构图;
图5为根据本发明另一个实施例的介导现实中的基于多重空间定位的前景抽取系统的结构图。
具体实施方式
下面详细描述本发明的实施例,实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本发明,而不能理解为对本发明的限制。
如图1和图2所示,本发明实施例的介导现实中的基于多重空间定位的前景抽取方法,包括如下步骤:
步骤S1,制作等比例模型,并使用反差大的单一颜色,注上标记点。
步骤S2,使用固定摄像头和测量工具标定物理空间中VR头盔相对VR定位摄像头位置,并根据上述标定结果设置虚拟空间中摄像机位置,即VR头盔位置。
步骤S3,采用3D深度摄像头连接到视频处理计算机进行采集,采集后的彩色视频和深度视频进行深度抽取的预处理,从而可以将深度过大的背景进行剔除。然后,将上一步处理后的视频以多个特征点或标记点作为轮廓进行前景抽取。
采用着色器在视景处理计算机对虚拟场景进行实时截图,进行虚实注册坐标系变换,并对齐视频图像和虚拟场景截图的特征点或标记点,采用着色器计算虚拟场景中的模型特征点或标记点上的深度。
具体地,使用着色器程序中的算法在视景处理计算机对虚拟场景进行实时截图,由于虚拟摄像机和物理摄像头的空间位置和相机参数不一样,需要进行虚实注册坐标系变换,并对齐视频图像和虚拟场景截图的特征点或标记点。并且,使用着色器程序中的算法计算虚拟场景中的模型特征点或标记点上的深度。图3为前景抽取的效果图。
步骤S4,结合虚实空间的不同深度,计算对齐偏差,再进行校正,采用着色器将虚拟场景中的模型作为遮罩,抽取遮罩下的视频图像。
在本步骤中,采用着色器将虚拟场景中的模型作为遮罩,包括:模型贴图预先采用与场景颜色反差大的颜色,然后抽取遮罩下的视频图像。
如图4和图5所示,本发明实施例还提出一种介导现实中的基于多重空间定位的前景抽取系统,包括:虚拟现实头戴式设备100(VR头盔)、追踪定位器500、视景处理计算机300、视频处理计算机200、3D深度摄像头600、模拟器操作仪表和显示屏400。
在本发明的一个实施例中,虚拟现实头戴式设备100可以采用Oculus Rift虚拟现实设备。3D深度摄像头600采用ZED stereo Camera或者Intel RealSense SR300(此摄像头安装在Oculus Rift头戴式设备100(头盔)上。
此外,本发明的介导现实中的基于多重空间定位的前景抽取系统采用下述三维引擎软件:
Unigine或Unity。
具体地,虚拟现实头戴式设备100与视景处理计算机300连接,虚拟现实头戴式设备100与视频处理计算机200连接,视景处理计算机300和视频处理计算机200连接,3D深度摄像头600与虚拟现实头戴式设备100连接;模拟器操作仪表和显示屏400与视景处理计算机300连接,追踪定位器500与视景处理计算机300连接。
在本发明的一个实施例中,虚拟现实头戴式设备100通过USB3.0和HDMI接口与视景处理计算机300连接,3D深度摄像头600通过USB3.0与视频处理计算机200连接,视景处理计算机300和视频处理计算机200之间通过LAN连接,3D深度摄像头600与虚拟现实头戴式设备100连接;模拟器操作仪表和显示屏400通过USB3.0与视景处理计算机300连接,追踪定位器500通过USB3.0接口与视景处理计算机300连接。
具体地,VR头戴式设备100需要连接至图形处理计算机(USB 3.0接口进行定位数据传输和HDMI接口高速传输影像数据)和220V电源。头戴式设备100上的3D摄像头和VR定位器500需要USB 3.0供电和数据传输。
具体地,3D深度摄像头600用于采集视频图像。其中,3D深度摄像头600采集的视频图像,包括:彩色视频、深度视频和红外视频。
追踪定位器500根据3D深度摄像头拍摄的视频图像,标定物理空间中VR头盔相对VR定位摄像头位置,并设置虚拟空间中摄像机位置,即VR头盔位置。
此外,追踪定位器500用于监测用户的头位平台位置数据,并发送至视景处理计算机300。
在本发明的一个实施例中,3D深度摄像头600安装于虚拟现实头戴设备上,追踪定位器500安装于模拟器上。
视频处理计算机用于采用3D深度摄像头连接到视频处理计算机进行采集,采集后的彩色视频和深度视频进行深度抽取的预处理,将上一步处理后的视频以多个特征点或标记点作为轮廓进行前景抽取。
视景处理计算机用于采用着色器在视景处理计算机对虚拟场景进行实时截图,进行虚实注册坐标系变换,并对齐视频图像和虚拟场景截图的特征点或标记点,采用着色器计算虚拟场景中的模型特征点或标记点上的深度;结合虚实空间的不同深度,计算对齐偏差,再进行校正,采用着色器将虚拟场景中的模型作为遮罩,抽取遮罩下的视频图像。
在本发明的一个实施例中,视景处理计算机采用着色器将虚拟场景中的模型作为遮罩,包括:模型贴图预先采用与场景颜色反差大的颜色。
模拟器操作仪表和显示屏400用于提供仪表键盘以供用户输入操作指令,操作信号会在视景处理计算机300进行处理,处理结果会在虚拟现实头戴式设备100向所述用户进行呈现。
根据本发明实施例的介导现实中的基于多重空间定位的前景抽取方法及系统,采用以下技术:3D深度图像的预处理、标记点抽取物理空间前景图像、对齐物理空间和虚拟空间的标记点、计算标记点在虚拟空间深度、结合虚拟和物理空间深度计算对齐误差和着色器程序抽取模型遮罩下的视频图像等技术,对每帧拍摄视频和虚拟场景图像中的所有特征点进行逐一匹配,误差分析得到误差在图像总像素的千分之一左右,并且处理速度可以达到每秒平均30帧,比其他算法快2-3倍,通过对方案中的结果进行人眼和软件分析,人眼看不出误差。本发明结合了物理空间和虚拟空间的定位方法,区别于现有的仅对物理空间进行定位的方式。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在不脱离本发明的原理和宗旨的情况下在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。本发明的范围由所附权利要求及其等同限定。

Claims (8)

1.一种介导现实中的基于多重空间定位的前景抽取方法,其特征在于,包括如下步骤:
步骤S1,制作等比例模型,并使用反差大的单一颜色,注上标记点;
步骤S2,使用固定摄像头和测量工具标定物理空间中VR头盔相对VR定位摄像头位置,并设置虚拟空间中摄像机位置,即VR头盔位置;
步骤S3,采用3D深度摄像头连接到视频处理计算机进行采集,采集后的彩色视频和深度视频进行深度抽取的预处理,将上一步处理后的视频以多个特征点或标记点作为轮廓进行前景抽取,
采用着色器在视景处理计算机对虚拟场景进行实时截图,进行虚实注册坐标系变换,并对齐视频图像和虚拟场景截图的特征点或标记点,采用着色器计算虚拟场景中的模型特征点或标记点上的深度;
步骤S4,结合虚实空间的不同深度,计算对齐偏差,再进行校正,采用着色器将虚拟场景中的模型作为遮罩,抽取遮罩下的视频图像。
2.如权利要求1所述的介导现实中的基于多重空间定位的前景抽取方法,其特征在于,在所述步骤S4中,采用着色器将虚拟场景中的模型作为遮罩,包括:模型贴图预先采用与场景颜色反差大的颜色。
3.一种介导现实中的基于多重空间定位的前景抽取系统,其特征在于,包括:虚拟现实头戴式设备、追踪定位器、视景处理计算机、视频处理计算机、3D深度摄像头、模拟器操作仪表和显示屏,其中,虚拟现实头戴式设备与视景处理计算机连接,视景处理计算机和视频处理计算机连接,3D深度摄像头与视频处理计算机连接;模拟器操作仪表和显示屏与视景处理计算机连接,所述追踪定位器与所述视景处理计算机连接,
其中,所述3D深度摄像头用于采集视频图像,
所述追踪定位器根据所述3D深度摄像头拍摄的视频图像,标定物理空间中VR头盔相对VR定位摄像头位置,并设置虚拟空间中摄像机位置,即VR头盔位置;
所述视频处理计算机用于采用3D深度摄像头连接到视频处理计算机进行采集,采集后的彩色视频和深度视频进行深度抽取的预处理,将上一步处理后的视频以多个特征点或标记点作为轮廓进行前景抽取;
所述视景处理计算机用于采用着色器在视景处理计算机对虚拟场景进行实时截图,进行虚实注册坐标系变换,并对齐视频图像和虚拟场景截图的特征点或标记点,采用着色器计算虚拟场景中的模型特征点或标记点上的深度;结合虚实空间的不同深度,计算对齐偏差,再进行校正,采用着色器将虚拟场景中的模型作为遮罩,抽取遮罩下的视频图像,其和视景图像融合后通过虚拟现实头戴式设备向用户进行呈现;
所述模拟器操作仪表和显示屏用于提供仪表面板按钮以供用户输入操作指令,操作信号会在视景处理计算机进行处理,处理结果会在虚拟现实头戴式设备向所述用户进行呈现。
4.如权利要求3所述的介导现实中的基于多重空间定位的前景抽取系统,其特征在于,所述视景处理计算机采用着色器将虚拟场景中的模型作为遮罩,包括:模型贴图预先采用与场景颜色反差大的颜色。
5.如权利要求3所述的介导现实中的基于多重空间定位的前景抽取系统,其特征在于,所述3D深度摄像头安装于虚拟现实头戴式设备上。
6.如权利要求3或5所述的介导现实中的基于多重空间定位的前景抽取系统,其特征在于,所述3D深度摄像头采集的视频图像,包括:彩色视频、深度视频和红外视频。
7.如权利要求3所述的介导现实中的基于多重空间定位的前景抽取系统,其特征在于,所述追踪定位器安装于所述模拟器操作仪表上,用于监测用户的头位姿态位置数据,并发送至所述视景处理计算机。
8.如权利要求3所述的介导现实中的基于多重空间定位的前景抽取系统,其特征在于,所述虚拟现实头戴式设备通过USB3.0和HDMI接口与视景处理计算机连接,3D深度摄像头通过USB3.0与视频处理计算机连接,视景处理计算机和视频处理计算机之间通过LAN连接,3D深度摄像头与虚拟现实头戴式设备连接;模拟器操作仪表和显示屏通过USB3.0与视景处理计算机连接,所述追踪定位器通过USB3.0接口与所述视景处理计算机连接。
CN201710570923.4A 2017-07-13 2017-07-13 介导现实中的基于多重空间定位的前景抽取方法及系统 Expired - Fee Related CN107368188B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710570923.4A CN107368188B (zh) 2017-07-13 2017-07-13 介导现实中的基于多重空间定位的前景抽取方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710570923.4A CN107368188B (zh) 2017-07-13 2017-07-13 介导现实中的基于多重空间定位的前景抽取方法及系统

Publications (2)

Publication Number Publication Date
CN107368188A CN107368188A (zh) 2017-11-21
CN107368188B true CN107368188B (zh) 2020-05-26

Family

ID=60306913

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710570923.4A Expired - Fee Related CN107368188B (zh) 2017-07-13 2017-07-13 介导现实中的基于多重空间定位的前景抽取方法及系统

Country Status (1)

Country Link
CN (1) CN107368188B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108805985B (zh) * 2018-03-23 2022-02-15 福建数博讯信息科技有限公司 虚拟空间方法和装置
CN114173020A (zh) * 2021-12-31 2022-03-11 北京德火科技有限责任公司 一种应用于多虚拟演播室的前后景分离方法及系统

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105989604A (zh) * 2016-02-18 2016-10-05 合肥工业大学 一种基于kinect的目标物体三维彩色点云生成方法

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7236622B2 (en) * 1999-08-25 2007-06-26 Eastman Kodak Company Method for forming a depth image
US7720283B2 (en) * 2005-12-09 2010-05-18 Microsoft Corporation Background removal in a live video
JP2009276294A (ja) * 2008-05-16 2009-11-26 Toshiba Corp 画像処理方法
JP4808267B2 (ja) * 2009-05-27 2011-11-02 シャープ株式会社 画像処理装置、画像形成装置、画像処理方法、コンピュータプログラム及び記録媒体
RU2426172C1 (ru) * 2010-01-21 2011-08-10 Корпорация "САМСУНГ ЭЛЕКТРОНИКС Ко., Лтд." Способ и система выделения данных об изображении объекта переднего плана на основе данных о цвете и глубине
US8818028B2 (en) * 2010-04-09 2014-08-26 Personify, Inc. Systems and methods for accurate user foreground video extraction
CN102737370B (zh) * 2011-04-02 2015-07-01 株式会社理光 检测图像前景的方法及设备
CN102368810B (zh) * 2011-09-19 2013-07-17 长安大学 一种半自动化对齐的视频融合系统和方法
CN102622768B (zh) * 2012-03-14 2014-04-09 清华大学 一种平面视频的深度图求取方法
CN103034330B (zh) * 2012-12-06 2015-08-12 中国科学院计算技术研究所 一种用于视频会议的眼神交互方法及系统
CN103337094B (zh) * 2013-06-14 2016-05-18 西安工业大学 一种应用双目摄像机实现运动三维重建的方法
CN103440668B (zh) * 2013-08-30 2017-01-25 中国科学院信息工程研究所 一种在线视频目标跟踪方法和装置
CN104978734B (zh) * 2014-04-11 2019-06-18 北京数码视讯科技股份有限公司 前景图像的提取方法及装置
CN103905813B (zh) * 2014-04-15 2016-02-24 福州大学 基于背景提取与分区修复的dibr空洞填补方法
CN105005992B (zh) * 2015-07-07 2016-03-30 南京华捷艾米软件科技有限公司 一种基于深度图的背景建模和前景提取的方法
CN106295570B (zh) * 2016-08-11 2019-09-13 北京暴风魔镜科技有限公司 交互遮挡过滤系统和方法
CN106340064B (zh) * 2016-08-25 2019-02-01 北京大视景科技有限公司 一种混合现实沙盘装置和方法
CN106803286A (zh) * 2017-01-17 2017-06-06 湖南优象科技有限公司 基于多视点图像的虚实遮挡实时处理方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105989604A (zh) * 2016-02-18 2016-10-05 合肥工业大学 一种基于kinect的目标物体三维彩色点云生成方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
"Occlusion detection of real objects using contour based stereo matching";HAYASHI;《Proceedings of International Conference on Augmented Tele-existence》;20051231;第180-186页 *
"增强现实中的虚实遮挡处理方法研究";田元;《中国博士学位论文全文数据库 信息科技辑》;20101130;全文 *
"视频序列图像中运动目标检测与跟踪算法研究";宋佳声;《中国博士学位论文全文数据库 信息科技辑》;20141231;全文 *

Also Published As

Publication number Publication date
CN107368188A (zh) 2017-11-21

Similar Documents

Publication Publication Date Title
KR101761751B1 (ko) 직접적인 기하학적 모델링이 행해지는 hmd 보정
CN106530293B (zh) 手工装配视觉检测防错方法及系统
CN107392853B (zh) 双摄像头视频融合畸变校正与视点微调整方法及系统
US6734847B1 (en) Method and device for processing imaged objects
CN109297413B (zh) 一种大型筒体结构视觉测量方法
CN104036488B (zh) 一种基于双目视觉的人体姿态动作研究方法
CN112618026B (zh) 远程手术数据融合交互显示系统及方法
CN110215284A (zh) 一种可视化系统和方法
Seo et al. A comparative study of in-field motion capture approaches for body kinematics measurement in construction
EP1627294A2 (en) A man-machine interface based on 3-d positions of the human body
CN104933704B (zh) 一种三维立体扫描方法及系统
KR101193223B1 (ko) 인체 동작의 3d 모션 구현방법
CN107368188B (zh) 介导现实中的基于多重空间定位的前景抽取方法及系统
JP2021060868A (ja) 情報処理装置、情報処理方法、およびプログラム
CN108171728A (zh) 基于混合相机系统的无标记运动物体姿态恢复方法及装置
US20180020203A1 (en) Information processing apparatus, method for panoramic image display, and non-transitory computer-readable storage medium
CN111291746B (zh) 影像处理系统及影像处理方法
CN115346413A (zh) 一种基于虚实融合的装配指导方法及系统
CN109740458B (zh) 一种基于视频处理的体貌特征测量方法及系统
CN107320118A (zh) 一种计算碳纳米c形臂三维图像空间信息的方法及系统
CN106504257A (zh) 一种放疗头部位置姿态测量装置和解算方法
CN111860275B (zh) 手势识别数据采集系统、方法
WO2018173205A1 (ja) 情報処理システム、その制御方法、及びプログラム
CN110559075B (zh) 术中增强现实配准方法和装置
KR100362383B1 (ko) 3차원 인터페이스를 채용한 동작 정보 후처리 방법

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20200526

CF01 Termination of patent right due to non-payment of annual fee