CN108196679B - 基于视频流的手势捕捉和纹理融合方法及系统 - Google Patents
基于视频流的手势捕捉和纹理融合方法及系统 Download PDFInfo
- Publication number
- CN108196679B CN108196679B CN201810064806.5A CN201810064806A CN108196679B CN 108196679 B CN108196679 B CN 108196679B CN 201810064806 A CN201810064806 A CN 201810064806A CN 108196679 B CN108196679 B CN 108196679B
- Authority
- CN
- China
- Prior art keywords
- palm
- texture
- camera
- model
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/08—Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2016—Rotation, translation, scaling
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Hardware Design (AREA)
- Computer Graphics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Human Computer Interaction (AREA)
- Processing Or Creating Images (AREA)
- Image Generation (AREA)
- Image Analysis (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明提出了一种基于视频流的手势捕捉和纹理融合方法及系统,包括:采用摄像头系统扫描用户的手掌,根据扫描图像建立手部模型;对VR头盔相对VR定位摄像头的位置进行标定,根据标定结果设置虚拟空间中的VR头盔位置;根据建立的手部模型,利用摄像头系统获取手掌骨骼的位置信息和旋转信息;获取所述VR头盔在世界坐标系的姿态矩阵,计算手掌在三维场景中的骨骼姿态矩阵;根据所述手掌在三维场景中的骨骼姿态矩阵,驱动三维场景中的手掌进行运动。本发明具有手势捕捉速度很快,捕捉精准,并且具有模型真实度高和用户体验好。
Description
技术领域
本发明涉及混合现实技术领域,特别涉及一种基于视频流的手势捕捉和纹理融合方法及系统。
背景技术
在混合现实领域,用户手部模型可以通过预先建模的方式,在虚拟场景中创建虚拟的用户手掌模型。通过配套的操作手柄、数据手套或者标记点捕捉用户手部移动和姿态信息这种方式进行交互体验。这种方式可以使用户有参与感,不过用户需要借助外加的手部操作装置才可以进行交互体验,手部模型是固定的非用户真实的手掌,体验效果不佳。
发明内容
本发明的目的旨在至少解决所述技术缺陷之一。
为此,本发明的目的在于提出一种基于视频流的手势捕捉和纹理融合方法及系统。
为了实现上述目的,本发明一方面的实施例提供一种基于视频流的手势捕捉和纹理融合方法,包括如下步骤:
步骤S1,采用摄像头系统扫描用户的手掌,根据扫描图像建立手部模型;
步骤S2,对VR头盔相对VR定位摄像头的位置进行标定,根据标定结果设置虚拟空间中的VR头盔位置;
步骤S3,根据建立的手部模型,利用摄像头系统获取手掌骨骼的位置信息和旋转信息;
步骤S4,获取所述VR头盔在世界坐标系的姿态矩阵,计算手掌在三维场景中的骨骼姿态矩阵;
步骤S5,根据所述手掌在三维场景中的骨骼姿态矩阵,驱动三维场景中的手掌进行运动。
进一步,采用摄像头系统获取用户手掌360度的图像信息;
确定手部模型的几何三角形的有效纹理图像;
确定几何三角形在有效纹理图像中的颜色,查找到纹理图像与模型的对应关系,并采用双线性插值法确定几何三角形在有效纹理图像中的RGB颜色;
定义不同视场纹理的法向量、边缘和深度的权重函数,并通过复合权重对纹理图像进行融合处理,平滑物体表面的纹理色彩以消除纹理接缝;
生成真实感的手部模型,保存相应的mesh和纹理MiG图像。
进一步,所述摄像头系统在获取手掌图像之前,采用平面标靶对纹理相机进行标定,标定相机的内部参数和外部参数,并利用标定获得的参数计算纹理图像和几何模型之间的精确变换关系。
进一步,在所步骤S5中,所述驱动三维场景中的手掌进行运动,包括:设置手腕的移动和旋转信息,对其他子节点骨骼设置旋转信息,以手腕为父节点进行移动和旋转,其他子节点骨骼按照父子关系进行旋转,从而实现对手部模型驱动。
本发明另一方面的实施例提供一种基于视频流的手势捕捉和纹理融合系统,包括:摄像头系统、模型生成模块和VR设备显示系统,所述摄像头系统采用3D深度和图像摄像头,用于描用户的手掌,并将扫描得到的手掌的纹理图像和深度信息发送至所述模型生成模块,并将扫描得到的手部姿态信息发送至所述VR设备显示系统;所述模型生成模块用于根据来自所述摄像头系统的手掌的纹理图像和深度信息,建立手部模型;所述VR设备显示系统包括:电源单元、追踪定位器、视频处理计算机和VR头盔,其中,所述电源单元用于向视频处理计算机和所述VR头盔供电;所述视频处理计算机的输入端与所述追踪定位器、模型生成模块和摄像头系统相连,所述视频处理计算机的输出端与所述VR头盔相连,其中,所述视频处理计算机对VR头盔相对VR定位摄像头的位置进行标定,根据标定结果设置虚拟空间中的VR头盔位置,接收来自所述模型生成模块的手部模型、来自所述摄像头系统的手部姿态信息和来自所述追踪定位器的定位结果,利用摄像头系统获取手掌骨骼的位置信息和旋转信息,获取所述VR头盔在世界坐标系的姿态矩阵,计算手掌在三维场景中的骨骼姿态矩阵;根据所述手掌在三维场景中的骨骼姿态矩阵,驱动三维场景中的手掌进行运动。
进一步,所述VR头盔通过USB接口和HDMI接口与所述视频处理计算机连接。
进一步,所述模型生成模块采用摄像头系统获取用户手掌360度的图像信息,确定手部模型的几何三角形的有效纹理图像,几何三角形在有效纹理图像中的颜色,查找到纹理图像与模型的对应关系,并采用双线性插值法确定几何三角形在有效纹理图像中的RGB颜色,定义不同视场纹理的法向量、边缘和深度的权重函数,并通过复合权重对纹理图像进行融合处理,平滑物体表面的纹理色彩以消除纹理接缝,生成真实感的手部模型,保存相应的mesh和纹理MiG图像。
进一步,所述摄像头系统在获取手掌图像之前,采用平面标靶对纹理相机进行标定,标定相机的内部参数和外部参数,并利用标定获得的参数计算纹理图像和几何模型之间的精确变换关系。
进一步,所述视频处理计算机设置手腕的移动和旋转信息,对其他子节点骨骼设置旋转信息,以手腕为父节点进行移动和旋转,其他子节点骨骼按照父子关系进行旋转,从而实现对手部模型驱动。
根据本发明实施例的基于视频流的手势捕捉和纹理融合方法及系统,采用用户真实的手部数据创建手部模型,通过real sense手势跟踪技术捕捉手掌各个骨骼信息,使用头盔的姿态信息,计算手掌在三维场景中的姿态矩阵,驱动三维场景中手掌进行运动。采用本发明生成的手部模型跟用户的手掌完全一致,用户在VR眼睛中看到的手掌就是用户自己的手掌。本发明使用real sense的手势追踪技术,手势捕捉速度很快,捕捉精准,并且具有模型真实度高和用户体验好。
本发明附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
本发明的上述和/或附加的方面和优点从结合下面附图对实施例的描述中将变得明显和容易理解,其中:
图1为根据本发明实施例的基于视频流的手势捕捉和纹理融合方法的流程图;
图2为根据本发明实施例的模型生成的流程图;
图3为根据本发明实施例的基于视频流的手势捕捉和纹理融合方法的示意图;
图4为根据本发明实施例的基于视频流的手势捕捉和纹理融合系统的结构图;
图5为根据本发明实施例的基于视频流的手势捕捉和纹理融合系统的整体效果图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本发明,而不能理解为对本发明的限制。
如图1和图3所示,本发明实施例的基于视频流的手势捕捉和纹理融合方法,包括如下步骤:
步骤S1,采用摄像头系统扫描用户的手掌,根据扫描图像建立手部模型。
在本步骤中,创建真实手掌模型,采用real sense摄像头系统获取多张纹理图像和深度图像,获取多视场深度图像利用ICP方法进行匹配,并应用Saucy等方法完成数据融合获取完整的三维模型。本步骤中采用平面标靶对纹理相机进行标定,标定相机的内部参数和外部参数,并利用标定获得的参数计算纹理图像Ck和几何模型N之间的精确变换关系Pk(k=1,2,…,n),通过如下步骤确定不同视场的权重,并利用定义的复合权重实现手部表面纹理色彩的自然过渡。
具体的,如图2所示,采用real sense摄像头系统获取用户手掌360度的图像信息。
需要说明的是,摄像头系统在获取手掌图像之前,采用平面标靶对纹理相机进行标定,标定相机的内部参数和外部参数,并利用标定获得的参数计算纹理图像和几何模型之间的精确变换关系。
然后,输入几何模型N,目标纹理图像Ck(k=1,2,…,n),经过投影变换,找到几何三角形的有效纹理图像,从而确定手部模型的几何三角形的有效纹理图像。
确定几何三角形在有效纹理图像中的颜色,查找到纹理图像与模型的对应关系,并采用双线性插值法确定几何三角形在有效纹理图像中的RGB颜色。
其后,定义不同视场纹理的法向量、边缘和深度的权重函数,并通过复合权重对纹理图像进行融合处理,平滑物体表面的纹理色彩以消除纹理接缝。
最后,生成真实感的手部模型,保存相应的mesh和纹理MiG图像。
步骤S2,对VR头盔相对VR定位摄像头的位置进行标定,根据标定结果设置虚拟空间中的VR头盔位置。
在本步骤中,采用固定摄像头和测量工具标定物理空间中VR头盔相对VR定位摄像头位置。并根据标定结果设置虚拟空间中的摄像机位置(即VR头盔位置)。
步骤S3,根据建立的手部模型,利用摄像头系统获取手掌骨骼的位置信息和旋转信息。
具体的,获取上述步骤建立的手部模型,开始使用VR设备、3D深度摄像头。利用3D深度摄像机能够获取手掌22个骨骼的位置信息和旋转信息。
步骤S4,获取VR头盔在世界坐标系的姿态矩阵,计算手掌在三维场景中的骨骼姿态矩阵。
步骤S5,根据手掌在三维场景中的骨骼姿态矩阵,驱动三维场景中的手掌进行运动。
在本步骤中,驱动三维场景中的手掌进行运动,包括:设置手腕的移动和旋转信息,对其他子节点骨骼设置旋转信息,以手腕为父节点进行移动和旋转,其他子节点骨骼按照父子关系进行旋转,从而实现对手部模型驱动。
如图4所示,本发明实施例还提供一种基于视频流的手势捕捉和纹理融合系统,包括:摄像头系统100、模型生成模块200和VR设备显示系统300。其中,VR设备显示系统包括:电源单元310、追踪定位器320、视频处理计算机330和VR头盔340,其中,电源单元310用于向视频处理计算机330和VR头盔340供电。
在本发明的一个实施例中,VR头盔340采用Calculus Rift虚拟现实设备。摄像头系统100采用型号为Intel real sense SR300的3D深度摄像头,该摄像头安装在CalculusRift头戴式设备(VR头盔340)上。图5为根据本发明实施例的基于视频流的手势捕捉和纹理融合系统的整体效果图。
具体的,摄像头系统100采用3D深度和图像摄像头,用于描用户的手掌,并将扫描得到的手掌的纹理图像和深度信息发送至模型生成模块200,并将扫描得到的手部姿态信息发送至VR设备显示系统。
需要说明的是,摄像头系统100在获取手掌图像之前,采用平面标靶对纹理相机进行标定,标定相机的内部参数和外部参数,并利用标定获得的参数计算纹理图像和几何模型之间的精确变换关系。
在本发明的一个实施例中,采用固定摄像头和测量工具标定物理空间中VR头盔340相对VR定位摄像头位置。并根据标定结果设置虚拟空间中的摄像机位置(即VR头盔340位置)。
模型生成模块200用于根据来自摄像头系统100的手掌的纹理图像和深度信息,建立手部模型。
具体的,模型生成模块200采用摄像头系统100获取用户手掌360度的图像信息,确定手部模型的几何三角形的有效纹理图像,几何三角形在有效纹理图像中的颜色,查找到纹理图像与模型的对应关系,并采用双线性插值法确定几何三角形在有效纹理图像中的RGB颜色,定义不同视场纹理的法向量、边缘和深度的权重函数,并通过复合权重对纹理图像进行融合处理,平滑物体表面的纹理色彩以消除纹理接缝,生成真实感的手部模型,保存相应的mesh和纹理MiG图像。
VR设备显示系统包括:电源单元310、追踪定位器320、视频处理计算机330和VR头盔340,其中,电源单元310用于向视频处理计算机330和VR头盔340供电。
视频处理计算机330的输入端与追踪定位器320、模型生成模块200和摄像头系统100相连,视频处理计算机330的输出端与VR头盔340相连。其中,VR头盔340通过USB接口和HDMI接口与视频处理计算机330连接。USB 3.0接口进行定位数据传输和HDMI接口高速传输影像数据。VR头盔340上的3D摄像头和追踪定位器320需要USB 3.0供电和数据传输。
视频处理计算机330对VR头盔340相对VR定位摄像头的位置进行标定,根据标定结果设置虚拟空间中的VR头盔340位置,接收来自模型生成模块200的手部模型、来自摄像头系统100的手部姿态信息和来自追踪定位器320的定位结果,利用摄像头系统100获取手掌22个骨骼的位置信息和旋转信息,获取VR头盔340在世界坐标系的姿态矩阵,计算手掌在三维场景中的骨骼姿态矩阵;根据手掌在三维场景中的骨骼姿态矩阵,驱动三维场景中的手掌进行运动。
具体的,视频处理计算机330设置手腕的移动和旋转信息,对其他子节点骨骼设置旋转信息,以手腕为父节点进行移动和旋转,其他子节点骨骼按照父子关系进行旋转,从而实现对手部模型驱动。
根据本发明实施例的基于视频流的手势捕捉和纹理融合方法及系统,采用用户真实的手部数据创建手部模型,通过real sense手势跟踪技术捕捉手掌各个骨骼信息,使用头盔的姿态信息,计算手掌在三维场景中的姿态矩阵,驱动三维场景中手掌进行运动。采用本发明生成的手部模型跟用户的手掌完全一致,用户在VR眼睛中看到的手掌就是用户自己的手掌。本发明使用real sense的手势追踪技术,手势捕捉速度很快,捕捉精准,并且具有模型真实度高和用户体验好。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在不脱离本发明的原理和宗旨的情况下在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。本发明的范围由所附权利要求及其等同限定。
Claims (5)
1.一种基于视频流的手势捕捉和纹理融合方法,其特征在于,包括如下步骤:
步骤S1,采用摄像头系统扫描用户的手掌,根据扫描图像建立手部模型;
采用摄像头系统获取用户手掌360度的图像信息;
确定手部模型的几何三角形的有效纹理图像;
确定几何三角形在有效纹理图像中的颜色,查找到纹理图像与模型的对应关系,并采用双线性插值法确定几何三角形在有效纹理图像中的RGB颜色;
定义不同视场纹理的法向量、边缘和深度的权重函数,并通过复合权重对纹理图像进行融合处理,平滑物体表面的纹理色彩以消除纹理接缝;
生成真实感的手部模型,保存相应的mesh和纹理MiG图像;
步骤S2,对VR头盔相对VR定位摄像头的位置进行标定,根据标定结果设置虚拟空间中的VR头盔位置;
步骤S3,根据建立的手部模型,利用摄像头系统获取手掌骨骼的位置信息和旋转信息;获取上述步骤建立的手部模型,开始使用VR设备、3D深度摄像头;利用3D深度摄像机能够获取手掌22个骨骼的位置信息和旋转信息;
步骤S4,获取所述VR头盔在世界坐标系的姿态矩阵,计算手掌在三维场景中的骨骼姿态矩阵;
步骤S5,根据所述手掌在三维场景中的骨骼姿态矩阵,驱动三维场景中的手掌进行运动;所述驱动三维场景中的手掌进行运动,包括:设置手腕的移动和旋转信息,对其他子节点骨骼设置旋转信息,以手腕为父节点进行移动和旋转,其他子节点骨骼按照父子关系进行旋转,从而实现对手部模型驱动。
2.如权利要求1所述的基于视频流的手势捕捉和纹理融合方法,其特征在于,所述摄像头系统在获取手掌图像之前,采用平面标靶对纹理相机进行标定,标定相机的内部参数和外部参数,并利用标定获得的参数计算纹理图像和几何模型之间的精确变换关系。
3.一种基于视频流的手势捕捉和纹理融合系统,其特征在于,包括:摄像头系统、模型生成模块和VR设备显示系统,
所述摄像头系统采用3D深度和图像摄像头,用于描用户的手掌,并将扫描得到的手掌的纹理图像和深度信息发送至所述模型生成模块,并将扫描得到的手部姿态信息发送至所述VR设备显示系统;
所述模型生成模块用于根据来自所述摄像头系统的手掌的纹理图像和深度信息,建立手部模型,获取建立的手部模型,开始使用VR设备、3D深度摄像头;利用3D深度摄像机能够获取手掌22个骨骼的位置信息和旋转信息;所述模型生成模块采用摄像头系统获取用户手掌360度的图像信息,确定手部模型的几何三角形的有效纹理图像,几何三角形在有效纹理图像中的颜色,查找到纹理图像与模型的对应关系,并采用双线性插值法确定几何三角形在有效纹理图像中的RGB颜色,定义不同视场纹理的法向量、边缘和深度的权重函数,并通过复合权重对纹理图像进行融合处理,平滑物体表面的纹理色彩以消除纹理接缝,生成真实感的手部模型,保存相应的mesh和纹理MiG图像;
所述VR设备显示系统包括:电源单元、追踪定位器、视频处理计算机和VR头盔,其中,所述电源单元用于向视频处理计算机和所述VR头盔供电;
所述视频处理计算机的输入端与所述追踪定位器、模型生成模块和摄像头系统相连,所述视频处理计算机的输出端与所述VR头盔相连,其中,所述视频处理计算机对VR头盔相对VR定位摄像头的位置进行标定,根据标定结果设置虚拟空间中的VR头盔位置,接收来自所述模型生成模块的手部模型、来自所述摄像头系统的手部姿态信息和来自所述追踪定位器的定位结果,利用摄像头系统获取手掌骨骼的位置信息和旋转信息,获取所述VR头盔在世界坐标系的姿态矩阵,计算手掌在三维场景中的骨骼姿态矩阵;根据所述手掌在三维场景中的骨骼姿态矩阵,驱动三维场景中的手掌进行运动;所述视频处理计算机设置手腕的移动和旋转信息,对其他子节点骨骼设置旋转信息,以手腕为父节点进行移动和旋转,其他子节点骨骼按照父子关系进行旋转,从而实现对手部模型驱动。
4.如权利要求3所述的基于视频流的手势捕捉和纹理融合系统,其特征在于,所述VR头盔通过USB接口和HDMI接口与所述视频处理计算机连接。
5.如权利要求3所述的基于视频流的手势捕捉和纹理融合系统,其特征在于,所述摄像头系统在获取手掌图像之前,采用平面标靶对纹理相机进行标定,标定相机的内部参数和外部参数,并利用标定获得的参数计算纹理图像和几何模型之间的精确变换关系。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810064806.5A CN108196679B (zh) | 2018-01-23 | 2018-01-23 | 基于视频流的手势捕捉和纹理融合方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810064806.5A CN108196679B (zh) | 2018-01-23 | 2018-01-23 | 基于视频流的手势捕捉和纹理融合方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108196679A CN108196679A (zh) | 2018-06-22 |
CN108196679B true CN108196679B (zh) | 2021-10-08 |
Family
ID=62590458
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810064806.5A Active CN108196679B (zh) | 2018-01-23 | 2018-01-23 | 基于视频流的手势捕捉和纹理融合方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108196679B (zh) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110060350A (zh) * | 2019-02-28 | 2019-07-26 | 浙江华越设计股份有限公司 | 一种基于vr技术的建筑设计方法 |
CN110335300A (zh) * | 2019-05-14 | 2019-10-15 | 广东康云科技有限公司 | 基于视频融合的场景动态模拟方法、系统及存储介质 |
CN111696140B (zh) * | 2020-05-09 | 2024-02-13 | 青岛小鸟看看科技有限公司 | 基于单目的三维手势追踪方法 |
CN111860275B (zh) * | 2020-05-12 | 2023-11-03 | 青岛小鸟看看科技有限公司 | 手势识别数据采集系统、方法 |
CN112083801A (zh) * | 2020-07-24 | 2020-12-15 | 青岛小鸟看看科技有限公司 | 基于vr虚拟办公的手势识别系统及方法 |
CN116700471A (zh) * | 2022-02-25 | 2023-09-05 | 凝动医疗技术服务(上海)有限公司 | 一种增强虚拟现实系统用户体验的方法及系统 |
CN114489346B (zh) * | 2022-03-16 | 2023-08-18 | 连云港市规划展示中心 | 基于vr技术的姿态同步的展馆展示系统和展示方法 |
CN115079818A (zh) * | 2022-05-07 | 2022-09-20 | 北京聚力维度科技有限公司 | 一种手部捕捉方法和系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103226830A (zh) * | 2013-04-25 | 2013-07-31 | 北京大学 | 三维虚实融合环境中视频纹理投影的自动匹配校正方法 |
CN104680570A (zh) * | 2015-03-24 | 2015-06-03 | 东北大学 | 一种基于视频的动作捕捉系统及方法 |
CN107209960A (zh) * | 2014-12-18 | 2017-09-26 | 脸谱公司 | 用于提供虚拟现实环境的用户界面的系统、设备及方法 |
CN107357427A (zh) * | 2017-07-03 | 2017-11-17 | 南京江南博睿高新技术研究院有限公司 | 一种用于虚拟现实设备的手势识别控制方法 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9665865B1 (en) * | 2002-10-01 | 2017-05-30 | World Award Academy, World Award Foundation, Amobilepay, Inc. | One-scan and one-touch payment and buying using haptic control via messaging and calling multimedia system on mobile and wearable device, currency token interface, point of sale device, and electronic payment card |
US8638989B2 (en) * | 2012-01-17 | 2014-01-28 | Leap Motion, Inc. | Systems and methods for capturing motion in three-dimensional space |
US20140204013A1 (en) * | 2013-01-18 | 2014-07-24 | Microsoft Corporation | Part and state detection for gesture recognition |
KR101865655B1 (ko) * | 2014-06-26 | 2018-06-11 | 한국과학기술원 | 증강현실 상호 작용 서비스 제공 장치 및 방법 |
CN106873768B (zh) * | 2016-12-30 | 2020-05-05 | 中兴通讯股份有限公司 | 一种增强现实方法、装置及系统 |
CN107578469A (zh) * | 2017-09-08 | 2018-01-12 | 明利 | 一种基于单张照片的3d人体建模方法及装置 |
-
2018
- 2018-01-23 CN CN201810064806.5A patent/CN108196679B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103226830A (zh) * | 2013-04-25 | 2013-07-31 | 北京大学 | 三维虚实融合环境中视频纹理投影的自动匹配校正方法 |
CN107209960A (zh) * | 2014-12-18 | 2017-09-26 | 脸谱公司 | 用于提供虚拟现实环境的用户界面的系统、设备及方法 |
CN104680570A (zh) * | 2015-03-24 | 2015-06-03 | 东北大学 | 一种基于视频的动作捕捉系统及方法 |
CN107357427A (zh) * | 2017-07-03 | 2017-11-17 | 南京江南博睿高新技术研究院有限公司 | 一种用于虚拟现实设备的手势识别控制方法 |
Non-Patent Citations (1)
Title |
---|
"真实感三维模型的纹理融合";刘星明等;《计算机辅助设计与图形学学报》;20121130;第1440-1446页 * |
Also Published As
Publication number | Publication date |
---|---|
CN108196679A (zh) | 2018-06-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108196679B (zh) | 基于视频流的手势捕捉和纹理融合方法及系统 | |
Hilliges et al. | HoloDesk: direct 3d interactions with a situated see-through display | |
CN109671141B (zh) | 图像的渲染方法和装置、存储介质、电子装置 | |
US20120120113A1 (en) | Method and apparatus for visualizing 2D product images integrated in a real-world environment | |
CN107392853B (zh) | 双摄像头视频融合畸变校正与视点微调整方法及系统 | |
CN105354820A (zh) | 调整虚拟现实图像的方法及装置 | |
CN102171726B (zh) | 信息处理装置、信息处理方法、程序以及信息存储介质 | |
WO2014154839A1 (en) | High-definition 3d camera device | |
CN104661010A (zh) | 三维立体模型的建立方法和装置 | |
CN106454311A (zh) | 一种led三维成像系统及方法 | |
CN108227920B (zh) | 运动封闭空间追踪方法及追踪系统 | |
CN110648274B (zh) | 鱼眼图像的生成方法及装置 | |
JP2009505191A (ja) | 少なくとも1つの実在オブジェクトをモデル化した少なくとも1つの三次元仮想オブジェクトの基準デジタル化フレーム内におけるビデオキャプチャ手段の姿勢を判定する方法及び装置 | |
CN104599317A (zh) | 一种实现3d扫描建模功能的移动终端及方法 | |
KR101896827B1 (ko) | 사용자 자세 추정 장치 및 방법 | |
CN113253842A (zh) | 场景编辑方法和相关装置、设备 | |
Bunnun et al. | OutlinAR: an assisted interactive model building system with reduced computational effort | |
CN111179341B (zh) | 一种增强现实设备与移动机器人的配准方法 | |
JP2001236505A (ja) | 座標推定方法、座標推定装置および座標推定システム | |
Bapat et al. | Rolling shutter and radial distortion are features for high frame rate multi-camera tracking | |
JP2017134775A (ja) | 画像処理装置、画像処理方法及びプログラム | |
CN113326751B (zh) | 一种手部3d关键点的标注方法 | |
CN210109870U (zh) | 一种基于ar的模型重构系统 | |
KR101398252B1 (ko) | 적외선 카메라를 이용한 현실 인식과 오차 수정 방법 | |
Güldenstein | Comparison of measurement systems for kinematic calibration of a humanoid robot |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |