CN104656893A - 一种信息物理空间的远程交互式操控系统及方法 - Google Patents

一种信息物理空间的远程交互式操控系统及方法 Download PDF

Info

Publication number
CN104656893A
CN104656893A CN201510061485.XA CN201510061485A CN104656893A CN 104656893 A CN104656893 A CN 104656893A CN 201510061485 A CN201510061485 A CN 201510061485A CN 104656893 A CN104656893 A CN 104656893A
Authority
CN
China
Prior art keywords
scene
module
physical
prime
interactive
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201510061485.XA
Other languages
English (en)
Other versions
CN104656893B (zh
Inventor
高鹏
白晓亮
张树生
何卫平
杨森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northwestern Polytechnical University
Original Assignee
Northwestern Polytechnical University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northwestern Polytechnical University filed Critical Northwestern Polytechnical University
Priority to CN201510061485.XA priority Critical patent/CN104656893B/zh
Publication of CN104656893A publication Critical patent/CN104656893A/zh
Application granted granted Critical
Publication of CN104656893B publication Critical patent/CN104656893B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明涉及一种信息物理空间的远程交互式操控系统及方法,该系统包括3D交互识别模块、2D交互识别模块、物理世界场景采集模块、总处理器、物理信息融合模块和视频显示模块;该方法可以远程的通过2D与3D交互相结合的方式,完成对信息物理融合场景下的物理信息对象进行实时的人机交互控制,与其他方法相比,该方法成本低廉,操作沉浸感强并且操作可以达到实时高效,对于未来的物理信息融合场景下人机交互有着非常广阔的应用前景。

Description

一种信息物理空间的远程交互式操控系统及方法
技术领域
本发明涉及物理信息融合环境下的人机交互技术,特别涉及一种人机交互系统与人机交互方法。
背景技术
物理信息融合技术,也就是虚拟现实是利用电脑模拟产生一个三维空间的虚拟世界,提供使用者关于视觉、听觉、触觉等感官的模拟,让使用者如同身历其境一般,可以及时、没有限制地观察三度空间内的事物。
目前,在现有的虚拟现实系统中,只是将虚拟信息静态的叠加现实在虚拟现实场景中,而不能对物理信息融合场景下的虚拟现实模型进行实时的人机操控。
发明内容
要解决的技术问题
为了避免现有技术的不足之处,本发明提出一种在虚拟现实融合系统下的实时人机交互系统和方法。该系统可以远程的通过2D与3D交互相结合的方式,完成对信息物理融合场景下的物理信息对象进行实时的人机交互控制。
技术方案
一种信息物理空间的远程交互式操控系统,其特征在于包括人机交互模块、物理世界场景采集模块、总处理器、物理信息融合模块和视频显示模块;所述的人机交互模块包括3D交互识别模块和2D交互识别模块:3D交互识别模块用于对用户手势动作进行识别,然后再对用户的手势动作数据进行处理,提取出用户的手势动作三维坐标值;2D交互识别模块用于进行3D交互识别模块操控的模式切换和对3D手势交互模块映射在虚拟场景范围进行操控范围的平移;物理世界场景采集模块用于远程拍摄物理世界工作场景,将相关物理对象世界坐标传输给处理器;物理信息融合模块用于将物理世界场景采集模块远程拍摄的相关物理对象世界范围与虚拟场景范围的虚拟场景坐标融合统一在一起;视频显示模块用于显示物理信息场景融合模块的物理信息场景和人机交互模块的人手参数化模型。
所述的2D交互识别模块由一块2D的平面感应板所组成。
所述的3D交互识别模块由至少一个微型RGB摄像头和至少一个深度摄像头组成。
所述的物理世界场景采集模块由至少一个摄像头组成。
所述的视频显示模块为手机平板显示屏、电脑显示屏或眼镜式微显示屏。
一种信息物理空间的远程交互式操控方法,其特征在于包括下述步骤:
步骤1:物理世界场景采集模块获取世界物理场景;
步骤2:总处理器将获取的物理世界场景与信息对象融合在一起,转换成物理信息融合场景;
步骤3:人机交互模块捕获用户2D和3D的交互指令;
步骤4:总处理器接收用户2D和3D的交互指令,并将交互指令转化为控制指令;
步骤5:总处理器根据控制指令控制物理信息目标物体对象的变化;
步骤6:视频显示模块显示物理信息融合场景和人机交互模块控制对象变化的实时显示。
所述的步骤3包括下述步骤:
步骤3a:人机交互模块中的2D交互识别模块识别用户2D交互指令;
步骤3b:人机交互模块中的3D交互识别模块识别用户3D交互指令;
步骤3c:2D交互识别模块将平面感应板坐标系下的一点坐标转换至物理信息融合场景下的图像平面坐标;
μ a ′ v a ′ = s x × ( n x ′ x p ′ + o x ′ y p ′ ) + p x ′ s y × ( n y ′ x p ′ + o y ′ x p ′ ) + p y ′
其中为平面感应板坐标系下的一点坐标;映射到物理信息融合场景下的一点图像坐标;
sx,sy分别为平面感应板上单位距离到物理信息融合场景中的现实图像在X轴和Y轴的放缩比例系数;
n → ′ = n x ′ n y ′ T 是平面感应板X轴在物理信息融合场景中的方向向量;
o → ′ = o x ′ o y ′ T 是平面感应板Y轴在物理信息融合场景中的方向向量;
p → ′ = p → x ′ p → y ′ T 是平面感应板坐标原点在物理信息融合场景中的位置;
步骤4:3D交互识别模块将世界空间中任意一点三维坐标转换至物理信息融合场景中的图像坐标;
对相机进行内外参数的标定,计算出相机的内外参数相关矩阵参数;世界空间的任意一点,通过相机内外参数矩阵,映射到图像上一点对应的图像坐标,现实在虚拟场景之中;世界空间中任意一点三维坐标为A(xwa,ywa,zwa),映射到物理信息融合场景中的图像坐标为A'(μaa),则有以下关系:
u a v a 1 = k x × ( n x x wa + o x y wa + a x z wa + p x ) z ca + μ 0 k y × ( n y x wa + o y y wa + a y z wa + p y ) z ca + v 0 ( n y x wa + o y y wa + a y z wa + p y ) z ca
其中kx=σxf;ky=σyf;σxy分别为成像平面到显示图像上x,y两个方向上的放缩比例系数;f为焦距;
00)为图像物理坐标系原点在图像坐标系中的坐标;
n → = n x n y n z T 是X轴在相机坐标系中的方向向量;
o → = o x o y o z T 是Y轴在相机坐标系中的方向向量;
a → = a x a y a z T 是Z轴在相机坐标系中的方向向量;
p → = p x p y p z T 是世界坐标系原点在相机坐标系中的位置;
dx,dy为每一个像素点在x,y轴方向上的物理尺寸,则在虚拟场景显示图像与世界坐标的在x,y的比例系数分别为: h x = d x × u a - u b x wa - x wb ; h y = d y × v a - v b y wa - y wb ;
步骤3d:总处理器将2D交互识别模块映射过来的图像平面坐标与物理信息融合模块内的物理信息融合场景的图像平面坐标进行匹配;
步骤3e:总处理器将3D交互识别模块映射过来的图像平面坐标与物理信息融合模块内的物理信息融合场景的图像平面坐标进行匹配;
步骤3f:总处理器将2D和3D交互识别模块进行融合匹配,完成物理信息融合场景下的人机交互。
有益效果
本发明提出的一种信息物理空间的远程交互式操控系统及方法,该方法可以远程的通过2D与3D交互相结合的方式,完成对信息物理融合场景下的物理信息对象进行实时的人机交互控制,与其他方法相比,该方法成本低廉,操作沉浸感强并且操作可以达到实时高效,对于未来的物理信息融合场景下人机交互有着非常广阔的应用前景。
附图说明
图1为实施例提供的一种信息物理空间的远程交互式操控系统结构示意图
图2为本发明实施例提供的一种信息物理空间的远程交互式操控方法步骤流程图
图3为本发明实施例提供的人机交互模块的结构流程图
具体实施方式
现结合实施例、附图对本发明作进一步描述:
图1为本发明实施例提供的一种信息物理空间的远程交互式操控设备结构示意图。
一种信息物理空间的远程交互式操控设备100,包括:物理工作场景采集模块110、物理信息融合模块160、2D交互识别模块120、2D交互识别模块130、人机交互模块140、总处理器150、视频显示模块170。
物理工作场景采集模块110:用于拍摄物理工作场景。在本发明提供的实施例中,物理工作场景采集模块110优选为有至少一个摄像头组成,世界坐标内的物理对象通过摄像头捕获;
2D交互识别模块120:用于进行3D交互识别模块操控的模式切换和对3D手势交互模块映射在虚拟场景范围进行操控范围的平移。在本发明提供的实施例中,2D交互识别模块120优选为由平板电脑或手机组成,对平板电脑或手机进行开发,通过socket通信与总处理器150进行数据传输;
3D交互识别模块130:用于对用户手势动作进行识别,然后再对用户的手势动作数据进行处理,提取出用户的手势动作三维坐标值。在本发明提供的实施例中,2D交互识别模块130优选为由至少一个深度摄像头和至少一个RGB摄像头组成,用户的手势动作以及手的世界坐标被两摄像头捕获,经过2D交互识别模块130中的微型处理器处理后,将数据传输给总服务器,与物理信息融合模块160融合的物理信息融合场景进行坐标统一;
人机交互模块140:用于将2D交互识别模块120和2D交互识别模块130的数据经过人机交互模块140内嵌的为处理器进行处理,然后传输给总处理器150;
总处理器150:用于计算和处理物理信息融合模块160融合的物理信息场景以及人机交互模块140的相关数据;
物理信息融合模块160:用于将物理工作场景采集模块110远程拍摄的相关世界物理对象和世界物理场景范围的物理世界坐标和虚拟场景的虚拟信息对象和虚拟场景范围的虚拟场景坐标,经过总处理器150进行数据处理,然后将坐标融合统一在物理信息融合场景中;
物理信息融合模块160:还用于将人机交互模块140的手势动作三维坐标值统一融合在物理信息融合场景中;
视频显示模块170:用于显示物理信息场景融合模块120的物理信息场景和人机交互模块140的人手参数化模型。本发明提供的实施例中视频显示模块170优选为电脑显示屏或者眼镜式微显示屏,由物理工作场景采集模块110捕获的世界坐标内的物理对象和人机交互模块140捕获的人手参数化模型经视频视频显示模块170显示。可以理解,由上述2D交互识别模块120和2D交互识别模块130控制指令控制物理信息融合场景的物理信息对象的变化过程及结果也经视频显示模块170显示。
请参阅图2为本发明实施例提供的一种信息物理空间的远程交互式操控方法步骤流程图,其包括下述步骤:
步骤S210:物理工作场景采集模块110世界物理场景。在本发明提供的实施例中,物理工作场景采集模块110由至少一个摄像头组成,用于采集世界物理场景,将采集到的图像传输给总处理器150进行处理。
步骤S220:总处理器150将获取的物理工作场景与信息对象融合在一起,转换成物理信息融合场景。在本发明实施例中,总处理器150将物理工作场景采集模块110捕获的世界物理场景和世界物理对象与虚拟信息场景和虚拟信息对象进行融合,通过目前常用的坐标转换方法,将世界物理场景和世界物理对象与虚拟信息场景和虚拟信息对象坐标范围统一,再经过物理信息融合模块160,使得物理信息场景和对象融合在一起,通过视频显示模块170实时显示出来。
步骤S230:人机交互模块140捕获用户2D和3D的交互指令。人机交互模块140是由2D交互识别模块120和3D交互识别模块130共同组成的。2D交互识别模块120主要用于提供菜单进行交互模式切换、2D的交互操作,如2D范围内的平移、旋转、缩放等;3D交互识别模块130主要用于捕捉用户的手势动作以及用户人手的世界坐标位置信息,然后将捕捉到的数据传送给总处理器150,与物理信息融合模块160中的物理信息对象进行人机交互;其中3D手势根据用户操作需要可以设定,如手掌张开与合拢手势完成对物理信息融合模块160中的物理信息对象拾取与脱离,手掌上下左右平移完成对物理信息融合模块160中的物理信息对象的任意角度旋转等等;在本发明方法中,2D交互识别模块120和3D交互识别模块130可以结合使用,共同组成人机交互模块140;完成对物理信息融合模块160中的物理信息对象的任何设定的操作以及对操作范围的任意平移切换。
步骤S240:总处理器150接收用户的手势动作及其他交互信息,并将交互信息转化为控制指令。在本发明实施例中,总处理器150同时接收2D交互识别模块120和3D交互识别模块130的交互信息,并将其交互信息转化为控制指令。
步骤S250:总处理器150根据控制指令控制物理信息目标物体对象的变化。在本发明实施例中,控制指令由人机交互模块140实时的通过socket通讯与总处理器150进行传输。
步骤S260:视频显示模块170显示物理信息融合场景和人机交互模块140控制对象变化的实时显示。在发明实施例中,视频显示模块170可以实时的显示人机交互模块140控制物理信息对象接受控制指令,并且将物理信息对象执行人机交互模块140的控制指令,实时地显示出来。
图3为本发明实施例提供的人机交互模块140的结构流程图。包括以下步骤:
步骤S310:识别用户2D交互指令。在本发明实施例中,2D交互识别模块优选为平面感应板,用户通过平面感应板输入2D交互指令,控制物理信息融合模块160中的物理信息对象执行操作指令。例如,用户通过手指滑动平面感应板可以控制控制物理信息融合模块160中的物理信息操作范围进行平移,用户通过平面感应板的按钮可以控制3D交互识别模块130的操作模式的切换等;
步骤S320:3D交互识别模块130识别用户3D交互指令。在本实施例中,3D交互识别模块130优选为一个微型RGB摄像头和一个微型深度摄像头,用于捕捉人手的三维手势指令,然后通过3D交互识别模块130中的手势库完成3D交互指令的输入。
步骤S330:2D操作的坐标映射关系转换至图像平面坐标。在本发明实施例中,通过权利要求书中的2D操作的坐标映射关系转换至物理信息融合场景下的图像平面坐标的方法,将2D交互识别模块120在平面感应板上的2D交互范围映射到物理信息融合模块160中3D空间的2D操作平面上。
步骤S340:3D操作的坐标映射关系转换至图像平面坐标。在本发明实施例中,通过权利要求书中的3D操作的坐标映射关系转换至物理信息融合场景下的图像平面坐标的方法,将3D交互识别模块130在世界空间范围内的3D操作范围映射到物理信息融合模块160中的3D空间的3D操作空间。
步骤S350:通过总处理器150,将2D交互识别模块120映射过来的图像平面坐标与物理信息融合模块160内的物理信息融合场景的图像平面坐标进行匹配,使2D交互识别模块120的2D交互范围与物理信息融合模块160内的物理信息融合场景中的3D中的2D操作范围进行统一。
步骤S360:通过总处理器150,将3D交互识别模块130映射过来的图像平面坐标与物理信息融合模块160内的物理信息融合场景的图像平面坐标进行匹配,上述中的图像平面坐标与物理信息融合模块160内的物理信息融合场景的图像平面坐标进行匹配,使3D交互识别模块120的3D交互范围与物理信息融合模块160内的物理信息融合场景中的3D中的3D操作范围进行统一。
步骤S370:总处理器150将2D和3D交互模块进行融合匹配,完成物理信息融合场景下的人机交互。在本发明实施例中,2D和3D交互模块是相辅相成,相互协调统一的,因为在交互过程中,有些操作用2D交互容易完成,而有些操作则用3D交互容易完成,将两者结合使用,可以非常高效的完成交互。

Claims (7)

1.一种信息物理空间的远程交互式操控系统,其特征在于包括人机交互模块、物理世界场景采集模块、总处理器、物理信息融合模块和视频显示模块;所述的人机交互模块包括3D交互识别模块和2D交互识别模块:3D交互识别模块用于对用户手势动作进行识别,然后再对用户的手势动作数据进行处理,提取出用户的手势动作三维坐标值;2D交互识别模块用于进行3D交互识别模块操控的模式切换和对3D手势交互模块映射在虚拟场景范围进行操控范围的平移;物理世界场景采集模块用于远程拍摄物理世界工作场景,将相关物理对象世界坐标传输给处理器;物理信息融合模块用于将物理世界场景采集模块远程拍摄的相关物理对象世界范围与虚拟场景范围的虚拟场景坐标融合统一在一起;视频显示模块用于显示物理信息场景融合模块的物理信息场景和人机交互模块的人手参数化模型。
2.根据权利要求1所述的信息物理空间的远程交互式操控系统,其特征在于所述的2D交互识别模块由一块2D的平面感应板所组成。
3.根据权利要求1所述的信息物理空间的远程交互式操控系统,其特征在于所述的3D交互识别模块由至少一个微型RGB摄像头和至少一个深度摄像头组成。
4.根据权利要求1所述的信息物理空间的远程交互式操控系统,其特征在于所述的物理世界场景采集模块由至少一个摄像头组成。
5.根据权利要求1所述的信息物理空间的远程交互式操控系统,其特征在于所述的视频显示模块为手机显示屏、电脑显示屏或眼镜式微显示屏。
6.一种信息物理空间的远程交互式操控方法,其特征在于包括下述步骤:
步骤1:物理世界场景采集模块获取世界物理场景;
步骤2:总处理器将获取的物理世界场景与信息对象融合在一起,转换成物理信息融合场景;
步骤3:人机交互模块捕获用户2D和3D的交互指令;
步骤4:总处理器接收用户2D和3D的交互指令,并将交互指令转化为控制指令;
步骤5:总处理器根据控制指令控制物理信息目标物体对象的变化;
步骤6:视频显示模块显示物理信息融合场景和人机交互模块控制对象变化的实时显示。
7.根据权利要求6所述的信息物理空间的远程交互式操控方法,其特征在于所述的
步骤3包括下述步骤:
步骤3a:人机交互模块中的2D交互识别模块识别用户2D交互指令;
步骤3b:人机交互模块中的3D交互识别模块识别用户3D交互指令;
步骤3c:2D交互识别模块将平面感应板坐标系下的一点坐标转换至物理信息融合场景下的图像平面坐标;
μ a ′ v a ′ = s x × ( n x ′ x p ′ + o x ′ y p ′ ) + p x ′ s y × ( n y ′ x p ′ + o y ′ x p ′ ) + p y ′
其中(x′p,y′p)为平面感应板坐标系下的一点坐标;(μ′a,ν′a)为(x′p,y′p)映射到物理信息融合场景下的一点图像坐标;
sx,sy分别为平面感应板上单位距离到物理信息融合场景中的显示图像在X轴和Y轴的放缩比例系数;
n → ′ = n x ′ n y ′ T 是平面感应板X轴在物理信息融合场景中的方向向量;
o → ′ = o x ′ o y ′ T 是平面感应板Y轴在物理信息融合场景中的方向向量;
p → ′ = p → x ′ p → y ′ T 是平面感应板坐标原点在物理信息融合场景中的位置;
步骤4:3D交互识别模块将世界空间中任意一点三维坐标转换至物理信息融合场景中的图像坐标;
对相机进行内外参数的标定,计算出相机的内外参数相关矩阵参数;世界空间的任意一点,通过相机内外参数矩阵,映射到图像上一点对应的图像坐标,现实在虚拟场景之中;世界空间中任意一点三维坐标为A(xwa,ywa,zwa),映射到物理信息融合场景中的图像坐标为A'(μaa),则有以下关系:
u a v a 1 = k x × ( n x x wa + o x y wa + a x z wa + p x ) z ca + μ 0 k y × ( n y x wa + o y y wa + a y z wa + p y ) z ca + v 0 ( n y x wa + o y y wa + a y z wa + p y ) z ca
其中kx=σxf;ky=σyf;σxy分别为成像平面到图像平面上x,y两个方向上的放缩比例系数;f为焦距;
00)为图像物理坐标系原点在图像坐标系中的坐标;
n → = n x n y n z T 是X轴在相机坐标系中的方向向量;
o → = o x o y o z T 是Y轴在相机坐标系中的方向向量;
a → = a x a y a z T 是Z轴在相机坐标系中的方向向量;
p → = p x p y p z T 是世界坐标系原点在相机坐标系中的位置;
dx,dy为每一个像素点在x,y轴方向上的物理尺寸,则在虚拟场景显示图像与世界坐标的在x,y的比例系数分别为: h x = d x × u a - u b x wa - x wb ; h y = d y × v a - v b y wa - y wb ;
步骤3d:总处理器将2D交互识别模块映射过来的图像平面坐标与物理信息融合模块内的物理信息融合场景的图像平面坐标进行匹配;
步骤3e:总处理器将3D交互识别模块映射过来的图像平面坐标与物理信息融合模块内的物理信息融合场景的图像平面坐标进行匹配;
步骤3f:总处理器将2D和3D交互识别模块进行融合匹配,完成物理信息融合场景下的人机交互。
CN201510061485.XA 2015-02-06 2015-02-06 一种信息物理空间的远程交互式操控系统及方法 Expired - Fee Related CN104656893B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510061485.XA CN104656893B (zh) 2015-02-06 2015-02-06 一种信息物理空间的远程交互式操控系统及方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510061485.XA CN104656893B (zh) 2015-02-06 2015-02-06 一种信息物理空间的远程交互式操控系统及方法

Publications (2)

Publication Number Publication Date
CN104656893A true CN104656893A (zh) 2015-05-27
CN104656893B CN104656893B (zh) 2017-10-13

Family

ID=53248128

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510061485.XA Expired - Fee Related CN104656893B (zh) 2015-02-06 2015-02-06 一种信息物理空间的远程交互式操控系统及方法

Country Status (1)

Country Link
CN (1) CN104656893B (zh)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105894585A (zh) * 2016-04-28 2016-08-24 乐视控股(北京)有限公司 一种远程视频的实时播放方法及装置
CN106873778A (zh) * 2017-01-23 2017-06-20 深圳超多维科技有限公司 一种应用的运行控制方法、装置和虚拟现实设备
CN106896736A (zh) * 2017-03-03 2017-06-27 京东方科技集团股份有限公司 智能远程看护方法及装置
CN107015642A (zh) * 2017-03-13 2017-08-04 武汉秀宝软件有限公司 一种基于增强现实的数据同步方法和系统
CN107145220A (zh) * 2017-03-24 2017-09-08 深圳奥比中光科技有限公司 人机交互自适应调整方法及系统
CN108509026A (zh) * 2018-02-06 2018-09-07 西安电子科技大学 基于增强交互方式的远程维修支持系统及方法
CN108510592A (zh) * 2017-02-27 2018-09-07 亮风台(上海)信息科技有限公司 真实物理模型的增强现实展示方法
CN109224437A (zh) * 2018-08-28 2019-01-18 腾讯科技(深圳)有限公司 一种应用场景的交互方法和终端以及存储介质
CN111768496A (zh) * 2017-08-24 2020-10-13 Oppo广东移动通信有限公司 图像处理方法、装置、服务器及计算机可读存储介质
WO2022111005A1 (zh) * 2020-11-30 2022-06-02 海信视像科技股份有限公司 虚拟现实设备及vr场景图像识别方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120326961A1 (en) * 2011-06-21 2012-12-27 Empire Technology Development Llc Gesture based user interface for augmented reality
CN103543827A (zh) * 2013-10-14 2014-01-29 南京融图创斯信息科技有限公司 基于单个摄像机的沉浸式户外活动交互平台的实现方法
CN103793060A (zh) * 2014-02-14 2014-05-14 杨智 一种用户交互系统和方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120326961A1 (en) * 2011-06-21 2012-12-27 Empire Technology Development Llc Gesture based user interface for augmented reality
CN103543827A (zh) * 2013-10-14 2014-01-29 南京融图创斯信息科技有限公司 基于单个摄像机的沉浸式户外活动交互平台的实现方法
CN103793060A (zh) * 2014-02-14 2014-05-14 杨智 一种用户交互系统和方法

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105894585A (zh) * 2016-04-28 2016-08-24 乐视控股(北京)有限公司 一种远程视频的实时播放方法及装置
CN106873778A (zh) * 2017-01-23 2017-06-20 深圳超多维科技有限公司 一种应用的运行控制方法、装置和虚拟现实设备
CN106873778B (zh) * 2017-01-23 2020-04-28 深圳超多维科技有限公司 一种应用的运行控制方法、装置和虚拟现实设备
CN108510592A (zh) * 2017-02-27 2018-09-07 亮风台(上海)信息科技有限公司 真实物理模型的增强现实展示方法
CN108510592B (zh) * 2017-02-27 2021-08-31 亮风台(上海)信息科技有限公司 真实物理模型的增强现实展示方法
CN106896736A (zh) * 2017-03-03 2017-06-27 京东方科技集团股份有限公司 智能远程看护方法及装置
CN107015642A (zh) * 2017-03-13 2017-08-04 武汉秀宝软件有限公司 一种基于增强现实的数据同步方法和系统
CN107145220A (zh) * 2017-03-24 2017-09-08 深圳奥比中光科技有限公司 人机交互自适应调整方法及系统
CN111768496A (zh) * 2017-08-24 2020-10-13 Oppo广东移动通信有限公司 图像处理方法、装置、服务器及计算机可读存储介质
CN111768496B (zh) * 2017-08-24 2024-02-09 Oppo广东移动通信有限公司 图像处理方法、装置、服务器及计算机可读存储介质
CN108509026A (zh) * 2018-02-06 2018-09-07 西安电子科技大学 基于增强交互方式的远程维修支持系统及方法
CN108509026B (zh) * 2018-02-06 2020-04-14 西安电子科技大学 基于增强交互方式的远程维修支持系统及方法
CN109224437A (zh) * 2018-08-28 2019-01-18 腾讯科技(深圳)有限公司 一种应用场景的交互方法和终端以及存储介质
US11383166B2 (en) 2018-08-28 2022-07-12 Tencent Technology (Shenzhen) Company Limited Interaction method of application scene, mobile terminal, and storage medium
WO2022111005A1 (zh) * 2020-11-30 2022-06-02 海信视像科技股份有限公司 虚拟现实设备及vr场景图像识别方法

Also Published As

Publication number Publication date
CN104656893B (zh) 2017-10-13

Similar Documents

Publication Publication Date Title
CN104656893A (zh) 一种信息物理空间的远程交互式操控系统及方法
WO2020228644A1 (zh) 基于ar场景的手势交互方法及装置、存储介质、通信终端
CN110073313B (zh) 使用母设备和至少一个伴随设备与环境交互
CN110480634B (zh) 一种针对机械臂运动控制的手臂引导运动控制方法
CN107340853B (zh) 一种基于虚拟现实与手势识别的远程呈现交互方法和系统
US11308347B2 (en) Method of determining a similarity transformation between first and second coordinates of 3D features
JP5942456B2 (ja) 画像処理装置、画像処理方法及びプログラム
US20130063560A1 (en) Combined stereo camera and stereo display interaction
JP7026825B2 (ja) 画像処理方法及び装置、電子機器並びに記憶媒体
CN110163942B (zh) 一种图像数据处理方法和装置
CN108509026B (zh) 基于增强交互方式的远程维修支持系统及方法
EP2814000A1 (en) Image processing apparatus, image processing method, and program
CN106468917B (zh) 一种可触摸现场实时视频图像的远程呈现交互方法和系统
US20210347053A1 (en) Virtual presence for telerobotics in a dynamic scene
CN107145822B (zh) 偏离深度相机的用户体感交互标定的方法和系统
CN111639531A (zh) 一种基于手势识别的医学模型交互可视化方法及系统
Liu et al. Hand pose estimation from rgb images based on deep learning: A survey
CN107102750B (zh) 一种基于笔式交互系统的虚拟三维空间中目标的选择方法
Lee et al. Tunnelslice: Freehand subspace acquisition using an egocentric tunnel for wearable augmented reality
Narducci et al. Enabling consistent hand-based interaction in mixed reality by occlusions handling
CN112181135B (zh) 一种基于增强现实的6-dof视触觉交互方法
Kurka et al. Automatic estimation of camera parameters from a solid calibration box
Li et al. Feature Point Matching for Human-Computer Interaction Multi-Feature Gesture Recognition Based on Virtual Reality VR Technology
CN111524240A (zh) 场景切换方法、装置及增强现实设备
JP6304305B2 (ja) 画像処理装置、画像処理方法及びプログラム

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20171013

Termination date: 20180206

CF01 Termination of patent right due to non-payment of annual fee