CN106406525A - 虚拟现实交互方法、装置及设备 - Google Patents

虚拟现实交互方法、装置及设备 Download PDF

Info

Publication number
CN106406525A
CN106406525A CN201610807122.0A CN201610807122A CN106406525A CN 106406525 A CN106406525 A CN 106406525A CN 201610807122 A CN201610807122 A CN 201610807122A CN 106406525 A CN106406525 A CN 106406525A
Authority
CN
China
Prior art keywords
user
angle
head
display device
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201610807122.0A
Other languages
English (en)
Inventor
闫宏伟
侯雪君
任洪壮
乔东飞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xunfei Dreamland (beijing) Technology Co Ltd
Original Assignee
Xunfei Dreamland (beijing) Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xunfei Dreamland (beijing) Technology Co Ltd filed Critical Xunfei Dreamland (beijing) Technology Co Ltd
Priority to CN201610807122.0A priority Critical patent/CN106406525A/zh
Publication of CN106406525A publication Critical patent/CN106406525A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/012Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明实施例提供了一种虚拟现实交互方法、装置及设备,包括:接收定位设备捕捉的用户头部的动作信息;根据上述动作信息判断用户头部的当前位置及当前朝向角度;根据上述当前位置及当前朝向角度调整显示装置当前显示的立体场景对应于上述当前位置及当前朝向角度的图像。本发明提供的虚拟现实交互方法、装置及设备,根据用户的视角在显示装置上显示对应于该视角的图像,从而实现用户与虚拟现实设备之间的交互,使用户体验到较强沉浸感的立体画面,提高了用户的体验。

Description

虚拟现实交互方法、装置及设备
技术领域
本发明涉及3D显示技术领域,具体而言,涉及一种虚拟现实交互方法、装置及设备。
背景技术
虚拟现实是近年来出现的高新技术,随着计算机技术飞速发展,虚拟现实在多个领域得到了越来越广泛的应用。立体显示是虚拟现实的重要实现方式之一,它使得人们在虚拟的环境中具有更强的沉浸感,可以使各种模拟器的仿真更加逼真。
现有虚拟现实(VR,Virtual Reality)显示设备一般包含立体投影仪、立体显示器、立体眼镜等设备。其中显示设备常采用墙式立体显示设备、洞穴式立体显示设备等,只能显示预先存储的内容,不能提供交互体验,导致用户感受不佳。
针对上述VR显示设备无法提供交互体验的问题,目前尚未提出有效的解决方案。
发明内容
有鉴于此,本发明实施例的目的在于提供一种虚拟现实交互方法、装置及设备以实现与虚拟现实的交互,提高显示效果。
为了实现上述目的,本发明实施例采用的技术方案如下:
第一方面,本发明实施例提供了一种虚拟现实交互方法,包括:
接收定位设备捕捉的用户头部的动作信息;
根据上述动作信息判断用户头部的当前位置及当前朝向角度;
根据上述当前位置及当前朝向角度调整显示装置当前显示的立体场景对应于上述当前位置及当前朝向角度的图像。
结合第一方面,本发明实施例提供了第一方面的第一种可能的实施方式,其中,接收定位设备捕捉的用户头部的动作信息包括:
通过定位设备捕捉用户戴有的立体眼镜上的标记点的运动轨迹,确定用户头部的动作信息。
结合第一方面,本发明实施例提供了第一方面的第二种可能的实施方式,其中,根据动作信息判断用户头部的当前位置及当前朝向角度包括:
根据动作信息计算的用户头部的位移信息及旋转信息;
根据位移信息及旋转信息计算用户头部的当前位置及当前朝向角度。
结合第一方面,本发明实施例提供了第一方面的第三种可能的实施方式,其中,根据当前位置及当前朝向角度调整显示装置当前显示的立体场景对应于当前位置及当前朝向角度的图像包括:
根据当前位置及当前朝向角度确定显示装置当前显示的立体场景的变换角度;
按照变换角度调整显示装置当前显示的立体场景的图像。
结合第一方面,本发明实施例提供了第一方面的第四种可能的实施方式,还包括:
通过手持漫游器获取用户的控制指令;控制指令包括以下之一:前进指令、后退指令、左转指令、右转指令、缩放指令、旋转指令和平移指令;
根据控制指令调整显示装置当前显示的立体场景的图像。
结合第一方面的第四种可能的实施方式,本发明实施例提供了第一方面的第五种可能的实施方式,其中,通过手持漫游器获取用户的控制指令包括:
接收用户操作手持漫游器的方向按钮触发的控制指令;
和/或,
通过定位设备捕捉手持漫游器的多个标记点的运动轨迹,根据运动轨迹确定用户的控制指令。
第二方面,本发明实施例还提供了一种虚拟现实交互装置,包括:
接收模块,用于接收定位设备捕捉的用户头部的动作信息;
判断模块,用于根据上述动作信息判断用户头部的当前位置及当前朝向角度;
图像调整模块,用于根据上述当前位置及当前朝向角度调整显示装置当前显示的立体场景对应于上述当前位置及当前朝向角度的图像。
结合第二方面,本发明实施例提供了第二方面的第一种可能的实施方式,其中,接收模块包括:
动作信息确定单元,用于通过定位设备捕捉用户戴有的立体眼镜上的标记点的运动轨迹,确定用户头部的动作信息。
结合第二方面,本发明实施例提供了第二方面的第二种可能的实施方式,其中,图像调整模块包括:
变换角度单元,用于根据当前位置及当前朝向角度确定显示装置当前显示的立体场景的变换角度;
场景调整单元,用于按照变换角度调整显示装置当前显示的立体场景的图像。
第三方面,本发明实施例还提供了一种虚拟现实交互设备,包括:服务器、以及与服务器连接的显示装置和定位设备;
服务器包括上述第二方面提供的虚拟现实交互装置。
本发明实施例提供的虚拟现实交互方法、装置及设备,通过捕捉户头部的动作信息判断用户头部的当前位置及当前朝向角度,根据当前位置及当前朝向角度实时调整显示装置当前显示的立体场景中的图像,使显示装置上能够显示出与用户当前视角对应的图像,从而实现用户与虚拟现实设备之间的交互,使用户体验到较强沉浸感的立体画面,提高了用户的体验。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1示出了本发明实施例提供的虚拟现实交互方法的流程示意图;
图2示出了本发明实施例提供的虚拟现实交互方法装置的结构示意图;
图3示出了本发明实施例提供的虚拟现实交互方法装置的另一结构示意图;
图4示出了本发明实施例提供的虚拟现实交互方法设备的结构示意图;
图5示出了本发明实施例提供的显示装置的结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本发明实施例的组件可以以各种不同的配置来布置和设计。因此,以下对在附图中提供的本发明的实施例的详细描述并非旨在限制要求保护的本发明的范围,而是仅仅表示本发明的选定实施例。基于本发明的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
考虑到现有技术中VR显示设备无法提供交互体验的问题,本发明实施例提供了一种虚拟现实交互方法、装置及设备,该技术可以采用相应的软件和硬件实现。下面通过实施例进行描述。
实施例1
图1示出了本发明实施例提供的虚拟现实交互方法的流程示意图。本实施例以从服务器侧进行描述,下面将对图1所示方法的具体流程进行详细阐述。
步骤S110,接收定位设备捕捉的用户头部的动作信息。
服务器与上述定位设备连接,可以通过上述定位设备接收用户头部的动作信息,例如,可以通过捕捉用户戴有的立体眼镜的运动轨迹实现,为了更好地捕捉立体眼镜的运动轨迹,本发明实施例可以在立体眼镜上设置标记点,以提高定位设备识别立体眼镜的准确度,该标记点可以是立体眼镜上设置的特殊颜色的闪光条,也可以是特定的球体等。基于此,上述步骤S110具体可以包括:通过定位设备捕捉用户戴有的立体眼镜上的标记点的运动轨迹,确定用户头部的动作信息。
在具体实施时,定位设备可以由两台或两台以上的红外摄像机组成,本实施例中,使用者头部需要佩戴立体眼镜,立体眼镜上安装4个以上的特殊的标记点,标记点对红外线敏感。定位设备捕捉眼镜上的标记点,得到标记点的运动轨迹,确定用户头部的动作信息。立体眼镜的镜片是偏振镜片,且立体眼镜的数量为一个或者多个,可以实现多人同时体验3D效果。
步骤S120,根据上述动作信息判断用户头部的当前位置及当前朝向角度。例如:根据上述动作信息计算的用户头部的位移信息及旋转信息,根据位移信息及旋转信息计算用户头部的当前位置及当前朝向角度。
本实施例中,服务器存储有动作捕捉程序,该程序处理接收到的上述动作信息,根据实时获取的这些动作信息实时计算出用户的头部动作信息,例如头部的位移及旋转等信息,进而根据这些信息确定用户头部的当前位置及当前朝向角度。
步骤S130,根据上述当前位置及当前朝向角度调整显示装置当前显示的立体场景对应于上述当前位置及当前朝向角度的图像。
考虑到用户在观看显示装置内呈现的场景时,会有不同的视角变换,这种视角变换多体现在用户头部的运动上,因此,本实施例为了使显示装置显示的场景更好地适应用户的视角变换,会调整显示装置当前显示的立体场景,使该场景的图像实时对应于用户头部的当前位置及当前朝向角度,具体地,可以根据用户头部的当前位置及当前朝向角度先确定显示装置当前显示的立体场景的变换角度;再按照该变换角度调整显示装置当前显示的立体场景的图像。
其中,服务器与显示装置连接,在确定显示装置当前显示的立体场景的变换角度后,将其传输给3D渲染引擎,3D渲染引擎根据该角度对显示的场景进行转换,调整显示装置当前显示的立体场景的图像。例如,当观看者的头部向上抬时,此时观看者期望观察到物体的底部,引擎调整对应角度,使观看者能够看到物体的底部图像;当观看者的头部转向左边时,此时观看者期望观察到物体的右侧,引擎调整对应角度,使观看者能够看到物体的右侧图像。
为了更准确接收用户的指示,从而显示用户需要的立体画面,上述方法还包括以下步骤:
通过手持漫游器获取用户的控制指令;该控制指令包括以下之一:前进指令、后退指令、左转指令、右转指令、缩放指令、旋转指令和平移指令等;根据上述控制指令调整显示装置当前显示的立体场景的图像。
其中,通过手持漫游器获取用户的控制指令包括以下两种方式:
(1)接收用户操作手持漫游器的方向按钮触发的控制指令。
(2)通过定位设备捕捉手持漫游器的多个标记点的运动轨迹,根据运动轨迹确定用户的控制指令。
上述两种方式可以同时使用,也可以单独使用。
上述手持漫游器与服务器无线连接,例如通过蓝牙技术连接。手持式漫游器的方向按钮包括:设置于手持式漫游器上方的控制按钮和设置于手持漫游器下方的场景按钮。该控制按钮可以包括:上、下、左、右控制按钮,用于通过服务器控制画面内容在用户的视角内的前进、后退、左转和右转的操作;该场景按钮用于通过服务器控制画面内容中的立体场景的缩放、旋转和平移的操作,以及自由切换在场景中的漫游模式为自主漫游或自动漫游。用户通过按压上述方向按钮,上述手持漫游器向服务器发出控制指令。
此外定位设备也可以捕捉的用户手持的上述手持漫游器的动作信息。与上述立体眼镜类似,在上述手持漫游器上也设置有多个标记点,可以通过定位设备捕捉上述手持漫游器上的多个标记点的运动轨迹,根据运动轨迹确定用户的控制指令。例如当用户手持的上述手持漫游器的运动轨迹为向前运动,则认为用户发出了前进指令;当用户手持的上述手持漫游器的运动轨迹为向上运动,则认为用户发出了向上指令。然后按照上述确定的控制指令调整显示装置当前显示的立体场景的图像,使用户获得实时的交互反馈。
本发明实施例提供的虚拟现实交互方法,通过捕捉户头部的动作信息判断用户头部的当前位置及当前朝向角度,根据当前位置及当前朝向角度实时调整显示装置当前显示的立体场景中的图像,使显示装置上能够显示出与用户当前视角对应的图像,因此用户可随意更换视角,显示装置都能及时显示对应于该视角的正确方向的立体影像画面,用户只需自由转动头部,就可以用任意视角观察上述立体影像画面,可以实现用户的对画面的高沉浸感,实现人机之间充分交互。
具体实现立体显示时,虚拟现实交互方法包含如下过程:
(1)服务器将待输出图像转制成左眼图像和右眼图像,每生成一帧左眼图像,需要紧接着生成一帧右眼图像,然后再生成一帧左眼图像,两者相互交替。服务器可以以最大每秒120帧的速度进行图像转制,每转制完成一帧图像,服务器将生成的图像分割成上下两部分,图像上半部分输出至第一显示屏上,图像下半部分输出至第二显示屏上。上述第一显示屏和第二显示屏以L型设置,第一显示屏在上,第二显示屏在下。
(2)用户通过佩戴立体眼镜对上述两个显示屏显示的图像进行观看,立体眼镜的每一只镜片均包含有一个液晶层,可以在加载一定电压的情况下使透光率下降,在没有附加电压的情况下就和普通镜片类似。立体眼镜可以接收与每帧图像转制的帧同步信号,当显示屏显示左眼画面时,立体眼镜在右眼镜片施加电压,使图像无法穿过右眼镜片,只能进入观看者的左眼。同理,当显示屏显示右眼画面时,立体眼镜在左眼镜片施加电压,使图像无法穿过左眼镜片,只能进入观看者的右眼。
(3)第一显示屏和第二显示屏以同样的速度和图像序列刷新图像,同一时间,用户的眼中存在两幅不同的图像。在一个刷新周期内,即1/60秒内,用户眼中存在上下显示屏,左右帧的四幅图像,远远超过人脑对图像的处理速度,大脑中产生错觉,便观看到3D立体图像。
实施例2
对应于上述实施例提供的方法,本发明实施例还提供了一种虚拟现实交互装置,该交互装置可以设置在上述服务器内,参见图2,该装置包括以下模块:接收模块201、判断模块202和图像调整模块203。具体如下:
接收模块201,用于接收定位设备捕捉的用户头部的动作信息。
上述接收模块201与上述定位设备连接,通过上述定位设备接收上述动作信息。上述接收模块201包括:动作信息确定单元,用于通过定位设备捕捉用户戴有的立体眼镜上的标记点的运动轨迹,确定用户头部的动作信息。
接收模块201通过上述定位设备接收用户头部的动作信息,例如,可以通过捕捉用户戴有的立体眼镜的运动轨迹实现,为了更好地捕捉立体眼镜的运动轨迹,本发明实施例可以在立体眼镜上设置标记点,以提高定位设备识别立体眼镜的准确度,该标记点可以是立体眼镜上设置的特殊颜色的闪光条,也可以是特定的球体等。
在具体实施时,定位设备可以由两台或两台以上的红外摄像机组成,本实施例中,使用者头部需要佩戴立体眼镜,立体眼镜上安装4个以上的特殊的标记点,标记点对红外线敏感。定位设备捕捉眼镜上的标记点,得到标记点的运动轨迹,确定用户头部的动作信息。立体眼镜的镜片是偏振镜片,且立体眼镜的数量为一个或者多个,可以实现多人同时体验3D效果。
判断模块202,用于根据动作信息判断用户头部的当前位置及当前朝向角度。具体包括:计算单元,用于根据动作信息计算的用户头部的位移信息及旋转信息,根据位移信息及旋转信息计算用户头部的当前位置及当前朝向角度。
本实施例提供的交互装置包括动作捕捉程序,该程序处理接收到动作信息后,组合计算出用户的位移及旋转等信息,再计算得到用户头部的当前位置及当前朝向角度。
图像调整模块203,用于根据当前位置及当前朝向角度调整显示装置当前显示的立体场景对应于当前位置及当前朝向角度的图像。
如图3所示,其中图像调整模块203具体包括:
变换角度单元301,用于根据当前位置及当前朝向角度确定显示装置当前显示的立体场景的变换角度;
场景调整单元302,用于按照变换角度调整显示装置当前显示的立体场景的图像。
考虑到用户在观看显示装置内呈现的场景时,会有不同的视角变换,这种视角变换多体现在用户头部的运动上,因此,本实施例为了使显示装置显示的场景更好地适应用户的视角变换,会调整显示装置当前显示的立体场景,使该场景的图像实时对应于用户头部的当前位置及当前朝向角度,具体地,可以根据用户头部的当前位置及当前朝向角度先确定显示装置当前显示的立体场景的变换角度;再按照该变换角度调整显示装置当前显示的立体场景的图像。
其中,交互装置与显示装置连接,在确定显示装置当前显示的立体场景的变换角度后,将其传输给3D渲染引擎,3D渲染引擎根据该角度对显示的场景进行转换,调整显示装置当前显示的立体场景的图像。例如,当观看者的头部向上抬时,此时观看者期望观察到物体的底部,引擎调整对应角度,使观看者能够看到物体的底部图像;当观看者的头部转向左边时,此时观看者期望观察到物体的右侧,引擎调整对应角度,使观看者能够看到物体的右侧图像。
为了更准确接收用户的指示,从而显示用户需要的立体画面,上述交互装置还包括以下模块:
手部指令获取模块,用于通过手持漫游器获取用户的控制指令;控制指令包括以下之一:前进指令、后退指令、左转指令、右转指令、缩放指令、旋转指令和平移指令等;
调整模块,用于根据控制指令调整显示装置当前显示的立体场景的图像。
其中,通过手持漫游器获取用户的控制指令包括以下两种方式:
(1)接收用户操作手持漫游器的方向按钮触发的控制指令。
(2)通过定位设备捕捉手持漫游器的多个标记点的运动轨迹,根据运动轨迹确定用户的控制指令。
上述两种方式可以同时使用,也可以单独使用。
上述手持漫游器与服务器无线连接,例如通过蓝牙技术连接。手持式漫游器的方向按钮包括:设置于手持漫游器上方的控制按钮和设置于手持漫游器下方的场景按钮。该控制按钮可以包括:上、下、左、右控制按钮,用于通过服务器控制画面内容在用户的视角内的前进、后退、左转和右转的操作;该场景按钮用于通过服务器控制画面内容中的立体场景的缩放、旋转和平移的操作,以及自由切换在场景中的漫游模式为自主漫游或自动漫游。用户通过按压上述方向按钮,上述手持漫游器向服务器发出控制指令。
此外定位设备也可以捕捉的用户手持的上述手持漫游器的动作信息。与上述立体眼镜类似,在上述手持漫游器上也设置有多个标记点,可以通过定位设备捕捉上述手持漫游器上的多个标记点的运动轨迹,根据运动轨迹确定用户的控制指令。例如当用户手持的上述手持漫游器的运动轨迹为向前运动,则认为用户发出了前进指令;当用户手持的上述手持漫游器的运动轨迹为向上运动,则认为用户发出了向上指令。然后按照上述确定的控制指令调整显示装置当前显示的立体场景的图像,使用户获得实时的交互反馈。
本发明实施例提供的虚拟现实交互装置,通过捕捉户头部的动作信息判断用户头部的当前位置及当前朝向角度,根据当前位置及当前朝向角度实时调整显示装置当前显示的立体场景中的图像,使显示装置上能够显示出与用户当前视角对应的图像,因此用户可随意更换视角,显示装置都能及时显示对应于该视角的正确方向的立体影像画面,用户只需自由转动头部,就可以用任意视角观察上述立体影像画面,可以实现用户的对画面的高沉浸感,实现人机之间充分交互。
实施例3
本发明实施例还提供了一种虚拟现实交互设备,如图4所示,包括:服务器401、以及与服务器401连接的显示装置402和定位设备403;
服务器401包括上述实施例提供的虚拟现实交互装置。
上述显示装置402为3D液晶显示屏。如图5所示的显示装置402的示意图,其中显示装置402由液晶显示屏51a和51b组成。在图5中还示出了竖板53和横板54,分别用于放置液晶显示屏51a和51b。在竖板53和横板54上的两个相对的面上设置有凹槽,其中,竖板53内的凹槽与显示屏51a尺寸匹配,横板54内的凹槽与显示屏51b尺寸匹配,具体实现时,显示屏51a与显示屏51b的尺寸可以相同,也可以不同,在使用时,可以根据实际情况进行设置,本发明实施例对此不进行限制。在图5中还示出了用于支撑竖板53、横板54及液晶显示屏51a和51b的支撑腿55a、55b、55c及55d。在竖板53上部还固定有定位设备403,定位设备403用于捕捉的用户头部的动作信息。
综上,本发明实施例提供的虚拟现实交互方法、装置及设备,可以捕捉户头部的动作信息判断用户头部的当前位置及当前朝向角度,根据上述当前位置及当前朝向角度使显示装置上能够显示出与用户当前视角对应的图像,向用户展示立体形式的画面,实现画面高沉浸感,达到人机之间充分交互的效果,提高了用户的体验。
上述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。

Claims (10)

1.一种虚拟现实交互方法,其特征在于,包括:
接收定位设备捕捉的用户头部的动作信息;
根据所述动作信息判断所述用户头部的当前位置及当前朝向角度;
根据所述当前位置及所述当前朝向角度调整显示装置当前显示的立体场景对应于所述当前位置及所述当前朝向角度的图像。
2.根据权利要求1所述的方法,其特征在于,接收定位设备捕捉的用户头部的动作信息包括:
通过定位设备捕捉用户戴有的立体眼镜上的标记点的运动轨迹,确定所述用户头部的动作信息。
3.根据权利要求1所述的方法,其特征在于,根据所述动作信息判断所述用户头部的当前位置及当前朝向角度包括:
根据所述动作信息计算的所述用户头部的位移信息及旋转信息;
根据所述位移信息及所述旋转信息计算所述用户头部的当前位置及当前朝向角度。
4.根据权利要求1所述的方法,其特征在于,根据所述当前位置及所述当前朝向角度调整显示装置当前显示的立体场景对应于所述当前位置及所述当前朝向角度的图像包括:
根据所述当前位置及所述当前朝向角度确定显示装置当前显示的立体场景的变换角度;
按照所述变换角度调整所述显示装置当前显示的所述立体场景的图像。
5.根据权利要求1所述的方法,其特征在于,还包括:
通过手持漫游器获取用户的控制指令;所述控制指令包括以下之一:前进指令、后退指令、左转指令、右转指令、缩放指令、旋转指令和平移指令;
根据所述控制指令调整所述显示装置当前显示的立体场景的图像。
6.根据权利要求5所述的方法,其特征在于,通过手持漫游器获取用户的控制指令包括:
接收用户操作手持漫游器的方向按钮触发的控制指令;
和/或,
通过所述定位设备捕捉所述手持漫游器的多个标记点的运动轨迹,根据所述运动轨迹确定用户的控制指令。
7.一种虚拟现实交互装置,其特征在于,包括:
接收模块,用于接收定位设备捕捉的用户头部的动作信息;
判断模块,用于根据所述动作信息判断所述用户头部的当前位置及当前朝向角度;
图像调整模块,用于根据所述当前位置及所述当前朝向角度调整显示装置当前显示的立体场景对应于所述当前位置及所述当前朝向角度的图像。
8.根据权利要求7所述的装置,其特征在于,所述接收模块包括:
动作信息确定单元,用于通过定位设备捕捉用户戴有的立体眼镜上的标记点的运动轨迹,确定所述用户头部的动作信息。
9.根据权利要求7所述的装置,其特征在于,所述图像调整模块包括:
变换角度单元,用于根据所述当前位置及所述当前朝向角度确定显示装置当前显示的立体场景的变换角度;
场景调整单元,用于按照所述变换角度调整显示装置当前显示的所述立体场景的图像。
10.一种虚拟现实交互设备,其特征在于,包括:服务器、以及与所述服务器连接的显示装置和定位设备;
所述服务器包括权利要求7-9任一项所述的虚拟现实交互装置。
CN201610807122.0A 2016-09-07 2016-09-07 虚拟现实交互方法、装置及设备 Pending CN106406525A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610807122.0A CN106406525A (zh) 2016-09-07 2016-09-07 虚拟现实交互方法、装置及设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610807122.0A CN106406525A (zh) 2016-09-07 2016-09-07 虚拟现实交互方法、装置及设备

Publications (1)

Publication Number Publication Date
CN106406525A true CN106406525A (zh) 2017-02-15

Family

ID=57999434

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610807122.0A Pending CN106406525A (zh) 2016-09-07 2016-09-07 虚拟现实交互方法、装置及设备

Country Status (1)

Country Link
CN (1) CN106406525A (zh)

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107147897A (zh) * 2017-06-09 2017-09-08 西安闻泰电子科技有限公司 图像显示方法及装置
CN107247512A (zh) * 2017-05-05 2017-10-13 北京凌宇智控科技有限公司 一种转向控制方法、装置及系统
CN107515672A (zh) * 2017-07-26 2017-12-26 维沃移动通信有限公司 一种虚拟现实设备的显示定位方法及移动终端
CN107656613A (zh) * 2017-09-08 2018-02-02 国网山东省电力公司电力科学研究院 一种基于眼动追踪的人机交互系统及其工作方法
CN107943281A (zh) * 2017-11-03 2018-04-20 触景无限科技(北京)有限公司 3d虚拟交互方法及系统
CN108052200A (zh) * 2017-11-03 2018-05-18 触景无限科技(北京)有限公司 3d虚拟交互方法及系统
CN108052201A (zh) * 2017-11-07 2018-05-18 触景无限科技(北京)有限公司 3d虚拟交互方法及系统
CN108076355A (zh) * 2017-12-26 2018-05-25 百度在线网络技术(北京)有限公司 视频播放控制方法和装置
CN108088437A (zh) * 2017-12-04 2018-05-29 成都思悟革科技有限公司 一种依托动作捕捉的智能辅助锻炼系统
CN108134928A (zh) * 2017-12-26 2018-06-08 深圳Tcl新技术有限公司 Vr显示方法和装置
CN108295469A (zh) * 2017-12-04 2018-07-20 成都思悟革科技有限公司 基于动作捕捉技术的游戏视角转换方法
CN108399799A (zh) * 2018-02-11 2018-08-14 广州特种机电设备检测研究院 一种基于虚拟现实技术的电梯检验培训系统及方法
WO2018166156A1 (zh) * 2017-03-13 2018-09-20 中兴通讯股份有限公司 一种浏览图像的方法及装置
CN108615427A (zh) * 2018-04-19 2018-10-02 广州特种机电设备检测研究院 一种基于虚拟现实技术的电梯检验教学系统及方法
CN108682292A (zh) * 2018-04-19 2018-10-19 广州特种机电设备检测研究院 一种基于虚拟现实技术的电梯检验考核系统及方法
CN109032350A (zh) * 2018-07-10 2018-12-18 深圳市创凯智能股份有限公司 眩晕感减轻方法、虚拟现实设备及计算机可读存储介质
CN109474819A (zh) * 2018-11-06 2019-03-15 利亚德光电股份有限公司 图像的呈现方法及装置
CN109683718A (zh) * 2019-01-16 2019-04-26 深圳市中视典数字科技有限公司 一种交互显示装置及方法
CN110197526A (zh) * 2019-04-30 2019-09-03 云南财经大学 一种基于空间无线定位和动作捕捉的应急逃生模拟方法
CN110869983A (zh) * 2017-07-05 2020-03-06 索尼互动娱乐股份有限公司 模拟三维(3d)环境中的交互式输入控制
WO2020108101A1 (zh) * 2018-11-30 2020-06-04 Oppo广东移动通信有限公司 虚拟数据的处理方法、装置、存储介质及终端
CN112416140A (zh) * 2019-08-23 2021-02-26 亮风台(上海)信息科技有限公司 一种用于输入字符的方法与设备
CN113390164A (zh) * 2020-03-13 2021-09-14 青岛海尔空调器有限总公司 空调器室内机及其控制方法
CN112416140B (zh) * 2019-08-23 2024-04-26 亮风台(上海)信息科技有限公司 一种用于输入字符的方法与设备

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011106797A1 (en) * 2010-02-28 2011-09-01 Osterhout Group, Inc. Projection triggering through an external marker in an augmented reality eyepiece
CN203705727U (zh) * 2013-11-29 2014-07-09 北京赢康科技开发有限公司 立体显示装置
CN104436634A (zh) * 2014-11-19 2015-03-25 重庆邮电大学 一种采用沉浸式虚拟现实技术的真人射击游戏系统及实现方法
CN105301789A (zh) * 2015-12-09 2016-02-03 深圳市中视典数字科技有限公司 一种跟随人眼位置的立体显示装置
CN105373224A (zh) * 2015-10-22 2016-03-02 山东大学 一种基于普适计算的混合现实游戏系统及方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011106797A1 (en) * 2010-02-28 2011-09-01 Osterhout Group, Inc. Projection triggering through an external marker in an augmented reality eyepiece
CN203705727U (zh) * 2013-11-29 2014-07-09 北京赢康科技开发有限公司 立体显示装置
CN104436634A (zh) * 2014-11-19 2015-03-25 重庆邮电大学 一种采用沉浸式虚拟现实技术的真人射击游戏系统及实现方法
CN105373224A (zh) * 2015-10-22 2016-03-02 山东大学 一种基于普适计算的混合现实游戏系统及方法
CN105301789A (zh) * 2015-12-09 2016-02-03 深圳市中视典数字科技有限公司 一种跟随人眼位置的立体显示装置

Cited By (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018166156A1 (zh) * 2017-03-13 2018-09-20 中兴通讯股份有限公司 一种浏览图像的方法及装置
CN107247512A (zh) * 2017-05-05 2017-10-13 北京凌宇智控科技有限公司 一种转向控制方法、装置及系统
WO2018201825A1 (zh) * 2017-05-05 2018-11-08 北京凌宇智控科技有限公司 一种转向控制方法、装置及系统
CN107147897A (zh) * 2017-06-09 2017-09-08 西安闻泰电子科技有限公司 图像显示方法及装置
CN110869983A (zh) * 2017-07-05 2020-03-06 索尼互动娱乐股份有限公司 模拟三维(3d)环境中的交互式输入控制
CN107515672A (zh) * 2017-07-26 2017-12-26 维沃移动通信有限公司 一种虚拟现实设备的显示定位方法及移动终端
CN107515672B (zh) * 2017-07-26 2019-06-07 维沃移动通信有限公司 一种虚拟现实设备的显示定位方法及移动终端
CN107656613B (zh) * 2017-09-08 2020-12-18 国网智能科技股份有限公司 一种基于眼动追踪的人机交互系统及其工作方法
CN107656613A (zh) * 2017-09-08 2018-02-02 国网山东省电力公司电力科学研究院 一种基于眼动追踪的人机交互系统及其工作方法
CN108052200A (zh) * 2017-11-03 2018-05-18 触景无限科技(北京)有限公司 3d虚拟交互方法及系统
CN107943281A (zh) * 2017-11-03 2018-04-20 触景无限科技(北京)有限公司 3d虚拟交互方法及系统
CN108052201A (zh) * 2017-11-07 2018-05-18 触景无限科技(北京)有限公司 3d虚拟交互方法及系统
CN108088437A (zh) * 2017-12-04 2018-05-29 成都思悟革科技有限公司 一种依托动作捕捉的智能辅助锻炼系统
CN108295469A (zh) * 2017-12-04 2018-07-20 成都思悟革科技有限公司 基于动作捕捉技术的游戏视角转换方法
CN108076355A (zh) * 2017-12-26 2018-05-25 百度在线网络技术(北京)有限公司 视频播放控制方法和装置
CN108076355B (zh) * 2017-12-26 2020-12-08 百度在线网络技术(北京)有限公司 视频播放控制方法和装置
CN108134928A (zh) * 2017-12-26 2018-06-08 深圳Tcl新技术有限公司 Vr显示方法和装置
CN108399799A (zh) * 2018-02-11 2018-08-14 广州特种机电设备检测研究院 一种基于虚拟现实技术的电梯检验培训系统及方法
CN108615427A (zh) * 2018-04-19 2018-10-02 广州特种机电设备检测研究院 一种基于虚拟现实技术的电梯检验教学系统及方法
CN108682292A (zh) * 2018-04-19 2018-10-19 广州特种机电设备检测研究院 一种基于虚拟现实技术的电梯检验考核系统及方法
CN109032350A (zh) * 2018-07-10 2018-12-18 深圳市创凯智能股份有限公司 眩晕感减轻方法、虚拟现实设备及计算机可读存储介质
CN109032350B (zh) * 2018-07-10 2021-06-29 深圳市创凯智能股份有限公司 眩晕感减轻方法、虚拟现实设备及计算机可读存储介质
CN109474819A (zh) * 2018-11-06 2019-03-15 利亚德光电股份有限公司 图像的呈现方法及装置
CN109474819B (zh) * 2018-11-06 2022-02-01 北京虚拟动点科技有限公司 图像的呈现方法及装置
WO2020108101A1 (zh) * 2018-11-30 2020-06-04 Oppo广东移动通信有限公司 虚拟数据的处理方法、装置、存储介质及终端
CN109683718A (zh) * 2019-01-16 2019-04-26 深圳市中视典数字科技有限公司 一种交互显示装置及方法
CN110197526A (zh) * 2019-04-30 2019-09-03 云南财经大学 一种基于空间无线定位和动作捕捉的应急逃生模拟方法
CN112416140A (zh) * 2019-08-23 2021-02-26 亮风台(上海)信息科技有限公司 一种用于输入字符的方法与设备
CN112416140B (zh) * 2019-08-23 2024-04-26 亮风台(上海)信息科技有限公司 一种用于输入字符的方法与设备
CN113390164A (zh) * 2020-03-13 2021-09-14 青岛海尔空调器有限总公司 空调器室内机及其控制方法

Similar Documents

Publication Publication Date Title
CN106406525A (zh) 虚拟现实交互方法、装置及设备
EP3035681B1 (en) Image processing method and apparatus
TWI669635B (zh) 用於顯示彈幕的方法、裝置以及非揮發性電腦可讀儲存介質
JP5515301B2 (ja) 画像処理装置、プログラム、画像処理方法、記録方法および記録媒体
CN105894567B (zh) 放缩三维场景中的用户控制的虚拟对象的像素深度值
CN106464854A (zh) 图像编码和显示
US9681122B2 (en) Modifying displayed images in the coupled zone of a stereoscopic display based on user comfort
CN106598252A (zh) 一种图像显示调节方法、装置、存储介质及电子设备
CN108616752B (zh) 支持增强现实交互的头戴设备及控制方法
CN106293561B (zh) 显示控制方法和装置、显示设备
WO2018010677A1 (zh) 一种信息处理方法、穿戴式电子设备、处理装置及系统
KR101198557B1 (ko) 시청자세를 반영하는 3차원 입체영상 생성 시스템 및 방법
JP5429911B2 (ja) 立体映像のデジタル映画に於ける最適な動き再生のための方法と装置
CN108989784A (zh) 虚拟现实设备的图像显示方法、装置、设备及存储介质
CN107948631A (zh) 一种基于集群和渲染的裸眼3d系统
CN104240281A (zh) 一种基于Unity3D引擎的虚拟现实头戴式设备
CN103248910B (zh) 三维成像系统及其图像再现方法
US20220365594A1 (en) Control method and apparatus for virtual reality device
US20200257112A1 (en) Content generation apparatus and method
CN207096928U (zh) 虚拟现实系统
CN113066189B (zh) 一种增强现实设备及虚实物体遮挡显示方法
CN108881892B (zh) 用于桌面式虚拟现实系统的防眩晕方法、系统
CN207603821U (zh) 一种基于集群和渲染的裸眼3d系统
KR101077432B1 (ko) 3차원 안경 장치, 3차원 영상 디스플레이 시스템 및 그의 구동 방법
CN113382225B (zh) 一种基于全息沙盘的双目全息展示方法及装置

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20170215