CN108733200A - 一种ar屏幕体感控制权分配方法 - Google Patents

一种ar屏幕体感控制权分配方法 Download PDF

Info

Publication number
CN108733200A
CN108733200A CN201710252286.6A CN201710252286A CN108733200A CN 108733200 A CN108733200 A CN 108733200A CN 201710252286 A CN201710252286 A CN 201710252286A CN 108733200 A CN108733200 A CN 108733200A
Authority
CN
China
Prior art keywords
user
screens
operator
cog region
distribution method
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201710252286.6A
Other languages
English (en)
Inventor
芦伟杰
高歌
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to CN201710252286.6A priority Critical patent/CN108733200A/zh
Publication of CN108733200A publication Critical patent/CN108733200A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/012Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明涉及一种。AR屏幕体感控制权分配方法,其可以包括:通过所述AR屏幕播放视频;通过集成在所述AR屏幕上的用户感应器检测是否有用户进入识别区;当有用户进入识别区时则以所述用户作为操作者接收肢体语言指令;以及根据所述操作者的肢体语言指令在所述AR屏幕上呈现出响应。根据本发明实施例的AR屏幕体感控制权分配方法,当用户进入识别区之后将所述用户作为操作者,并且根据所述操作者的肢体语言指令在所述AR屏幕上呈现出响应,克服了在现有技术中无法通过肢体动作与AR设备进行实时交互的缺陷,从而提高了用户对所述AR屏幕的互动体验。

Description

一种AR屏幕体感控制权分配方法
技术领域
本发明属于AR设备领域,特别涉及一种AR屏幕体感控制权分配方法。
背景技术
增强现实技术(Augmented Reality,简称AR),是一种给计算摄影机影像的位置及角度实时地叠加相应的图像、视频、3D模型的技术,其包括媒体、三维建模、实时视频显示及控制、多重传感器融合、实时跟踪及注册、场景融合等新技术与新手段。AR技术的目标是在屏幕上把虚拟世界叠加在现实世界并进行互动。AR技术作为一种将真实世界信息和虚拟世界信息“无缝”集成的新技术,把原本在现实世界的一定时间、空间范围内很难体验到的实体信息(视觉信息、声音、味道、触觉等),通过电脑等科学技术模拟并仿真后再予以叠加。AR技术将真实的环境和虚拟的物体实时地叠加到了同一个画面或空间中并呈现给用户以将虚拟的信息应用到真实世界,从而被用户的感官所感知,使得用户可以享受超越现实的感官体验。
AR技术不仅展现了真实世界的信息,而且将虚拟的信息同时呈现出来,使得两种信息相互补充、叠加。在视觉化的增强现实中,通过显示器把真实世界与电脑图形多重合成在一起,从而使得用户可以体验到被真实的世界围绕的感觉。
虽然现有的AR设备可以用于合成一些虚拟图像或视频,但是这些虚拟图像或视频只能通过触摸或者滑动来进行控制,或者可以通过其他外接设备(例如:键盘、鼠标、遥控器等)来进行控制。
综上所述,现有的AR设备的缺陷在于,无法通过肢体动作(例如:手势)等与AR设备进行实时交互,即无法通过非基于既定输入装置(例如:触控屏、键盘、鼠标、遥控器等)与AR设备进行实时交互。
上述的背景技术仅仅是发明人为了导出本发明实施方式而保有的、或在导出过程中习得的技术信息,并不一定是在本发明实施方式的提交之前已公开于一般公众的公知技术。
发明内容
本发明的目的是提供一种AR屏幕体感控制权分配方法,以克服现有技术中无法通过肢体动作与AR设备进行实时交互的缺陷。
为实现上述目的,本发明提供了一种AR屏幕体感控制权分配方法,可以包括:通过所述AR屏幕播放视频;通过集成在所述AR屏幕上的用户感应器检测是否有用户进入识别区;当有用户进入识别区时则以所述用户作为操作者接收肢体语言指令;以及根据所述操作者的肢体语言指令在所述AR屏幕上呈现出响应。
其中,所述通过集成在所述AR屏幕上的用户感应器检测是否有用户进入识别区的步骤可以为:通过集成在所述AR屏幕上的Kinect检测是否有用户进入所述识别区。
其中,所述当有用户进入识别区时则以所述用户作为操作者接收肢体语言指令的步骤可以包括:当在所述识别区没有用户时,检测到有用户进入所述识别区;以及将所述用户作为操作者接收肢体语言指令。
其中,所述当有用户进入识别区时则以所述用户作为操作者接收肢体语言指令的步骤可以包括:当在所述识别区没有用户时,检测到有多个用户同时进入所述识别区;在所述多个用户中任意地选择一个用户作为操作者,并且将未被选择的用户作为观看者;以及接收所述操作者的肢体语言指令。
其中,所述当有用户进入识别区时则以所述用户作为操作者接收肢体语言指令的步骤可以包括:当在所述识别区有多个用户时,检测到当前的操作者离开所述识别区;在所述识别区中停留的所述用户中选择一个用户作为下一个操作者;以及接收所述下一个操作者的肢体语言指令。
其中,所述在所述识别区中停留的所述用户中选择一个用户作为下一个操作者的步骤可以包括:当在所述识别区中停留的所述用户为一个时,则将所述用户作为下一个操作者。
其中,所述在所述识别区中停留的所述用户中选择一个用户作为下一个操作者的步骤可以包括:当在所述识别区中停留的所述用户为多个时,则通过集成在所述AR屏幕上的所述用户感应器测量每一个用户与所述感应器之间的距离;以及在所述识别区中停留的所述多个用户中选择与所述用户感应器距离最近的用户作为下一个操作者。
其中,所述在所述识别区中停留的所述用户中选择一个用户作为下一个操作者的步骤可以包括:当在所述识别区中停留的所述用户为多个时,则通过集成在所述AR屏幕上的所述用户感应器测量每一个用户与所述AR屏幕之间的距离;以及在所述识别区中停留的所述多个用户中选择与所述AR屏幕距离最近的用户作为下一个操作者。
其中,所述根据所述操作者的肢体语言指令在所述AR屏幕上呈现出响应的步骤可以包括:识别出由所述操作者发出的挥手动作;以及根据由所述操作者发出的挥手动作在所述AR屏幕上呈现出响应。
其中,所述根据由所述操作者发出的挥手动作在所述AR屏幕上呈现出响应的步骤还可以包括:根据由所述操作者发出的挥手动作,在所述AR屏幕上呈现出智能助手;或者根据由所述操作者发出的挥手动作,在所述AR屏幕上推送所述AR屏幕周边的咨询信息。
根据本发明实施例的AR屏幕体感控制权分配方法,当用户进入识别区之后将所述用户作为操作者,并且根据所述操作者的肢体语言指令在所述AR屏幕上呈现出响应,克服了在现有技术中无法通过肢体动作与AR设备进行实时交互的缺陷,从而提高了用户对所述AR屏幕的互动体验。
根据本发明实施例的AR屏幕体感控制权分配方法,由于当在所述识别区没有用户时一个用户进入所述识别区,因此直接把所述用户作为操作者,接收所述操作者的肢体语言指令,并且在所述AR屏幕上呈现出响应。
根据本发明实施例的AR屏幕体感控制权分配方法,当在所述识别区没有用户时,并且有两个用户同时进入识别区时,AR屏幕并不会把同时进入的两个用户作为错误忽略,而是在其中选择一个作为操作者,从而克服了对用户无法准确地识别时AR屏幕无法正常工作的缺陷,进而提高了AR屏幕的工作稳定性。
根据本发明实施例的AR屏幕体感控制权分配方法,当在所述识别区有多个用户时,并且当前的操作者离开识别区时,AR屏幕会从留在识别区中的观看者中选择一个用户作为下一个操作员,从而当当前的操作者离开识别区之后AR屏幕停止工作的缺陷,进而提高了AR屏幕的工作稳定性。
下面通过附图和实施例,对本发明的技术方案做进一步的详细描述。
附图说明
图1为本发明一实施例的AR屏幕体感控制权分配方法的流程图。
图2为本发明另一实施例的AR屏幕体感控制权分配方法的流程图。
图3为本发明再一实施例的AR屏幕体感控制权分配方法的流程图。
图4为本发明再一实施例的AR屏幕体感控制权分配方法的流程图。
具体实施方式
本发明可以进行多种变更,可以具有多种实施例,在附图中例示特定实施例,并在具体实施方式中进行详细说明。如果参照附图的同时参照详细叙述的实施例,可清楚理解本发明的效果及特征、以及实现这些的方法。但是,本发明可以以多种方式实现而不受限于以下所公开的实施例。
在以下的实施例中,第一、第二等用语是以将一个组成要素与其它组成要素区别的目的使用,而不具有限定的意义。
在以下的实施例中,关于单数形式的表述,只要在文章中不是明确地表示其它含义,则该单数形式的表述也包括复数形式的表述。
在以下的实施例中,“包括”或“具有”等用语意味着说明书所记载的特征或组成要素的存在,并不是用来事先排除一个以上的其它特征或组成要素的附加可能性。
在以下的实施例中,当膜、区域和组成要素等部分位于其它部分上方或之上时,不仅包括位于其它部分的正上方的情况,也包括在其之间设置有其它膜、区域和组成要素等的情况。
在附图中为了方便说明而可以放大或缩小组成要素的尺寸。例如,为了方便说明,任意表示附图中所示的各结构的尺寸及厚度,因此本发明并不一定受限于图示的内容。
在以下的实施例中,x轴、y轴及z轴并不受限于直角坐标系上的三个轴,可以用包括这些的广义来解释该x轴、y轴及z轴。例如,x轴、y轴及z轴可以彼此正交,但还可以指彼此不正交的相互不同的方向。
在某一实施例可实现为其他方式的情况下,特定的工序顺序还可以与所说明的顺序不同地实施。例如,连续说明的两种工序实际上可以同时实现,并且还可以以与所说明的顺序相反的顺序进行。
下面,参照附图,对本发明的实施例进行详细说明,当参照附图进行说明时,对相同或对应的组成要素标上相同的附图标记,并省略对该组成要素的重复说明。
图1为本发明一实施例的AR屏幕体感控制权分配方法的流程图。如图1所示,本发明实施例的AR屏幕体感控制权分配方法可以包括:
步骤101,通过所述AR屏幕播放视频;
步骤102,通过集成在所述AR屏幕上的用户感应器检测是否有用户进入识别区;
步骤103,当有用户进入识别区时则以所述用户作为操作者接收肢体语言指令;以及
步骤104,根据所述操作者的肢体语言指令在所述AR屏幕上呈现出响应。
其中,在步骤101中,所述AR屏幕可以为液晶显示装置(Liquid Crystal Display,简称为LCD)、有机发光二极管显示装置(Organic Light-Emitting Diode,简称为OLED)、或者等离子体显示装置(Plasma Display Panel,简称为PDP),或者也可以为带有触控功能的液晶显示装置、带有触控功能的有机发光二极管显示装置、或者带有触控功能的等离子体显示装置。当然,在本发明实施例中采用带有触控功能的显示面板的话,就可以通过带有触控功能的显示面板可以直接向AR屏幕传输操作指令。
其中,在步骤101中,通过所述AR屏幕播放的视频可以为静态的视频或者为动态视频。当通过所述AR屏幕播放的视频为静态的视频时,可以使所述静态的视频与假设所述AR屏幕为玻璃的情况下能够看到的场景大致地重叠,从而可以让所述AR屏幕在正面看上去是透明的玻璃窗。当通过所述AR屏幕播放的视频为动态的视频时,可以是以所述AR屏幕为中心的半径为1公里的范围内商家广告。当然,在这里半径的长度并不限定在1公里,而还可以是500米或者是2公里。
其中,在步骤102中,所述通过集成在所述AR屏幕上的用户感应器检测是否有用户进入识别区的步骤可以为:通过集成在所述AR屏幕上的Kinect检测是否有用户进入所述识别区。在这里,Kinect作为微软开发的一个体感周边外设,其具有捕捉人体动作的功能。当然,在这里作为用户感应器的例子公开了Kinect,但是只要能够检测到在识别区内是否有用户,都可以适用于本发明实施例。
其中,在步骤104中,所述根据所述操作者的肢体语言指令在所述AR屏幕上呈现出响应的步骤可以包括:步骤1041,识别出由所述操作者发出的挥手动作;以及步骤1042,根据由所述操作者发出的挥手动作在所述AR屏幕上呈现出响应。其中,在步骤1041中,挥手动作可以是一次,可以是多次。
其中,步骤1042还可以包括:根据由所述操作者发出的挥手动作,在所述AR屏幕上呈现出智能助手;或者根据由所述操作者发出的挥手动作,在所述AR屏幕上推送所述AR屏幕周边的咨询信息。在这里,智能助手可以是模仿人体的电子画面。在这里AR屏幕周边的咨询信息可以是推送的广告,例如以所述AR屏幕为中心的半径为1公里的范围内商家广告。当然,在这里半径的长度并不限定在1公里,而还可以是500米或者是2公里。
根据本发明实施例的AR屏幕体感控制权分配方法,当用户进入识别区之后将所述用户作为操作者,并且根据所述操作者的肢体语言指令在所述AR屏幕上呈现出响应,克服了在现有技术中无法通过肢体动作与AR设备进行实时交互的缺陷,从而提高了用户对所述AR屏幕的互动体验。
图2为本发明另一实施例的AR屏幕体感控制权分配方法的流程图。如图2所示,本发明实施例的AR屏幕体感控制权分配方法可以包括:
步骤201,通过所述AR屏幕播放视频;
步骤202,通过集成在所述AR屏幕上的用户感应器检测是否有用户进入识别区;
步骤203,当在所述识别区没有用户时,检测到有用户进入所述识别区;
步骤204,将所述用户作为操作者接收肢体语言指令;以及
步骤205,根据所述操作者的肢体语言指令在所述AR屏幕上呈现出响应。
其中,本发明另一实施例的AR屏幕体感控制权分配方法的步骤201、步骤202、步骤205分别与本发明一实施例的AR屏幕体感控制权分配方法的步骤101、步骤102、步骤104相似,因此不再赘述。
根据本发明实施例的AR屏幕体感控制权分配方法,由于当在所述识别区没有用户时一个用户进入所述识别区,因此直接把所述用户作为操作者,接收所述操作者的肢体语言指令,并且在所述AR屏幕上呈现出响应。
图3为本发明再一实施例的AR屏幕体感控制权分配方法的流程图。如图3所示,本发明实施例的AR屏幕体感控制权分配方法可以包括:
步骤301,通过所述AR屏幕播放视频;
步骤302,通过集成在所述AR屏幕上的用户感应器检测是否有用户进入识别区;
步骤303,当在所述识别区没有用户时,检测到有多个用户同时进入所述识别区;
步骤304,在所述多个用户中任意地选择一个用户作为操作者,并且将未被选择的用户作为观看者;
步骤305,接收所述操作者的肢体语言指令;以及
步骤306,根据所述操作者的肢体语言指令在所述AR屏幕上呈现出响应。
其中,本发明再一实施例的AR屏幕体感控制权分配方法的步骤301、步骤302、步骤306分别与本发明一实施例的AR屏幕体感控制权分配方法的步骤101、步骤102、步骤104相似,因此不再赘述。
根据本发明实施例的AR屏幕体感控制权分配方法,当在所述识别区没有用户时,并且有两个用户同时进入识别区时,AR屏幕并不会把同时进入的两个用户作为错误忽略,而是在其中选择一个作为操作者,从而克服了对用户无法准确地识别时AR屏幕无法正常工作的缺陷,进而提高了AR屏幕的工作稳定性。
图4为本发明再一实施例的AR屏幕体感控制权分配方法的流程图。如图4所示,本发明实施例的AR屏幕体感控制权分配方法可以包括:
步骤401,通过所述AR屏幕播放视频;
步骤402,通过集成在所述AR屏幕上的用户感应器检测是否有用户进入识别区;
步骤403,当在所述识别区有多个用户时,检测到当前的操作者离开所述识别区;
步骤404,在所述识别区中停留的所述用户中选择一个用户作为下一个操作者;
步骤405,接收所述下一个操作者的肢体语言指令;以及
步骤406,根据所述操作者的肢体语言指令在所述AR屏幕上呈现出响应。
其中,本发明再一实施例的AR屏幕体感控制权分配方法的步骤401、步骤402、步骤406分别与本发明一实施例的AR屏幕体感控制权分配方法的步骤101、步骤102、步骤104相似,因此不再赘述。
根据本发明实施例的AR屏幕体感控制权分配方法,当在所述识别区有多个用户时,并且当前的操作者离开识别区时,AR屏幕会从留在识别区中的观看者中选择一个用户作为下一个操作员,从而当当前的操作者离开识别区之后AR屏幕停止工作的缺陷,进而提高了AR屏幕的工作稳定性。
其中,在步骤404中,还可以包括:步骤404a,当在所述识别区中停留的所述用户为一个时,则将所述用户作为下一个操作者。即,在本发明实施例的AR屏幕体感控制权分配方法中,在识别区内只有一个操作员和一个观看者并且当所述一个操作员离开识别区时,AR屏幕自动将所述一个观看者作为下一个操作员并接收所述下一个操作员的肢体语言指令。
其中,在步骤404中,还可以包括:步骤404b1,当在所述识别区中停留的所述用户为多个时,则通过集成在所述AR屏幕上的所述用户感应器测量每一个用户与所述感应器之间的距离;以及步骤404b2,在所述识别区中停留的所述多个用户中选择与所述用户感应器距离最近的用户作为下一个操作者。即,在本发明实施例的AR屏幕体感控制权分配方法中,在识别区内只有一个操作员和多个观看者并且当所述一个操作员离开识别区时,在所述多个观看者中选择与所述用户感应器距离最近的用户作为下一个操作者,从而避免了AR屏幕找不到操作者而停止工作的缺陷,进而提高了AR屏幕的工作稳定性。
其中,在步骤404中,还可以包括:步骤404c1,当在所述识别区中停留的所述用户为多个时,则通过集成在所述AR屏幕上的所述用户感应器测量每一个用户与所述AR屏幕之间的距离;以及步骤404c2,在所述识别区中停留的所述多个用户中选择与所述AR屏幕距离最近的用户作为下一个操作者。即,在本发明实施例的AR屏幕体感控制权分配方法中,在识别区内只有一个操作员和多个观看者并且当所述一个操作员离开识别区时,在所述多个观看者中选择与所述AR屏幕距离最近的用户作为下一个操作者,从而避免了AR屏幕找不到操作者而停止工作的缺陷,进而提高了AR屏幕的工作稳定性。本实施例的AR屏幕体感控制权分配方法与上一个实施例的AR屏幕体感控制权分配方法相比,一个是选择与所述AR屏幕最近的一个用户,一个是选择与所述用户感应器最近的一个用户。相比而言,离AR屏幕更近,就说明识别区内的所述用户具有更强烈的操作需求,因此相比上一个实施例的AR屏幕体感控制权分配方法更具有人性化的特点。
本领域普通技术人员可以理解:实现上述方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成,前述的程序可以存储于一计算机可读取存储介质中,该程序在执行时,执行包括上述方法实施例的步骤;而前述的存储介质包括:ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。

Claims (10)

1.一种AR屏幕体感控制权分配方法,其特征在于,包括:
通过所述AR屏幕播放视频;
通过集成在所述AR屏幕上的用户感应器检测是否有用户进入识别区;
当有用户进入识别区时则以所述用户作为操作者接收肢体语言指令;以及
根据所述操作者的肢体语言指令在所述AR屏幕上呈现出响应。
2.根据权利要求1所述的AR屏幕体感控制权分配方法,其特征在于,所述通过集成在所述AR屏幕上的用户感应器检测是否有用户进入识别区的步骤为:
通过集成在所述AR屏幕上的Kinect检测是否有用户进入所述识别区。
3.根据权利要求1所述的AR屏幕体感控制权分配方法,其特征在于,所述当有用户进入识别区时则以所述用户作为操作者接收肢体语言指令的步骤包括:
当在所述识别区没有用户时,检测到有用户进入所述识别区;以及
将所述用户作为操作者接收肢体语言指令。
4.根据权利要求1所述的AR屏幕体感控制权分配方法,其特征在于,所述当有用户进入识别区时则以所述用户作为操作者接收肢体语言指令的步骤包括:
当在所述识别区没有用户时,检测到有多个用户同时进入所述识别区;
在所述多个用户中任意地选择一个用户作为操作者,并且将未被选择的用户作为观看者;以及
接收所述操作者的肢体语言指令。
5.根据权利要求1所述的AR屏幕体感控制权分配方法,其特征在于,所述当有用户进入识别区时则以所述用户作为操作者接收肢体语言指令的步骤包括:
当在所述识别区有多个用户时,检测到当前的操作者离开所述识别区;
在所述识别区中停留的所述用户中选择一个用户作为下一个操作者;以及
接收所述下一个操作者的肢体语言指令。
6.根据权利要求5所述的AR屏幕体感控制权分配方法,其特征在于,所述在所述识别区中停留的所述用户中选择一个用户作为下一个操作者的步骤包括:
当在所述识别区中停留的所述用户为一个时,则将所述用户作为下一个操作者。
7.根据权利要求5所述的AR屏幕体感控制权分配方法,其特征在于,所述在所述识别区中停留的所述用户中选择一个用户作为下一个操作者的步骤包括:
当在所述识别区中停留的所述用户为多个时,则通过集成在所述AR屏幕上的所述用户感应器测量每一个用户与所述感应器之间的距离;以及
在所述识别区中停留的所述多个用户中选择与所述用户感应器距离最近的用户作为下一个操作者。
8.根据权利要求5所述的AR屏幕体感控制权分配方法,其特征在于,所述在所述识别区中停留的所述用户中选择一个用户作为下一个操作者的步骤包括:
当在所述识别区中停留的所述用户为多个时,则通过集成在所述AR屏幕上的所述用户感应器测量每一个用户与所述AR屏幕之间的距离;以及
在所述识别区中停留的所述多个用户中选择与所述AR屏幕距离最近的用户作为下一个操作者。
9.根据权利要求1至8任意一项所述的AR屏幕体感控制权分配方法,其特征在于,所述根据所述操作者的肢体语言指令在所述AR屏幕上呈现出响应的步骤包括:
识别出由所述操作者发出的挥手动作;以及
根据由所述操作者发出的挥手动作在所述AR屏幕上呈现出响应。
10.根据权利要求9所述的AR屏幕体感控制权分配方法,其特征在于,所述根据由所述操作者发出的挥手动作在所述AR屏幕上呈现出响应的步骤还包括:
根据由所述操作者发出的挥手动作,在所述AR屏幕上呈现出智能助手;或者
根据由所述操作者发出的挥手动作,在所述AR屏幕上推送所述AR屏幕周边的咨询信息。
CN201710252286.6A 2017-04-18 2017-04-18 一种ar屏幕体感控制权分配方法 Pending CN108733200A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710252286.6A CN108733200A (zh) 2017-04-18 2017-04-18 一种ar屏幕体感控制权分配方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710252286.6A CN108733200A (zh) 2017-04-18 2017-04-18 一种ar屏幕体感控制权分配方法

Publications (1)

Publication Number Publication Date
CN108733200A true CN108733200A (zh) 2018-11-02

Family

ID=63925129

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710252286.6A Pending CN108733200A (zh) 2017-04-18 2017-04-18 一种ar屏幕体感控制权分配方法

Country Status (1)

Country Link
CN (1) CN108733200A (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102508549A (zh) * 2011-11-08 2012-06-20 北京新岸线网络技术有限公司 一种基于三维动作的非接触式操作方法和系统
CN102801924A (zh) * 2012-07-20 2012-11-28 合肥工业大学 一种基于Kinect的电视节目主持互动系统
CN103260015A (zh) * 2013-06-03 2013-08-21 程志全 基于RGB-Depth摄像头的三维可视监控系统
CN104461524A (zh) * 2014-11-27 2015-03-25 沈阳工业大学 基于Kinect的点歌方法
CN106502424A (zh) * 2016-11-29 2017-03-15 上海小持智能科技有限公司 基于语音手势及肢体动作互动的增强现实系统
CN106527677A (zh) * 2016-01-27 2017-03-22 深圳市原点创新设计有限公司 一种vr/ar系统与用户交互的方法及装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102508549A (zh) * 2011-11-08 2012-06-20 北京新岸线网络技术有限公司 一种基于三维动作的非接触式操作方法和系统
CN102801924A (zh) * 2012-07-20 2012-11-28 合肥工业大学 一种基于Kinect的电视节目主持互动系统
CN103260015A (zh) * 2013-06-03 2013-08-21 程志全 基于RGB-Depth摄像头的三维可视监控系统
CN104461524A (zh) * 2014-11-27 2015-03-25 沈阳工业大学 基于Kinect的点歌方法
CN106527677A (zh) * 2016-01-27 2017-03-22 深圳市原点创新设计有限公司 一种vr/ar系统与用户交互的方法及装置
CN106502424A (zh) * 2016-11-29 2017-03-15 上海小持智能科技有限公司 基于语音手势及肢体动作互动的增强现实系统

Similar Documents

Publication Publication Date Title
US9886102B2 (en) Three dimensional display system and use
US9628783B2 (en) Method for interacting with virtual environment using stereoscope attached to computing device and modifying view of virtual environment based on user input in order to be displayed on portion of display
Stavness et al. pCubee: a perspective-corrected handheld cubic display
Carmigniani et al. Augmented reality technologies, systems and applications
Collins et al. Visual coherence in mixed reality: A systematic enquiry
KR20230025914A (ko) 음성 및 텍스트 캡션들을 사용한 증강 현실 경험들
KR20230026505A (ko) 객체 조작을 사용한 증강 현실 경험들
Fuhrmann et al. Occlusion in collaborative augmented environments
CN102540464B (zh) 提供环绕视频的头戴式显示设备
US11954268B2 (en) Augmented reality eyewear 3D painting
US20120005624A1 (en) User Interface Elements for Use within a Three Dimensional Scene
KR20130108643A (ko) 응시 및 제스처 인터페이스를 위한 시스템들 및 방법들
CN115956259A (zh) 生成用于虚拟现实体验的基础真实数据集
KR100971667B1 (ko) 증강 책을 통한 실감 콘텐츠를 제공하는 방법 및 장치
Tatzgern et al. Exploring real world points of interest: Design and evaluation of object-centric exploration techniques for augmented reality
Cortes et al. Mosart: Mobile spatial augmented reality for 3d interaction with tangible objects
CN108830944B (zh) 光学透视式三维近眼显示系统及显示方法
Sandnes et al. Head-mounted augmented reality displays on the cheap: a DIY approach to sketching and prototyping low-vision assistive technologies
Reichherzer et al. Secondsight: A framework for cross-device augmented reality interfaces
Agarwal et al. The evolution and future scope of augmented reality
Caggianese et al. Situated visualization in augmented reality: Exploring information seeking strategies
Hua et al. System and interface framework for SCAPE as a collaborative infrastructure
Mazuryk et al. History, applications, technology and future
Tiefenbacher et al. Augmented reality evaluation: A concept utilizing virtual reality
Ismail et al. Implementation of natural hand gestures in holograms for 3D object manipulation

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20181102