CN108776544B - 增强现实中的交互方法及装置、存储介质、电子设备 - Google Patents

增强现实中的交互方法及装置、存储介质、电子设备 Download PDF

Info

Publication number
CN108776544B
CN108776544B CN201810565367.6A CN201810565367A CN108776544B CN 108776544 B CN108776544 B CN 108776544B CN 201810565367 A CN201810565367 A CN 201810565367A CN 108776544 B CN108776544 B CN 108776544B
Authority
CN
China
Prior art keywords
virtual
operation area
real
constructing
scene space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810565367.6A
Other languages
English (en)
Other versions
CN108776544A (zh
Inventor
申强
张晓斐
王伟怀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Netease Hangzhou Network Co Ltd
Original Assignee
Netease Hangzhou Network Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Netease Hangzhou Network Co Ltd filed Critical Netease Hangzhou Network Co Ltd
Priority to CN201810565367.6A priority Critical patent/CN108776544B/zh
Publication of CN108776544A publication Critical patent/CN108776544A/zh
Application granted granted Critical
Publication of CN108776544B publication Critical patent/CN108776544B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/65Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
    • A63F13/655Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition by importing photos, e.g. of the player
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/30Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/69Involving elements of the real world in the game world, e.g. measurement in live races, real video
    • A63F2300/695Imported photos, e.g. of the player

Abstract

本公开涉及人机交互技术领域,尤其涉及一种增强现实中的交互方法及装置、存储介质、电子设备。该方法可以包括:获取现实场景画面,并在所述现实场景画面中捕捉现实平台;基于所述现实平台构建虚拟场景空间;基于所述虚拟场景空间构建虚拟操作区域;响应作用于所述虚拟操作区域的触发操作执行与所述虚拟操作区域对应的操作。本公开大大的降低了虚拟操作区域与现实场景画面和虚拟场景空间的脱离感,大大增加了虚拟操作区域与现实场景画面和虚拟场景空间的契合度,进而增加了沉浸感。此外,可以减少或去除虚拟操作区域对虚拟场景中的内容的遮挡,提升了用户体验。

Description

增强现实中的交互方法及装置、存储介质、电子设备
技术领域
本公开涉及人机交互技术领域,尤其涉及一种增强现实中的交互方法及装置、存储介质、电子设备。
背景技术
增强现实也被称为扩增现实,它是一种将现实世界信息和虚拟世界信息“无缝”集成的新技术,即,把原本在现实世界的一定空间范围内很难体验到的实体信息(例如,视觉信息、声音、味道、触觉等),通过电脑等科学技术模拟仿真后叠加在现实世界上,将虚拟的信息应用到现实世界,被人类感官所感知,从而达到超越现实的感官体验。
目前,出现了越来越多的增强现实游戏。增强现实游戏的特点是在现实场景画面上叠加游戏场景(即虚拟场景),使游戏场景和现实场景产生互动。现有的增强现实游戏沿用了传统的交互方式,即在交互界面的固定位置处设置虚拟操作区域,以通过点击虚拟操作区域触发游戏内容的变化。例如,图1中示出了一增强现实游戏的交互界面,在该交互界面中,虚拟操作区域始终位于交互界面下方中间位置处。再例如,图2中示出了另一增强现实游戏的交互界面,在该交互界面中,虚拟操作区域始终位于交互界面下方位置处。
显然,在上述方式中,一方面,由于虚拟操作区域始终位于交互界面中的固定位置处,因此,虚拟操作区域与现实场景画面和游戏场景(即虚拟场景)的脱离感较强,使得沉浸感较低;另一方面,由于虚拟操作区域始终位于交互界面中的固定位置处,又由于在游戏的进行过程中,游戏场景会发生变化,因此,虚拟操作区域可能对游戏场景(即虚拟场景)中的内容进行遮挡,用户体验较差。
需要说明的是,在上述背景技术部分公开的信息仅用于加强对本公开的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。
发明内容
本公开的目的在于提供一种增强现实中的交互方法及装置、存储介质、电子设备,进而至少在一定程度上克服虚拟操作区域与现实场景画面脱离感较强,使得沉浸感较低,以及可能对游戏场景(即虚拟场景)中的内容进行遮挡,用户体验较差等问题。
根据本公开的一个方面,提供一种增强现实中的交互方法,应用于可呈现交互界面的触控终端,所述交互方法包括:
获取现实场景画面,并在所述现实场景画面中捕捉现实平台;
基于所述现实平台构建虚拟场景空间;
基于所述虚拟场景空间构建虚拟操作区域;
响应作用于所述虚拟操作区域的触发操作执行与所述虚拟操作区域对应的操作。
在本公开的一种示例性实施例中,所述基于所述现实平台构建虚拟场景空间包括:
在所述现实平台上构建虚拟三维坐标系,并在所述虚拟三维坐标系中确定所述虚拟场景空间的坐标;
根据所述虚拟场景空间的坐标构建所述虚拟场景空间。
在本公开的一种示例性实施例中,所述基于所述现实平台构建虚拟场景空间包括:
基于所述现实场景画面中的一基点构建一虚拟三维坐标系,并在所述虚拟三维坐标系中获取所述现实平台的坐标;
根据所述现实平台的坐标在所述虚拟三维坐标系中确定所述虚拟场景空间的坐标;
根据所述虚拟场景空间的坐标构建所述虚拟场景空间。
在本公开的一种示例性实施例中,所述基于所述虚拟场景空间构建虚拟操作区域包括:
在所述现实平台上构建虚拟三维坐标系;
根据所述虚拟场景空间在所述虚拟三维坐标系中的坐标在所述虚拟三维坐标系中确定所述虚拟操作区域的坐标;
根据所述虚拟操作区域的坐标构建所述虚拟操作区域。
在本公开的一种示例性实施例中,所述基于所述虚拟场景空间构建虚拟操作区域包括:
基于所述现实场景画面中的一基点构建一虚拟三维坐标系;
根据所述现实平台和所述虚拟场景空间在所述虚拟三维坐标系中的坐标在所述虚拟三维坐标系中确定所述虚拟操作区域的坐标;
根据所述虚拟操作区域的坐标构建所述虚拟操作区域。
在本公开的一种示例性实施例中,所述基于所述虚拟场景空间构建虚拟操作区域包括:
基于所述虚拟场景空间并结合所述交互界面的可视范围构建所述虚拟操作区域。
在本公开的一种示例性实施例中,所述虚拟场景空间中包含一虚拟资源对象;
所述响应作用于所述虚拟操作区域的触发操作执行与所述虚拟操作区域对应的操作包括:
若检测到所述虚拟资源对象移动至所述虚拟操作区域的预设范围内,响应作用于所述虚拟操作区域的触发操作执行与所述虚拟操作区域对应的操作。
在本公开的一种示例性实施例中,所述方法还包括:
当检测到所述触控终端移动时,控制所述虚拟操作区域与所述现实场景画面保持相对静止。
在本公开的一种示例性实施例中,所述当检测到所述触控终端移动时,控制所述虚拟操作区域与所述现实场景画面保持相对静止包括:
当检测到所述触控终端移动时,获取当前现实场景画面,并根据所述触控终端的移动变化量在所述当前现实场景画面上重新渲染所述虚拟操作区域。
在本公开的一种示例性实施例中,所述虚拟操作区域中包含虚拟操作控件;
所述控制所述虚拟操作区域与所述现实场景画面保持相对静止包括:
控制所述虚拟操作控件与所述现实场景画面保持相对静止。
根据本公开的一个方面,提供一种增强现实中的交互装置,应用于可呈现交互界面的触控终端,所述交互装置包括:
获取捕捉模块,用于获取现实场景画面,并在所述现实场景画面中捕捉现实平台;
第一构建模块,用于基于所述现实平台构建虚拟场景空间;
第二构建模块,用于基于所述虚拟场景空间构建虚拟操作区域;
交互模块,用于响应作用于所述虚拟操作区域的触发操作执行与所述虚拟操作区域对应的操作。
根据本公开的一个方面,提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述任意一项所述的增强现实中的交互方法。
根据本公开的一个方面,提供一种电子设备,包括:
处理器;以及
存储器,用于存储所述处理器的可执行指令;
其中,所述处理器配置为经由执行所述可执行指令来执行上述中任意一项所述的增强现实中的交互方法。
本公开一种示例实施例提供的一种增强现实中的交互方法及装置、存储介质、电子设备。捕捉现实场景画面中的现实平台,并基于现实平台构建虚拟场景空间,以及基于虚拟场景空间构建虚拟操作区域,以响应作用于虚拟操作区域的触发操作执行与虚拟操作区域对应的操作。一方面,基于现实平台构建虚拟场景空间,并基于虚拟场景空间构建虚拟操作区域,而不是将虚拟操作区域直接设置在交互界面中的固定位置处,大大的降低了虚拟操作区域与现实场景画面和虚拟场景空间的脱离感,大大增加了虚拟操作区域与现实场景画面和虚拟场景空间的契合度,进而增加了沉浸感;另一方面,基于虚拟场景空间构建虚拟操作区域,可以减少或去除虚拟操作区域对虚拟场景中的内容的遮挡,提升了用户体验;又一方面,基于现实平台构建虚拟场景空间,增加了虚拟场景空间与现实场景画面的契合度,进一步的增加了沉浸感。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
通过参照附图来详细描述其示例性实施例,本公开的上述和其它特征及优点将变得更加明显。显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。在附图中:
图1为本公开一增强现实游戏的交互界面;
图2为本公开另一增强现实游戏的交互界面;
图3为本公开一种增强现实中的交互方法的流程图;
图4为本公开一示例性实施例中提供的构建虚拟场景和虚拟操作区域的示意图;
图5为本公开一种增强现实中的交互装置的框图;
图6为本公开示一示例性实施例中的电子设备的模块示意图;
图7为本公开示一示例性实施例中的程序产品示意图。
具体实施方式
现在将参考附图更全面地描述示例实施例。然而,示例实施例能够以多种形式实施,且不应被理解为限于在此阐述的实施例;相反,提供这些实施例使得本公开将全面和完整,并将示例实施例的构思全面地传达给本领域的技术人员。在图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。
此外,所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施例中。在下面的描述中,提供许多具体细节从而给出对本公开的实施例的充分理解。然而,本领域技术人员将意识到,可以实践本公开的技术方案而没有所述特定细节中的一个或更多,或者可以采用其它的方法、组元、材料、装置、步骤等。在其它情况下,不详细示出或描述公知结构、方法、装置、实现、材料或者操作以避免模糊本公开的各方面。
附图中所示的方框图仅仅是功能实体,不一定必须与物理上独立的实体相对应。即,可以采用软件形式来实现这些功能实体,或在一个或多个软件硬化的模块中实现这些功能实体或功能实体的一部分,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
本示例性实施例中首先公开了一种增强现实中的交互方法,应用于可呈现交互界面的触控终端。所述交互界面可以展示现实场景画面,以及叠加在现实场景画面上的虚拟场景空间以及虚拟操作区域等。所述触控终端例如可以为手机、平板电脑、笔记本电脑、游戏机、PDA等各种具备触控屏幕的电子设备。参照图3所示,所述增强现实中的交互方法可以包括以下步骤:
步骤S310、获取现实场景画面,并在所述现实场景画面中捕捉现实平台;
步骤S320、基于所述现实平台构建虚拟场景空间;
步骤S330、基于所述虚拟场景空间构建虚拟操作区域;
步骤S340、响应作用于所述虚拟操作区域的触发操作执行与所述虚拟操作区域对应的操作。
根据本示例性实施例中的增强现实中的交互方法,一方面,基于现实平台构建虚拟场景空间,并基于虚拟场景空间构建虚拟操作区域,而不是将虚拟操作区域直接设置在交互界面中的固定位置处,大大的降低了虚拟操作区域与现实场景画面和虚拟场景空间的脱离感,大大增加了虚拟操作区域与现实场景画面和虚拟场景空间的契合度,进而增加了沉浸感;另一方面,基于虚拟场景空间构建虚拟操作区域,可以减少或去除虚拟操作区域对虚拟场景中的内容的遮挡,提升了用户体验;又一方面,基于现实平台构建虚拟场景空间,增加了虚拟场景空间与现实场景画面的契合度,进一步的增加了沉浸感。
下面,将参照图3对本示例性实施例中的增强现实中的交互方法作进一步说明。
在步骤S310中,获取现实场景画面,并在所述现实场景画面中捕捉现实平台。
在本示例性实施例中,可以通过图像获取设备(例如摄像头)获取现实场景画面。所述现实平台例如可以包括现实地面、现实桌面等,本示例性实施例对此不作特殊限定。
可以通过地面捕捉算法(PTAM,Parallel Tracking and Mapping)捕捉现实平台。其原理为:从现实场景画面中捕捉特征点,根据特征点的规则检测现实平面。具体的,可以在现实场景画面中确定一基点,并基于该基点构建虚拟三维坐标系,在该虚拟三维坐标系中捕捉各特征点的坐标,并根据各特征点的坐标之间的关系检测现实平台,即若两个特征点在Z轴方向上的坐标相同,则说明该两个特征点在一个平台上。
在步骤S320中,基于所述现实平台构建虚拟场景空间。
在本示例性实施例中,所述虚拟场景空间可以包括虚拟舞台、虚拟对象、虚拟文字等,本示例性实施例对此不作特殊限定。可以通过以下两种方式构建虚拟场景空间。
方式一:在所述现实平台上构建虚拟三维坐标系,并在所述虚拟三维坐标系中确定所述虚拟场景空间的坐标;根据所述虚拟场景空间的坐标构建所述虚拟场景空间。
在本示例性实施例中,可以在现实平台上确定一个基点,并以该基点为中心构建一虚拟三维坐标系。然后根据虚拟场景空间与现实平台的相对位置关系,在三维坐标系中确定虚拟场景空间的坐标。最后,可以利用渲染引擎模块以虚拟场景空间的坐标为基准点在现实场景画面上构建虚拟场景空间。需要说明的是,虚拟场景空间和现实平台的相对位置关系可以根据具体的应用场景进行确定。所述基点的位置可以由开发人员自行确定,例如,可以在现实平台的中间位置设置基点,还可以在现实平台的左上角设置基点,本示例性实施例对此不作特殊限定。
方式二:基于所述现实场景画面中的一基点构建一虚拟三维坐标系,并在所述虚拟三维坐标系中获取所述现实平台的坐标;根据所述现实平台的坐标在所述虚拟三维坐标系中确定所述虚拟场景空间的坐标;根据所述虚拟场景空间的坐标构建所述虚拟场景空间。
在本示例性实施例中,可以在现实场景画面中确定一基点,并以该基点为中心构建一虚拟三维坐标系。然后,可以通过一坐标获取模块在虚拟三维坐标系中获取现实平台的坐标。再然后,可以根据虚拟场景空间与现实平台的相对位置关系,以及现实平台的坐标确定虚拟场景空间的坐标;最后,可以利用渲染引擎模块以虚拟场景空间的坐标为基准点在现实场景画面上构建虚拟场景空间。需要说明的是,虚拟场景空间和现实平台的相对位置关系可以根据具体的应用场景进行确定。所述基点的位置可以由开发人员自行确定,例如,可以在现实场景画面的中间位置设置基点,还可以在现实场景画面的左上角设置基点,本示例性实施例对此不作特殊限定。
由上可知,基于现实平台构建虚拟场景空间,增加了虚拟场景空间与现实场景画面的契合度,增加了沉浸感。
在步骤S330中,基于所述虚拟场景空间构建虚拟操作区域。
在本示例性实施例中,可以通过以下两种方式构建虚拟操作区域。
方式一:在所述现实平台上构建虚拟三维坐标系;根据所述虚拟场景空间在所述虚拟三维坐标系中的坐标在所述虚拟三维坐标系中确定所述虚拟操作区域的坐标;根据所述虚拟操作区域的坐标构建所述虚拟操作区域。
在本示例性实施例中,可以在现实平台上确定一个基点,并以该基点为中心构建一虚拟三维坐标系。然后获取虚拟场景空间在虚拟三维坐标系中的坐标,并根据虚拟场景空间与虚拟操作区域的相对位置关系在虚拟三维坐标系中确定虚拟操作区域的坐标。最后,可以利用渲染引擎模块以虚拟操作区域的坐标为基准点构建虚拟操作区域。需要说明的是,虚拟场景空间和虚拟操作区域的相对位置关系可以根据具体的应用场景进行确定。所述基点的位置可以由开发人员自行确定,例如,可以在现实平台的中间位置设置基点,也可以在现实平台的左上角设置基点,还可以复用上述步骤S320中的方式一中的基点,本示例性实施例对此不作特殊限定。
方式二:基于所述现实场景画面中的一基点构建一虚拟三维坐标系;根据所述现实平台和所述虚拟场景空间在所述虚拟三维坐标系中的坐标在所述虚拟三维坐标系中确定所述虚拟操作区域的坐标;根据所述虚拟操作区域的坐标构建所述虚拟操作区域。
在本示例性实施例中,可以在现实场景画面中确定一基点,并以该基点为中心构建一虚拟三维坐标系。然后,可以通过一坐标获取模块在虚拟三维坐标系中获取现实平台和虚拟场景空间的坐标。再然后,可以根据虚拟场景空间、现实平台与虚拟操作区域的相对位置关系,以及现实平台和虚拟场景空间的坐标确定虚拟操作区域的坐标;最后,可以利用渲染引擎模块以虚拟操作区域的坐标为基准点在现实场景画面上构建虚拟操作区域。需要说明的是,虚拟场景空间、现实平台与虚拟操作区域的相对位置关系可以根据具体的应用场景进行确定。所述基点的位置可以由开发人员自行确定,例如,可以在现实场景画面的中间位置设置基点,也可以在现实场景画面的左上角设置基点,还可以为复用上述步骤S320中的方式二中的基点,本示例性实施例对此不作特殊限定。
所述虚拟操作区域例如可以为打歌操作区域、跳跃控制区域等,本示例性实施例对此不作特殊限定。所述虚拟操作区域的形状可以根据虚拟操作区域的功能进行设置,也可以由开发商自行设置,本示例性实施例对此不作特殊限定。所述虚拟操作区域的大小可以根据具体的场景以及交互界面的大小进行设置。
由上可知,基于现实平台构建虚拟场景空间,并基于虚拟场景空间构建虚拟操作区域,而不是将虚拟操作区域直接设置在交互界面中的固定位置处,大大的降低了虚拟操作区域与现实场景画面和虚拟场景空间的脱离感,大大增加了虚拟操作区域与现实场景画面和虚拟场景空间的契合度,进而增加了沉浸感;此外,基于虚拟场景空间构建虚拟操作区域,可以减少或去除虚拟操作区域对虚拟场景中的内容的遮挡,提升了用户体验。
为了优化虚拟操作区域的坐标,满足操作的易用性,所述基于所述虚拟场景空间构建虚拟操作区域可以包括:基于所述虚拟场景空间并结合所述交互界面的可视范围构建所述虚拟操作区域。在本示例性实施例中,由于交互交互界面只能展示虚拟场景空间(例如游戏场景)的部分场景,因此,根据虚拟场景空间和虚拟操作区域的相对位置关系确定的虚拟操作区域的坐标可能不在交互界面的显示范围内,即构建的虚拟操作区域可能不在交互界面的可视范围内,此外,即使构建的虚拟操作区域在交互界面的可视范围内,但是虚拟操作区域的位置可能不在交互界面中的用户的舒适操作范围内。为了解决上述等问题,需结合交互界面的可视范围对虚拟操作区域的坐标进行优化,以满足操作的移动性。下面,以两个例子对构建虚拟操作区域的过程进行说明。
例一:可以在现实平台上确定一个基点,并以该基点为中心构建一虚拟三维坐标系。然后获取虚拟场景空间在虚拟三维坐标系中的坐标,并根据虚拟场景空间与虚拟操作区域的相对位置关系以及交互界面的可视范围在虚拟三维坐标系中确定虚拟操作区域的坐标。最后,可以利用渲染引擎模块以虚拟操作区域的坐标为基准点构建虚拟场景空间。
具体的,根据虚拟场景空间与虚拟操作区域的相对位置关系以及交互界面的可视范围在虚拟三维坐标系中确定虚拟操作区域的坐标可以包括:首先可以根据交互界面的可视范围在虚拟三维坐标系中确定可设置虚拟操作区域的坐标范围。然后根据交互界面中的用户的操作舒适区对可设置虚拟操作区域的坐标范围做进一步的优化。最后,根据虚拟场景空间与虚拟操作区域的相对位置关系在优化后的可设置虚拟操作区域的坐标范围内确定虚拟操作区域的坐标。
需要说明的是,虚拟场景空间和虚拟操作区域的相对位置关系可以根据具体的应用场景进行确定。所述基点的位置可以由开发人员自行确定,例如,可以在现实平台的中间位置设置基点,也可以为现实平台的左上角设置基点,还可以为复用上述步骤S320中的方式一中的基点,本示例性实施例对此不作特殊限定。
例二:可以在现实场景画面中确定一基点,并以该基点为中心构建一虚拟三维坐标系。然后,可以通过一坐标获取模块在虚拟三维坐标系中获取现实平台和虚拟场景空间的坐标。再然后,可以根据虚拟场景空间、现实平台与虚拟操作区域的相对位置关系并结合交互界面的可视范围确定虚拟操作区域的坐标;最后,可以利用渲染引擎模块以虚拟操作区域的坐标为基准点在现实场景画面上构建虚拟操作区域。
具体的,根据虚拟场景空间、现实平台与虚拟操作区域的相对位置关系并结合交互界面的可视范围确定虚拟操作区域的坐标可以包括:首先可以根据交互界面的可视范围在虚拟三维坐标系中确定可设置虚拟操作区域的坐标范围。然后根据交互界面中的用户的操作舒适区对可设置虚拟操作区域的坐标范围做进一步的优化。最后,根据虚拟场景空间、现实平台与虚拟操作区域的相对位置关系在优化后的可设置虚拟操作区域的坐标范围内确定虚拟操作区域的坐标。
需要说明的是,虚拟场景空间、现实平台与虚拟操作区域的相对位置关系可以根据具体的应用场景进行确定。所述基点的位置的确定可以由开发人员自行确定,例如,可以在现实场景画面的中间位置设置基点,也可以在现实场景画面的左上角设置基点,还可以复用上述步骤S320中的方式二中的基点,本示例性实施例对此不作特殊限定。
为了在触控终端移动时,使得在用户的主观视角上,虚拟操作区域与现实场景画面永远保持相对静止的状态,从而进一步的提高用户的沉浸感,所述方法还可以包括:当检测到所述触控终端移动时,控制所述虚拟操作区域与所述现实场景画面保持相对静止。
在本示例性实施例中,控制虚拟操作区域与现实场景画面保持相对静止的方式可以包括:当检测到所述触控终端移动时,获取当前现实场景画面,并根据所述触控终端的移动变化量在所述当前现实场景画面上重新渲染所述虚拟操作区域。
在本示例性实施例中,可以通过一侦测模块实时侦测所述触控终端是否发生移动,此处触控终端的移动可以包括沿直线的移动,沿曲线的移动以及旋转转动等。在侦测到触控终端移动时,实时获取当前的现实场景画面,以及触控终端的移动变化量,即移动距离和旋转角度,并根据触控终端的移动变化量,即移动距离和旋转角度,在当前现实场景画面上重新计算虚拟操作区域的坐标,并根据虚拟操作区域的坐标重新渲染虚拟操作区域。
需要说明的是,由于触控终端的移动过程是连续的,因此在触控终端移动的过程中,对获取到的每一帧现实场景画面均需通过上述方式重新渲染虚拟操作区域。
进一步的,所述虚拟操作区域中可以虚拟操作控件;所述控制所述虚拟操作区域与所述现实场景画面保持相对静止可以包括:控制所述虚拟操作控件与所述现实场景画面保持相对静止。
在本示例性实施例中,所述虚拟操作区域中的虚拟操作控件的数量可以为一个,也可以为多个,本示例性实施例对此不作特殊限定。例如,在虚拟操作区域为控制虚拟对象移动的区域时,虚拟操作区域可以包括四个虚拟操作控件,每个虚拟操作控件分别对应一个移动方向。
在触控终端移动时,获取当前的现实场景画面,以及触控终端的移动变化量,即移动距离和旋转角度,并根据触控终端的移动变化量,即移动距离和旋转角度,在当前现实场景画面上重新计算虚拟操作控件的坐标,并根据虚拟操作控件的坐标重现渲染虚拟操作控件。
此外,为了在触控终端移动时,控制现实场景画面和虚拟场景空间永远保持相对静止的状态,获取当前现实场景画面,并根据触控终端的移动变化量,即移动距离和旋转角度,在当前现实场景画面中重新计算虚拟场景空间的坐标,并基于该坐标重新渲染虚拟场景空间。
在步骤S340中,响应作用于所述虚拟操作区域的触发操作执行与所述虚拟操作区域对应的操作。
在本示例性实施例中,所述触发操作可以为长按操作、点击操作、双击操作等,本示例性实施例对此不作特殊限定。所述虚拟操作区域对应的操作例如可以为控制虚拟场景中的虚拟对象执行跳跃的操作,还可以为控制虚拟场景中的虚拟对象执行移动的操作等,本示例性实施例对此不作特殊限定。例如,在虚拟操作区域对应的操作为控制虚拟场景中的虚拟对象执行跳跃的操作时,在用户通过触发操作触发该虚拟操作区域时,控制虚拟对象执行跳跃操作。
进一步的,所述虚拟场景空间中可以包含一虚拟资源对象,所述响应作用于所述虚拟操作区域的触发操作执行与所述虚拟操作区域对应的操作可以包括:若检测到所述虚拟资源对象移动至所述虚拟操作区域的预设范围内,响应作用于所述虚拟操作区域的触发操作执行与所述虚拟操作区域对应的操作。
在本示例性实施例中,仅在虚拟资源对象移动至虚拟操作区域的预设范围内时,才响应作用于虚拟操作区域的触发操作执行与虚拟操作区域对应的操作。所述虚拟资源对象例如可以为节奏光球,节奏条等,本示例性实施例对此不作特殊限定。所述虚拟操作区域的预设范围可以为虚拟操作区域的范围,也可以为以虚拟操作区域的中心为中心的且具有预设半径的圆形区域等,本示例性实施例对此不作特殊限定。所述预设范围的大小可以根据具体的应用场景进行限定。
下面,如图4所示,以虚拟场景空间包括虚拟舞台403、虚拟对象404、虚拟节奏下落光球405,虚拟操作区域包括打歌操作区域406为例对上述构建虚拟场景和虚拟操作区域的过程做进一步的说明。
在用户开启增强现实模式时,触控终端可以通过摄像头获取现实场景画面401,并在现实场景画面401中捕捉现实平台402,在捕捉到现实平台402时,可以在现实平台402上构建虚拟三维坐标,并在该虚拟三维坐标中确定虚拟舞台403、虚拟对象404和虚拟节奏下落光球405的坐标,并在虚拟舞台403的坐标处构建虚拟舞台403,在虚拟对象404的坐标处构建虚拟对象404,在虚拟节奏下落光球405的坐标处构建虚拟节奏下落光球405。同时结合触控终端的交互界面的可视范围并基于虚拟场景空间在虚拟三维坐标中获取打歌操作区域406的坐标,并在打歌操作区域406坐标处构建打歌操作区域406,以在虚拟节奏下落光球405下落至打歌操作区域406时,用户通过触发打歌操作区域406与虚拟操作对象404和虚拟节奏下落光球405进行交互。
需要说明的是,尽管在附图中以特定顺序描述了本公开中方法的各个步骤,但是,这并非要求或者暗示必须按照该特定顺序来执行这些步骤,或是必须执行全部所示的步骤才能实现期望的结果。附加的或备选的,可以省略某些步骤,将多个步骤合并为一个步骤执行,以及/或者将一个步骤分解为多个步骤执行等。
在本公开的示例性实施例中,还提供了一种增强现实中的交互装置,应用于可呈现交互界面的触控终端,如图5所示,所述增强现实中的交互装置500可以包括:获取捕捉模块501、第一构建模块502、第二构建模块503、交互模块504,其中:
获取捕捉模块501,可以用于获取现实场景画面,并在所述现实场景画面中捕捉现实平台;
第一构建模块502,可以用于基于所述现实平台构建虚拟场景空间;
第二构建模块503,可以用于基于所述虚拟场景空间构建虚拟操作区域;
交互模块504,可以用于响应作用于所述虚拟操作区域的触发操作执行与所述虚拟操作区域对应的操作。
上述中各增强现实中的交互装置模块的具体细节已经在对应的增强现实中的交互装置方法中进行了详细的描述,因此此处不再赘述。
应当注意,尽管在上文详细描述中提及了用于执行的设备的若干模块或者单元,但是这种划分并非强制性的。实际上,根据本公开的实施方式,上文描述的两个或更多模块或者单元的特征和功能可以在一个模块或者单元中具体化。反之,上文描述的一个模块或者单元的特征和功能可以进一步划分为由多个模块或者单元来具体化。
在本公开的示例性实施例中,还提供了一种能够实现上述方法的电子设备。
所属技术领域的技术人员能够理解,本发明的各个方面可以实现为系统、方法或程序产品。因此,本发明的各个方面可以具体实现为以下形式,即:完全的硬件实施方式、完全的软件实施方式(包括固件、微代码等),或硬件和软件方面结合的实施方式,这里可以统称为“电路”、“模块”或“系统”。
下面参照图6来描述根据本发明的这种实施方式的电子设备600。图6显示各的电子设备600仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图6所示,电子设备600以通用计算设备的形式表现。电子设备600的组件可以包括但不限于:上述至少一个处理单元610、上述至少一个存储单元620、连接不同系统组件(包括存储单元620和处理单元610)的总线630、显示各单元640。
其中,所述存储单元存储有程序代码,所述程序代码可以被所述处理单元610执行,使得所述处理单元610执行本说明书上述“示例性方法”部分中描述的根据本发明各种示例性实施方式的步骤。例如,所述处理单元610可以执行如图3中所示的步骤S310、获取现实场景画面,并在所述现实场景画面中捕捉现实平台;步骤S320、基于所述现实平台构建虚拟场景空间;步骤S330、基于所述虚拟场景空间构建虚拟操作区域;步骤S340、响应作用于所述虚拟操作区域的触发操作执行与所述虚拟操作区域对应的操作。
存储单元620可以包括易失性存储单元形式的可读介质,例如随机存取存储单元(RAM)6201和/或高速缓存存储单元6202,还可以进一步包括只读存储单元(ROM)6203。
存储单元620还可以包括具有一组(至少一个)程序模块6205的程序/实用工具6204,这样的程序模块6205包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
总线630可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、外围总线、图形加速端口、处理单元或者使用多种总线结构中的任意总线结构的局域总线。
电子设备600也可以与一个或多个外部设备670(例如键盘、指向设备、蓝牙设备等)通信,还可与一个或者多个使得用户能与该电子设备600交互的设备通信,和/或与使得该电子设备600能与一个或多个其它计算设备进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口650进行。并且,电子设备600还可以通过网络适配器660与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器660通过总线630与电子设备600的其它模块通信。应当明白,尽管图中未示出,可以结合电子设备600使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、终端装置、或者网络设备等)执行根据本公开实施方式的方法。
在本公开的示例性实施例中,还提供了一种计算机可读存储介质,其上存储有能够实现本说明书上述方法的程序产品。在一些可能的实施方式中,本发明的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当所述程序产品在终端设备上运行时,所述程序代码用于使所述终端设备执行本说明书上述“示例性方法”部分中描述的根据本发明各种示例性实施方式的步骤。
参考图7所示,描述了根据本发明的实施方式的用于实现上述方法的程序产品700,其可以采用便携式紧凑盘只读存储器(CD-ROM)并包括程序代码,并可以在终端设备,例如个人电脑上运行。然而,本发明的程序产品不限于此,在本文件中,可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
所述程序产品可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以为但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读信号介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言的任意组合来编写用于执行本发明操作的程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
此外,上述附图仅是根据本发明示例性实施例的方法所包括的处理的示意性说明,而不是限制目的。易于理解,上述附图所示的处理并不表明或限制这些处理的时间顺序。另外,也易于理解,这些处理可以是例如在多个模块中同步或异步执行的。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其他实施例。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限。

Claims (10)

1.一种增强现实中的交互方法,其特征在于,应用于可呈现交互界面的触控终端,所述交互方法包括:
获取现实场景画面,并在所述现实场景画面中捕捉现实平台;
基于所述现实平台构建虚拟场景空间,其中,所述虚拟场景空间中包含一虚拟资源对象;
基于所述虚拟场景空间构建虚拟操作区域;
若检测到所述虚拟资源对象移动至所述虚拟操作区域的预设范围内,响应作用于所述虚拟操作区域的触发操作执行与所述虚拟操作区域对应的操作;
当检测到所述触控终端移动时,控制所述虚拟操作区域以及所述虚拟场景空间与所述现实场景画面保持相对静止,包括:
当检测到所述触控终端移动时,获取当前现实场景画面,并根据所述触控终端的移动变化量在所述当前现实场景画面上重新渲染所述虚拟操作区域以及所述虚拟场景空间。
2.根据权利要求1所述的交互方法,其特征在于,所述基于所述现实平台构建虚拟场景空间包括:
在所述现实平台上构建虚拟三维坐标系,并在所述虚拟三维坐标系中确定所述虚拟场景空间的坐标;
根据所述虚拟场景空间的坐标构建所述虚拟场景空间。
3.根据权利要求1所述的交互方法,其特征在于,所述基于所述现实平台构建虚拟场景空间包括:
基于所述现实场景画面中的一基点构建一虚拟三维坐标系,并在所述虚拟三维坐标系中获取所述现实平台的坐标;
根据所述现实平台的坐标在所述虚拟三维坐标系中确定所述虚拟场景空间的坐标;
根据所述虚拟场景空间的坐标构建所述虚拟场景空间。
4.根据权利要求1所述的交互方法,其特征在于,所述基于所述虚拟场景空间构建虚拟操作区域包括:
在所述现实平台上构建虚拟三维坐标系;
根据所述虚拟场景空间在所述虚拟三维坐标系中的坐标在所述虚拟三维坐标系中确定所述虚拟操作区域的坐标;
根据所述虚拟操作区域的坐标构建所述虚拟操作区域。
5.根据权利要求1所述的交互方法,其特征在于,所述基于所述虚拟场景空间构建虚拟操作区域包括:
基于所述现实场景画面中的一基点构建一虚拟三维坐标系;
根据所述现实平台和所述虚拟场景空间在所述虚拟三维坐标系中的坐标在所述虚拟三维坐标系中确定所述虚拟操作区域的坐标;
根据所述虚拟操作区域的坐标构建所述虚拟操作区域。
6.根据权利要求1所述的交互方法,其特征在于,所述基于所述虚拟场景空间构建虚拟操作区域包括:
基于所述虚拟场景空间并结合所述交互界面的可视范围构建所述虚拟操作区域。
7.根据权利要求1所述的交互方法,其特征在于,所述虚拟操作区域中还包含虚拟操作控件;
所述控制所述虚拟操作区域以及所述虚拟场景空间与所述现实场景画面保持相对静止还包括:
控制所述虚拟操作控件与所述现实场景画面保持相对静止。
8.一种增强现实中的交互装置,其特征在于,应用于可呈现交互界面的触控终端,所述交互装置包括:
获取捕捉模块,用于获取现实场景画面,并在所述现实场景画面中捕捉现实平台;
第一构建模块,用于基于所述现实平台构建虚拟场景空间,其中,所述虚拟场景空间中包含一虚拟资源对象;
第二构建模块,用于基于所述虚拟场景空间构建虚拟操作区域;
交互模块,用于若检测到所述虚拟资源对象移动至所述虚拟操作区域的预设范围内,响应作用于所述虚拟操作区域的触发操作执行与所述虚拟操作区域对应的操作。
9.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1~7中任意一项所述的增强现实中的交互方法。
10.一种电子设备,其特征在于,包括:
处理器;以及
存储器,用于存储所述处理器的可执行指令;
其中,所述处理器配置为经由执行所述可执行指令来执行权利要求1~7中任意一项所述的增强现实中的交互方法。
CN201810565367.6A 2018-06-04 2018-06-04 增强现实中的交互方法及装置、存储介质、电子设备 Active CN108776544B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810565367.6A CN108776544B (zh) 2018-06-04 2018-06-04 增强现实中的交互方法及装置、存储介质、电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810565367.6A CN108776544B (zh) 2018-06-04 2018-06-04 增强现实中的交互方法及装置、存储介质、电子设备

Publications (2)

Publication Number Publication Date
CN108776544A CN108776544A (zh) 2018-11-09
CN108776544B true CN108776544B (zh) 2021-10-26

Family

ID=64025695

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810565367.6A Active CN108776544B (zh) 2018-06-04 2018-06-04 增强现实中的交互方法及装置、存储介质、电子设备

Country Status (1)

Country Link
CN (1) CN108776544B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111913639B (zh) * 2019-05-07 2022-01-28 广东虚拟现实科技有限公司 虚拟内容的交互方法、装置、系统、终端设备及存储介质
CN110189578A (zh) * 2019-05-20 2019-08-30 北京悉见科技有限公司 一种基于增强现实进行飞行员训练的方法和装置
CN111389003B (zh) * 2020-03-16 2023-04-18 网易(杭州)网络有限公司 游戏角色控制方法、装置、设备及计算机可读存储介质
CN111815786A (zh) * 2020-06-30 2020-10-23 北京市商汤科技开发有限公司 信息显示方法、装置、设备和存储介质
CN114051151B (zh) * 2021-11-23 2023-11-28 广州博冠信息科技有限公司 直播互动方法、装置、存储介质与电子设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102054290A (zh) * 2009-11-04 2011-05-11 沈阳隆惠科技有限公司 全景实景混杂现实平台构建方法
CN203250260U (zh) * 2013-04-28 2013-10-23 苏州创捷传媒展览股份有限公司 基于混合现实的互动展示平台
CN105074617A (zh) * 2013-03-11 2015-11-18 日本电气方案创新株式会社 三维用户界面装置和三维操作处理方法
CN107250891A (zh) * 2015-02-13 2017-10-13 Otoy公司 头戴式显示器与真实世界对象之间的相互通信

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090237328A1 (en) * 2008-03-20 2009-09-24 Motorola, Inc. Mobile virtual and augmented reality system
JP2012038164A (ja) * 2010-08-09 2012-02-23 Sony Corp 情報処理装置
US20130278633A1 (en) * 2012-04-20 2013-10-24 Samsung Electronics Co., Ltd. Method and system for generating augmented reality scene
US9911231B2 (en) * 2013-10-08 2018-03-06 Samsung Electronics Co., Ltd. Method and computing device for providing augmented reality
US9928656B2 (en) * 2015-09-11 2018-03-27 Futurewei Technologies, Inc. Markerless multi-user, multi-object augmented reality on mobile devices
CN106774872A (zh) * 2016-12-09 2017-05-31 网易(杭州)网络有限公司 虚拟现实系统、虚拟现实交互方法及装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102054290A (zh) * 2009-11-04 2011-05-11 沈阳隆惠科技有限公司 全景实景混杂现实平台构建方法
CN105074617A (zh) * 2013-03-11 2015-11-18 日本电气方案创新株式会社 三维用户界面装置和三维操作处理方法
CN203250260U (zh) * 2013-04-28 2013-10-23 苏州创捷传媒展览股份有限公司 基于混合现实的互动展示平台
CN107250891A (zh) * 2015-02-13 2017-10-13 Otoy公司 头戴式显示器与真实世界对象之间的相互通信

Also Published As

Publication number Publication date
CN108776544A (zh) 2018-11-09

Similar Documents

Publication Publication Date Title
CN108776544B (zh) 增强现实中的交互方法及装置、存储介质、电子设备
CN107913520B (zh) 信息处理方法、装置、电子设备及存储介质
JP6659644B2 (ja) 応用素子の代替的グラフィック表示の事前の生成による入力に対する低レイテンシの視覚的応答およびグラフィック処理ユニットの入力処理
CN107977141B (zh) 交互控制方法、装置、电子设备及存储介质
KR101845217B1 (ko) 투명 헤드 마운티드 디스플레이들에 대한 사용자 인터페이스 상호작용
CN109876439B (zh) 游戏画面显示方法与装置、存储介质、电子设备
US20190060758A1 (en) Visual method and apparatus for compensating sound information, storage medium and electronic device
CN109189302B (zh) Ar虚拟模型的控制方法及装置
US10585581B2 (en) Controlling display object on display screen
CN111420395B (zh) 游戏中的交互方法及装置、可读存储介质、电子设备
CN110215685B (zh) 游戏中的虚拟对象控制方法及装置、设备、存储介质
CN111760272B (zh) 游戏信息显示方法及装置、计算机存储介质、电子设备
CN111481923B (zh) 摇杆显示方法及装置、计算机存储介质、电子设备
CN108355352B (zh) 虚拟物体控制方法及装置、电子设备、存储介质
CN110286906B (zh) 用户界面显示方法、装置、存储介质与移动终端
US20140111551A1 (en) Information-processing device, storage medium, information-processing method, and information-processing system
CN110215686B (zh) 游戏场景中的显示控制方法及装置、存储介质及电子设备
CN112965773A (zh) 用于信息显示的方法、装置、设备和存储介质
KR20180058097A (ko) 이미지를 표시하는 전자 장치 및 그 제어 방법
US20230147561A1 (en) Metaverse Content Modality Mapping
CN110908568B (zh) 一种虚拟对象的控制方法和装置
CN115607967A (zh) 显示位置调整方法、装置、存储介质与电子设备
CN108499102B (zh) 信息界面展示方法及装置、存储介质、电子设备
CN112473138B (zh) 游戏的显示控制方法及装置、可读存储介质、电子设备
CN113360064A (zh) 对图片的局部区域的搜索方法及装置、介质及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant