CN110036359B - 第一人称角色扮演互动式增强现实 - Google Patents

第一人称角色扮演互动式增强现实 Download PDF

Info

Publication number
CN110036359B
CN110036359B CN201880004705.7A CN201880004705A CN110036359B CN 110036359 B CN110036359 B CN 110036359B CN 201880004705 A CN201880004705 A CN 201880004705A CN 110036359 B CN110036359 B CN 110036359B
Authority
CN
China
Prior art keywords
location
display
smart device
environment
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201880004705.7A
Other languages
English (en)
Other versions
CN110036359A (zh
Inventor
张汉裕
林柏杰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zyetric Virtual Reality Ltd
Original Assignee
Zyetric Virtual Reality Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zyetric Virtual Reality Ltd filed Critical Zyetric Virtual Reality Ltd
Publication of CN110036359A publication Critical patent/CN110036359A/zh
Application granted granted Critical
Publication of CN110036359B publication Critical patent/CN110036359B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1686Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Abstract

在具有显示器和一个或多个图像传感器的电子设备处,显示增强现实(AR)环境的视图,其中所述AR环境包含基于从所述一个或多个图像传感器捕捉的图像数据的背景和处于第一位置的第一虚拟对象,并且所述视图包含所述第一虚拟对象的显示。接收指示远程用户的移动的移动数据。基于接收到的数据确定所述AR环境中的所述第一虚拟对象的属性。基于所确定的属性更新所述视图的所述显示。

Description

第一人称角色扮演互动式增强现实
相关申请的交叉引用
本申请要求2017年6月23日提交的发明名称为“第一人称角色扮演互动式增强现实(FIRST-PERSON ROLE PLAYING INTERACTIVE AUGMENTED REALITY)”的第62/524,443号美国临时专利申请、2018年5月4日提交的发明名称为“第一人称角色扮演互动式增强现实(FIRST-PERSON ROLE PLAYING INTERACTIVE AUGMENTED REALITY)”的第62/667,271号美国临时专利申请的优先权。每个美国临时专利申请的内容以引用的方式并入本文中用于所有目的。
技术领域
本申请涉及增强现实(AR)环境,并且更确切地,涉及与AR环境的交互。
背景技术
虚拟现实(VR)环境完全或大部分是计算机生成的环境。虽然它们可以合并来自现实世界的图像或数据,但是VR环境是基于为环境设置的参数和约束而由计算机生成的。相反,增强现实(AR)环境主要基于来自现实世界的与计算机生成的对象和事件重叠或组合的数据(例如,图像数据)。这些技术的各方面已经使用专用硬件单独使用。
发明内容
下面,描述本发明的实施例,其允许使用从经由网络连接的不同用户检测到的数据与AR环境进行交互。
在一些实施例中,在具有显示器和一个或多个图像传感器的电子设备处,显示增强现实(AR)环境的视图,其中所述AR环境包含基于从所述一个或多个图像传感器捕捉的图像数据的背景和处于第一位置的第一虚拟对象,并且所述视图包含所述第一虚拟对象的显示。接收指示远程用户的移动的移动数据。基于接收到的数据确定AR环境中的第一虚拟对象的属性。基于所确定的属性更新视图的显示。
附图说明
通过参考下面结合附图描述的附图能最佳地理解本发明,其中相同的部分可以用相同的附图标记表示。
图1A-1B描绘实现本发明技术的一些实施例的示例性电子设备。
图2描绘实例IAR背景。
图3描绘具有实例IAR对象的实例IAR背景。
图4描绘捕捉IAR姿势的实例IAR背景。
图5描绘捕捉IAR姿势并且具有实例IAR对象的实例IAR背景。
图6描绘用于安装智能设备的实例耳机。
图7描绘与头戴式智能设备的远程用户相关联的IAR对象。
图8描绘具有IAR对象的IAR视图,所述IAR对象与远程用户相关联并且基于接收到的位移和参考位置而移动。
图9-11描绘用于与IAR视图交互的实例姿势。
图12和13描绘由远程用户控制的IAR对象,其在观看所显示的IAR视图的智能设备的用户处被启动。
图14描绘具有与两个不同远程用户相关联的IAR对象的IAR视图。
图15描绘可以用于实现本发明的各种实施例的系统,例如智能设备。
图16A-B描绘根据本发明的各种实施例的实例姿势。
图17A-B描绘根据本发明的各种实施例的另一实例姿势。
图18A-D描绘根据本发明的各种实施例的又另一个实例姿势。
图19A-D描绘根据本发明的各种实施例的进一步实例姿势。
具体实施方式
呈现以下描述以使得所属领域普通技术人员能够制造和使用各种实施例。特定设备、技术和应用的描述仅是作为实例提供。所属领域的一般技术人员将容易明白本文中描述的实例的各种修改,并且在不脱离本发明的精神和范围的情况下,本文中所界定的一般原理可以应用于其它实例和应用。因此,所公开的技术并非意图限于本文中描述和示出的实例,而是被赋予与所附权利要求书一致的范围。
在本技术的实施例中,两个或更多个玩家在玩增强现实(AR)游戏中扮演第一人称角色。在一些增强现实(AR)游戏中,一个或多个玩家通常对战由计算机(例如,CPU、或智能设备内或远程服务器中的其它控制设备)控制的“虚拟”对象。这种AR游戏可以利用AR技术来提升玩家的游戏体验。然而,这些AR游戏不允许两个或更多个用户在AR环境中玩“第一人称角色扮演”体验。换句话说,这些AR游戏仍然基于一些传统的习惯,其中玩家仍然与计算机对战,并且没有充分利用根据本发明的实施例AR技术可以提供的能力,下文描述其中的一些实施例。本文描述的“第一人称角色扮演”技术的一些实施例显着提升了多个玩家之间的交互性,这可以潜在地打开AR游戏中的新方向和区域。
本发明的一些实施例通过允许玩家以第一人称角色扮演方式控制虚拟对象来彼此对战而改善AR游戏体验。这就产生两个或更多个玩家的感知,这些玩家在AR环境内实时地彼此对战,而不是与计算机控制的虚拟对象对战。
使用类似于流行的AR游戏的实例游戏“精灵宝可梦Go(Pokemon Go)”作为一个例子。使用当前技术,一旦检测到虚拟对象(例如,创造物)在附近,玩家就可以抛陷阱来捕获所述创造物。在这种情况下,玩家(“P1”)可以控制陷阱,但创造物由智能设备的CPU控制。
在本技术的一些实施例中,第二玩家(“P2”)通过P2的实际身体移动以第一人称角色扮演方式控制创造物。创造物不受智能设备CPU或一些其它计算机的控制。换句话说,P2被“视为”P1智能设备上的创造物,并且他/她将通过移动他/她的身体(例如,向左侧或右侧)以交互方式躲避P1抛给他/她的陷阱。与此同时,P1被视为P2的智能设备上的捕手。应注意,P1和P2可以位于世界的不同地方,并且他/她的移动的元数据可以通过互联网或其它网络在彼此之间发送,只要其智能设备(例如,AR/VR护目镜)通过Wi-Fi、蜂窝或有线网络连接到互联网或网络。
一旦实例游戏开始,P2将陷阱视为P2的AR/VR护目镜上的虚拟对象,所述虚拟对象从被描绘为P2的AR环境中的捕手的P1向P2抛出。在看到陷阱后,P2可以移到一边以避免被陷阱击中。此时,P1实际上看到创造物,其是由P2控制的虚拟对象,远离P1朝向其抛掷的陷阱的轨迹。然后P1可以改变下一次抛掷的角度以瞄准P2移动的位置。下面,使用以下概念描述本技术的一些实施例:
本地对象—对用户而言的“本地”且从前置或后置摄像头不能“看到”的对象。换句话说,这些是计算机生成的对象,其显示在智能设备的屏幕上,但不是其它用户可访问的方式的AR和/或VR环境的一部分。
IAR背景—在一些IAR游戏(例如,纸牌游戏或创建捕捉游戏)或应用程序中从后置摄像头看到的实时“背景”视图。图2描绘实例。
IAR对象—重叠在IAR背景上的计算机化对象。与本地对象相比,这些对象在AR和/或VR环境的其它用户(当存在时)之间共享。图3描绘实例。
IAR姿势—一种通用术语,指的是由后置摄像头或其它传感器识别的手势或一系列手势。图4描绘实例。
IAR视图—组合的IAR背景和IAR对象和/或本地对象的显示。例如,从AR和/或VR环境中的特定有利位置生成的视图。图5描绘实例。
图1描绘可以实现本技术的实施例的智能设备100。在一些实例中,智能设备100是智能手机或平板计算设备,但是本技术也可以在其它类型的电子设备上实现,例如可穿戴设备或笔记本电脑。在一些实施例中,智能设备100类似于并包含下面在图15中描述的计算系统1500的全部或一些组件。在一些实施例中,智能设备100包含触敏显示器102和后置摄像头124。在一些实施例中,智能设备100还包含前置摄像头120和扬声器122。智能设备100任选地还包含其它传感器,例如麦克风、移动/定向传感器(例如,一个或多个加速度计、陀螺仪、数字罗盘等)、深度传感器(其任选地是摄像头120和/或摄像头124的一部分)等。
图2描绘示出实例IAR背景200的截屏200,其显示在智能设备的显示器上,例如智能设备100的显示器102上。IAR背景202是简单的背景,其仅是从智能设备的后置摄像头捕捉的图像,例如从智能设备100的后置摄像头124捕捉的图像。其它IAR背景任选地包含其它图像,例如计算机生成的图像。其它真实对象,例如人或用户的手、脸等也可以包含在IAR背景中。
图3描绘具有IAR背景202和呈虚拟创造物302形式的IAR对象的实例IAR视图300的截屏(例如,在智能设备100的显示器102上显示)。显示IAR视图300的智能设备根据预定规则生成并且显示创造物302。例如,创造物302任选地是从与创造物相关联的用户化身生成的图像。在一些情况下,显示IAR视图300的智能设备的用户与另一智能设备的另一用户进行交互。创造物302任选地基于与另一个用户相关联的信息(例如,化身信息或图像)而生成。例如,在一些情况下,直接从另一个用户传送信息。在其它情况下,从中央服务器传送信息,所述中央服务器存储另一个用户的简档数据,包含化身数据或可以用于生成创造物302的其它数据。在其它实例中,即使另一个用户任选地控制创造物302,也独立于与另一用户相关联的信息生成创造物300。
仍参考图3,创造物302的位置任选地基于各种因素。例如,在一些情况下,无论IAR背景或当前显示的其它图像如何,都将创造物302放置在显示器(例如,智能设备100的显示器102)上的相同位置。例如,如果创造物302由图像表示,则将图像任选地放置在显示器上的预定位置处,例如由像素或距离(例如,从显示器的左下角看)限定的预定x和y坐标。在其它情况下,智能设备基于对IAR背景202的分析将创造物30s放置在某一位置处。例如,智能设备任选地分析构成IAR背景20s的图像数据以识别感兴趣的位置(例如,家具或墙壁的边缘、可识别的位置,或特别好的隐藏点),并且基于感兴趣的位置(例如,在所述位置处、靠近所述位置、距离所述位置一定的预定距离)来放置创造物302。
图4描绘IAR背景202的截屏以及用智能设备的摄像头(例如智能设备100的后置摄像头124)捕捉的手402的IAR姿势的快照。姿势包含用户的手400进行如图4所示的捏合姿势。在一些情况下,检测姿势包含对从图像传感器(例如智能设备的后置图像传感器)捕捉的图像数据(静止图像数据或视频数据)执行图像处理。为了帮助检测姿势,图像数据任选地或可替代地包含从图像传感器生成的数据捕捉的或从其导出的深度信息。可替代地,从与图像传感器不同的传感器(例如,IR传感器、飞行时间传感器等)捕捉与图像数据相关联的深度信息。在一些情况下,智能设备基于训练的人工智能例程(例如,使用机器学习)使用来自智能设备的用户或使用各种不同设备的多个用户的训练数据来识别姿势。
在其它实施例中,除了用图像传感器检测到的姿势之外或代替用图像传感器检测到的姿势,可以使用其它姿势。例如,可以使用触摸屏或运动传感器(例如,加速度计、陀螺仪、电子罗盘等)来检测姿势。另外,来自多个传感器的数据(例如,深度数据和图像数据或图像数据和移动数据)可以组合在一起以检测特定姿势。多个姿势也可以链接在一起以创建新姿势。可以在本技术的实施例中使用的姿势的实例在下面参考图16A-19D进行描述。这些姿势可以组合在一起或与其它姿势组合以创建与AR环境的复杂且身临其境的用户交互。
图5描绘包含图2-4的组件的IAR视图500的截屏。确切地说,IAR视图500包含图2的IAR背景202、图3的IAR对象302以及基于图4的手402的IAR姿势。
图6描绘护目镜600,其是具有后置摄像头的AR/VR护目镜的实例。例如,护目镜600包含头部支架601和智能设备602,其可以实现为安装到护目镜支架601的智能设备100。可替代地,护目镜具有提供与智能设备100相同功能的内置电子器件。在这个实例中,智能设备600是连接到护目镜支架601的智能手机,护目镜支架601是耳机。智能设备600包含显示器(例如,显示器102),其显示可以通过耳机的目镜看到的图形和其它信息。
在本发明的实施例中,游戏允许玩家彼此抛掷炸弹,并且每个玩家都可以尝试避免被击中。这可以从第一人称的视角来完成。
在一个实例中,两个玩家(可以位于世界的不同地方并且通过互联网连接)正在玩第一人称交互式AR游戏,其中每个玩家控制AR环境中相应的IAR对象(例如,创造物),并且以第一人称角色扮演方式显示在另一个用户的智能设备的显示器上,如图7所示。具有重叠在IAR背景704上的创造物702的IAR视图700正显示在用户的智能设备显示器的显示器上。远程用户706正佩戴包含另一智能设备的AR护目镜708。当远程用户706移动AR护目镜708时,创造物702响应于从远程用户706的智能设备传输的数据而移动。在其它实例中,远程用户具有手持式智能设备,并且传输到另一个用户的移动是基于远程用户的手或整个身体例如移动智能设备。
在这个实例中,玩家通过互相抛掷炸弹来玩游戏。如果玩家的炸弹击中对方玩家则得分。
在这个实例游戏中,两个玩家被称为玩家A(“P-A”)和玩家B(“P-B”)。随着游戏开始,P-A和P-B的智能设备将其当前位置注册为其相应的参考点。我们将这些参考点分别称为Ref-A和Ref-B。在一些情况下,参考点由本发明的开发者或智能设备100的制造商预定。例如,参考点被预定为智能设备100的触摸转换显示器102的中心。对参考点的位置没有限制。参考点可以是智能设备100的触敏显示器102的左下角、右下角或任何点。当P-A从Ref-A侧向移动(或移动智能设备)时,其智能设备将(例如,利用智能设备的电子罗盘的加速度计、陀螺仪中的一个或多个)记录从Ref-A带方向的位移(例如,向左2米)。下面,我们将此位移称为Disp-A。类似地,P-B从Ref-B的位移称为Disp-B。
图8示出由P-B控制的IAR对象的位移的计算(在P-A的屏幕上看到)。确切地说,在图8的IAR视图800中,创造物802移位量804,量804是基于距IAR视图800中的参考位置(例如,参考线806,其在某些情况下是IAR视图800或AR环境的中心位置)的距离(例如,像素或其它距离测量值)。换句话说,与创造物802相关联的玩家移动的距离(例如,如从与创造物802相关联的玩家接收的数据所确定的)将用于确定IAR对象(例如创造物802)将在智能设备显示器上的显示器上移动多远(例如,距离参考线有多远)。
在一个实例游戏期间,P-A将P-B视为智能设备显示器(例如,当智能设备被固持时耦合到AR/VR护目镜或显示器)上的虚拟对象(例如,创造物、怪兽或其它对象),并尝试使用例如以下方法之一抛掷一个或多个炸弹来击中P-B:
(1)智能设备的触敏屏幕上的手指姿势—P-A使用其手指以瞄准P-B的特定角度滑动屏幕(如图9所示)。当在非可穿戴智能设备上(即,在普通智能手机上)玩游戏时,这一方法是合适的。这里的IAR姿势由触摸屏传感器检测。图9描绘此姿势在触摸屏900(例如智能设备100的触敏显示器102)上的实例。路径902示出了虚拟对象903(例如,虚拟炸弹)将响应于手904沿着触摸屏做出姿势的拖动和释放姿势而采取的路径,如箭头906所示。显示虚拟对象903在IAR视图上移动的动画可以表示虚拟对象基于来自用户姿势的数据行进通过AR环境。
(2)在后置摄像头前方的姿势识别—P-A将其一只手放在后置摄像头前方,并朝着瞄准P-B的特定角度执行抛掷姿势(如图10所示)。当P-A在例如AR/VR护目镜等可穿戴设备上玩游戏时,这种方法是最合适的,其中当智能设备为手持式时,屏幕上的手指姿势是不可能的,但是也可以使用。图10描绘这一姿势的实例。截屏1000显示了用户在查看AR护目镜的显示器时可能看到的内容。虚拟炸弹1003基于由智能设备的后置摄像头检测到的手1004的运动(由箭头1005表示)沿着路径1002行进。除了手部运动之外的其它因素也可以被检测到并用于确定炸弹的轨迹,包含何时进行第二次不同的姿势(例如,当进行捏合释放姿势以释放炸弹时)、姿势的速度、或智能设备的方向。
以下参考图16-19描述可以在本技术的实施例中使用的其它姿势的实例。
当P-A抛掷炸弹时,包含例如以下一些或多个信息的元数据将针对抛掷的每个炸弹通过互联网连接传输到P-B或服务器,服务器将根据所述信息计算结果:
·角度:抛掷炸弹的角度1100,例如,由用户的手的运动的角度决定(或与其成比例)(例如,如图11所示)。
·速度:抛掷炸弹的速度,例如,由用户的手的速度决定(或与其成比例)。
·方向:抛掷炸弹的方向,例如,由用户的手的方向决定(或与其成比例)。
当P-B的智能设备接收到此元数据(或基于元数据的其它移动数据)或基于上述元数据的结果路径时,它将所述数据转换为玩游戏所需的数据(例如,传入的炸弹被抛向P-B的角度)。作为游戏中对阵P-A的对方玩家的P-B以例如以下两种方式之一看到从P-A抛出的炸弹:
(1)使用不可穿戴或手持式智能设备,例如普通的智能手机—P-B在他/她的智能设备屏幕上看到炸弹以各种角度向其抛掷。如果一个或多个炸弹击中例如其屏幕上的中间标记,则认为P-B被击中,并且将丢分(P-A得分)。否则,P-B将看到炸弹以一定角度进入其屏幕的左侧或右侧,并且炸弹被视为未击中目标。P-B将他/她的智能设备侧向移动以避免被炸弹击中。
(2)使用可穿戴的智能设备,例如AR/VR护目镜—P-B看到炸弹直接向其头部抛掷。如果一个或多个炸弹击中正面,例如,垂直于轨迹,则认为P-B被击中,并且将丢分(P-A得分)。否则,P-B将看到炸弹以一定角度进入其头部的左侧或右侧,并且炸弹被视为未击中目标。打开可穿戴设备的P-B将整个身体侧向移动以避免被炸弹击中。
图12和13(其基于图8的描述)描绘了目标击中和目标未击中的情况。在图12中,当P-B向侧面移动以逃避被击中时(如图13所示),可以通过互联网或其它网络将以下元数据中的一个或多个(例如,移动数据)发送到P-A(或者向中间发送,然后基于元数据或元数据本身发送附加数据):
位移:从Ref-B开始的Disp-B
方向:从Ref-B向左、向右、向前或向后
当P-A的智能设备通过互联网从P-B接收到此元数据时,它将基于此数据更新表示P-B的IAR对象在显示器上的位置,以便P-A将实际上看到IAR对象以与P-B移动的方式相对应的方式移动。因此,P-A可以在下一次尝试中调整抛掷角度。智能设备任选地在显示特定IAR视图之前生成AR环境。在这个实例中,智能设备将虚拟对象从AR环境内的第一位置移动到AR环境内的第二位置,同时生成对AR环境的更新。
当然,P-B也可以在他/她逃脱被击中时以相同的方式向P-A抛掷炸弹,并且P-A也可以在其向P-B抛掷炸弹时逃脱被击中。在这种情况下(即P-A和P-B都向彼此抛掷炸弹,而他们都在移动以避免被击中),P-A和P-B都会收到以下元数据:
角度:炸弹向其自身抛掷的角度;
位移:从Ref-A/Ref-B开始的Disp-A/Disp-B
方向:从Ref-B/Ref-A向左、向右、向前或向后
在一些实施例中,游戏中可以有超过2个玩家。例如,玩家P-C可以加入P-A和P-B正在玩的游戏。在这种情况下,攻击者(即抛掷炸弹的玩家)将在其屏幕上看到两个虚拟对象重叠至其IAR背景上,并且会向其中任何一个抛掷炸弹。例如,如果我们考虑P-A的视角,P-A将在其IAR背景上重叠的其屏幕上看到两个IAR对象(虚拟对象),一个由P-B控制,一个由P-C控制。分别将P-B和P-C的参考点Ref-B和Ref-C设置为P-A屏幕的中点。任一IAR对象可以完全独立于另一IAR对象移动,并且P-A可以根据其意愿瞄准任何一个IAR对象。游戏的其余部分可以类似于2人游戏。以相同的方式,游戏实际上可以扩展到N人游戏,其中N仅受例如屏幕尺寸、CPU功率、网络带宽等硬件资源的限制。图14描绘了从P-A的角度看的3人游戏。游戏还包含玩家P-B和P-C。P-B控制创造物1402并且P-C控制创造物1404。
现在转到图15,描绘了被配置成执行任何上述过程和/或操作的示例性计算系统1500的组件。例如,计算系统1500可用于实现上述智能设备100,其实现以下关于图15描述的上述实施例或过程1500的任何组合。计算系统1500可以包含例如处理器、存储器、存储装置和输入/输出外围设备(例如,显示器、键盘、触控笔、绘图设备、磁盘驱动器、互联网连接、摄像头/扫描仪、麦克风、扬声器等)。然而,计算系统1500可以包含用于执行过程的一些或所有方面的电路或其它专用硬件。
在计算系统1500中,主系统1502可以包含主板1404,例如其上安装有组件的印刷电路板,具有连接输入/输出(I/O)区段1506、一个或多个微处理器1508和存储器区段1510的总线,存储器区段1510可以具有与其相关的闪存卡1513。存储器区段1510可以包含用于执行本文描述的任何其它过程的计算机可执行指令和/或数据。I/O区段1506可以连接到显示器1512(例如,以显示视图)、触敏表面1514(以接收触摸输入并且在一些情况下可以与显示器组合)、麦克风1516(例如,获得音频记录)、扬声器1518(例如,重放音频记录)、磁盘存储单元1520、触觉反馈引擎1544和介质驱动单元1522。介质驱动单元1522可以读/写非暂时性计算机可读存储介质1524,其可包含程序1526和/或用于实现过程1500或上文或下文所述的任何其它过程的数据。计算系统1500还包含用于通过数据网络进行通信的一个或多个无线或有线通信接口。
另外,非暂时性计算机可读存储介质可用于存储(例如,有形地体现)一个或多个计算机程序,用于通过计算机执行上述过程中的任何一个。计算机程序可以例如以通用编程语言(例如,Pascal、C、C++、Java等)或一些专用的应用程序专用语言来编写。
计算系统1500可以包含各种传感器,例如前置摄像头1528和后置摄像头1530。这些摄像头可以被配置成捕捉各种类型的光,例如可见光、红外光和/或紫外光。另外,摄像头可以被配置成基于它们接收的光捕捉或生成深度信息。在一些情况下,深度信息可以从与摄像头不同的传感器生成,但是仍然可以与来自摄像头的图像数据组合或集成。计算系统1500中包含的其它传感器包含数字罗盘1532、加速度计1534和/或陀螺仪1536。其它传感器和/或输出设备(例如点投影仪、IR传感器、光电二极管传感器、飞行时间传感器等)也可以包含在内。
虽然计算系统1500的各种组件在图15中被分开描绘,但是各种组件可以组合在一起。例如,显示器1512和触敏表面1514可以组合在一起成为触敏显示器。
在本技术的一些实例中,P-A在智能设备100前面(当智能设备100安装在佩戴于用户头上的护目镜中时的一些情况下)做手势以便与P-B进行交互。当P-B进行下面提到的手势时,以下实施例或实施例的组合也可以应用于P-B的智能设备100。
例如,如图16A所示,P-A将智能设备100保持在手162A中,智能设备100的前侧面向P-A。P-A将裸手162B朝向智能设备100的前侧移动,如图16B所示。智能设备100的接近传感器适于检测手162B与智能设备100的前侧之间的距离和/或距离的变化。接近传感器可以是在本领域中已知且使用的众所周知的接近传感器之一,并且可以用于例如在没有任何物理接触的情况下检测附近对象的存在。如本领域所公知的,接近传感器通常发射电磁场或静电场或电磁辐射束。在一些实例中,当距离等于或小于预定义阈值时,智能设备100将执行预定义动作。
仅仅作为实例,预定义阈值可以是约10mm。当手162B位于距智能设备100的前侧等于或小于约10mm时,将执行预定义动作。应注意,对手162B与智能设备100的前侧之间的距离没有限制。例如,预定义阈值可以是20mm、30mm或50mm。
在一些实例中,预定义动作包含虚拟对象出现在智能设备100的触敏屏幕上并且从其发射能量束。对智能设备100执行的动作没有限制。例如,预定义动作可以是抛掷球、导弹攻击、枪射或在智能设备100上显示的其它图形和动画。另外和/或可替代地,预定义动作可以进一步包含例如在设备100处生成或以其它方式输出的听觉和/或触觉反馈的输出。
在智能设备100执行预定义动作时,包含例如以下信息中的一些或多个的元数据将通过互联网连接发送到P-B,对于每次发射能量束:
角度:能量束发射的角度,例如,由P-A的手的角度决定(或与其成比例)。
速度:能量束发射的速度,例如,由P-A的手的速度决定(或与其成比例)。
方向:能量束发射的方向,例如,由P-A的手的方向决定(或与其成比例)。
现在转向图17A,在本技术的一些实例中,P-A将智能设备100直立在手172A中。智能设备100的直立位置被视为第一位置。P-A旋转手172A以使智能设备100从第一位置移动到第二位置,如图17B所示。例如,智能设备100被旋转到第二位置,所述第二位置与第一位置基本成90度,如图17B所示。智能设备100可以包含陀螺仪(例如,陀螺仪1536),其适于检测智能设备100的定向变化。
当智能设备100改变其定向时,例如,从第一位置移动到第二位置,智能设备100将执行预定义的动作。例如,预定义动作可以包含虚拟对象出现在智能装置100的触敏显示器上,并且从中射出射击液。对预定义的动作没有限制。例如,预定义动作可以是抛掷球、导弹攻击或枪射击,或在智能设备100处显示的其它图形和动画。另外和/或可替代地,预定义动作可以进一步包含例如在设备100处生成或以其它方式输出的可听输出(例如,通过扬声器1518和/或连接到设备100的头戴式耳机)和/或触觉反馈(例如,通过设备100处的触觉反馈引擎1544)。
在智能设备100执行预定义动作时,元数据将通过互联网传输到P-B。对智能设备100的第一位置和第二位置没有限制。第一位置可以是相对于手172A的倾斜位置,第二位置可以是直立位置。
现在转向图18A,在本技术的一些实例中,P-A将智能设备100在手182A中保持在第一位置。P-A以加速的方式将智能设备100从第一位置移动到第二位置,如图18B所示。智能设备100包含加速度计(例如,加速度计1534),其适于检测智能设备100的加速度。
例如,如图18A所示,P-A将智能设备100移动到他/她的胸部并且直到肩部位置,所述位置被视为第一位置。然后,如图18B所示,P-A开始以加速的方式将智能设备100从第一位置向下移动到P-A的大腿位置,并在大腿位置处停止移动。大腿位置被视为第二位置。
在其它实例中,如图18C所示,P-A将智能设备100移动到他/她的胸部的一侧,所述位置被视为第一位置。然后,如图18D所示,P-A开始以加速的方式将智能设备100从第一位置移动到第二位置,并在第二位置处停止移动。第二位置可以是胸部的另一侧。
当智能设备100以加速方式从第一位置移动到第二位置时,智能设备100将产生加速度值。当智能设备100的加速度计检测到加速度值等于或大于预定义阈值(例如,预定义阈值0.7)时,将由智能设备100执行预定义动作,并且元数据也将通过互联网传输到P-B。
对预定义阈值没有限制。例如,预定义阈值可以是0.75、0.8或0.9。预定义动作可以包含虚拟对象出现在智能设备100的触敏显示器上,并且从中向外抛掷防护罩。对预定义的动作没有限制。例如,预定义动作可以是抛掷球、导弹攻击或枪射击,或在智能设备100处显示的其它图形和动画。另外和/或可替代地,预定义动作可以进一步包含例如在设备100处生成或以其它方式输出的可听输出(例如,通过扬声器1518和/或连接到设备100的头戴式耳机)和/或触觉反馈(例如,通过设备100处的触觉反馈引擎1544)。
对智能设备100分别所处的第一位置和第二位置没有限制。例如,第一位置可以是头顶位置,第二位置可以是臀部位置。
现在转向图19A,在一些实例中,P-A将智能设备100保持在手192A中。如图19B所示,P-A将智能设备100移动到他/她的胸部并且直到肩部位置或甚至更高,所述位置可以是第一位置。智能设备100的正面面向P-A。
然后,P-A以加速的方式将智能设备100从第一位置向下移动到第二位置,并在第二位置处停止移动,如图19C所示。例如,第二位置可以是P-A的大腿位置。当智能设备100处于第二位置时,P-A旋转手192A以使智能设备100改变其定向,如图19D所示。
在智能设备100改变其定向时,智能设备100的陀螺仪检测到定向的改变。接着将由智能设备100执行预定义动作,并且元数据也将通过互联网传输到P-B。预定义动作可以包含虚拟对象出现在智能设备100的触敏显示器上,并且从中向外抛掷防护罩。对预定义的动作没有限制。预定义动作可以是抛掷球、导弹攻击或枪射击,或在智能设备100处显示的其它图形和动画。另外和/或可替代地,预定义动作可以进一步包含例如在设备100处生成或以其它方式输出的可听输出(例如,通过扬声器和/或连接到设备100的头戴式耳机)和/或触觉反馈(例如,通过设备100处的触觉反馈引擎)。
在以下实施方案中阐述示例性方法、非暂时性计算机可读存储介质、系统以及电子设备:
1.一种方法,其包括:
在具有显示器和一个或多个图像传感器的电子设备处:
接收指示远程用户的位置的位置数据;
基于所述位置数据和来自所述一个或多个图像传感器的图像数据生成增强现实(AR)环境;
使用所述电子设备的传感器检测所述电子设备的用户的姿势;
基于检测到的姿势的特性更新生成的AR环境;以及
将关于所述特性的信息传输到与所述远程用户相关联的远程设备。
2.根据实施方案1所述的方法,其进一步包括:
在所述电子设备的所述显示器上显示所述生成的AR环境。
3.根据实施方案1或实施方案2所述的方法,其中所述传感器是所述一个或多个图像传感器。
4.根据实施方案1-2中任一项所述的方法,其中所述传感器是连接到所述电子设备的外部传感器。
5.根据实施方案1-2或4中任一项所述的方法,其中所述传感器是手持式的。
6.根据实施方案1-5中任一项所述的方法,其中生成所述AR环境包含将与所述AR中的所述远程用户相关联的虚拟对象定位在关于基于接收到的位置数据利用所述一个或多个图像传感器捕捉到的图像数据的位置。
7.根据实施方案1-6中任一项所述的方法,其进一步包括:
从所述远程用户接收与所述远程用户相关联的远程用户数据;以及
基于接收到的远程用户数据更新所述生成的AR环境。
8.根据实施方案7所述的方法,其中所述远程用户数据是基于所述远程用户的姿势的特性。
9.根据实施方案8所述的方法,其中所述特性是所述姿势的速度、方向或角度。
10.根据实施方案7所述的方法,其中所述远程用户数据是基于所述远程用户的移动。
11.根据实施方案1-10中任一项所述的方法,其中所述姿势是手势。
12.根据实施方案1-10中任一项所述的方法,其中所述姿势是手指姿势。
13.一种非暂时性计算机可读存储介质,其编码有可由电子设备执行的计算机程序,所述电子设备在所述设备的一侧具有显示器并且具有一个或多个图像传感器,所述计算机程序包括用于执行根据实施方案1-12中任一项所述的方法的指令。
14.一种电子设备,其包括:
在所述设备的一侧上的显示器;
一个或多个图像传感器;
处理器;以及
存储器,其编码有具有可由所述处理器执行的指令的计算机程序,其中所述指令用于执行根据实施方案1-12中任一项所述的方法。
在以下项中阐述示例性方法、非暂时性计算机可读存储介质、系统以及电子设备:
1.一种方法,其包括:
在具有显示器和一个或多个图像传感器的电子设备处:
在所述显示器上显示增强现实(AR)环境的视图,其中所述AR环境包含基于从所述一个或多个图像传感器捕捉的图像数据的背景和处于第一位置的第一虚拟对象,并且所述视图包含所述第一虚拟对象的显示;
接收指示远程用户的移动的移动数据;
基于接收到的数据确定所述AR环境中的所述第一虚拟对象的属性;以及
基于所确定的属性更新所述视图的所述显示。
2.根据第1项所述的方法,其中确定所述第一虚拟对象的所述属性包含确定所述第一虚拟对象处于不同于所述第一位置的第二位置,并且其中更新所述视图的所述显示包含基于所述第二位置将所述第一虚拟对象显示在不同位置。
3.根据第2项所述的方法,其中所述第一位置与第二位置之间的差异大小是基于所述移动数据中的大小。
4.根据第2或3项所述的方法,其中所述第二位置相对于所述第一位置的方向是基于所述移动数据中的方向数据。
5.根据第2-4项中任一项所述的方法,其中基于所述AR环境中的参考位置确定所述不同位置。
6.根据第5项所述的方法,其中参考线对应于如所述视图中显示的所述AR环境的中间的位置。
7.根据第1-6项中任一项所述的方法,其进一步包括:
使用所述电子设备的一个或多个传感器检测所述电子设备的用户的一个或多个姿势;
基于所述一个或多个姿势的一个或多个属性确定第一数据;
将所述第一数据传输到所述远程用户。
8.根据第7项所述的方法,其进一步包括:
更新所述视图的所述显示以包含第二虚拟对象基于所述一个或多个姿势移动通过所述AR环境。
9.根据第7项所述的方法,其进一步包括:
更新所述视图的所述显示以包含第二虚拟对象移动通过所述视图,其对应于所述第二虚拟对象基于所述第一数据移动通过所述AR环境。
10.根据第1-9项中任一项所述的方法,其进一步包括:
基于捕捉的图像数据生成所述AR环境。
11.根据第7-10项中任一项所述的方法,其中所述一个或多个传感器包含所述一个或多个图像传感器。
12.根据第7-11项中任一项所述的方法,其中所述一个或多个传感器包含连接到所述电子设备的外部传感器。
13.根据第7-12项中任一项所述的方法,其中所述一个或多个传感器包含触敏表面。
14.根据第1-12项中任一项所述的方法,其中所述电子设备是手持式设备或头戴式设备。
一种非暂时性计算机可读存储介质,其编码有可由电子设备执行的计算机程序,所述电子设备在所述设备的一侧具有显示器并且具有一个或多个图像传感器,所述计算机程序包括用于执行根据第1-14项中任一项所述的方法的指令。
一种电子设备,其包括:
显示器;
一个或多个图像传感器;
处理器;以及
存储器,其编码有具有可由所述处理器执行的指令的计算机程序,其中所述指令用于执行根据第1-14项中任一项所述的方法。
本文描述了各种示例性实施例、实施方案和项。以非限制性的意义参考这些实例。提供它们是为了说明所公开技术的更广泛适用的方面。在不脱离各种实施例的真实精神和范围的情况下,可以进行各种改变并且可以替换等同物。另外,可以进行许多修改以使特定情况、材料、物质组成、过程、过程动作或步骤适应各种实施例的目的、精神或范围。此外,如所属领域的技术人员将理解的,这里描述和示出的每个单独的变型具有离散的组件和特征,其可以容易地与任何其它几个实施例的特征分离或组合,而不脱离各种实施例的范围或精神。

Claims (13)

1.一种与AR环境进行交互的方法,其包括:
在具有显示器和一个或多个图像传感器的电子设备处:
在所述显示器上显示增强现实AR环境的视图,其中所述AR环境包含基于从所述一个或多个图像传感器捕捉的图像数据的背景和处于第一位置的第一虚拟对象,并且所述视图包含所述第一虚拟对象的显示;
接收指示远程用户的移动的移动数据;
基于接收到的数据确定所述AR环境中的所述第一虚拟对象的属性,包含确定所述第一虚拟对象处于不同于所述第一位置的第二位置;以及
基于所确定的属性更新所述视图的所述显示,包含基于所述第二位置将所述第一虚拟对象显示在不同位置;
其中基于所述AR环境中的参考位置确定所述不同位置,参考线对应于如所述视图中显示的所述AR环境的中间的位置。
2.根据权利要求1所述的方法,其中所述第一位置与第二位置之间的差异大小是基于所述移动数据中的大小。
3.根据权利要求1所述的方法,其中所述第二位置相对于所述第一位置的方向是基于所述移动数据中的方向数据。
4.根据权利要求1-3中任一项所述的方法,其进一步包括:
使用所述电子设备的一个或多个传感器检测所述电子设备的用户的一个或多个姿势;
基于所述一个或多个姿势的一个或多个属性确定第一数据;
将所述第一数据传输到所述远程用户。
5.根据权利要求4所述的方法,其进一步包括:
更新所述视图的所述显示以包含第二虚拟对象基于所述一个或多个姿势移动通过所述AR环境。
6.根据权利要求4所述的方法,其进一步包括:
更新所述视图的所述显示以包含第二虚拟对象移动通过所述视图,其对应于所述第二虚拟对象基于所述第一数据移动通过所述AR环境。
7.根据权利要求1所述的方法,其进一步包括:
基于捕捉的图像数据生成所述AR环境。
8.根据权利要求4所述的方法,其中所述一个或多个传感器包含所述一个或多个图像传感器。
9.根据权利要求4所述的方法,其中所述一个或多个传感器包含连接到所述电子设备的外部传感器。
10.根据权利要求4所述的方法,其中所述一个或多个传感器包含触敏表面。
11.根据权利要求1所述的方法,其中所述电子设备是手持式设备或头戴式设备。
12.一种非暂时性计算机可读存储介质,其编码有能由电子设备执行的计算机程序,所述电子设备具有显示器和一个或多个图像传感器,所述计算机程序包括用于执行根据权利要求1-11中任一项所述的方法的指令。
13.一种电子设备,其包括:
显示器;
一个或多个图像传感器;
处理器;以及
存储器,其编码有具有能由所述处理器执行的指令的计算机程序,其中所述指令用于执行根据权利要求1-11中任一项所述的方法。
CN201880004705.7A 2017-06-23 2018-06-22 第一人称角色扮演互动式增强现实 Active CN110036359B (zh)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201762524443P 2017-06-23 2017-06-23
US62/524,443 2017-06-23
US201862667271P 2018-05-04 2018-05-04
US62/667,271 2018-05-04
PCT/IB2018/000771 WO2018234866A2 (en) 2017-06-23 2018-06-22 INCREASED INTERACTIVE REALITY OF ROLE PLAY IN SUBJECTIVE VIEW

Publications (2)

Publication Number Publication Date
CN110036359A CN110036359A (zh) 2019-07-19
CN110036359B true CN110036359B (zh) 2022-08-26

Family

ID=64737006

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201880004705.7A Active CN110036359B (zh) 2017-06-23 2018-06-22 第一人称角色扮演互动式增强现实

Country Status (2)

Country Link
CN (1) CN110036359B (zh)
WO (1) WO2018234866A2 (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110473293B (zh) 2019-07-30 2023-03-24 Oppo广东移动通信有限公司 虚拟对象处理方法及装置、存储介质和电子设备

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103581544A (zh) * 2012-07-20 2014-02-12 捷讯研究有限公司 动态感兴趣区域调整和提供动态感兴趣区域调整的图像捕捉设备
CN105324736A (zh) * 2013-07-23 2016-02-10 英特尔公司 触摸式和非触摸式用户交互输入的技术

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120306850A1 (en) * 2011-06-02 2012-12-06 Microsoft Corporation Distributed asynchronous localization and mapping for augmented reality
US9857470B2 (en) * 2012-12-28 2018-01-02 Microsoft Technology Licensing, Llc Using photometric stereo for 3D environment modeling
US9679414B2 (en) * 2013-03-01 2017-06-13 Apple Inc. Federated mobile device positioning
CN103760972B (zh) * 2013-12-18 2017-03-01 微软技术许可有限责任公司 跨平台的增强现实体验
US9947139B2 (en) * 2014-06-20 2018-04-17 Sony Interactive Entertainment America Llc Method and apparatus for providing hybrid reality environment
US10297082B2 (en) * 2014-10-07 2019-05-21 Microsoft Technology Licensing, Llc Driving a projector to generate a shared spatial augmented reality experience
CN106582016B (zh) * 2016-12-05 2018-05-08 湖南简成信息技术有限公司 基于增强现实的运动游戏控制方法及控制装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103581544A (zh) * 2012-07-20 2014-02-12 捷讯研究有限公司 动态感兴趣区域调整和提供动态感兴趣区域调整的图像捕捉设备
CN105324736A (zh) * 2013-07-23 2016-02-10 英特尔公司 触摸式和非触摸式用户交互输入的技术

Also Published As

Publication number Publication date
CN110036359A (zh) 2019-07-19
WO2018234866A2 (en) 2018-12-27
WO2018234866A3 (en) 2019-02-14

Similar Documents

Publication Publication Date Title
US20190196690A1 (en) First-person role playing interactive augmented reality
US9504920B2 (en) Method and system to create three-dimensional mapping in a two-dimensional game
US9149720B2 (en) Computer-readable storage medium having information processing program stored therein, information processing apparatus, information processing system, and information processing method
KR20190099390A (ko) 게임을 제어하기 위한 제어 디바이스의 센서들을 이용하기 위한 방법 및 시스템
US20170178411A1 (en) Mobile tele-immersive gameplay
US9878245B2 (en) Computer-readable storage medium having information processing program stored therein, information processing apparatus, information processing system, and information processing method for zooming on an imaging subject in a virtual space without changing an imaging direction of the virtual camera
EP3688563A1 (en) Rendering of virtual hand pose based on detected hand input
JP6470796B2 (ja) 情報処理方法、プログラム及びコンピュータ
TW201541382A (zh) 顯示裝置檢視者的凝視吸引
WO2011123192A1 (en) Method for an augmented reality character to maintain and exhibit awareness of an observer
US20180356880A1 (en) Information processing method and apparatus, and program for executing the information processing method on computer
US20240127558A1 (en) Application control program, application control method, and application control system
WO2014111947A1 (en) Gesture control in augmented reality
US9898871B1 (en) Systems and methods for providing augmented reality experience based on a relative position of objects
Lee et al. A development of virtual reality game utilizing kinect, oculus rift and smartphone
CN110036359B (zh) 第一人称角色扮演互动式增强现实
JP6580619B2 (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
US20220355188A1 (en) Game program, game method, and terminal device
JP2019179433A (ja) プログラム、情報処理装置、及び情報処理方法
JP2019133309A (ja) プログラム、情報処理装置、及び情報処理方法
WO2013111119A1 (en) Simulating interaction with a three-dimensional environment
JP6290490B1 (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
US20220347559A1 (en) Game program, game method, and information terminal device
EP4140555A1 (en) Aiming display automation for head mounted display applications
JP2019179434A (ja) プログラム、情報処理装置、及び情報処理方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant