CN115461788A - 服务器装置、终端装置、信息处理系统和信息处理方法 - Google Patents

服务器装置、终端装置、信息处理系统和信息处理方法 Download PDF

Info

Publication number
CN115461788A
CN115461788A CN202180030784.0A CN202180030784A CN115461788A CN 115461788 A CN115461788 A CN 115461788A CN 202180030784 A CN202180030784 A CN 202180030784A CN 115461788 A CN115461788 A CN 115461788A
Authority
CN
China
Prior art keywords
image
terminal device
terminal
virtual object
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202180030784.0A
Other languages
English (en)
Inventor
井上正行
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Group Corp
Original Assignee
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Group Corp filed Critical Sony Group Corp
Publication of CN115461788A publication Critical patent/CN115461788A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/216Input arrangements for video game devices characterised by their sensors, purposes or types using geographical information, e.g. location of the game device or player using GPS
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/35Details of game servers
    • A63F13/355Performing operations on behalf of clients with restricted processing capabilities, e.g. servers transform changing game scene into an encoded video stream for transmitting to a mobile phone or a thin client
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/65Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/024Multi-user, collaborative environment

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Signal Processing (AREA)
  • Environmental & Geological Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Processing Or Creating Images (AREA)

Abstract

[问题]为了提供能够减少在云渲染期间服务器装置上的处理负荷的技术。[解决方案]根据本发明的服务器装置被设置有控制单元。控制单元基于能够实现AR显示的各个终端装置的位置信息项来将预定区域内的终端装置分组,生成由包括在该组中的终端装置共享的AR图像并将AR图像发送至终端装置。

Description

服务器装置、终端装置、信息处理系统和信息处理方法
技术领域
本技术涉及一种执行云渲染的技术例如服务器装置。
背景技术
近年来,称为云游戏的服务变得众所周知。在云游戏中,云中的服务器装置生成游戏进度所需的移动图像,并将移动图像发送至每一个终端装置。因此,即使在具有相对低的处理能力的终端装置例如智能手机的情况下,也可以向用户提供复杂的真实游戏体验。
在云游戏的情况下,服务器装置具有的问题在于,服务器装置上的处理负荷是重的,因为服务器装置需要为每一个终端装置生成各自的移动图像。
以下专利文献1已经公开了如下技术:通过为每一个终端装置生成文本格式的绘制命令而非移动图像并将绘制命令发送至云游戏中的每一个终端装置来减少服务器装置上的处理负荷。
引用列表
专利文献
专利文献1:日本专利申请公开第2015-89507号
发明内容
技术问题
在专利文献1中所述的技术中,没有大大减少服务器装置上的处理负荷,并且其是不足的。
鉴于上面提到的情况,本技术的目的是提供一种能够减少云渲染中服务器装置上的处理负荷的技术。
问题的解决方案
根据本技术的服务器装置包括控制单元。控制单元基于能够执行增强现实(AR)显示的终端装置的位置信息来将在预定区域内存在的终端装置形成组,以及生成公共AR图像并将公共AR图像发送至组中包括的终端装置。
在该服务器装置中,为每一个预定区域(为每一个组)生成AR图像就足够了,并且因此可以适当减少云渲染中服务器装置上的处理负荷。
根据本技术的终端装置包括控制单元。控制单元从服务器装置接收公共增强现实(AR)图像并且基于公共AR图像执行AR显示,该服务器装置基于能够执行AR显示的终端装置的位置信息来将在预定区域内存在的终端装置形成组,以及生成公共AR图像并将公共AR图像发送至组中包括的终端装置。
根据本技术的信息处理系统包括服务器装置和终端装置。
服务器装置基于能够执行增强现实(AR)显示的终端装置的位置信息来将在预定区域内存在的终端装置形成组,以及生成公共AR图像并将公共AR图像发送至组中包括的终端装置。
终端装置接收公共AR图像并且基于公共AR图像执行AR显示。
根据本技术的信息处理方法包括:基于能够执行增强现实(AR)显示的终端装置的位置信息来将预定区域内存在的终端装置形成组,以及生成公共AR图像并将公共AR图像发送至组中包括的终端装置。
附图说明
图1是示出根据本技术的第一实施方式的信息处理系统的图。
图2是示出服务器装置的内部构造的框图。
图3是示出终端装置的内部构造的框图。
图4是示出服务器装置的处理的流程图。
图5是示出终端装置的处理的流程图。
图6是示出终端装置的处理的流程图。
图7是示出当在全局坐标系中设置点时的状态的图。
图8是示出公共AR图像的示例的图。
图9是用于描述飞行物体的图。
图10是示出信息发送侧上的终端装置的处理的流程图。
图11是示出信息接收侧上的终端装置的处理的流程图。
图12是示出飞行物体在信息接收侧上的终端装置中看起来如何的图。
图13是示出在位于点的西北处的第一用户和第一终端装置中的敌方虚拟物体如何被遮挡物体遮挡的图。
图14是示出在位于点的东部处的第二用户和第二终端装置处敌方虚拟物体如何被遮挡物体遮挡的图。
图15是示出敌方虚拟物体的RGB信息、敌方虚拟物体的深度信息和遮挡物体的深度信息的图。
具体实施方式
在下文中,将参照附图描述根据本技术的实施方式。
<<第一实施方式>>
<信息处理系统100的概述>
图1是示出根据本技术的第一实施方式的信息处理系统100的图。如图1中所示,信息处理系统100包括服务器装置10、多个终端装置20和遮挡物体数据库30。
根据本技术的第一实施方式的信息处理系统100是用于与多人增强现实(AR)游戏相关联的云游戏服务的系统。在本实施方式中,当用户佩戴或携带终端装置20时,用户可以通过在真实空间中移动来享受多人AR游戏。
此外,在本实施方式中,云中的服务器装置10生成AR图像(云渲染),并将AR图像发送至各个终端装置20,并且各个终端装置20AR显示从服务器装置10接收到的AR图像。以这种方式,在本实施方式中,可以在每一个终端装置20处AR显示利用终端装置20的处理能力不能实现的高质量AR图像(例如,三维计算机图形(CG)图像)。
另一方面,在服务器装置10为每一个终端装置20单独生成AR图像的情况下,服务器装置10上的处理负荷与加入游戏的终端装置20的数目(用户数目)成比例增加。因此,在本实施方式中,服务器装置10执行基于各个终端装置20的各个位置信息将真实空间中的预定区域中存在的终端装置20形成组,以及生成公共AR图像并将其发送至该组中包括的终端装置20的处理。
在遮挡物体数据库30中,真实空间中的遮挡物体6的位置信息和形状信息作为数据库被存储。遮挡物体6是例如真实空间中的建筑物、墙壁等。稍后将参照图13至图15等详细描述如何使用遮挡物体6的位置信息和形状信息。
<信息处理系统100的各个部分的构造>
[服务器装置10]
图2是示出服务器装置10的内部构造的框图。如图2中所示,服务器装置10包括控制单元11、存储单元12和通信单元13。
控制单元11基于存储在存储单元12中的各种程序执行各种算术运算,并综合控制服务器装置10的各个部分。应当注意,稍后将在操作描述的部分中详细描述服务器装置10的控制单元11的处理。
控制单元11由硬件或硬件和软件的组合来实现。硬件被配置成控制单元11的一部分或整个控制单元11,并且该硬件可以是中央处理单元(CPU)、图形处理单元(GPU)、数字信号处理器(DSP)、现场可编程门阵列(FPGA)、专用集成电路(ASIC)或者它们中的两个或更多个的组合。这同样适用于终端装置20中的控制单元11。
存储单元12包括控制单元11的处理所需的各种程序、存储各种类型的数据的非易失性存储器以及用于控制单元11的工作区的易失性存储器。应当注意,各种程序可以从诸如光盘和半导体存储器的便携式记录介质中读取,或者可以从网络中的另一服务器装置下载。
通信单元13被配置成能够经由网络与各个终端装置20进行通信。
[终端装置20]
终端装置20可以是例如可附接至用户身体的可穿戴装置,或者可以是对于用户来说便携式的移动装置。
可穿戴装置可以是例如头戴式显示器(HMD)可穿戴装置、腕带式可穿戴装置、手表式可穿戴装置、戒指式可穿戴装置或悬挂式可穿戴装置。移动装置可以是例如移动电话(包括智能手机)、平板个人计算机(PC)、便携式游戏控制台或便携式音乐播放器。
通常,终端装置20可以是任何装置,只要该装置能够满足以下四个条件即可:(1)它能够AR显示,(2)能够估计真实空间中的自身位置和姿态,(3)能够与服务器装置10进行通信,以及(4)能够与用户的移动一起移动。
图3是示出终端装置20的内部构造的框图。如图3中所示,终端装置20包括控制单元21、存储单元22、显示单元23、成像单元24、惯性传感器25、全球定位系统(GPS)26、操作单元27和通信单元28。
控制单元21基于存储单元22中存储的各种程序执行各种算术运算,并综合控制终端装置20的各个部分。应当注意,稍后将在操作描述的部分中详细描述终端装置20的控制单元21的处理。
存储单元22包括控制单元21的处理所需的各种程序、存储各种类型的数据的非易失性存储器以及用于控制单元21的工作区的易失性存储器。应当注意,各种程序可以从诸如光盘和半导体存储器的便携式记录介质中读取,或者可以从网络中的服务器装置下载。
显示单元23在控制单元21的控制下AR显示虚拟物体。显示单元23可以是透视显示单元,或者可以是视频透视显示单元。在透视显示单元(例如,HMD)的情况下,虚拟物体被AR显示在位于用户视线的一端处的透明显示单元上。在视频透视显示单元的情况下,以使得在显示单元23上显示图像的方式执行AR显示,在该图像中虚拟物体被叠加在由成像单元24当前成像的图像上。
成像单元24是例如摄像机,并且包括成像元件,例如电荷耦合器件(CCD)传感器和互补金属氧化物半导体(CMOS)传感器,以及光学系统,例如成像透镜。成像单元24获取真实空间中的终端装置20周围的图像信息,并将所获得的图像信息输出至控制单元21。
惯性传感器25包括检测在三个轴方向上的加速度的加速度传感器,以及检测围绕三个轴的角速度的角速度传感器。惯性传感器25将已经在检测中获得的三个轴方向上的加速度和围绕三个轴的角速度作为惯性信息输出至控制单元21。
尽管在本实施方式中,惯性传感器25的检测轴被设置成为三个轴,但是检测轴可以是单个轴或两个轴。此外,尽管在本实施方式中,两种传感器被用作惯性传感器25,但是一种传感器或者三种或更多种传感器可以被用作惯性传感器25。应当注意,惯性传感器25的其他示例可以包括速度传感器和角度传感器。
GPS 26从GPS卫星接收信号,并估计在全局坐标系中的自身位置。
操作单元27是例如,诸如按压型和接近型的各种操作单元,并且检测用户的操作并将用户的操作输出至控制单元21。操作单元27具有作为能够检测用户的游戏命令操作的游戏控制器的功能。应当注意,游戏控制器(操作单元27)可以设置在终端装置20本身中,或者可以与终端装置20分开设置。
通信单元28被配置成能够经由网络与服务器装置10进行通信。
<操作描述>
接下来,将描述信息处理系统100的处理。图4是示出服务器装置10的处理的流程图。图5和图6是示出终端装置20的处理的流程图。
[终端装置20的定位处理]
首先,将参照图5描述终端装置20的定位处理。在预定周期中,每一个终端装置20的控制单元21重复执行估计自身位置和姿态(步骤201),并将估计的自身位置信息输出至服务器装置10(步骤202)的处理。
在步骤201中,终端装置20的控制单元21基于例如由成像单元24获得的图像信息、从惯性传感器25获得的惯性信息以及由GPS 26获得的GPS信息来执行自身位置和姿态的估计(在下文中,简称为定位)。
在定位中,终端装置20的定位通过例如将从由成像单元24获取的图像信息中提取的一组特征点与地图信息中包括的一组特征点进行比较来执行。
对于用于定位的地图信息,存在预先创建地图信息的方法以及与定位同时创建地图信息而无需预先创建地图信息的方法,并且可以使用方法中的任一个。应当注意,在定位的同时创建地图信息的方法通常被称为即时定位与地图构建(SLAM)。
定位包括重新定位和运动跟踪。重新定位是基于图像信息的一组特征点和地图信息的一组特征点在全局坐标系中执行定位的技术。
例如在紧接终端装置20通电之后或者在基于运动跟踪的定位失败的情况下执行重新定位。替选地,可以不断地执行将来自图像信息的一组特征点与包括在地图信息中的一组特征点进行比较的处理,并且可以在这些组特征点之间的匹配成功的情况下执行重新定位。
运动跟踪是如下技术:基于图像信息(或惯性信息)计算在每分钟时间内自身位置和姿态的变化量(运动)并根据需要加上该变化量,从而估计全局坐标系中的当前自身位置。
在运动跟踪中,首先,由成像单元24获取的图像信息经受图像处理,并且从图像信息中提取一组特征点。然后,通过将先前图像信息的一组特征点与当前图像信息的一组特征点进行比较,计算先前自身位置和姿态与当前自身位置和姿态之间的变化量。通过将该变化量与先前自身位置和姿态相加来估计全局坐标系中的当前自身位置。
在此处的描述中,已描述了来自成像单元24的图像信息用于运动跟踪,但是可以使用来自惯性传感器25的惯性信息代替图像信息。替选地,可以使用图像信息和惯性信息两者。
替选地,在定位中,可以使用由GPS 26获得的GPS信息。
应当注意,目前已针对定位技术提出了各种方法,并且通常,终端装置20可以通过任何方法执行定位处理。
[服务器装置10的处理]
接下来,将参照图4描述服务器装置10的控制单元11的处理。首先,服务器装置10的控制单元11根据来自游戏制作方的输入在全局坐标系中设置点1(步骤101)。图7是示出在全局坐标系中设置点1的状态的图。
如图7中所示,在本实施方式中,游戏制作方根据游戏内容在全局坐标系中的任意位置处设置任意数目的点1。点1是作为预定区域2的中心的点,终端装置20在该预定区域2上被形成组。应当注意,在下面的描述中,为了方便起见,作为在其上将终端装置20形成组的区域的包括点1的预定区域将被称为分组区域2。
在图7中所示的示例中,示出了点1的数目和分组区域2的数目为四的情况下的示例。另一方面,点1的数目和分组区域2的数目是一个或更多个就足够了,并且该数目没有特别限制。
此外,尽管在图7中所示的示例中,示出了分组区域2的形状为圆形的情况下的示例,但是分组区域2的形状可以是椭圆形形状、多边形形状(三角形形状、矩形形状等)、星形形状等,并且该形状没有特别限制。应当注意,在本实施方式中,在距点1预定距离(第一距离)x内的区域是分组区域2。
此外,在本实施方式中,分组区域2与游戏区相对应,并且当终端装置20(用户)位于该游戏区中时,使得终端装置20能够玩游戏。应当注意,游戏区不需要与分组区域2完全相同,并且例如,游戏区可以被设置成比分组区域2更宽或更窄。
当服务器装置10的控制单元11在全局坐标系中设置点1和分组区域2时,然后服务器装置10的控制单元11从每一个终端装置20接收自身位置信息(步骤102)。接下来,服务器装置10将位于分组区域2内的终端装置20形成组(步骤103)。
例如,在图7中所示的示例中,四个终端装置20存在于左上分组区域2内,并且因此将四个终端装置20被分为同一组。对于右上、左下和右下分组区域2中的每一个,也以相似的方式执行分组。
应当注意,对于不属于任何分组区域2的终端装置20,不执行分组,并且也不从服务器装置10发送AR图像。
当服务器装置10的控制单元11将每一个分组区域2(针对每个点1)的终端装置20形成组时,然后服务器装置10的控制单元11为同一组中包括的终端装置20中的每一个生成公共AR图像,并将公共AR图像发送至每一个终端装置20(步骤104)。此后,服务器装置10的控制单元11重复执行步骤102至104的处理。
如上所述,在本实施方式中,服务器装置10无需为每一个终端装置20单独生成AR图像,并且为每一个分组区域2生成AR图像就足够了。因此,可以适当减少在云渲染中服务器装置10上的处理负荷。
图8是示出公共AR图像的示例的图。如图8中所示,在本实施方式中,公共AR图像是包括敌方虚拟物体5的360度AR图像。此外,对于公共AR图像中的绘制区域,内圆周被设置在距点1的距离(第二距离)r处,并且外圆周被设置在距点1的距离(第三距离)R处。也就是说,对于公共AR图像,距点1大于距离(第二距离)r且小于距离R(第三距离)处的区域是绘制区域,并且虚拟物体被布置在该区域内。
在本实施方式中,公共AR图像为360度图像。通常,公共AR图像被设置成具有比终端装置20中的显示单元23的显示角度(例如,270度、180度等)更宽的角度就足够了。
此外,内圆周的距离r通常被设置成等于或长于用于分组的距离x(r≥x)。因此,在本实施方式中,用于敌方虚拟物体5的绘制区域被设置在分组区域2(游戏区)之外的位置处。
在图8中所示的示例中,作为敌方虚拟物体5的示例,示出了鸟怪的虚拟物体被布置在西北(左上)处,女巫怪的虚拟物体被布置在东部(右)处,并且龙怪的虚拟物体被布置在西南(左下)处的状态。
此处,将描述当在属于同一组的终端装置20中的每一个中使用公共AR图像时,敌方虚拟物体5通过每一个终端装置20对于用户来说看起来如何。在图8中所示的示例中,三个终端装置20(三个人类用户)属于同一组,并且它们在真实空间中的位置不同。
另一方面,三个终端装置20中使用的AR图像为公共AR图像。因此,在各个终端装置20在真实空间中面向相同方向的情况下,对于每一个用户呈现的是,在AR空间中,敌方虚拟物体5在相对于用户在相同方向上且相同距离的位置处面向相同的方向。换句话说,尽管各个用户位于真实空间中的不同位置处,但是对于所有用户呈现的是,好像他们正从AR空间中的点1的位置观看敌方虚拟物体5一样。
将通过示出示例对其进行具体描述。假设在图8中,所有终端装置20都面向北(上)侧。不管用户(终端装置20)的位置如何,所有用户都以如下方式感知虚拟物体:好像他们正从点1的位置观看敌方虚拟物体5一样,并且鸟怪的虚拟物体当前被布置在AR图像中的西北(左上)处。因此,在这种情况下,不管用户(终端装置20)的位置如何,对于所有用户呈现的是,敌方虚拟物体5以与其他用户相同的方式在斜左前方向上的距其他用户相同距离的位置处面向相同方向。
此处,敌方虚拟物体5为第一虚拟物体的示例。在本实施方式中,第一虚拟物体是包括在公共AR图像中的虚拟物体,并且也是其相对于每一个终端装置20的相对AR显示位置对于各个终端装置20的位置中的每一个都相同的虚拟物体。应当注意,第一虚拟物体不限于敌方虚拟物体5,并且任何物体都可以被用作第一虚拟物体,只要该虚拟物体满足该条件即可。
[终端装置20的处理]
接下来,将描述终端装置20的处理。参照图6,首先,将该组共享的AR图像从服务器装置10发送至终端装置20的控制单元21,并且终端装置20的控制单元21确定是否已经接收到AR图像(步骤301)。应当注意,如上所述,将公共AR图像从服务器装置10发送至位于分组区域2内的终端装置20(参见步骤104)。
在已经接收到给用户的AR图像的情况下(步骤301中的是),终端装置20的控制单元21确定用户当前是否与敌方虚拟物体5战斗(步骤302)。
在已经接收到AR图像但是终端装置20的控制单元21没有处于战斗中的情况下(步骤302中的否),即,在曾位于分组区域2之外的终端装置20已经进入分组区域2的情况下,终端装置20的控制单元21开始与敌方的战斗(步骤303)。当终端装置20的控制单元21开始战斗时,终端装置20的控制单元21可以通过例如声音或图像向用户通知与敌方的战斗已经开始的事实。
当终端装置20的控制单元21开始战斗时,终端装置20的控制单元21转移至步骤304。此外,在步骤302中,在其当前已经处于战斗中的情况下,终端装置20的控制单元21跳过步骤303并转移至下一个步骤304。
在步骤304中,终端装置20的控制单元21基于显示单元23的当前自身姿态和显示视角,从360度AR图像设置显示区域。接下来,终端装置20的控制单元21AR显示与显示区域相对应的AR图像(敌方虚拟物体5)(步骤305)。
应当注意的是,如上所述,尽管此时属于同一组的各个用户位于真实空间中的不同位置处,但是对于所有用户呈现的是,好像他们正从点1的位置观看敌方虚拟物体5一样。
在步骤301中,在未接收到给用户的公共AR图像的情况下(步骤301中的否),终端装置20的控制单元21确定用户当前是否与敌方战斗(步骤306)。
在未接收到给用户的AR图像并且终端装置20的控制单元21当前未与敌方战斗的情况下(步骤306中的否),即,在终端装置20一直位于分组区域2之外的情况下,终端装置20的控制单元21返回步骤301。
另一方面,在未接收到给用户的AR图像但是用户当前与敌方战斗的情况下(步骤306中的是),即,在分组区域2内的终端装置20已离开分组区域2的情况下,终端装置20的控制单元21转移至步骤307。
在步骤307中,终端装置20的控制单元21确定自最后一次接收公共AR图像起是否已过去预定时间(约几秒)(步骤307)。在没有过去预定时间的情况下(步骤307中的否),终端装置20的控制单元21返回步骤301。
另一方面,在已过去预定时间的情况下(步骤307中的是),终端装置20的控制单元21结束与敌方的战斗(步骤308)并返回步骤301。当结束战斗时,终端装置20的控制单元21可以通过例如声音或图像向用户通知结束与敌方的战斗的事实。
<飞行物体>
接下来,将描述飞行物体(第二虚拟物体)。图9是用于描述飞行物体的图。
飞行物体是当用户通过命令攻击敌方时显示的虚拟物体AR,并且例如,是从用户(终端装置20)朝向敌方虚拟物体5移动的虚拟物体,例如魔法、子弹和箭。
此处,在图9的描述中,为了方便起见,位于点1的西北(左上)处的用户和终端装置20将分别被称为第一用户和第一终端装置20a,并且为了方便起见,位于点1的东部(右)处的用户和终端装置20将分别被称为第二用户和第二终端装置20b。此外,假设飞行物体是作为公共AR图像的虚拟物体的情况。
首先,假设第一用户已经通过第一终端装置20a输入命令,并且例如,已经对敌方虚拟物体5进行了魔法攻击等。在这种情况下,第一用户和第一终端装置20a不位于点1处,但是第一用户以如下方式感知敌方虚拟物体5:好像第一用户正从点1的位置观看敌方虚拟物体5一样。然后,在这种情况下,对于第一用户,自然的是,将飞行物体AR显示成使得基于魔法攻击等的飞行物体从自身位置(即,点1)朝向敌方虚拟物体5飞行。
第二用户和第二终端装置20b也不位于点1处,但是第二用户以如下方式感知敌方虚拟物体5:好像第二用户正从点1的位置观看敌方虚拟物体5一样。另一方面,当第一用户进行了魔法攻击等时,第二用户无法进行魔法攻击等。然而,在飞行物体是基于公共AR图像的虚拟物体的情况下,同样对于第二用户,飞行物体被AR显示成使得基于魔法攻击等的飞行物体从自身位置朝向敌方虚拟物体5飞行。
也就是说,在飞行物体是基于公共AR图像的虚拟物体的情况下,在某些情况下,对于第二用户来说看起来不自然。这样的问题在单人AR游戏中是可忽略的,而该问题在多人AR游戏中是不可忽略的。因此,在本实施方式中,关于飞行物体,AR图像由每一个终端装置20单独生成,并且叠加在由服务器装置10生成的公共AR图像上。
此处,飞行物体是第二虚拟物体的示例。第二虚拟物体是其相对于每一个终端装置20的相对AR显示位置对于各个终端装置20的位置中的每一个不同的虚拟物体。第二虚拟物体不限于飞行物体,并且可以是任何虚拟物体,只要该第二虚拟物体满足该条件即可。
例如,第二虚拟物体可以是在用户附近AR显示的朋友角色的虚拟物体。例如,将假设存在位于图9中的第一用户附近的右手侧上的朋友虚拟物体的情况。在这种情况下,在从第一用户观察时位于右手侧上的朋友怪物在从第二用户观察时应该位于左手侧上,并且在从第二用户观察时,朋友怪物位于右手侧上是不自然的。因此,同样对于这样的朋友虚拟物体,可以将由每一个终端装置20单独生成的AR图像叠加在由服务器装置10生成的公共AR图像上。
[终端装置20的处理:信息发送侧]
接下来,将描述信息发送侧上的终端装置20的处理。图10是示出信息发送侧上的终端装置20的处理的流程图。
首先,终端装置20的控制单元21确定其是否与敌方虚拟物体5战斗(其是否位于分组区域2内)(步骤401)(参见步骤303和308)。在其不处于战斗中的情况下(步骤401中的否),终端装置20的控制单元21再次返回步骤401。
另一方面,在其处于战斗中的情况下(步骤401中的是),终端装置20的控制单元21确定是否已经经由操作单元27从用户输入了飞行攻击命令(步骤402)。在没有输入飞行攻击命令的情况下(步骤402中的否),终端装置20的控制单元21返回步骤401。
另一方面,在已经输入飞行攻击命令的情况下(步骤402中的是),终端装置20的控制单元21转移至下一个步骤403。在步骤403中,终端装置20的控制单元21向服务器装置10发送飞行物体相关信息,并使服务器装置10向属于同一组的其他终端装置20发送飞行物体相关信息和自身位置信息。
飞行物体相关信息包括飞行物体的标识信息(例如,用于标识飞行物体是哪一个(魔法、子弹或箭)的信息)、有关飞行物体的飞行方向的信息和有关飞行物体的飞行速度的信息。
在终端装置20的控制单元21使服务器装置10向属于同一组的其他终端装置20发送飞行物体相关信息和自身位置信息之后,终端装置20的控制单元21转移至下一个步骤404。在步骤404中,终端装置20的控制单元21将飞行物体叠加在从服务器装置10发送的公共AR图像上,并执行AR显示,使得飞行物体以取决于飞行速度的速度从自身位置(即,点1)在飞行方向上飞行。根据飞行攻击命令的种类来确定飞行物体的种类。
此后,终端装置20的控制单元21返回至步骤401。应当注意,在已经进行了飞行攻击命令的终端装置20中,看起来飞行物体正在从自身位置起(即,从点1起)在飞行方向上飞行,如在图9中所示。
[终端装置20的处理:信息接收侧]
接下来,将描述信息接收侧上的终端装置20的处理。图11是示出信息接收侧上的终端装置20的处理的流程图。图12是示出在信息接收侧上的终端装置20中飞行物体看起来如何的图。
首先,终端装置20的控制单元21确定其是否与敌方虚拟物体5战斗(其是否位于分组区域2内)(步骤501)(参见步骤303和308)。在其不处于战斗中的情况下(步骤501中的否),终端装置20的控制单元21再次返回步骤501。
另一方面,在其处于战斗中的情况下(步骤501中的是),终端装置20的控制单元21转移至下一个步骤502。在步骤502中,终端装置20的控制单元21确定是否已经从服务器装置10接收到其他终端装置20(已经进行了飞行攻击命令的终端装置20)的位置信息和飞行物体相关信息。
在未从服务器装置10接收到这种信息的情况下(步骤502中的否),终端装置20的控制单元21返回步骤501。另一方面,在已经从服务器装置10接收到这种信息的情况下(步骤502中的是),终端装置20的控制单元21转移至下一个步骤503。
在步骤503中,终端装置20的控制单元21计算在全局坐标系中自身位置与其他终端装置20(已经进行了飞行攻击命令的终端装置20)的位置之间的差D,并且基于计算的差D设置飞行物体的起始点(AR显示位置)。
图12示出了自身位置与其他终端装置20之间的差D以及飞行命令的起始点位置的示例。在图12的描述中,如在图9中的,为了方便起见,位于点1的西北(左上)处的用户和终端装置20将分别被称为第一用户和第一终端装置20a,并且为了方便起见,位于点1的东部(右)处的用户和终端装置20将分别被称为第二用户和第二终端装置20b。
在第一终端装置20a已进行了飞行攻击命令的情况下,第二终端装置20b计算差D和起始点。第二终端装置20b不位于点1处,但是第二用户以如下方式感知敌方虚拟物体5,好像第二用户正从点1的位置观看敌方虚拟物体5一样。另一方面,当在真实空间中从第二终端装置20b的位置察看第一终端装置20a时,第一终端装置20a位于差D的位置处。因此,在这种情况下,飞行物体的起始点被设置在与距点1的位置的差D相对应的位置处。
在计算起始点之后,终端装置20的控制单元21基于接收到的飞行物体相关信息中包括的有关飞行方向的信息,计算在从用户观察时飞行物体的飞行方向(步骤504)(参见图12的箭头方向)。
接下来,终端装置20的控制单元21将飞行物体叠加在从服务器装置10发送的公共AR图像上,并执行AR显示,使得飞行物体以取决于飞行速度(移动速度)的速度从起始点位置起在飞行方向上飞行(步骤505)(参见图12的箭头)。根据包括在接收到的飞行物体相关信息中的标识信息来确定飞行物体的种类。
应当注意,在飞行物体撞击敌方虚拟物体5的情况下,对于所有用户呈现的是,通过调整飞行物体的飞行速度(移动速度),飞行物体在同一时间撞击敌方虚拟物体5。飞行速度的调整可以通过例如将从飞行物体的攻击开始到飞行物体撞击至敌方虚拟物体5的时间设置成为某个常数来实现。
当飞行物体撞击敌方虚拟物体5时,可以AR显示指示飞行物体撞击敌方物体的效果或者敌方虚拟物体5被击倒的动作。这种情况下的效果或击倒动作通常通过由服务器装置10生成的公共AR图像来实现。
通过上面提到的处理,在本实施方式中,飞行物体的起始点、飞行方向、飞行速度(到敌方虚拟物体5的撞击时间)等对于包括在组中的所有用户来说都是自然的,而没有不适。
<AR遮挡>
接下来,将描述遮挡物体6对敌方虚拟物体5的AR遮挡。此处,遮挡物体6是真实空间中的真实物体,该真实物体相对于每一个终端装置20的相对位置对于各个终端装置20的位置中的每一个是不同的,并且是可能遮挡敌方虚拟物体5(第一虚拟物体)的物体。遮挡物体6是例如,真实空间中的建筑物、墙壁等。
在每一个终端装置20中使用公共AR图像的情况下,将描述敌方虚拟物体5如何被遮挡物体6遮挡。
图13是示出在位于点1的西北处的第一用户和第一终端装置20a处敌方虚拟物体5如何被遮挡物体6遮挡的图。图14是示出在位于点1的东部处的第二用户和第二终端装置20b处敌方虚拟物体5如何被遮挡物体6遮挡的图。
首先,将对图13进行描述。如图13中所示,第一用户(第一终端装置20a)位于点1的西北(左上)处。在AR空间中,不管第一用户在真实空间中的位置如何,第一用户以如下方式感知敌方虚拟物体5,好像第一用户正从点1的位置观看敌方虚拟物体5一样。
例如,当第一用户面向北侧时,第一用户在AR空间中的视场如在图13中的虚线倒三角形中所示。因此,如在图13的中上侧中所示,对于第一用户呈现的是,敌方虚拟物体5位于AR空间中的左上位置处。
另一方面,当从第一用户在真实空间中的位置观察时,遮挡物体6的位置和外观形状根据第一用户在真实空间中的位置而改变。例如,当第一用户面向北侧时,第一用户在真实空间中的视场如在图13中的实线倒三角形中所示。因此,如在图13的中下侧中所示,第一用户在真实空间中的左前侧上感知较小的遮挡物体6,并且在右前侧上感知较大的遮挡物体6。
因此,基于AR空间中的敌方虚拟物体5与真实空间中的遮挡物体6之间的位置关系,第一用户最终感知敌方虚拟物体5和遮挡物体6,如在图13的右手侧上所示。也就是说,当第一用户观察敌方虚拟物体5时,敌方虚拟物体5应当被AR显示成使得被遮挡物体6遮挡的身体和腿部分缺失。
接下来,将对图14进行描述。如图14中所示,第二用户(第二终端装置20b)位于点1的东部(右)处。在AR空间中,不管第二用户在真实空间中的位置如何,第二用户以如下方式感知敌方虚拟物体5,好像第二用户正从点1的位置观看敌方虚拟物体5一样。
例如,当第二用户面向北侧时,第二用户在AR空间中的视场如在图14中的虚线倒三角形中所示。因此,如在图14的中上侧中所示,对于第二用户呈现的是,敌方虚拟物体5位于AR空间中的左前侧上。敌方虚拟物体5看起来的样子对于第一用户和第二用户来说是公共的。
另一方面,从第二用户在真实空间中的位置观察时遮挡物体6的位置和外观形状根据第二用户在真实空间中的位置而改变。例如,当第二用户面向北侧时,第二用户在真实空间中的视场如在图14中的实线倒三角形中所示。因此,如在图14的中下侧上所示,第二用户在真实空间中的左前侧上感知较大的遮挡物体6。
应当注意,当从第一用户观察时,较小的遮挡物体6也包括在视场中,而当从第二用户观察时,较小的遮挡物体6不包括在视场中。
基于AR空间中的敌方虚拟物体5与真实空间中的遮挡物体6之间的位置关系,第二用户最终感知敌方虚拟物体5和遮挡物体6,如在图14的右手侧上所示。也就是说,当第二用户观察敌方虚拟物体5时,应当执行AR显示,使得已被遮挡物体6遮挡的敌方虚拟物体5的下方大部分缺失。
如从图13的右手侧上的图片与图14的右手侧上的图片的比较中可以看出的,敌方虚拟物体5的哪一部分被遮挡物体6遮挡取决于每一个终端装置20的位置,并且对于各个终端装置20来说不是公共的。
同样在这种情况下,在本实施方式中,执行如下处理,以用于在每一个终端装置20中正确执行AR遮挡。
例如,当服务器装置10的控制单元11在图5的步骤104中向每一个终端装置20发送用于AR显示的信息时,服务器装置10的控制单元11发送如下三种类型的信息:
(1)敌方虚拟物体5的RGB(红绿蓝)信息,
(2)敌方虚拟物体5的深度信息,
(3)遮挡物体6的深度信息(关于遮挡物体6的遮挡物体信息)。
图15是示出敌方虚拟物体5的RGB信息、敌方虚拟物体5的深度信息和遮挡物体6的深度信息的图。
此处,敌方虚拟物体5的RGB信息和敌方虚拟物体5的深度信息是属于同一组的各个终端装置20共享的信息。另一方面,遮挡物体6的深度信息是每一个终端装置20的单独信息。
也就是说,服务器装置10的控制单元11为每一个终端装置20单独生成遮挡物体6的深度信息,并将遮挡物体6的深度信息发送至每一个终端装置20。由服务器装置10的控制单元11基于终端装置20的位置信息以及存储在遮挡物体数据库30中的遮挡物体6的位置信息和形状信息来生成遮挡物体6的深度信息。
在终端装置20的控制单元21从服务器装置10接收到敌方虚拟物体5的RGB信息、敌方虚拟物体5的深度信息和遮挡物体6的深度信息之后,终端装置20的控制单元21执行以下处理。
首先,终端装置20的控制单元21基于敌方虚拟物体5的深度信息和遮挡物体6的深度信息来确定敌方虚拟物体5与遮挡物体6之间在深度方向上的位置关系。接下来,在敌方虚拟物体5位于比遮挡物体6更深的侧上的情况下,终端装置20的控制单元21去除位于比遮挡物体6更深的侧上的敌方虚拟物体5的RGB信息的一部分。然后,终端装置20的控制单元21执行对未被遮挡物体6遮挡的敌方虚拟物体5的RGB信息的一部分的AR显示。
在图15的右手侧上,示出了当被遮挡物体6遮挡的敌方虚拟物体5的RGB信息的一部分被去除并且未被遮挡物体6遮挡的敌方虚拟物体5的RGB信息的一部分被AR显示时的状态。
通过如上所述的处理,此外在使用各个终端装置20共享的AR图像的本技术中,可以正确执行AR遮挡。
<动作等>
如上所述,在本实施方式中,服务器装置10基于各个终端装置20的各个位置信息来将位于分组区域2内的终端装置20形成组,并且生成公共AR图像并将其发送至包括在该组中的终端装置20。
因此,在本实施方式中,服务器装置10无需为每一个终端装置20单独生成AR图像,并且为每一个分组区域2生成AR图像就足够了。因此,可以适当减少云渲染中的服务器装置10上的处理负荷。
此外,在本实施方式中,每一个终端装置20单独生成飞行物体(第二虚拟物体)的AR图像,并将飞行物体(第二虚拟物体)的AR图像叠加在公共AR图像上。
因此,在本实施方式中,可以向该组中包括的用户中的每一个自然呈现飞行物体的位置和运动。
此外,在本实施方式中,服务器装置10为每一个终端装置20单独生成遮挡物体6的深度信息。然后,基于遮挡物体6的深度信息,终端装置20执行敌方虚拟物体5的未被遮挡物体6遮挡的一部分的AR显示。
因此,此外在使用各个终端装置20公共的AR图像的本技术中,可以正确执行AR遮挡。
<<各种修改示例>>
在上文中,已经描述了将本技术应用于游戏的情况。另一方面,本技术也可以用于除了游戏之外的应用。通常,本技术还可以用于任何应用,只要其是多个人聚集在特定区域中的各种事件等即可。
本技术还可以采用以下构造。
(1)一种服务器装置,包括:
控制单元,其基于能够执行增强现实(AR)显示的终端装置的位置信息来将预定区域内存在的终端装置形成组,并且生成公共AR图像并将所述公共AR图像发送至组中包括的所述终端装置。
(2)根据(1)所述的服务器装置,其中,
所述控制单元将位于距预定点第一距离的区域内的所述终端装置形成组。
(3)根据(2)所述的服务器装置,其中,
所述公共AR图像是具有比所述终端装置中的AR显示角度更宽的角度的图像。
(4)根据(3)所述的服务器装置,其中,
所述公共AR图像是以所述点为中心的360度图像。
(5)根据(2)至(4)中任一项所述的服务器装置,其中,
所述公共AR图像是在距所述点大于等于第二距离且小于等于第三距离的区域内的图像。
(6)根据(5)所述的服务器装置,其中,
所述第二距离等于或大于所述第一距离。
(7)根据(1)至(6)中任一项所述的服务器装置,其中,
所述公共AR图像包括第一虚拟物体,以及
所述终端装置中的每一个在相对于每一个终端装置的相对AR显示位置处单独生成第二虚拟物体的AR图像,并且将所述第二虚拟物体的AR图像叠加在所述公共AR图像上,所述相对AR显示位置对于所述终端装置的位置中的每一个是不同的。
(8)根据(7)所述的服务器装置,其中,
所述终端装置获取其他终端装置的位置信息,并且基于自身位置信息和所述其他终端装置的位置信息来设置所述第二虚拟物体的AR显示位置。
(9)根据(8)所述的服务器装置,其中,
所述第二虚拟物体是可移动物体,并且
所述终端装置调整所述第二虚拟物体的移动速度。
(10)根据(1)至(9)中任一项所述的服务器装置,其中,
所述公共AR图像包括第一虚拟物体,并且
所述控制单元为每一个终端装置单独生成关于可能遮挡所述第一虚拟物体的遮挡物体的遮挡物体信息,并且将所述遮挡物体信息发送至每一个终端装置,所述遮挡物体是真实空间中的真实物体,并且处于相对于每一个终端装置的相对位置处,所述相对位置对于所述终端装置的位置中的每一个是不同的。
(11)根据(10)所述的服务器装置,其中,
所述控制单元基于所述终端装置的位置信息和所述遮挡物体的位置信息生成所述遮挡物体信息。
(12)根据(10)或(11)所述的服务器装置,其中,
所述终端装置基于所述遮挡物体信息对所述第一虚拟物体的未被所述遮挡物体遮挡的一部分执行所述AR显示。
(13)一种终端装置,包括:
控制单元,其从服务器装置接收公共增强现实(AR)图像并且基于所述公共AR图像执行AR显示,所述服务器装置基于能够执行所述AR显示的终端装置的位置信息来将预定区域内存在的终端装置形成组,以及生成所述公共AR图像并将所述公共AR图像发送至组中包括的所述终端装置。
(14)一种信息处理系统,包括:
服务器装置,其基于能够执行增强现实(AR)显示的终端装置的位置信息来将预定区域内存在的终端装置形成组,以及生成公共AR图像并将所述公共AR图像发送至组中包括的所述终端装置;以及
终端装置,其接收所述公共AR图像并且基于所述公共AR图像执行AR显示。
(15)一种信息处理方法,包括:
基于能够执行增强现实(AR)显示的终端装置的位置信息来将预定区域内存在的终端装置形成组,以及生成公共AR图像并将所述公共AR图像发送至组中包括的所述终端装置。
附图标记列表
1点
2分组区域
5敌方虚拟物体
6遮挡物体
10服务器装置
20终端装置
30遮挡物体数据库。

Claims (15)

1.一种服务器装置,包括:
控制单元,所述控制单元基于能够执行增强现实(AR)显示的终端装置的位置信息来将预定区域内存在的终端装置形成组,以及生成公共AR图像并将所述公共AR图像发送至组中包括的所述终端装置。
2.根据权利要求1所述的服务器装置,其中,
所述控制单元将在距预定点第一距离的区域内存在的所述终端装置形成组。
3.根据权利要求2所述的服务器装置,其中,
所述公共AR图像是具有比所述终端装置中的AR显示角度更宽的角度的图像。
4.根据权利要求3所述的服务器装置,其中,
所述公共AR图像是以所述点为中心的360度图像。
5.根据权利要求2所述的服务器装置,其中,
所述公共AR图像是在距所述点大于等于第二距离且小于等于第三距离的区域内的图像。
6.根据权利要求5所述的服务器装置,其中,
所述第二距离等于或大于所述第一距离。
7.根据权利要求1所述的服务器装置,其中,
所述公共AR图像包括第一虚拟物体,以及
所述终端装置中的每一个在相对于每一个终端装置的相对AR显示位置处单独生成第二虚拟物体的AR图像,并且将所述第二虚拟物体的AR图像叠加在所述公共AR图像上,所述相对AR显示位置对于所述终端装置的位置中的每一个是不同的。
8.根据权利要求7所述的服务器装置,其中,
所述终端装置获取其他终端装置的位置信息,并且基于自身位置信息和所述其他终端装置的位置信息来设置所述第二虚拟物体的AR显示位置。
9.根据权利要求8所述的服务器装置,其中,
所述第二虚拟物体是可移动物体,并且
所述终端装置调整所述第二虚拟物体的移动速度。
10.根据权利要求1所述的服务器装置,其中,
所述公共AR图像包括第一虚拟物体,并且
所述控制单元为每一个终端装置单独生成关于可能遮挡所述第一虚拟物体的遮挡物体的遮挡物体信息,并且将所述遮挡物体信息发送至每一个终端装置,所述遮挡物体是真实空间中的真实物体并且处于相对于每一个终端装置的相对位置处,所述相对位置对于所述终端装置的位置中的每一个是不同的。
11.根据权利要求10所述的服务器装置,其中,
所述控制单元基于所述终端装置的位置信息和所述遮挡物体的位置信息生成所述遮挡物体信息。
12.根据权利要求10所述的服务器装置,其中,
所述终端装置基于所述遮挡物体信息对所述第一虚拟物体的未被所述遮挡物体遮挡的部分执行所述AR显示。
13.一种终端装置,包括:
控制单元,其从服务器装置接收公共增强现实(AR)图像并且基于所述公共AR图像执行AR显示,所述服务器装置基于能够执行所述AR显示的终端装置的位置信息来将预定区域内存在的终端装置形成组,以及生成所述公共AR图像并将所述公共AR图像发送至组中包括的所述终端装置。
14.一种信息处理系统,包括:
服务器装置,其基于能够执行增强现实(AR)显示的终端装置的位置信息来将在预定区域内存在的终端装置形成组,以及生成公共AR图像并将所述公共AR图像发送至组中包括的所述终端装置;以及
终端装置,其接收所述公共AR图像并且基于所述公共AR图像执行AR显示。
15.一种信息处理方法,包括:
基于能够执行增强现实(AR)显示的终端装置的位置信息来将预定区域内存在的终端装置形成组,以及生成公共AR图像并将所述公共AR图像发送至组中包括的所述终端装置。
CN202180030784.0A 2020-05-01 2021-04-19 服务器装置、终端装置、信息处理系统和信息处理方法 Pending CN115461788A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2020081563 2020-05-01
JP2020-081563 2020-05-01
PCT/JP2021/015892 WO2021220866A1 (ja) 2020-05-01 2021-04-19 サーバ装置、端末装置、情報処理システム及び情報処理方法

Publications (1)

Publication Number Publication Date
CN115461788A true CN115461788A (zh) 2022-12-09

Family

ID=78374099

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202180030784.0A Pending CN115461788A (zh) 2020-05-01 2021-04-19 服务器装置、终端装置、信息处理系统和信息处理方法

Country Status (4)

Country Link
US (1) US20230205389A1 (zh)
JP (1) JPWO2021220866A1 (zh)
CN (1) CN115461788A (zh)
WO (1) WO2021220866A1 (zh)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5870958B2 (ja) * 2012-04-27 2016-03-01 キヤノンマーケティングジャパン株式会社 情報処理システム、その制御方法、及びプログラム、並びに情報処理装置、その制御方法、及びプログラム
JP6955861B2 (ja) * 2016-12-16 2021-10-27 株式会社バンダイナムコエンターテインメント イベント制御システム及びプログラム
US10341537B2 (en) * 2017-09-29 2019-07-02 Sony Interactive Entertainment America Llc Spectator view into an interactive gaming world showcased in a live event held in a real-world venue
WO2019064872A1 (ja) * 2017-09-29 2019-04-04 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム

Also Published As

Publication number Publication date
JPWO2021220866A1 (zh) 2021-11-04
WO2021220866A1 (ja) 2021-11-04
US20230205389A1 (en) 2023-06-29

Similar Documents

Publication Publication Date Title
US11758346B2 (en) Sound localization for user in motion
US10372209B2 (en) Eye tracking enabling 3D viewing
US8142277B2 (en) Program, game system, and movement control method for assisting a user to position a game object
KR101926178B1 (ko) 가상 공간에의 몰입감과 실제 공간에서의 이동을 양립할 수 있는 가상 현실 시스템 및 이를 이용한 전투 훈련 시스템
US9155967B2 (en) Method for implementing game, storage medium, game device, and computer
US8535154B2 (en) Information storage medium and image generation device
US8678898B2 (en) Information storage medium, terminal, image generation method, and network system
JP2019122496A (ja) シミュレーションシステム及びプログラム
JP6342024B1 (ja) 仮想空間を提供するための方法、当該方法をコンピュータに実行させるためのプログラム、および当該プログラムを実行するための情報処理装置
JP2000350860A (ja) 複合現実感装置及び複合現実空間画像の生成方法
JP2017102639A (ja) アバター表示システム、ユーザ端末、及びプログラム
EP4082638A1 (en) Image processing system, image processing program, and image processing method
JP2017102897A (ja) アバター表示システム、ユーザ端末、及びプログラム
JP2019017755A (ja) ゲームプログラム及びゲームシステム
JP2018171320A (ja) シミュレーションシステム及びプログラム
CN115461788A (zh) 服务器装置、终端装置、信息处理系统和信息处理方法
WO2017199218A1 (en) Augmented reality platform using captured footage from multiple angles
JP7138483B2 (ja) コンピュータプログラム、情報処理装置および情報処理方法
WO2018116377A1 (ja) 現実空間を撮像した映像にオブジェクトを重畳させる処理を行う処理装置、方法、プログラム、および処理システム
JP2018156675A (ja) 仮想空間を提供するための方法、当該方法をコンピュータに実行させるためのプログラム、および当該プログラムを実行するための情報処理装置
JP7472912B2 (ja) 情報処理装置、情報処理方法および記録媒体
JP2019179434A (ja) プログラム、情報処理装置、及び情報処理方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination