JP2015116336A - Mixed-reality arena - Google Patents

Mixed-reality arena Download PDF

Info

Publication number
JP2015116336A
JP2015116336A JP2013261801A JP2013261801A JP2015116336A JP 2015116336 A JP2015116336 A JP 2015116336A JP 2013261801 A JP2013261801 A JP 2013261801A JP 2013261801 A JP2013261801 A JP 2013261801A JP 2015116336 A JP2015116336 A JP 2015116336A
Authority
JP
Japan
Prior art keywords
user
see
physical space
arena
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013261801A
Other languages
Japanese (ja)
Other versions
JP2015116336A5 (en
Inventor
スティーヴン・ラッタ
Latta Stephen
ダニエル・マカロック
Mcculloch Daniel
クド・ツノダ
Tsunoda Kudo
アーロン・クラウス
Krauss Aaron
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Corp
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Priority to JP2013261801A priority Critical patent/JP2015116336A/en
Publication of JP2015116336A publication Critical patent/JP2015116336A/en
Publication of JP2015116336A5 publication Critical patent/JP2015116336A5/ja
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a computing system that comprises a see-through display device, a logic subsystem, and a storage subsystem storing instructions.SOLUTION: When executed by the logic subsystem, the instructions display on the see-through display device a virtual arena, a user-controlled avatar, and an opponent avatar. The virtual arena appears to be integrated within a physical space when the physical space is viewed through the see-through display device. In response to receiving a user input, the instructions may also display on the see-through display device an updated user-controlled avatar.

Description

[0001]格闘ゲームは、事前定義された格闘環境としてビデオゲームシステムの二次元の静止ディスプレイ上に頻繁に表示される。ユーザは、一般に、ビデオゲームシステムに接続されたビデオゲームコントローラを用いて格闘ゲームに関する制御を提供する。   [0001] Fighting games are frequently displayed on a two-dimensional stationary display of a video game system as a predefined fighting environment. A user typically provides control over a fighting game using a video game controller connected to the video game system.

[0002]コンピューティングシステム内で複合現実感格闘ゲームを提供するための実施形態が本明細書で開示される。例えば、コンピューティングシステムは、シースルー・ディスプレイデバイスと、論理サブシステムと、命令を記憶する記憶サブシステムとを備えることが可能であり、該命令は、論理サブシステムによって実行されるとき、仮想アリーナ、ユーザ制御アバタ、および対戦相手アバタをシースルー・ディスプレイデバイス上に表示して、物理空間がシースルー・ディスプレイデバイスを通して見られたとき、仮想アリーナは物理空間内に統合される。ユーザ入力の受信に応答して、これらの命令は、ユーザ入力に基づいて更新されたユーザ制御アバタをシースルー・ディスプレイデバイス上に表示することも可能である。   [0002] Embodiments for providing a mixed reality fighting game within a computing system are disclosed herein. For example, a computing system can comprise a see-through display device, a logical subsystem, and a storage subsystem that stores instructions, when the instructions are executed by the logical subsystem, a virtual arena, When the user-controlled avatar and the opponent avatar are displayed on the see-through display device and the physical space is viewed through the see-through display device, the virtual arena is integrated into the physical space. In response to receiving user input, these instructions may also display an updated user control avatar on the see-through display device based on the user input.

[0003]本発明の概要は、発明を実施するための形態において下でさらに説明される概念の選択を簡素化された形で紹介するために提供される。本発明の概要は、特許請求される主題の主な特徴もしくは本質的な特徴を識別することが意図されず、または特許請求される主題の範囲を限定するために使用されることも意図されない。さらに、特許請求される主題は、本開示のいずれかの部分で言及されるいずれかの不利点またはすべての不利点を解決する実装に限定されない。   [0003] This Summary is provided to introduce a selection of concepts in a simplified form that are further described below in the Detailed Description. This Summary is not intended to identify key features or essential features of the claimed subject matter, nor is it intended to be used to limit the scope of the claimed subject matter. Furthermore, the claimed subject matter is not limited to implementations that solve any or all disadvantages noted in any part of this disclosure.

[0004]物理空間内でシースルー・ディスプレイデバイスを装着するユーザの上面図である。[0004] FIG. 4 is a top view of a user wearing a see-through display device in physical space. [0005]図1Aのユーザの変更されていない一人称視点を示す図である。[0005] FIG. 1B is an illustration of the user's first person view of FIG. 1A unchanged. [0006]シースルー・ディスプレイデバイスが仮想アリーナを表示するために現実を拡張する間の図1Aのユーザの一人称視点を示す図である。[0006] FIG. 1B shows the first person view of the user of FIG. 1A while the see-through display device extends reality to display a virtual arena. [0007]本開示のある実施形態による三人称視野内の物理空間のある例示的な拡張を示す図である。[0007] FIG. 2 illustrates an example extension of physical space in a third person field of view according to certain embodiments of the present disclosure. [0008]本開示のある実施形態による一人称視野内の物理空間のある例示的な拡張を示す図である。[0008] FIG. 4 illustrates an example extension of physical space in a first person view in accordance with certain embodiments of the present disclosure. [0009]本開示のある実施形態による、格闘ゲームを提供する、ある例示的な対戦相手コンピューティングシステムを示す図である。[0009] FIG. 2 illustrates an exemplary opponent computing system that provides a fighting game according to an embodiment of the present disclosure. [0010]本開示のある実施形態による、仮想アリーナを物理空間内に統合する、ある例示的な方法を示す図である。[0010] FIG. 4 illustrates an example method of integrating a virtual arena into physical space, according to certain embodiments of the present disclosure. [0011]本開示のある実施形態による、ある例示的な頭部装着型ディスプレイを示す図である。[0011] FIG. 2 illustrates an exemplary head mounted display, according to certain embodiments of the present disclosure. [0012]本開示のある実施形態による、ある例示的なコンピューティングシステムを示す図である。[0012] FIG. 2 illustrates an example computing system, in accordance with certain embodiments of the present disclosure.

[0013]格闘ゲームは、多くの場合、現実世界とのつながりがほとんどないか、かまたはまったくない二次元の事前定義された仮想環境として実施される。これらのゲームは、ユーザが経験できる没頭のレベルを制限して、静止画面およびビデオゲームシステムにユーザを束縛する。したがって、開示される実施形態は、格闘をユーザの物理的環境内に組み込むことによって、ユーザを「リングサイド」に連れて行くこと、またはさらにユーザを格闘に直接的に参加させる格闘ゲームを対象とする。例えば、下でより詳細に説明されるように、仮想アリーナおよび1つまたは複数のアバタをシースルーディスプレイ上に表示することによって、仮想アリーナおよびアバタはユーザの物理的環境内に統合されることが可能である。そのような統合は、格闘ゲーム内でユーザ制御アバタに関する制御を提供するために、ユーザが物理的環境と相互作用することを可能にし得る。   [0013] Fighting games are often implemented as a two-dimensional predefined virtual environment with little or no connection to the real world. These games limit the level of immersion that a user can experience and tie the user to a static screen and video game system. Accordingly, the disclosed embodiments are directed to a fighting game that takes the user to the “ringside” by incorporating the fight into the user's physical environment, or even joins the user directly into the fight. To do. For example, the virtual arena and avatar can be integrated into the user's physical environment by displaying the virtual arena and one or more avatars on a see-through display, as described in more detail below. It is. Such integration may allow the user to interact with the physical environment to provide control over the user control avatar within the fighting game.

[0014]図1Aは、物理空間104内のシースルー・ディスプレイデバイス102を含むコンピューティングシステム101を利用するユーザ100の上面図を概略的に示す。本明細書で使用される場合、物理空間という用語は、部屋など、ユーザ100の現実世界の物理的環境を指す場合がある。同様に、物理的位置は、ユーザ、現実世界オブジェクト、および/または物理空間内の仮想オブジェクトの位置を指す場合がある。物理空間は、事実上、いかなる屋内環境または屋外環境も含むことが可能である。ライン106aおよび106bは、シースルー・ディスプレイデバイスを通したユーザの視界を示す。図1Aは、ユーザ100の視界内にある、物理的環境104内の現実世界オブジェクト108a、108b、108c、および108dも示す。   FIG. 1A schematically illustrates a top view of a user 100 utilizing a computing system 101 that includes a see-through display device 102 in a physical space 104. As used herein, the term physical space may refer to the real world physical environment of the user 100, such as a room. Similarly, physical location may refer to the location of a user, a real world object, and / or a virtual object in physical space. The physical space can include virtually any indoor or outdoor environment. Lines 106a and 106b show the user's view through the see-through display device. FIG. 1A also shows real world objects 108 a, 108 b, 108 c, and 108 d in the physical environment 104 that are within the field of view of the user 100.

[0015]図1Bは、シースルー・ディスプレイデバイス102を通して現実世界オブジェクト108a、108b、108c、および108dを見るユーザ100の一人称視点を示す。図1Bでは、シースルー・ディスプレイデバイスは、仮想オブジェクトを視覚的に提示していない。したがって、ユーザは現実世界オブジェクトだけを見ることができる。ユーザがそのような現実世界オブジェクトを見るのは、現実世界オブジェクトから反射する光がシースルーディスプレイを通してユーザの目に伝わることが可能であるためである。   [0015] FIG. 1B illustrates a first-person view of user 100 viewing real world objects 108a, 108b, 108c, and 108d through see-through display device 102. FIG. In FIG. 1B, the see-through display device does not visually present the virtual object. Thus, the user can see only real world objects. The user sees such a real world object because light reflected from the real world object can be transmitted to the user's eyes through the see-through display.

[0016]コンピューティングシステム101は、複合現実感格闘ゲームを提供するように構成されることが可能である。例えば、図1Cは、図1Bと同じユーザ100の一人称視点を示すが、シースルー・ディスプレイデバイスは複合現実感格闘ゲームに対応する仮想オブジェクトを視覚的に提示している。詳細には、シースルー・ディスプレイデバイス102は、仮想アリーナ110と、ユーザ制御アバタ112と、対戦相手アバタ114とを表示している。ユーザの視点から、仮想アリーナおよびアバタは物理空間104に統合されているように見える。   [0016] Computing system 101 may be configured to provide a mixed reality fighting game. For example, FIG. 1C shows the same first-person view of the user 100 as FIG. 1B, but the see-through display device visually presents a virtual object corresponding to the mixed reality fighting game. Specifically, the see-through display device 102 displays a virtual arena 110, a user control avatar 112, and an opponent avatar 114. From the user's perspective, the virtual arena and avatar appear to be integrated into the physical space 104.

[0017]詳細には、図1Cは、仮想アリーナがあたかも部屋の床の上に配置されているかのように見えるようにレンダリングされた仮想アリーナ110を示す。例えば、仮想アリーナ110は、現実世界オブジェクト108dを完全に不明瞭にして、現実世界オブジェクト108a、108b、および108cを部分的に不明瞭にするようにレンダリングされる。さらに、アバタ112および114は、アバタがあたかも仮想アリーナ内に立っているかのように見えるようにレンダリングされる。   [0017] Specifically, FIG. 1C shows a virtual arena 110 rendered to appear as if the virtual arena is located on the floor of the room. For example, the virtual arena 110 is rendered to completely obscure the real world object 108d and partially obscure the real world objects 108a, 108b, and 108c. In addition, avatars 112 and 114 are rendered so that they appear as if they are standing in a virtual arena.

[0018]仮想アリーナ110、ユーザ制御アバタ112、および対戦相手アバタ114は非限定的な例として提供される。仮想アリーナおよびアバタは、本開示の範囲から逸脱せずに、事実上、どのような外観を有するようにもレンダリングされ得る。さらに、追加の仮想オブジェクトまたは代替の仮想オブジェクトはシースルー・ディスプレイデバイス102上に表示されることが可能であり、物理空間104内に統合されているように見える。   [0018] Virtual arena 110, user-controlled avatar 112, and opponent avatar 114 are provided as non-limiting examples. Virtual arenas and avatars can be rendered to have virtually any appearance without departing from the scope of the present disclosure. Further, additional or alternative virtual objects can be displayed on the see-through display device 102 and appear to be integrated within the physical space 104.

[0019]仮想アリーナ110を物理空間104内に統合するために、シースルー・ディスプレイデバイス102は、1つまたは複数の画像センサを経由して、物理空間を撮像することができる。物理空間は、物理空間の表面形状とその他の特性とを画定する、1つまたは複数の地形的特徴を含むことが可能である。これらの特徴に関係する情報は、例えば、仮想アリーナを配置するのに適した開放領域または平面領域を判断するために使用されることが可能である。   [0019] To integrate the virtual arena 110 into the physical space 104, the see-through display device 102 can image the physical space via one or more image sensors. The physical space can include one or more topographic features that define the surface shape and other characteristics of the physical space. Information related to these features can be used, for example, to determine an open or planar area suitable for placing a virtual arena.

[0020]いくつかの実施形態では、物理空間に関する情報は、シースルー・ディスプレイデバイス102、および/または対戦相手コンピューティングシステムなど、外部コンピューティングシステムを含めて、コンピューティングシステム101の様々なセンサによって検出されることが可能である。例えば、コンピューティングシステム101は、表面再構成、室内マッピング、位置決めサービスなどを使用することによって、物理空間の特徴を識別することができる。一例では、物理空間の位置は、ネットワークサービスによって提供されるGPS、セル三角測量、グローバル座標系によって判断され得る。コンピューティングシステム101は、一例では、物理空間の判断された位置に基づいて、物理空間に関する情報をサーバから受信することができる。いくつかの実施形態では、コンピューティングシステム101は、デプスカメラ(depth camera)を含むことが可能である。デプスカメラは、画像センサを経由して、1つまたは複数の地形的特徴を含む物理空間104を撮像することができる。デプスカメラは、物理空間104内の、オブジェクト108a、108b、108c、および108d(ならびに、そのようなオブジェクトを作り上げる個々の画素)など、オブジェクトに関する奥行き値を判断することも可能である。   [0020] In some embodiments, information about physical space is detected by various sensors of computing system 101, including an external computing system, such as a see-through display device 102 and / or an opponent computing system. Can be done. For example, the computing system 101 can identify physical space features by using surface reconstruction, room mapping, positioning services, and the like. In one example, the location of the physical space can be determined by GPS, cell triangulation, global coordinate system provided by network services. In one example, the computing system 101 can receive information about the physical space from the server based on the determined position of the physical space. In some embodiments, the computing system 101 can include a depth camera. The depth camera can image a physical space 104 that includes one or more topographic features via an image sensor. The depth camera can also determine depth values for objects, such as objects 108a, 108b, 108c, and 108d (and the individual pixels that make up such objects) in physical space 104.

[0021]コンピューティングシステム101は、物理空間の地形的特徴およびその他の特徴に関する情報を利用して、物理空間内の開放領域を識別することが可能である。シースルー・ディスプレイデバイス102は、物理空間がシースルー・ディスプレイデバイスを通して見られたとき、物理空間内に統合された仮想アリーナをシースルーディスプレイ上に表示することができる。いくつかの実施形態では、シースルー・ディスプレイデバイスは、物理空間内の1つまたは複数のオブジェクトと統合された、1つまたは複数の対話要素を有する仮想アリーナを表示する。コンピューティングシステム101は、複合現実感対話要素として機能するように視覚的に拡張され得る、物理空間104内の実際のオブジェクトを識別することができる。例えば、仮想アリーナは、物理空間内に公園のベンチと統合された仮想岩石を含むことが可能である。この例では、公園のベンチは、物理的な構造を提供するが、岩石のように見える。別の例では、コンピューティングシステム101は、ボクシングリングの仮想フェンスまたは仮想ロープとして機能するように拡張され得る壁を識別することができる。   [0021] The computing system 101 can use information about topographical features and other features of the physical space to identify open areas in the physical space. The see-through display device 102 can display a virtual arena integrated in the physical space on the see-through display when the physical space is viewed through the see-through display device. In some embodiments, the see-through display device displays a virtual arena having one or more interactive elements integrated with one or more objects in physical space. The computing system 101 can identify actual objects in the physical space 104 that can be visually extended to function as mixed reality interactive elements. For example, a virtual arena may include virtual rocks integrated with a park bench in physical space. In this example, the park bench provides the physical structure but looks like a rock. In another example, the computing system 101 can identify a wall that can be expanded to function as a boxing ring virtual fence or virtual rope.

[0022]いくつかの実施形態では、仮想アリーナは、仮想アリーナの内部の領域として「区域内」を画定することができる。これらの実施形態では、仮想アリーナの外部の領域は「区域外」と見なされ得る。例えば、1つもしくは複数の物理オブジェクトおよび/または仮想オブジェクトは、事実上、「区域内」領域内で分割されることが可能であるのに対して、物理オブジェクトおよび/または仮想オブジェクトは、事実上、「区域外」領域内で分割され得ない。代替実施形態では、格闘はアリーナの外部に出ることができ、この場合、物理空間全体が「区域内」と見なされる。   [0022] In some embodiments, the virtual arena may define "in-area" as a region inside the virtual arena. In these embodiments, the area outside the virtual arena may be considered “out of zone”. For example, one or more physical objects and / or virtual objects can be effectively divided within an “in-area” region, whereas physical objects and / or virtual objects are effectively , Cannot be divided within the “out of zone” region. In an alternative embodiment, the fight can go out of the arena, in which case the entire physical space is considered “in area”.

[0023]仮想アリーナ110は、コンピューティングシステム101によって自動的に構成されることが可能である。いくつかの実施形態では、仮想アリーナは、物理空間の1つまたは複数の地形的特徴に基づいて、サイズ指定されて、配置されることが可能である。形状、地形、障害物など、アリーナの追加の特徴は、(例えば、コンピューティングシステムのデプスカメラによって識別された)物理空間の特徴に基づいて構成されることが可能である。例えば、仮想アリーナの床が物理空間の地面および/または床と統合するように、仮想アリーナはサイズ指定されて、配置されることが可能である。他の例では、アリーナの床が、ボクシングリングなど、高架式アリーナに似せるために物理空間の地面および/または床の上部にあるように、アリーナはサイズ指定されて、配置されることが可能である。   [0023] Virtual arena 110 may be automatically configured by computing system 101. In some embodiments, the virtual arena can be sized and arranged based on one or more topographic features of physical space. Additional arena features such as shape, terrain, obstacles, etc. can be configured based on physical space features (eg, identified by a depth camera of the computing system). For example, the virtual arena can be sized and positioned so that the floor of the virtual arena integrates with the ground and / or floor of the physical space. In other examples, the arena can be sized and positioned so that the arena floor is on the ground and / or top of the floor in physical space to resemble an elevated arena, such as a boxing ring. is there.

[0024]コンピューティングシステム101は、物理空間104の開放領域を自動的に検出して、その開放領域に整合するように仮想アリーナをスケーリングすることができる。例えば、開放領域は、仮想アリーナが、オブジェクトしきい値よりもより少ないオブジェクトを有する物理空間の位置を占有するようにサイズ指定されて、配置されるように、最小量の障害物を有する物理空間と定義され得る。代替例では、開放領域は、任意の適切な方法によって画定されてよい。例えば、開放領域は、対話式仮想オブジェクトに対応する、最大数の物理オブジェクトを有する物理空間と定義され得る。   [0024] The computing system 101 can automatically detect an open area of the physical space 104 and scale the virtual arena to match that open area. For example, an open area is a physical space that has a minimum amount of obstacles so that the virtual arena is sized and arranged to occupy a physical space position that has fewer objects than the object threshold. Can be defined. In the alternative, the open area may be defined by any suitable method. For example, an open area may be defined as a physical space having a maximum number of physical objects corresponding to interactive virtual objects.

[0025]追加の実施形態または代替実施形態では、仮想アリーナは、物理空間の上方制限関数(upwardly bounded function)としてスケーリングされることが可能である。上方制限は、最大アリーナサイズなど、最大アリーナパラメータを示すことができる。最大アリーナサイズは、例えば、アリーナが実物大よりも大きく見えないように選択されてよい。最大アリーナサイズは、最大幅、最大奥行き、および/または最大高さによって制約され得る。いくつかの実施形態では、仮想アリーナは、そのサイズを上限として、物理空間のサイズに応じてスケーリングされることが可能である。例えば、仮想アリーナは、実物大のアリーナなど、最大アリーナサイズを超えずに、可能な限りの物理空間を占有するようにスケーリングされることが可能である。追加の実施形態または代替実施形態では、仮想アリーナは、上方境界を超えずに、指定量の物理空間を占有するようにスケーリングされることが可能である。別の実施形態では、仮想アリーナは、地理空間内のサイズ、地形的特徴、オブジェクトなど、物理空間のパラメータに応じて、最高で上方制限まで、スケーリングされることが可能である。換言すれば、一例では、物理空間に整合するか、または最大アリーナサイズを満たすかのうち、どちらの限界が先に達した場合でも、最大アリーナサイズが画定されてよく、かつアリーナがスケーリングされ得る。   [0025] In additional or alternative embodiments, the virtual arena can be scaled as an upward bound function of physical space. The upper limit can indicate a maximum arena parameter, such as a maximum arena size. The maximum arena size may be selected, for example, such that the arena does not appear to be larger than the full size. The maximum arena size may be constrained by the maximum width, maximum depth, and / or maximum height. In some embodiments, the virtual arena can be scaled according to the size of the physical space, up to its size. For example, a virtual arena can be scaled to occupy as much physical space as possible without exceeding the maximum arena size, such as a full-scale arena. In additional or alternative embodiments, the virtual arena can be scaled to occupy a specified amount of physical space without crossing the upper boundary. In another embodiment, the virtual arena can be scaled up to an upper limit depending on physical space parameters, such as size in geospace, topographic features, objects, etc. In other words, in one example, the maximum arena size may be defined and the arena can be scaled regardless of which limit is reached first, either to match physical space or meet the maximum arena size. .

[0026]上方制限関数の1つの特定の例では、最大アリーナサイズは、609.6cm×609.6cm(20フィート×20フィート)であってよい。アリーナが304.8cm×304.8cm(10フィート×10フィート)の大きさの開放領域を有する室内に配置される場合、アリーナは10フィート×10フィート(304.8cm×304.8cm)の大きさに見えるようにスケーリングされることが可能である。代わりに、アリーナが914.4cm×914.4cm(30フィート×30フィート)の大きさの開放領域を有する室内に配置される場合、609.6cm×609.6cm(20フィート×20フィート)がアリーナに関して画定された最大サイズであるため、アリーナがその大きさに見えるように、アリーナはスケーリングされることが可能である。しかし、アリーナは、本開示の範囲から逸脱せずに、他の上方制限関数としてスケーリングされてもよい。   [0026] In one particular example of the upper limit function, the maximum arena size may be 20 ft x 20 ft (609.6 x 609.6 cm). If the arena is placed in a room having an open area measuring 304.8 cm x 304.8 cm (10 ft x 10 ft), the arena is 10 ft x 10 ft (304.8 cm x 304.8 cm). Can be scaled to look like. Instead, if the arena is placed in a room having an open area measuring 914.4 cm x 914.4 cm (30 ft x 30 ft), the 609.6 cm x 609.6 cm (20 ft x 20 ft) is the arena. The arena can be scaled so that the arena appears to be its size. However, the arena may be scaled as other upper limiting functions without departing from the scope of the present disclosure.

[0027]他の実施形態では、アリーナは、仮想アリーナの1つまたは複数のパラメータがユーザによって選択されるようにユーザによって構成されることが可能である。例えば、ユーザは、ユーザ入力を提供することによって、仮想アリーナのサイズ、位置、方位、形状などを選択することができる。いくつかの実施形態では、ユーザは、室内のある位置を指摘することが可能であり、選択された仮想アリーナはその位置に配置されることが可能である。仮想アリーナは、構成の間に、仮想アリーナがカスタマイズされていることを示すために、変更された外観を有することが可能である。仮想アリーナのパラメータを確認するとすぐに、その構成が完成していることを示すために仮想アリーナの外観は変更されてよい。仮想アリーナが画定されるまで仮想アリーナの様々な境界に関する位置をユーザが選択するように、仮想アリーナはモジュール式に配置されることも可能である。例えば、ユーザは、モジューラ式仮想アリーナのそれぞれの境界点に関する位置を指摘して、仮想アリーナの境界を画定することができる。   [0027] In other embodiments, the arena may be configured by the user such that one or more parameters of the virtual arena are selected by the user. For example, the user can select the size, position, orientation, shape, etc. of the virtual arena by providing user input. In some embodiments, the user can point to a location in the room and the selected virtual arena can be placed at that location. The virtual arena can have a modified appearance during configuration to indicate that the virtual arena has been customized. As soon as the virtual arena parameters are verified, the appearance of the virtual arena may be changed to indicate that the configuration is complete. The virtual arena can also be arranged in a modular fashion so that the user selects positions with respect to various boundaries of the virtual arena until the virtual arena is defined. For example, the user can point out the location for each boundary point of the modular virtual arena to define the boundaries of the virtual arena.

[0028]いくつかの実施形態では、ユーザによって選択されていない仮想アリーナのいずれのパラメータもコンピューティングシステム101によって自動的に構成されることが可能である。例えば、ユーザは選択された事前画定された仮想アリーナに関する位置を選択することができ、かつ/またはユーザは複数の事前定義された仮想アリーナのうちの1つを選択することができる。いくつかの例では、事前定義された仮想アリーナは、1つまたは複数のパラメータを画定することが可能である。例えば、事前定義された仮想アリーナは、特定の形状を有して、その部屋に整合するようにスケーリングされることが可能である。別の例では、事前定義された仮想アリーナは、特定のサイズを有して、仮想アリーナに対応する、物理空間の位置内に配置されることが可能である。さらなる実施形態では、ユーザは現実世界内のどのオブジェクトが仮想アリーナ内で対話可能であるかを選択することができる。   [0028] In some embodiments, any parameter of the virtual arena that is not selected by the user can be automatically configured by the computing system 101. For example, the user can select a location for a selected predefined virtual arena and / or the user can select one of a plurality of predefined virtual arenas. In some examples, the predefined virtual arena can define one or more parameters. For example, a predefined virtual arena can have a particular shape and be scaled to match that room. In another example, a predefined virtual arena can be placed within a physical space location that has a particular size and that corresponds to the virtual arena. In a further embodiment, the user can select which objects in the real world can interact in the virtual arena.

[0029]仮想アリーナは、境界が仮想空間および/または物理空間の閉鎖領域を画定する状態で完全に囲まれることが可能である。代替実施形態では、仮想アリーナは、1つもしくは複数の端部上で開放されてよく、かつ/または物理空間の異なる領域を占有することが可能である。例えば、仮想アリーナの一部は仮想深淵(abysses)によって分離された、格闘用の頂上高架式プラットフォームをシミュレートするために、障害物によって分離されることが可能である。さらなる実施形態では、仮想アリーナがシースルー・ディスプレイデバイスを通してユーザによって見られるすべての物理空間を占有することができるように、仮想アリーナは境界がなくてもよい。   [0029] The virtual arena can be completely enclosed with the boundary defining a closed area of virtual space and / or physical space. In alternative embodiments, the virtual arena may be open on one or more ends and / or occupy different areas of physical space. For example, a portion of a virtual arena can be separated by obstacles to simulate a fighting top elevated platform separated by virtual abysses. In a further embodiment, the virtual arena may be unbounded so that the virtual arena can occupy all the physical space seen by the user through the see-through display device.

[0030]コンピューティングシステム101は、シースルー・ディスプレイデバイス102を経由して、仮想アリーナ内に1つまたは複数のアバタを表示することができる。いくつかの実施形態では、1つまたは複数のアバタは、物理空間の上方制限関数としてスケーリングされることが可能である。上でより詳細に説明されたように、上方制限関数は、アバタが最高で(例えば、実物大に見える)最大サイズまで、物理空間のサイズに基づくサイズを有するようにスケーリングを画定することができる。アバタに関する上方制限関数は、アバタがそのアリーナから独立してスケーリングされるように、そのアリーナに関する上方制限関数とは異なってよい。あるいは、アバタに関する上方制限関数は、アバタがそのアリーナと同じ様式でスケーリングされるように、そのアリーナに関する上方制限関数と同じであってもよい。例えば、アバタは、独立して画定された最大サイズを有することが可能である。あるいは、アバタは、そのアリーナの最大サイズに等しいかまたはそのアリーナの最大サイズから導出された最大サイズを有することが可能である。さらに、それぞれのアバタは、それぞれのアバタが互いから、および/またはそのアリーナから独立してスケーリングされるように、独立した上方制限関数を有することが可能である。あるいは、それぞれのアバタは、上方制限関数の1つまたは複数の要素を共有することができる。例えば、それぞれのアバタは、同じ最大サイズを有することが可能である。   [0030] The computing system 101 may display one or more avatars in the virtual arena via the see-through display device 102. In some embodiments, one or more avatars can be scaled as an upper limiting function in physical space. As explained in more detail above, the upper limit function can define scaling so that the avatar has a size based on the size of the physical space up to the maximum size (eg, looks full size). . The upper limit function for an avatar may be different from the upper limit function for the arena so that the avatar is scaled independently of the arena. Alternatively, the upper limit function for an avatar may be the same as the upper limit function for the arena so that the avatar is scaled in the same manner as the arena. For example, the avatar can have an independently defined maximum size. Alternatively, an avatar can have a maximum size that is equal to or derived from the maximum size of the arena. Further, each avatar may have an independent upper limiting function such that each avatar is scaled independently of each other and / or its arena. Alternatively, each avatar can share one or more elements of the upper limit function. For example, each avatar can have the same maximum size.

[0031]アバタは、ユーザ制御アバタと、1つまたは複数の対戦相手アバタとを含むことが可能である。ユーザ制御アバタは、任意の適切な様式でユーザによって制御されることが可能である。1つまたは複数の対戦相手アバタは、他のユーザおよび/または人工的なゲーム内インテリジェンスによって制御されることが可能である。   [0031] The avatar may include a user-controlled avatar and one or more opponent avatars. The user controlled avatar can be controlled by the user in any suitable manner. One or more opponent avatars can be controlled by other users and / or artificial in-game intelligence.

[0032]いくつかの実施形態では、格闘ゲームはチームを含むことが可能であり、それによって2人以上のユーザが協調的な形で1人または複数の対戦相手と戦う。代替実施形態では、格闘ゲームは、それぞれのプレイヤが互いのプレイヤと闘う、オープンバトルロイヤル(open battle royale)であってよい。   [0032] In some embodiments, a fighting game can include a team, whereby two or more users fight one or more opponents in a coordinated manner. In an alternative embodiment, the fighting game may be an open battle royal where each player fights each other.

[0033]いくつかの実施形態では、ユーザ制御アバタの外観は、事前定義されることが可能であるか、または複数の事前定義されたユーザ制御アバタ外観から選択されることも可能である。他の実施形態では、ユーザ制御アバタの外観は、ユーザ入力を提供するユーザの外観から導出されてもよい。例えば、ユーザは、デプスカメラおよび/またはカラーカメラなど、(1つもしくは複数の)カメラによって撮像されることが可能であり、ユーザの1つもしく複数の物理的特徴がユーザ制御アバタにマッピングされることが可能である。   [0033] In some embodiments, the appearance of the user-controlled avatar can be predefined or can be selected from a plurality of predefined user-controlled avatar appearances. In other embodiments, the appearance of the user controlled avatar may be derived from the appearance of the user providing user input. For example, a user can be imaged by a camera (s), such as a depth camera and / or a color camera, and one or more physical features of the user are mapped to a user controlled avatar. It is possible.

[0034]ユーザは、ユーザ入力を提供して、ユーザ制御アバタおよび/または格闘ゲームのその他の要素を制御することができる。ユーザ入力の受信に応答して、コンピューティングシステム101は、ユーザ入力に基づいて、更新されたユーザ制御アバタをシースルー・ディスプレイデバイス102上に表示することができる。例えば、キックまたはパンチなど、攻撃的な動きがユーザ入力によって表示されることが可能であり、応答して、シースルーディスプレイは、攻撃的な動きを実行するユーザ制御アバタを表示することができる。   [0034] A user may provide user input to control user-controlled avatars and / or other elements of the fighting game. In response to receiving the user input, the computing system 101 can display an updated user control avatar on the see-through display device 102 based on the user input. For example, an aggressive movement, such as a kick or punch, can be displayed by user input, and in response, the see-through display can display a user-controlled avatar that performs the aggressive movement.

[0035]いくつかの実施形態では、更新された画像は、ユーザ制御アバタを新しい位置、方位、ポーズなどで表示するために使用されることが可能である。追加の例または代替例では、更新されたユーザ制御アバタは、ユーザ入力によって示されたコマンドを例示するために動かされることが可能である。   [0035] In some embodiments, the updated image may be used to display the user control avatar with a new position, orientation, pose, etc. In additional examples or alternatives, the updated user control avatar can be moved to illustrate the command indicated by the user input.

[0036]ユーザは、動きコマンド、攻撃コマンドまたは防御コマンド、仮想アリーナの視野を修正するためのカメラ制御コマンド、格闘を終了するなどのゲームコマンドなど、1つまたは複数のコマンドを示すユーザ入力を提供することができる。例えば、攻撃コマンドは、パンチ、キック、ファイヤーボールなどの仮想マジックアタックなど、様々な格闘的な動きを含むことが可能である。防御コマンドは、一続きのユーザ入力が受信されて、シースルー・ディスプレイデバイスが拡張された防御的な動きを実行する、更新されたユーザ制御アバタを表示する組合せ動作(combo move)を含むことも可能である。   [0036] The user provides user input indicating one or more commands, such as motion commands, attack or defense commands, camera control commands to modify the virtual arena's field of view, game commands such as end a fight can do. For example, an attack command can include various fighting movements such as a virtual magic attack such as punch, kick, fireball, and the like. The defense command can also include a combo move that displays an updated user-controlled avatar where a series of user input is received and the see-through display device performs an extended defensive movement It is.

[0037]ユーザ入力は、ユーザ制御アバタを制御するための複数の方法およびデバイスを経由して受信されることが可能である。いくつかの実施形態では、ユーザ入力は1つまたは複数の音声取込みデバイスに提供される音声コマンドを経由して受信されることが可能である。これらの実施形態では、マイクロフォンは、ユーザ入力を提供するために、ユーザからの音声コマンドを検出することができる。例えば、ユーザは、「パンチ」、「左に避ける」、「前に動く」など、音声コマンドを用いてユーザ制御アバタに命令することによって仮想コーチの役目を果たすことができる。いくつかの実施形態では、ユーザ入力は、ゲームコントローラを経由して受信されることが可能である。例えば、ユーザは、ゲームコントローラの1つまたは複数のボタン、ジョイスティック、フリッパ、スイッチなどを作動させることによって入力を提供することができる。いくつかの実施形態では、ユーザ入力は、空間的位置検出器(例えば、慣性計測装置)を経由して受信されることが可能である。例えば、慣性計測装置は、ユーザの1つまたは複数の位置の移動を検出および解釈するために、ユーザの1つまたは複数の位置に取り付けられることが可能である。例えば、慣性計測装置は、ユーザの手によるパンチ動きを検出するために、ユーザの指に取り付けられることが可能である。   [0037] User input may be received via multiple methods and devices for controlling a user control avatar. In some embodiments, user input can be received via voice commands provided to one or more voice capture devices. In these embodiments, the microphone can detect voice commands from the user to provide user input. For example, the user can act as a virtual coach by instructing the user control avatar using voice commands such as “punch”, “avoid left”, “move forward”, and the like. In some embodiments, user input can be received via a game controller. For example, the user can provide input by actuating one or more buttons, joysticks, flippers, switches, etc. of the game controller. In some embodiments, user input can be received via a spatial position detector (eg, an inertial measurement device). For example, the inertial measurement device can be attached to one or more positions of the user to detect and interpret movement of one or more positions of the user. For example, the inertial measurement device can be attached to the user's finger to detect punch movement by the user's hand.

[0038]いくつかの実施形態では、ユーザ入力は、ユーザ入力を提供するユーザのジェスチャを観察するステップを行うように構成されたジェスチャ入力検出デバイスを経由して受信されることが可能である。例えば、ユーザは、ジェスチャ入力検出デバイスによって検出された、パンチの動きなどのジェスチャを実行することが可能である。ジェスチャ入力検出デバイスは、ジェスチャを検出および認識することができる1つまたは複数のデバイスを含むことが可能である。例えば、ジェスチャ入力検出デバイスは、カラーカメラ、デプスカメラ、加速度計、慣性計測装置、タッチセンサ式デバイスなどを含むことが可能である。いくつかの実施形態では、ジェスチャは、対戦相手シースルー・ディスプレイデバイスのカメラによって検出されることが可能である。別の実施形態では、ユーザ入力は、ユーザの目の動きを判断および認識する視線追跡検出デバイスを経由して受信されることが可能である。例えば、シースルー・ディスプレイデバイスの内向き(inward−facing)カメラはユーザの凝視を検出することができる。   [0038] In some embodiments, user input may be received via a gesture input detection device configured to perform a step of observing a user's gesture providing user input. For example, the user can perform a gesture, such as a punch movement, detected by a gesture input detection device. Gesture input detection devices can include one or more devices that can detect and recognize gestures. For example, the gesture input detection device can include a color camera, a depth camera, an accelerometer, an inertial measurement device, a touch-sensitive device, and the like. In some embodiments, a gesture can be detected by an opponent's see-through display device camera. In another embodiment, user input may be received via a gaze tracking detection device that determines and recognizes the user's eye movements. For example, an inward-facing camera of a see-through display device can detect a user's gaze.

[0039]いくつかの実施形態では、ユーザ入力に提供するために複数のデバイスが同時に使用されてよい。例えば、ユーザは、慣性計測装置を着用して、「前に動く」ための音声コマンドを提供しながら、パンチの動きを検出することができる。したがって、ユーザ制御アバタは、前に動きながら、パンチの動きを実行することができる。さらに、単一のデバイスは、複数のユーザ入力取込み機能を含むことが可能である。例えば、ゲームコントローラは、特定のジェスチャを認識するための加速度計を含むことが可能である。したがって、ユーザは、ゲームコントローラを利用して、押圧ボタンならびにジェスチャによって、ユーザ入力を提供することができる。   [0039] In some embodiments, multiple devices may be used simultaneously to provide for user input. For example, a user can detect a punch movement while wearing an inertial measurement device and providing a voice command to “move forward”. Accordingly, the user-controlled avatar can perform a punch movement while moving forward. In addition, a single device can include multiple user input capture functions. For example, the game controller may include an accelerometer for recognizing a specific gesture. Therefore, the user can provide a user input with a push button and a gesture using the game controller.

[0040]ユーザは、複数の視野および視点を用いて格闘を見て、格闘に参加することができる。例えば、視野および/または視点は、物理空間に基づいて、ユーザに関して選ばれることが可能である。別の例では、ユーザは、好ましい視野および/または視点を選択することができる。いくつかの実施形態では、ユーザは、視野および/または視点の間で動的に切り替えることができる。代替実施形態または追加の実施形態では、システムは、アバタまたはユーザのうちの1つもしくは複数の動きに応答して、自動的に視野および/あるいは視点の間を動的に切り替えることができる。   [0040] A user can watch and participate in a fight using multiple views and viewpoints. For example, the field of view and / or viewpoint can be chosen for the user based on physical space. In another example, the user can select a preferred field of view and / or viewpoint. In some embodiments, the user can dynamically switch between views and / or viewpoints. In alternative or additional embodiments, the system can automatically switch between views and / or viewpoints automatically in response to movement of one or more of the avatar or user.

[0041]図2は、三人称「リングサイド」視野である第1の視野のある例を示す。三人称視野では、ユーザ制御アバタ200は、シースルー・ディスプレイデバイス102を通して見られたとき、ユーザ202の前面に配置され得る。仮想アリーナ204、ユーザ制御アバタ200および対戦相手アバタ206は、仮想環境を表すために、破線を用いて例示される。   [0041] FIG. 2 shows an example with a first field of view that is a third person "ringside" field of view. In the third person view, the user control avatar 200 may be placed in front of the user 202 when viewed through the see-through display device 102. Virtual arena 204, user control avatar 200 and opponent avatar 206 are illustrated using dashed lines to represent a virtual environment.

[0042]図2に例示される視野では、ユーザ制御アバタ200の位置は、いくつかの実施形態では、ユーザ制御アバタを制御するためのユーザ入力を提供するユーザ202の位置に基づいて動的に更新されることが可能である。すなわち、三人称視野は、ユーザ制御アバタがユーザに対して同じ方位および/または位置に維持されるように、固定視点を有することが可能である。例えば、ユーザ制御アバタは、ユーザの前面の位置を維持することができる。いくつかの実施形態では、固定視点は、結果として、シースルー・ディスプレイデバイスに、その背をユーザに向けた状態でユーザ制御アバタを表示させることができる。この構成では、ユーザは、ユーザ制御アバタによって直接的に模倣されるジェスチャまたは制御を提供することができる。例えば、ユーザがジョイスティックを右にトグルする場合、シースルーディスプレイは、アバタの右側に移動した、更新されたユーザ制御アバタを表示することができる。他の例では、固定視点は、結果として、シースルー・ディスプレイデバイスに、その前面をユーザに向けた状態でユーザ制御アバタを表示させることができる。この構成では、ユーザは、ユーザ制御アバタによって反映されたジェスチャを提供することができる。例えば、ユーザがジョイスティックを右にトグルする場合、シースルーディスプレイは、アバタの左側に移動した、更新されたユーザ制御アバタを表示することができる。   [0042] In the field of view illustrated in FIG. 2, the position of the user control avatar 200 is dynamically based in some embodiments on the position of the user 202 that provides user input to control the user control avatar. It can be updated. That is, the third person field of view may have a fixed viewpoint so that the user control avatar is maintained in the same orientation and / or position with respect to the user. For example, the user control avatar can maintain the position of the front of the user. In some embodiments, the fixed viewpoint can result in the see-through display device displaying the user control avatar with its back towards the user. In this configuration, the user can provide a gesture or control that is directly imitated by a user control avatar. For example, if the user toggles the joystick to the right, the see-through display can display an updated user-controlled avatar that has moved to the right side of the avatar. In another example, the fixed viewpoint may cause the see-through display device to display the user control avatar with its front facing the user. In this configuration, the user can provide a gesture reflected by the user control avatar. For example, if the user toggles the joystick to the right, the see-through display can display an updated user-controlled avatar that has moved to the left side of the avatar.

[0043]いくつかの実施形態では、ユーザ制御アバタの位置は、ユーザが格闘の三人称視野を有するとき、ユーザの位置から独立して更新されることが可能である。すなわち、三人称視野は、動的な視点を有することが可能である。例えば、ユーザは、ユーザ制御アバタおよび/またはアリーナの位置ならびに方位を同じ状態に維持しながら、アリーナの周囲を移動することができる。そのような構成は、格闘の間、ユーザが所望される視点を獲得することを可能にし得る。例えば、ユーザは、アリーナの周囲を移動して、異なる角度から格闘を見て、考えられる格闘戦略を識別することができる。   [0043] In some embodiments, the position of the user-controlled avatar can be updated independently of the user's position when the user has a combat third-person view. That is, the third person field of view can have a dynamic viewpoint. For example, the user can move around the arena while maintaining the same position and orientation of the user-controlled avatar and / or arena. Such a configuration may allow the user to obtain the desired viewpoint during the fight. For example, the user can move around the arena to see the fights from different angles and identify possible fighting strategies.

[0044]上述のように、ユーザ制御アバタは、三人称視点から見られることが可能である。すなわち、ユーザが制御するアバタは、ユーザから物理的に分離される。他の実施形態では、ユーザ制御アバタは、ユーザのオーバレイとして実施されることが可能である。   [0044] As described above, the user-controlled avatar can be viewed from a third person perspective. That is, the avatar controlled by the user is physically separated from the user. In other embodiments, the user-controlled avatar can be implemented as a user overlay.

[0045]例えば、図3は、シースルー・ディスプレイデバイス102を通して見られた一人称視野のある例を示す。一人称視野では、シースルーディスプレイは現実を拡張して、ユーザの外観を変更する。この視野では、手302および/または脚がシースルー・ディスプレイデバイス102を通して見られたとき、ボクシンググローブ300および/またはボクシングパンツなどのコスチューム要素は、ユーザの手302および/または脚をオーバレイ(overlay:重ね書き)することができる。すなわち、シースルーディスプレイは、ユーザ制御アバタの特徴をユーザの対応する特徴のオーバレイとして表示することによって、ユーザの外観を拡張することができる。   [0045] For example, FIG. 3 shows an example of a first person view viewed through a see-through display device 102. FIG. In the first person view, see-through displays extend reality and change the user's appearance. In this view, costume elements, such as boxing gloves 300 and / or boxing pants, overlay the user's hand 302 and / or legs when the hands 302 and / or legs are viewed through the see-through display device 102. Can write). That is, the see-through display can enhance the appearance of the user by displaying the features of the user controlled avatar as an overlay of the corresponding features of the user.

[0046]一人称視野は、上でより詳細に説明されたように、固定視点を特色として備えてよく、または動的視点であってもよい。この視野に関する動的視点は、小さな物理空間内でユーザ制御アバタの動きの制御を可能にするために利用されることが可能である。例えば、ユーザは、自らの物理的位置を変更せずに、特定のユーザ入力を介して、ユーザ制御アバタの仮想位置を変更することができる。   [0046] The first person field of view may feature a fixed viewpoint as described in more detail above, or may be a dynamic viewpoint. This dynamic viewpoint for the field of view can be utilized to allow control of the movement of the user controlled avatar within a small physical space. For example, the user can change the virtual position of the user control avatar via specific user input without changing his physical position.

[0047]いずれの視野または視点においても、ユーザ制御アバタは、ユーザ入力を提供するユーザのポーズに基づくポーズで表示されることが可能である。あるいは、ユーザ制御アバタは、ユーザ入力を提供するユーザのポーズから独立したポーズで表示されることも可能である。   [0047] In any field of view or viewpoint, the user control avatar can be displayed in a pose based on the user's pose providing user input. Alternatively, the user control avatar can be displayed in a pose that is independent of the user's pose providing user input.

[0048]図1Cの対戦相手アバタ114など、対戦相手アバタは、コンピューティングデバイスによって提供されるAI(人工知能)によって制御されることが可能である。対戦相手アバタは、対戦相手ユーザ入力を提供する対戦相手ユーザによって制御されることも可能である。例えば、いくつかの実施形態では、対戦相手ユーザは、メインユーザと同じ物理空間内に配置されることが可能である。この実施形態では、仮想アリーナは対戦相手のシースルー・ディスプレイデバイス上に表示されるため、対戦相手ユーザは仮想アリーナの表現を見ることができる。対戦相手シースルー・ディスプレイデバイスは、メインユーザのシースルー・ディスプレイデバイスによって表示される仮想アリーナと同じ物理空間の位置内に仮想アリーナの表現を表示することができ、その結果、両方のユーザは、同じ物理位置内にアリーナとアバタとを認知することができる。   [0048] An opponent avatar, such as the opponent avatar 114 of FIG. 1C, can be controlled by AI (artificial intelligence) provided by a computing device. The opponent avatar can also be controlled by the opponent user providing the opponent user input. For example, in some embodiments, the opponent user can be located in the same physical space as the main user. In this embodiment, the virtual arena is displayed on the opponent's see-through display device so that the opponent user can see a representation of the virtual arena. The opponent see-through display device can display the representation of the virtual arena in the same physical space location as the virtual arena displayed by the main user see-through display device, so that both users can display the same physical The arena and avatar can be recognized in the position.

[0049]いくつかの実施形態では、対戦相手ユーザは、メインユーザとは異なる物理空間内に配置されることが可能である。例えば、対戦相手ユーザは、シースルー・ディスプレイデバイスを用いて仮想アリーナの表現を見ることができる。このようにして、2つの異なる物理空間内に同じアリーナおよびアバタの錯覚を生み出すために、異なるシースルーディスプレイが使用される。   [0049] In some embodiments, the opponent user may be located in a different physical space than the main user. For example, an opponent user can view a representation of a virtual arena using a see-through display device. In this way, different see-through displays are used to create the same arena and avatar illusion in two different physical spaces.

[0050]別の例として、対戦相手ユーザは、静止ディスプレイ(例えば、テレビまたはコンピュータデバイス)を用いて仮想アリーナの表現を見ることができる。例えば、図4は、対戦相手400がビデオゲームシステム402などのコンピューティングシステムを経由して格闘に参加して、対戦相手静止ディスプレイ404を使用してその格闘を見るのを例示する。   [0050] As another example, an opponent user can view a representation of a virtual arena using a stationary display (eg, a television or a computer device). For example, FIG. 4 illustrates an opponent 400 participating in a fight via a computing system, such as a video game system 402, and watching the fight using the opponent stationary display 404.

[0051]いくつかの実施形態では、仮想アリーナは、メインユーザによって構成されて、そのメインユーザに対応する物理空間の位置内に配置されることが可能である。アリーナ、物理空間、および1つまたは複数のアバタのパラメータに関する情報は、次いで、ビデオゲームシステム402に送信されることが可能である。対戦相手静止ディスプレイ404上に表示された仮想アリーナ406の表現は、その場合、メインユーザの物理空間の特性を反映することができる。代替実施形態では、仮想アリーナは、対戦相手ユーザに対応する物理空間内で構成されて、その物理空間内に配置されることが可能である。アリーナ、物理空間、および1つまたは複数のアバタのパラメータに関する情報は、その場合、メインユーザのシースルーディスプレイに送信されることが可能である。メインユーザのシースルーディスプレイは、対戦相手の物理空間の特性を反映する仮想アリーナの表現を表示することができる。   [0051] In some embodiments, a virtual arena can be configured by a main user and placed within a physical space location corresponding to the main user. Information regarding the arena, physical space, and one or more avatar parameters may then be sent to the video game system 402. The representation of the virtual arena 406 displayed on the opponent stationary display 404 can then reflect the physical space characteristics of the main user. In an alternative embodiment, the virtual arena can be configured in the physical space corresponding to the opponent user and placed in that physical space. Information about the arena, physical space, and one or more avatar parameters may then be sent to the main user's see-through display. The main user's see-through display can display a representation of a virtual arena that reflects the physical space characteristics of the opponent.

[0052]上で説明されたようなリアルタイムマルチプレイヤシナリオに従事するとき、2人以上のユーザの物理空間の間の差は、物理空間の物理的特性を互いにマッピングすることによって調整され得る。例えば、メインユーザ物理空間はアリーナを収容するように選択され得る。したがって、いくつかの実施形態では、メインユーザ物理空間内の物理オブジェクトを表す仮想オブジェクトは、仮想的に対戦相手物理空間に組み込まれることが可能である。例えば、メインユーザ物理空間内に配置されたテーブルは、対戦相手物理空間の対応する位置内の対戦相手シースルー・ディスプレイデバイス上に表示されることが可能である。他の実施形態では、対話式仮想オブジェクトによって表された物理オブジェクトだけが対戦相手シースルー・ディスプレイデバイス上に表示され得る。   [0052] When engaging in a real-time multiplayer scenario as described above, the difference between the physical space of two or more users can be adjusted by mapping the physical properties of the physical space to each other. For example, the main user physical space may be selected to accommodate the arena. Thus, in some embodiments, virtual objects representing physical objects in the main user physical space can be virtually incorporated into the opponent physical space. For example, a table placed in the main user physical space can be displayed on an opponent see-through display device in a corresponding position in the opponent physical space. In other embodiments, only physical objects represented by interactive virtual objects may be displayed on the opponent see-through display device.

[0053]図5は、本開示のある実施形態による、仮想アリーナを物理空間内に統合する、ある例示的な方法500を示す。502で、方法500は、地形的特徴を含む物理空間を撮像するステップを含む。いくつかの実施形態では、504で、物理空間の特徴は、物理空間内のオブジェクトに関する奥行き値を判断することによってさらに識別されることが可能である。506で、方法500は、物理空間内に統合された仮想アリーナを表示するステップを含む。一例では、仮想アリーナのサイズおよび位置は、508で、ユーザ入力に基づいて構成されることが可能である。追加の例または代替例では、コンピューティングシステムは、510で、物理空間に基づいて仮想アリーナを自動的に配置することができる。自動的に配置することは、512で、物理空間の上方制限関数として仮想アリーナをスケーリングするステップを含むことが可能である。   [0053] FIG. 5 illustrates an example method 500 for integrating virtual arenas into physical space, according to certain embodiments of the present disclosure. At 502, the method 500 includes imaging a physical space that includes topographic features. In some embodiments, at 504, physical space features can be further identified by determining depth values for objects in the physical space. At 506, method 500 includes displaying a virtual arena integrated in physical space. In one example, the size and position of the virtual arena can be 508 and configured based on user input. In additional examples or alternatives, the computing system may automatically place a virtual arena at 510 based on physical space. Automatic placement may include, at 512, scaling the virtual arena as an upper limiting function of physical space.

[0054]514で、方法500は、仮想アリーナ内に1つまたは複数のアバタを表示するステップを含む。一例では、アバタは、516で、物理空間の上方制限関数としてスケーリングされることが可能である。518で、アバタは、ユーザの外観から導出された外観で表示されることが可能である。520で、方法500は、ユーザ入力に基づいて、ユーザ制御アバタを制御するステップを含む。次に、522で、方法500は、ユーザ入力に基づいて、更新されたユーザ制御アバタを表示するステップを含む。   [0054] At 514, method 500 includes displaying one or more avatars in a virtual arena. In one example, the avatar can be scaled at 516 as an upper limiting function in physical space. At 518, the avatar can be displayed with an appearance derived from the user's appearance. At 520, method 500 includes controlling a user control avatar based on user input. Next, at 522, the method 500 includes displaying an updated user control avatar based on the user input.

[0055]図6は、シースルーディスプレイ602を含むシースルー・ディスプレイデバイス102の非限定的な例を示す。例えば、シースルー・ディスプレイデバイス102は、頭部装着型シースルー・ディスプレイデバイスであってよい。シースルーディスプレイ602は、少なくとも一部透明であり、それにより、シースルーディスプレイを通して光がユーザの目に伝わるのを可能にする。さらに、シースルーディスプレイは、シースルーディスプレイを通して物理空間を見るユーザに対して物理空間の外観を視覚的に拡張するように構成される。例えば、シースルーディスプレイは、ユーザがシースルーディスプレイを通して見るとき、ユーザが見ることができる仮想オブジェクトを表示することができる。したがって、ユーザは、ユーザが物理空間を見るのと同時に物理空間内に存在しない仮想オブジェクトを見ることができる。これはその仮想オブジェクトが物理空間の一部であるという錯覚を生み出す。   [0055] FIG. 6 illustrates a non-limiting example of a see-through display device 102 that includes a see-through display 602. FIG. For example, the see-through display device 102 may be a head-mounted see-through display device. The see-through display 602 is at least partially transparent, thereby allowing light to travel through the see-through display to the user's eyes. In addition, the see-through display is configured to visually enhance the appearance of the physical space for a user viewing the physical space through the see-through display. For example, the see-through display can display virtual objects that the user can see when the user views through the see-through display. Thus, the user can see a virtual object that does not exist in the physical space at the same time that the user sees the physical space. This creates the illusion that the virtual object is part of physical space.

[0056]シースルー・ディスプレイデバイス102は、仮想現実エンジン604も含む。仮想現実エンジン604は、シースルーディスプレイに仮想アリーナの形の仮想オブジェクト、1つもしくは複数のアバタ、またはその他の仮想オブジェクトを視覚的に提示させるように構成されることが可能である。仮想オブジェクトは、現実世界オブジェクトの外観をシミュレートすることができる。シースルーディスプレイを介して物理空間を見るユーザにとって、仮想オブジェクトは物理空間と統合されたように見える。例えば、シースルーディスプレイを経由して表示される仮想オブジェクトおよび/または他の像は、表示される仮想オブジェクトおよび/または像が、ユーザにとって、その物理空間内の特定の位置を占有するように見えるように、ユーザの目に対して配置されることが可能である。このようにして、ユーザはその物理空間内に実際に存在しないオブジェクトを見ることができる。仮想現実エンジンは、ソフトウェア、ハードウェア、ファームウェア、またはそれらの任意の組合せを含むことが可能である。   [0056] The see-through display device 102 also includes a virtual reality engine 604. Virtual reality engine 604 may be configured to cause a see-through display to visually present a virtual object in the form of a virtual arena, one or more avatars, or other virtual objects. Virtual objects can simulate the appearance of real world objects. For a user viewing the physical space through a see-through display, the virtual object appears to be integrated with the physical space. For example, a virtual object and / or other image displayed via a see-through display may appear to the user as if the displayed virtual object and / or image occupies a particular position in the physical space. In addition, it can be arranged with respect to the user's eyes. In this way, the user can see objects that do not actually exist in the physical space. The virtual reality engine can include software, hardware, firmware, or any combination thereof.

[0057]シースルー・ディスプレイデバイス102は、スピーカサブシステム606とセンササブシステム608とを含むことが可能である。センササブシステムは、異なる実施形態では様々な異なるセンサを含むことが可能である。非限定的な例として、センササブシステムは、マイクロフォン610、1つもしくは複数の(ユーザから遠ざかる)前向き(forward−facing)赤外線カメラおよび/または可視光カメラ612、ならびに/あるいは1つもしくは複数の(ユーザに面した)後向き(rearward−facing)赤外線カメラおよび/または可視光カメラ614を含むことが可能である。(1つもしくは複数の)前向きカメラは1つもしくは複数のデプスカメラを含むことが可能であり、かつ/または後向きカメラは1つもしくは複数の視線追跡カメラを含むことが可能である。いくつかの実施形態では、オンボードセンササブシステムは、観察情報をオンボードセンササブシステムに送信する、1つまたは複数のオフボードセンサと通信することができる。例えば、ゲームコンソールによって使用されるデプスカメラは、デプスマップおよび/またはモデル形成された仮想スケルトンを頭部装着型ディスプレイのセンササブシステムに送信することができる。   [0057] The see-through display device 102 may include a speaker subsystem 606 and a sensor subsystem 608. The sensor subsystem may include a variety of different sensors in different embodiments. By way of non-limiting example, the sensor subsystem may include a microphone 610, one or more forward-facing infrared and / or visible light cameras 612 (and away from the user), and / or one or more ( A rear-facing infrared camera and / or visible light camera 614 (facing the user) may be included. The front-facing camera (s) can include one or more depth cameras, and / or the rear-facing camera can include one or more eye tracking cameras. In some embodiments, the on-board sensor subsystem can communicate with one or more off-board sensors that transmit observation information to the on-board sensor subsystem. For example, a depth camera used by a game console can send a depth map and / or a modeled virtual skeleton to the sensor subsystem of the head mounted display.

[0058]シースルー・ディスプレイデバイス102は、シースルー・ディスプレイデバイスがユーザの頭に装着されることを可能にする、1つまたは複数の特徴を含むことも可能である。示される例では、シースルー・ディスプレイデバイス102は、メガネの形をとり、鼻あて616と、耳あて618aおよび618bとを含む。他の実施形態では、頭部装着型ディスプレイは、前面シースルーバイザ(in−front−of−the−face see−through−visor)を備えた帽子またはヘルメットを含むことが可能である。さらに、頭部装着型シースルーディスプレイの関連で説明されているが、本明細書で説明される概念は、頭部装着型ではないシースルーディスプレイ(例えば、フロントガラス)およびシースルーではないディスプレイ(例えば、カメラの視界内にない仮想オブジェクトと共に、カメラによって観察される実際のオブジェクトをレンダリングする半透明ディスプレイ)に適用されることが可能である。   [0058] The see-through display device 102 may also include one or more features that allow the see-through display device to be worn on the user's head. In the example shown, the see-through display device 102 takes the form of glasses and includes a nose pad 616 and ear pads 618a and 618b. In other embodiments, the head-mounted display can include a hat or helmet with a front-of-the-face see-through-visor. Further, although described in the context of a head-mounted see-through display, the concepts described herein are non-head-mounted see-through displays (eg, windshields) and non-see-through displays (eg, cameras) Can be applied to a translucent display that renders the actual object viewed by the camera, along with virtual objects that are not in the field of view.

[0059]シースルー・ディスプレイデバイス102は、通信サブシステム620を含むことも可能である。通信サブシステム620は、1つまたは複数のオフボードコンピューティングデバイスと通信するように構成されることが可能である。ある例として、通信サブシステムは、ビデオストリーム、オーディオストリーム、座標情報、仮想オブジェクト記述、および/またはその他の情報を無線で受信して、仮想アリーナをレンダリングするように構成されることが可能である。   [0059] The see-through display device 102 may also include a communication subsystem 620. The communication subsystem 620 can be configured to communicate with one or more offboard computing devices. As an example, the communication subsystem may be configured to wirelessly receive a video stream, audio stream, coordinate information, virtual object description, and / or other information and render a virtual arena. .

[0060]いくつかの実施形態では、上で説明された方法およびプロセスは、1つまたは複数のコンピューティングデバイスのコンピューティングシステムに結合され得る。詳細には、そのような方法およびプロセスは、コンピュータアプリケーションプログラムもしくはコンピュータアプリケーションサービス、アプリケーションプログラミングインターフェース(API)、ライブラリ、および/またはその他のコンピュータプログラム製品として実施されることが可能である。   [0060] In some embodiments, the methods and processes described above may be coupled to a computing system of one or more computing devices. In particular, such methods and processes can be implemented as computer application programs or computer application services, application programming interfaces (APIs), libraries, and / or other computer program products.

[0061]図7は、上で説明された方法およびプロセスのうちの1つまたは複数を規定する(enact)ことができるコンピューティングシステム700のある非限定的な実施形態を概略的に示す。コンピューティングシステム700は、簡素化された形で示される。本開示の範囲から逸脱せずに、事実上、いかなるコンピュータアーキテクチャが使用されてもよいことを理解されよう。異なる実施形態では、コンピューティングシステム700は、頭部装着型シースルー・ディスプレイデバイス、ゲームデバイス、モバイルコンピューティングデバイス、モバイル通信デバイス(例えば、スマートフォン)、デスクトップコンピュータ、ラップトップコンピュータ、タブレットコンピュータ、家庭用娯楽コンピュータ、ネットワークコンピューティングデバイス、メインフレームコンピュータ、サーバコンピュータなどの形をとってよい。   [0061] FIG. 7 schematically illustrates one non-limiting embodiment of a computing system 700 that can enact one or more of the methods and processes described above. Computing system 700 is shown in a simplified form. It will be appreciated that virtually any computer architecture may be used without departing from the scope of the present disclosure. In different embodiments, the computing system 700 is a head-mounted see-through display device, a gaming device, a mobile computing device, a mobile communication device (eg, a smartphone), a desktop computer, a laptop computer, a tablet computer, home entertainment. It may take the form of a computer, a network computing device, a mainframe computer, a server computer, etc.

[0062]コンピューティングシステム700は、論理サブシステム702と記憶サブシステム704とを含む。コンピューティングシステム700は、ディスプレイサブシステム706(例えば、シースルーディスプレイ)、入力サブシステム708、通信サブシステム710、および/または図7に示されないその他の構成要素をオプションで含むことが可能である。   [0062] Computing system 700 includes a logical subsystem 702 and a storage subsystem 704. The computing system 700 may optionally include a display subsystem 706 (eg, a see-through display), an input subsystem 708, a communication subsystem 710, and / or other components not shown in FIG.

[0063]論理サブシステム702は、命令を実行するように構成された、1つまたは複数の物理デバイスを含む。例えば、論理サブシステムは、1つもしくは複数のアプリケーション、サービス、プログラム、ルーチン、ライブラリ、オブジェクト、構成要素、データ構造、またはその他の論理的構成の一部である命令を実行するように構成されることが可能である。そのような命令は、タスクを実行するために、データタイプを実施するために、1つもしくは複数の構成要素の状態を変換するために、またはそうでない場合、所望される結果に達するために実施されることが可能である。   [0063] The logical subsystem 702 includes one or more physical devices configured to execute instructions. For example, a logical subsystem is configured to execute instructions that are part of one or more applications, services, programs, routines, libraries, objects, components, data structures, or other logical constructs. It is possible. Such instructions may be performed to perform a task, to implement a data type, to convert the state of one or more components, or otherwise to achieve a desired result Can be done.

[0064]論理サブシステムは、ソフトウェア命令を実行するように構成された、1つまたは複数のプロセッサを含むことが可能である。加えて、またはその代わりに、論理サブシステムは、ハードウェア命令またはファームウェア命令を実行するように構成された、1つもしくは複数のハードウェア論理機械あるいはファームウェア論理機械を含むことが可能である。論理サブシステムのプロセッサは、シングルコアであってよく、またはマルチコアであってよく、その上で実行されるプログラムは、連続処理、並列処理、または分散処理のために構成されることが可能である。論理サブシステムは、遠隔に配置されることが可能であり、かつ/または協調処理のために構成されることが可能である、2つ以上のデバイス間で分散された個々の構成要素をオプションで含むことが可能である。論理サブシステムの態様は、クラウドコンピューティング構成で構成された、遠隔でアクセス可能な、ネットワーク接続されたコンピューティングデバイスによって仮想化および実行されることが可能である。   [0064] The logical subsystem may include one or more processors configured to execute software instructions. In addition or alternatively, the logical subsystem may include one or more hardware or firmware logic machines configured to execute hardware or firmware instructions. The logical subsystem processor may be single-core or multi-core, and the program executed thereon may be configured for continuous, parallel, or distributed processing . A logical subsystem can optionally be remotely located and / or configured for collaborative processing, optionally with individual components distributed between two or more devices. It is possible to include. Aspects of the logical subsystem can be virtualized and executed by remotely accessible, networked computing devices configured in a cloud computing configuration.

[0065]記憶サブシステム704は、本明細書で説明された方法およびプロセスを実施するために論理サブシステムによって実行可能なデータならびに/または命令を保持するように構成された、1つもしくは複数の物理的な非一時的デバイスを含む。そのような方法およびプロセスが実施されるとき、記憶サブシステム704の状態は、例えば、異なるデータを保持するために、変換されることが可能である。   [0065] The storage subsystem 704 is configured to hold one or more data and / or instructions that are executable by the logical subsystem to perform the methods and processes described herein. Includes physical non-transitory devices. When such methods and processes are implemented, the state of storage subsystem 704 can be converted, eg, to hold different data.

[0066]記憶サブシステム704は、取外し可能媒体および/または内蔵型デバイスを含むことが可能である。記憶サブシステム704は、中でも、光記憶装置(例えば、CD、DVD、HD−DVD、Blu−Rayディスクなど)、半導体記憶装置(例えば、RAM、EPROM、EEPROMなど)、および/または磁気記憶装置(例えば、ハードディスクドライブ、フロッピー(登録商標)ディスクドライブ、テープドライブ、MRANなど)を含むことが可能である。記憶サブシステム704は、揮発性デバイス、不揮発性デバイス、動的デバイス、静的デバイス、読取り書込みデバイス、読出し専用デバイス、ランダムアクセスデバイス、連続アクセスデバイス、位置アドレス可能(addressable)デバイス、ファイルアドレス可能デバイス、および/またはコンテンツアドレス可能デバイスを含むことが可能である。   [0066] The storage subsystem 704 may include removable media and / or self-contained devices. The storage subsystem 704 includes, among others, an optical storage device (eg, CD, DVD, HD-DVD, Blu-Ray disk, etc.), a semiconductor storage device (eg, RAM, EPROM, EEPROM, etc.), and / or a magnetic storage device (eg, For example, it may include a hard disk drive, floppy disk drive, tape drive, MRAN, etc. The storage subsystem 704 is a volatile device, a non-volatile device, a dynamic device, a static device, a read / write device, a read-only device, a random access device, a continuous access device, a location addressable device, a file addressable device. , And / or content addressable devices.

[0067]記憶サブシステム704は、1つまたは複数の物理的な非一時的デバイスを含むことを理解されよう。しかし、いくつかの実施形態では、本明細書で説明された命令の態様は、有限存続期間にわたって物理デバイスによって保持されない、きれいな信号(例えば、電磁信号、光信号など)によって一時的な形で伝搬されることが可能である。さらに、本開示に関係するデータおよび/または他の形の情報は、きれいな信号によって伝搬されることが可能である。   [0067] It will be appreciated that the storage subsystem 704 includes one or more physical non-transitory devices. However, in some embodiments, the instructional aspects described herein are propagated in a transient manner by clean signals (eg, electromagnetic signals, optical signals, etc.) that are not held by the physical device for a finite lifetime. Can be done. Further, data and / or other forms of information related to the present disclosure can be propagated by clean signals.

[0068]いくつかの実施形態では、論理サブシステム702の態様および記憶サブシステム704の態様は、それを介して、本明細書で機能的に説明されたことが規定され得る、1つまたは複数のハードウェア論理構成要素内に共に統合されることが可能である。そのようなハードウェア論理構成要素は、例えば、フィールドプログラマブルゲートアレイ(FPGA)と、特定プログラム向け(program−specific)集積回路および特定用途向け集積回路(PSIC/ASIC)と、特定プログラム向け標準製品および特定用途向け標準製品(PSSP/ASSP)と、システムオンチップ(SOC)システムと、複合プログラマブル論理デバイス(CPLD)とを含むことが可能である。   [0068] In some embodiments, aspects of the logical subsystem 702 and aspects of the storage subsystem 704 may be defined via which one or more may be functionally described herein. Can be integrated together in the hardware logic components of Such hardware logic components include, for example, field programmable gate arrays (FPGAs), program-specific integrated circuits and application specific integrated circuits (PSIC / ASIC), standard programs specific products, and It may include application specific standard products (PSSP / ASSP), system on chip (SOC) systems, and complex programmable logic devices (CPLD).

[0069]「プログラム」および「エンジン」という用語は、特定の機能を実行するために実施される、コンピューティングシステム700のある態様を説明するために使用される場合がある。場合によっては、プログラムまたはエンジンのインスタンスは、記憶サブシステム704によって保持される命令を実行する論理サブシステム702を経由して作成されることが可能である。異なるプログラムおよび/またはエンジンのインスタンスは、同じアプリケーション、サービス、コードブロック、オブジェクト、ライブラリ、ルーチン、API、機能などから作成され得ることを理解されよう。同様に、同じプログラムおよび/またはエンジンは、異なるアプリケーション、サービス、コードブロック、オブジェクト、ルーチン、API、機能などによって作成されることが可能である。「プログラム」および「エンジン」という用語は、個々の実行可能なファイル、データファイル、ライブラリ、ドライバ、スクリプト、データベース記録など、またはそれらのグループを包含することが可能である。   [0069] The terms "program" and "engine" may be used to describe certain aspects of computing system 700 that are implemented to perform a particular function. In some cases, an instance of a program or engine can be created via a logical subsystem 702 that executes instructions held by the storage subsystem 704. It will be appreciated that instances of different programs and / or engines may be created from the same application, service, code block, object, library, routine, API, function, etc. Similarly, the same program and / or engine can be created by different applications, services, code blocks, objects, routines, APIs, functions, etc. The terms “program” and “engine” can encompass individual executable files, data files, libraries, drivers, scripts, database records, etc., or groups thereof.

[0070]本明細書で使用される場合「サービス」は、複数のユーザセッションを通して実行可能なアプリケーションプログラムであることを理解されよう。サービスは、1つもしくは複数のシステム構成要素、プログラム、および/またはその他のサービスに利用可能であり得る。いくつかの実施形態では、サービスは、1つまたは複数のサーバコンピューティングデバイス上で実行することができる。   [0070] As used herein, it will be understood that a "service" is an application program that can be executed through multiple user sessions. A service may be available for one or more system components, programs, and / or other services. In some embodiments, the service can run on one or more server computing devices.

[0071]含まれるとき、ディスプレイサブシステム706は、記憶サブシステム704によって保持されるデータの視覚的表現を提示するために使用されることが可能である。この視覚的表現は、物理空間を拡張するように見える像の形をとってよく、それにより、複合現実感の錯覚を生み出す。本明細書で説明された方法およびプロセスは記憶サブシステムによって保持されるデータを変更し、それにより、記憶サブシステムの状態を変換するため、ディスプレイサブシステム706の状態は、基礎となるデータの変更を視覚的に表すために同様に変換されることが可能である。ディスプレイサブシステム706は、事実上、任意のタイプの技術を利用する、1つまたは複数のディスプレイデバイスを含むことが可能である。そのようなディスプレイデバイスは、共用筐体(shared enclosure)(例えば、頭部装着型ディスプレイ)内で論理サブシステム702および/または記憶サブシステム704と組み合わされることが可能であるか、またはそのようなディスプレイデバイスは周辺ディスプレイデバイスであってもよい。   [0071] When included, the display subsystem 706 can be used to present a visual representation of the data maintained by the storage subsystem 704. This visual representation may take the form of an image that appears to extend physical space, thereby creating the illusion of mixed reality. Because the methods and processes described herein change the data held by the storage subsystem, thereby converting the state of the storage subsystem, the state of the display subsystem 706 changes the underlying data. Can be similarly transformed to visually represent. The display subsystem 706 can include one or more display devices that utilize virtually any type of technology. Such a display device can be combined with logical subsystem 702 and / or storage subsystem 704 in a shared enclosure (eg, a head-mounted display) or such The display device may be a peripheral display device.

[0072]含まれるとき、入力サブシステム708は、ゲームコントローラ、ジェスチャ入力検出デバイス、音声認識装置、慣性計測装置、キーボード、マウス、またはタッチスクリーンなど、1つもしくは複数のユーザ入力デバイスを備えるか、あるいは当該ユーザ入力デバイスとインターフェースをとることが可能である。いくつかの実施形態では、入力サブシステムは、選択されたナチュラルユーザ入力(natural user input)(NUI)コンポーネント要素(componentry)を備えるか、または当該コンポーネント要素とインターフェースをとることができる。そのようなコンポーネント要素は、統合型であってよく、または周辺的であってもよく、入力動作の変換および/または処理は、ハンドヘルドであってよく、またはオンボード式もしくはオフボード式であってもよい。例示的なNUIコンポーネント要素は、発話認識および/もしくは音声認識用のマイクロフォン、マシンビジョンおよび/もしくはジェスチャ認識のための赤外線カメラ、カラーカメラ、立体カメラ、ならびに/またはデプスカメラ、動き検出および/もしくは意図認識のための頭部追跡器、視線追跡器、加速度計、ならびに/またはジャイロスコープと同様に、脳活動を査定するための電界検知コンポーネント要素を含むことが可能である。   [0072] When included, the input subsystem 708 comprises one or more user input devices such as a game controller, gesture input detection device, voice recognition device, inertial measurement device, keyboard, mouse, or touch screen, Alternatively, it can interface with the user input device. In some embodiments, the input subsystem may comprise or interface with a selected natural user input (NUI) component element. Such component elements may be integrated or peripheral, and the conversion and / or processing of input motion may be handheld or onboard or offboard. Also good. Exemplary NUI component elements include microphones for speech recognition and / or speech recognition, infrared cameras, color cameras, stereo cameras, and / or depth cameras, motion detection and / or intent for machine vision and / or gesture recognition Similar to a head tracker, eye tracker, accelerometer, and / or gyroscope for recognition, an electric field sensing component element for assessing brain activity can be included.

[0073]含まれるとき、通信サブシステム710は、コンピューティングシステム700を1つまたは複数の他のコンピューティングデバイスと通信可能に結合するように構成されることが可能である。通信サブシステム710は、1つもしくは複数の異なる通信プロトコルと互換性がある有線通信デバイスおよび/または無線通信デバイスを含むことが可能である。非限定的な例として、通信サブシステムは、無線電話ネットワーク、あるいは有線もしくは無線のローカルエリアネットワークまたは広域ネットワークを経由して通信するように構成されることが可能である。いくつかの実施形態では、通信サブシステムは、コンピューティングシステム700が、インターネットなどのネットワークを経由して、他のデバイスにメッセージを送信すること、および/または他のデバイスからメッセージを受信することを可能にすることができる。   [0073] When included, the communication subsystem 710 may be configured to communicatively couple the computing system 700 with one or more other computing devices. The communication subsystem 710 can include wired and / or wireless communication devices that are compatible with one or more different communication protocols. By way of non-limiting example, the communication subsystem can be configured to communicate via a wireless telephone network or a wired or wireless local area network or wide area network. In some embodiments, the communication subsystem allows the computing system 700 to send messages to and / or receive messages from other devices via a network such as the Internet. Can be possible.

[0074]本明細書で説明された構成および/または手法は、本質的に例示的であり、様々な改変が可能であるため、これらの特定の実施形態または例は限定的な意味で考慮されるべきでないことを理解されよう。本明細書で説明された特定のルーチンまたは方法は、任意の数の処理戦略のうちの1つもしくは複数を表す場合がある。したがって、例示および/または説明された様々な動作は、例示および/または説明された順序で実行されてよく、他の順序で実行されてよく、並行して実行されてよく、または省略されてもよい。同様に、上述のプロセスの順序は変更されてもよい。   [0074] Since the configurations and / or techniques described herein are exemplary in nature and various modifications are possible, these specific embodiments or examples are considered in a limiting sense. It will be understood that it should not. The particular routines or methods described herein may represent one or more of any number of processing strategies. Accordingly, the various operations illustrated and / or described may be performed in the order illustrated and / or described, may be performed in other orders, may be performed in parallel, or may be omitted. Good. Similarly, the order of the processes described above may be changed.

[0075]本開示の主題は、本明細書で開示された様々なプロセス、システムおよび構成、その他の特徴、機能、動作、ならびに/または属性のすべての新規性のある非自明の組合せならびにサブコンビネーションと同様に、それらの任意の均等物およびすべての均等物を含む。   [0075] The subject matter of this disclosure is all novel non-obvious combinations and subcombinations of the various processes, systems and configurations, and other features, functions, operations, and / or attributes disclosed herein. As well as any and all equivalents thereof.

100 ユーザ
101 コンピューティングシステム
102 シースルー・ディスプレイデバイス
104 物理空間
物理的環境
106a、106b、106c、106d ライン
108a、108b、108c、108d 現実世界オブジェクト
110 仮想アリーナ
112 ユーザ制御アバタ
アバタ
114 対戦相手アバタ
アバタ
200 ユーザ制御アバタ
202 ユーザ
204 仮想アリーナ204
206 対戦相手アバタ
300 ボクシンググローブ
302 手
400 対戦相手
402 ビデオゲームシステム
404 対戦相手静止ディスプレイ
406 仮想アリーナ
500 方法
502 ステップ
504 ステップ
506 ステップ
508 ステップ
510 ステップ
512 ステップ
514 ステップ
516 ステップ
518 ステップ
520 ステップ
522 ステップ
602 シースルーディスプレイ
604 仮想現実エンジン
606 スピーカサブシステム
608 センササブシステム
610 マイクロフォン
612 前向き赤外線カメラおよび/または可視光カメラ
614 後向き赤外線カメラおよび/または可視光カメラ
616 鼻あて
618a、618b 耳あて
620 通信サブシステム
700 コンピューティングシステム
702 論理サブシステム
704 記憶サブシステム
706 ディスプレイサブシステム706
708 入力サブシステム
710 通信サブシステム
100 user 101 computing system 102 see-through display device 104 physical space
Physical Environment 106a, 106b, 106c, 106d Line 108a, 108b, 108c, 108d Real World Object 110 Virtual Arena 112 User Control Avatar
Avatar 114 Opponent Avatar
Avatar 200 User control avatar 202 User 204 Virtual arena 204
206 opponent avatar 300 boxing glove 302 hand 400 opponent 402 video game system 404 opponent stationary display 406 virtual arena 500 method 502 step 504 step 506 step 508 step 510 step 512 step 514 step 516 step 518 step 520 step 522 step 602 see-through Display 604 Virtual Reality Engine 606 Speaker Subsystem 608 Sensor Subsystem 610 Microphone 612 Forward Infrared Camera and / or Visible Light Camera 614 Backward Infrared Camera and / or Visible Light Camera 616 Nose 618a, 618b Ear 620 620 Communication Subsystem 700 Computing System 702 logical Subsystem 704 Storage Subsystem 706 Display Subsystem 706
708 Input subsystem 710 Communication subsystem

Claims (10)

複合現実感格闘ゲームを提供するコンピューティングシステムであって、
シースルー・ディスプレイデバイスと、
論理サブシステムと、
前記論理サブシステムによって実行されるとき、
仮想アリーナ、ユーザ制御アバタ、および対戦相手アバタを前記シースルー・ディスプレイデバイス上に表示して、物理空間が前記シースルー・ディスプレイデバイスを通して見られたとき、前記仮想アリーナが前記物理空間内に統合され、
ユーザ入力の受信に応答して、前記ユーザ入力に基づいて更新されたユーザ制御アバタを前記シースルー・ディスプレイデバイス上に表示する
命令を記憶した記憶サブシステムと
を備えるコンピューティングシステム。
A computing system that provides a mixed reality fighting game,
See-through display devices,
A logical subsystem;
When executed by the logical subsystem,
Displaying a virtual arena, a user controlled avatar, and an opponent avatar on the see-through display device so that when the physical space is viewed through the see-through display device, the virtual arena is integrated into the physical space;
A computing system comprising: a storage subsystem storing instructions for displaying a user control avatar updated based on the user input on the see-through display device in response to receiving the user input.
前記ユーザ制御アバタの位置が、前記ユーザ入力を提供するユーザの位置に基づいて動的に更新される、請求項1に記載のコンピューティングシステム。   The computing system of claim 1, wherein a location of the user controlled avatar is dynamically updated based on a location of a user providing the user input. 前記ユーザ入力が、前記ユーザ入力を提供するユーザのジェスチャを観察するように構成されたジェスチャ入力検出デバイスを経由して受信される、請求項1に記載のコンピューティングシステム。   The computing system of claim 1, wherein the user input is received via a gesture input detection device configured to observe a user gesture that provides the user input. 前記仮想アリーナの表現が対戦相手静止ディスプレイ上に表示される、請求項1に記載のコンピューティングシステム。   The computing system of claim 1, wherein the representation of the virtual arena is displayed on an opponent stationary display. 前記仮想アリーナの表現が対戦相手シースルー・ディスプレイデバイス上に表示される、請求項1に記載のコンピューティングシステム。   The computing system of claim 1, wherein the representation of the virtual arena is displayed on an opponent see-through display device. デプスカメラをさらに備え、前記デプスカメラが前記物理空間を撮像する、請求項1に記載のコンピューティングシステム。   The computing system according to claim 1, further comprising a depth camera, wherein the depth camera images the physical space. 1つまたは複数のオブジェクトを有する前記物理空間が前記シースルー・ディスプレイデバイスを通して見られたとき、前記シースルー・ディスプレイデバイスが、前記物理空間内の前記1つまたは複数のオブジェクトと統合された、1つまたは複数の対話要素を有する前記仮想アリーナを表示する、請求項6に記載のコンピューティングシステム。   When the physical space having one or more objects is viewed through the see-through display device, the see-through display device is integrated with the one or more objects in the physical space; The computing system of claim 6, wherein the virtual arena having a plurality of interactive elements is displayed. 複合現実感格闘ゲームを提供するための方法であって、
シースルー・ディスプレイデバイスを介して仮想アリーナを表示するステップであって、前記仮想アリーナが物理空間の第1の上方制限関数としてスケーリングされるステップと、
前記シースルー・ディスプレイデバイスを介して1つまたは複数のアバタを前記仮想アリーナ内に表示するステップであって、前記1つまたは複数のアバタが前記物理空間の第2の上方制限関数としてスケーリングされる、ステップと
を含む方法。
A method for providing a mixed reality fighting game,
Displaying a virtual arena through a see-through display device, wherein the virtual arena is scaled as a first upper limiting function in physical space;
Displaying one or more avatars in the virtual arena via the see-through display device, wherein the one or more avatars are scaled as a second upper limiting function of the physical space; And a method comprising:
前記第1の上方制限関数が前記第2の上方制限関数とは異なる、請求項8に記載の方法。   The method of claim 8, wherein the first upper limit function is different from the second upper limit function. 前記第1の上方制限関数が前記第2の上方制限関数と同じである、請求項8に記載の方法。   9. The method of claim 8, wherein the first upper limit function is the same as the second upper limit function.
JP2013261801A 2013-12-18 2013-12-18 Mixed-reality arena Pending JP2015116336A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013261801A JP2015116336A (en) 2013-12-18 2013-12-18 Mixed-reality arena

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013261801A JP2015116336A (en) 2013-12-18 2013-12-18 Mixed-reality arena

Publications (2)

Publication Number Publication Date
JP2015116336A true JP2015116336A (en) 2015-06-25
JP2015116336A5 JP2015116336A5 (en) 2017-02-02

Family

ID=53529625

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013261801A Pending JP2015116336A (en) 2013-12-18 2013-12-18 Mixed-reality arena

Country Status (1)

Country Link
JP (1) JP2015116336A (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017068824A1 (en) * 2015-10-21 2017-04-27 シャープ株式会社 Image generation device, method for controlling image generation device, display system, image generation control program, and computer-readable recording medium
WO2017094356A1 (en) * 2015-12-01 2017-06-08 シャープ株式会社 Video producing device, method for controlling video producing device, display system, video production control program, and computer-readable recording medium
WO2018131238A1 (en) * 2017-01-16 2018-07-19 ソニー株式会社 Information processing device, information processing method, and program
CN108939533A (en) * 2018-06-14 2018-12-07 广州市点格网络科技有限公司 Somatic sensation television game interactive approach and system
JP2019149066A (en) * 2018-02-28 2019-09-05 富士ゼロックス株式会社 Information processing apparatus and program
WO2019225115A1 (en) * 2018-05-24 2019-11-28 ソニー株式会社 Information processing device, information processing method, and program
JP2020057400A (en) * 2019-11-28 2020-04-09 株式会社ソニー・インタラクティブエンタテインメント Information processor and warning presentation method
JP2020087278A (en) * 2018-11-30 2020-06-04 株式会社ドワンゴ Video synthesizer, method for synthesizing video, and video synthesizing program
JP2020086630A (en) * 2018-11-19 2020-06-04 株式会社ポケット・クエリーズ Work assisting system and program
JP2020087277A (en) * 2018-11-30 2020-06-04 株式会社ドワンゴ Video synthesizer, method for synthesizing video, and video synthesizing program
WO2020262391A1 (en) * 2019-06-28 2020-12-30 富士フイルム株式会社 Display control device, display control method, and program
US10888772B2 (en) 2015-12-14 2021-01-12 Sony Interactive Entertainment Inc. Information processing apparatus and warning presentation method
JP2021048644A (en) * 2020-12-17 2021-03-25 ソニー株式会社 Information processing unit, information processing method, and program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001046742A (en) * 1999-08-04 2001-02-20 Namco Ltd Game system and information memory medium
US20120052947A1 (en) * 2010-08-24 2012-03-01 Sang Bum Yun System and method for cyber training of martial art on network
JP2012181616A (en) * 2011-02-28 2012-09-20 Namco Bandai Games Inc Program, information storage medium, game device and server system
US20130194259A1 (en) * 2012-01-27 2013-08-01 Darren Bennett Virtual environment generating system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001046742A (en) * 1999-08-04 2001-02-20 Namco Ltd Game system and information memory medium
US20120052947A1 (en) * 2010-08-24 2012-03-01 Sang Bum Yun System and method for cyber training of martial art on network
JP2012181616A (en) * 2011-02-28 2012-09-20 Namco Bandai Games Inc Program, information storage medium, game device and server system
US20130194259A1 (en) * 2012-01-27 2013-08-01 Darren Bennett Virtual environment generating system

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10471355B2 (en) 2015-10-21 2019-11-12 Sharp Kabushiki Kaisha Display system, method of controlling display system, image generation control program, and computer-readable storage medium
WO2017068824A1 (en) * 2015-10-21 2017-04-27 シャープ株式会社 Image generation device, method for controlling image generation device, display system, image generation control program, and computer-readable recording medium
WO2017094356A1 (en) * 2015-12-01 2017-06-08 シャープ株式会社 Video producing device, method for controlling video producing device, display system, video production control program, and computer-readable recording medium
US10888772B2 (en) 2015-12-14 2021-01-12 Sony Interactive Entertainment Inc. Information processing apparatus and warning presentation method
US11697062B2 (en) 2015-12-14 2023-07-11 Sony Interactive Entertainment Inc. Information processing apparatus and warning presentation method
US10868977B2 (en) 2017-01-16 2020-12-15 Sony Corporation Information processing apparatus, information processing method, and program capable of adaptively displaying a video corresponding to sensed three-dimensional information
JPWO2018131238A1 (en) * 2017-01-16 2019-12-12 ソニー株式会社 Information processing apparatus, information processing method, and program
CN110168615A (en) * 2017-01-16 2019-08-23 索尼公司 Information processing equipment, information processing method and program
WO2018131238A1 (en) * 2017-01-16 2018-07-19 ソニー株式会社 Information processing device, information processing method, and program
JP2019149066A (en) * 2018-02-28 2019-09-05 富士ゼロックス株式会社 Information processing apparatus and program
WO2019225115A1 (en) * 2018-05-24 2019-11-28 ソニー株式会社 Information processing device, information processing method, and program
CN108939533A (en) * 2018-06-14 2018-12-07 广州市点格网络科技有限公司 Somatic sensation television game interactive approach and system
JP2020086630A (en) * 2018-11-19 2020-06-04 株式会社ポケット・クエリーズ Work assisting system and program
WO2020110322A1 (en) * 2018-11-30 2020-06-04 株式会社ドワンゴ Video synthesis device, video synthesis method and recording medium
US11625858B2 (en) 2018-11-30 2023-04-11 Dwango Co., Ltd. Video synthesis device, video synthesis method and recording medium
JP2020087277A (en) * 2018-11-30 2020-06-04 株式会社ドワンゴ Video synthesizer, method for synthesizing video, and video synthesizing program
WO2020110323A1 (en) * 2018-11-30 2020-06-04 株式会社ドワンゴ Video synthesis device, video synthesis method and recording medium
US11195302B2 (en) 2018-11-30 2021-12-07 Dwango Co., Ltd. Video synthesis device, video synthesis method and recording medium
JP2020087278A (en) * 2018-11-30 2020-06-04 株式会社ドワンゴ Video synthesizer, method for synthesizing video, and video synthesizing program
US11367260B2 (en) 2018-11-30 2022-06-21 Dwango Co., Ltd. Video synthesis device, video synthesis method and recording medium
WO2020262391A1 (en) * 2019-06-28 2020-12-30 富士フイルム株式会社 Display control device, display control method, and program
JPWO2020262391A1 (en) * 2019-06-28 2020-12-30
US11909945B2 (en) 2019-06-28 2024-02-20 Fujifilm Corporation Display control device, display control method, and program
JP7163498B2 (en) 2019-06-28 2022-10-31 富士フイルム株式会社 Display control device, display control method, and program
JP2020057400A (en) * 2019-11-28 2020-04-09 株式会社ソニー・インタラクティブエンタテインメント Information processor and warning presentation method
JP7044149B2 (en) 2020-12-17 2022-03-30 ソニーグループ株式会社 Information processing equipment, information processing methods, and programs
JP2021048644A (en) * 2020-12-17 2021-03-25 ソニー株式会社 Information processing unit, information processing method, and program

Similar Documents

Publication Publication Date Title
US20140125698A1 (en) Mixed-reality arena
JP2015116336A (en) Mixed-reality arena
US11806623B2 (en) Apparatus for adapting virtual gaming with real world information
JP6373920B2 (en) Simulation system and program
US9933851B2 (en) Systems and methods for interacting with virtual objects using sensory feedback
JP6281495B2 (en) Information processing apparatus, terminal apparatus, information processing method, and program
JP6281496B2 (en) Information processing apparatus, terminal apparatus, information processing method, and program
US9804696B2 (en) User-input control device toggled motion tracking
JP2023542846A (en) Devices, methods, and graphical user interfaces for interacting with three-dimensional environments
JP2022527662A (en) Virtual object control methods, devices, equipment and computer programs
GB2556347A (en) Virtual reality
JP2014149712A (en) Information processing device, terminal device, information processing method, and program
TW201541382A (en) Display device viewer gaze attraction
JP2015116336A5 (en)
CN112416196B (en) Virtual object control method, device, equipment and computer readable storage medium
CN103785169A (en) Mixed reality arena
JP2023520765A (en) Systems and methods for virtual and augmented reality
EP2886172A1 (en) Mixed-reality arena
KR20150071611A (en) Mixed-reality arena
WO2023160068A1 (en) Virtual subject control method and apparatus, device, and medium
JP2019524180A (en) Generating a challenge using a location-based gameplay companion application
KR20150071824A (en) Cross-platform augmented reality experience
JP2022131381A (en) program
JP2015116339A (en) Cross-platform augmented reality experience
CN116251349A (en) Method and device for prompting target position in game and electronic equipment

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20150528

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161214

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161214

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171226

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20181105