JP2024021028A - Information processing system, information processing method, and storage medium - Google Patents

Information processing system, information processing method, and storage medium Download PDF

Info

Publication number
JP2024021028A
JP2024021028A JP2022200899A JP2022200899A JP2024021028A JP 2024021028 A JP2024021028 A JP 2024021028A JP 2022200899 A JP2022200899 A JP 2022200899A JP 2022200899 A JP2022200899 A JP 2022200899A JP 2024021028 A JP2024021028 A JP 2024021028A
Authority
JP
Japan
Prior art keywords
avatar
predetermined
skill
information
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022200899A
Other languages
Japanese (ja)
Inventor
暁彦 白井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GREE Inc
Original Assignee
GREE Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GREE Inc filed Critical GREE Inc
Priority to US18/216,615 priority Critical patent/US20240042323A1/en
Publication of JP2024021028A publication Critical patent/JP2024021028A/en
Pending legal-status Critical Current

Links

Abstract

【課題】仮想空間におけるアバターの活動を効果的に促進する。【解決手段】仮想空間においてアバターの動作を処理するアバター処理部と、アバターの動作に関するスキルであって、アバターに対応付け可能な所定スキルを記憶する第1記憶部と、所定スキルに対応付けられている発動条件を記憶する第2記憶部と、一の対象アバターに所定スキルが対応付けられている場合に、発動条件の成否を判定する判定部とを備え、発動条件は、仮想空間における所定オブジェクトと関連し、アバター処理部は、発動条件が満たされた場合に、対象アバターに所定スキルに基づく動作を行わせる、情報処理システムが開示される。【選択図】図15[Problem] To effectively promote avatar activities in virtual space. [Solution] An avatar processing unit that processes avatar actions in a virtual space; a first storage unit that stores a predetermined skill that is related to the avatar action and that can be associated with the avatar; a second storage unit that stores activation conditions that are set in the virtual space; and a determination unit that determines whether the activation conditions are met when a predetermined skill is associated with one target avatar; An information processing system is disclosed in which, in relation to an object, an avatar processing unit causes a target avatar to perform an action based on a predetermined skill when an activation condition is satisfied. [Selection diagram] Figure 15

Description

本開示は、情報処理システム、情報処理方法、及び記憶媒体に関する。 The present disclosure relates to an information processing system, an information processing method, and a storage medium.

第1アバターオブジェクトの第1部位と、第2アバターオブジェクトの第2部位との間隔を算出し、仮想空間において視覚的なイベントを実行可能にするためのあらかじめ定められた条件が満たされているか否かを判断し、あらかじめ定められた条件が満たされていると判断した場合に、算出された間隔があらかじめ定められた間隔以下になったことに応じて、仮想空間において視覚的なイベントを実行する技術が知られている。 Calculate the distance between the first part of the first avatar object and the second part of the second avatar object, and determine whether a predetermined condition for making it possible to execute a visual event in the virtual space is satisfied. If it is determined that a predetermined condition is met, a visual event is executed in the virtual space in response to the calculated interval becoming less than or equal to the predetermined interval. The technology is known.

特開2018-128966号公報JP2018-128966A

しかしながら、上記のような従来技術では、仮想空間におけるアバターの活動を効果的に促進することが難しい。 However, with the above-mentioned conventional techniques, it is difficult to effectively promote the activities of avatars in virtual space.

そこで、1つの側面では、本開示は、仮想空間におけるアバターの活動を効果的に促進することを目的とする。 Therefore, in one aspect, the present disclosure aims to effectively promote avatar activities in virtual space.

1つの側面では、仮想空間においてアバターの動作を処理するアバター処理部と、
アバターの動作に関するスキルであって、アバターに対応付け可能な所定スキルを記憶する第1記憶部と、
前記所定スキルに対応付けられている発動条件を記憶する第2記憶部と、
一の対象アバターに前記所定スキルが対応付けられている場合に、前記発動条件の成否を判定する判定部とを備え、
前記発動条件は、前記仮想空間における所定オブジェクトと関連し、
前記アバター処理部は、前記発動条件が満たされた場合に、前記対象アバターに前記所定スキルに基づく動作を行わせる、情報処理システムが提供される。
In one aspect, an avatar processing unit that processes avatar motion in a virtual space;
a first storage unit that stores predetermined skills related to the avatar's actions and that can be associated with the avatar;
a second storage unit that stores activation conditions associated with the predetermined skill;
a determination unit that determines whether the activation condition is met when the predetermined skill is associated with one target avatar;
The activation condition is related to a predetermined object in the virtual space,
An information processing system is provided in which the avatar processing unit causes the target avatar to perform an action based on the predetermined skill when the activation condition is satisfied.

1つの側面では、本開示によれば、仮想空間におけるアバターの活動を効果的に促進することが可能となる。 In one aspect, according to the present disclosure, it is possible to effectively promote the activities of an avatar in a virtual space.

本実施形態に係る仮想現実生成システムのブロック図である。FIG. 1 is a block diagram of a virtual reality generation system according to the present embodiment. ヘッドマウントディスプレイを介して視認可能な端末用画像の説明図である。FIG. 2 is an explanatory diagram of a terminal image that can be viewed through a head-mounted display. スマートフォンを介して視認可能な端末用画像の説明図である。FIG. 2 is an explanatory diagram of a terminal image that can be viewed through a smartphone. 所定スキル『サッカーボールのリフティング』に基づく動作のイメージ図である。It is an image diagram of an action based on a predetermined skill "lifting a soccer ball." 所定スキル『ピアノの演奏』に基づく動作のイメージ図である。It is an image diagram of an operation based on a predetermined skill "playing the piano." 所定スキル『バンドでの演奏』に基づく動作のイメージ図である。It is an image diagram of an operation based on a predetermined skill "performance in a band." 所定スキルの選択画面(ユーザインタフェース)の一例の説明図である。It is an explanatory diagram of an example of a selection screen (user interface) of a predetermined skill. 歩き方(『大股』)に係る所定スキルの説明図である。FIG. 2 is an explanatory diagram of a predetermined skill related to walking style (“stride”). 歩き方(『おしとやか』)に係る所定スキルの説明図である。FIG. 2 is an explanatory diagram of a predetermined skill related to walking style (“ladylike”). 関節モデルの一例の説明図である。FIG. 3 is an explanatory diagram of an example of a joint model. 関節モデルを利用した各部位の関係を示す図である。FIG. 3 is a diagram showing the relationship between parts using a joint model. 指の動きの変化の説明図である。FIG. 3 is an explanatory diagram of changes in finger movement. アバターの特性を反映するために好適な関数の説明図である。FIG. 2 is an explanatory diagram of a function suitable for reflecting the characteristics of an avatar. アバターの特性を反映するために好適な期間の説明図である。FIG. 6 is an explanatory diagram of a period suitable for reflecting the characteristics of an avatar. 所定スキルが楽器の演奏の場合の具体的な描画方法の一例の流れを示す概略的なフローチャートである。12 is a schematic flowchart showing an example of a specific drawing method when the predetermined skill is playing a musical instrument. 複数のアバターによる同期再生の説明図である。FIG. 3 is an explanatory diagram of synchronous playback by a plurality of avatars. 所定スキルに基づくアバターの動作に関連したサーバ装置の機能を示す概略的なブロック図である。FIG. 2 is a schematic block diagram showing functions of a server device related to avatar actions based on predetermined skills. オブジェクト情報記憶部内のデータの一例を示す説明図である。FIG. 2 is an explanatory diagram showing an example of data in an object information storage unit. スキル関連データ記憶部内のデータの一例を示す説明図である。It is an explanatory view showing an example of data in a skill related data storage part. ユーザ情報記憶部内のデータの一例を示す説明図である。It is an explanatory diagram showing an example of data in a user information storage part. アバター情報記憶部内のデータの一例を示す説明図である。It is an explanatory view showing an example of data in an avatar information storage part. 所定スキルに基づくアバターの動作に関連した仮想現実生成システムの動作例を概略的に示すタイミングチャートである。3 is a timing chart schematically showing an example of the operation of the virtual reality generation system related to the operation of an avatar based on a predetermined skill. 図20に示す処理に関連して実行される対象アバターに関する描画処理の一例を示す概略フローチャートである。21 is a schematic flowchart illustrating an example of a drawing process regarding a target avatar that is executed in connection with the process shown in FIG. 20. アニメーション再生処理(図21のステップS234)の一例を示す概略フローチャートである。22 is a schematic flowchart showing an example of animation playback processing (step S234 in FIG. 21).

以下、添付図面を参照しながら各実施形態について詳細に説明する。なお、添付図面では、見易さのために、複数存在する同一属性の部位には、一部のみしか参照符号が付されていない場合がある。 Hereinafter, each embodiment will be described in detail with reference to the accompanying drawings. In the accompanying drawings, for ease of viewing, only some of the parts with the same attribute may be labeled with reference numerals.

図1を参照して、一実施形態に係る仮想現実生成システム1の概要について説明する。図1は、本実施形態に係る仮想現実生成システム1のブロック図である。図2は、ヘッドマウントディスプレイを介して視認可能な端末用画像の説明図である。 With reference to FIG. 1, an overview of a virtual reality generation system 1 according to an embodiment will be described. FIG. 1 is a block diagram of a virtual reality generation system 1 according to this embodiment. FIG. 2 is an explanatory diagram of a terminal image that can be viewed through a head-mounted display.

仮想現実生成システム1は、サーバ装置10と、1つ以上の端末装置20と、を備える。図1では簡便のため、3つの端末装置20、20A、20Bを図示しているが、端末装置20の数は2つ以上であればよい。 The virtual reality generation system 1 includes a server device 10 and one or more terminal devices 20. Although three terminal devices 20, 20A, and 20B are illustrated in FIG. 1 for simplicity, the number of terminal devices 20 may be two or more.

サーバ装置10は、例えば1つ以上の仮想現実を提供する運営者が管理するサーバ等の情報処理システムである。端末装置20は、例えば携帯電話、スマートフォン、タブレット端末、PC(Personal Computer)、ヘッドマウントディスプレイ、又はゲーム装置等の、ユーザによって使用される装置である。端末装置20は、典型的にはユーザごとに異なる態様で、複数がサーバ装置10にネットワーク3を介して接続されうる。 The server device 10 is, for example, an information processing system such as a server managed by an operator that provides one or more virtual realities. The terminal device 20 is a device used by a user, such as a mobile phone, a smartphone, a tablet terminal, a PC (Personal Computer), a head-mounted display, or a game device. A plurality of terminal devices 20 can be connected to the server device 10 via the network 3, typically in different ways for each user.

端末装置20は、本実施形態に係る仮想現実アプリケーションを実行可能である。仮想現実アプリケーションは、ネットワーク3を介してサーバ装置10や所定のアプリケーション配信サーバから端末装置20に受信されてもよく、あるいは端末装置20に備えられた記憶装置又は端末装置20が読取可能なメモリカード等の記憶媒体にあらかじめ記憶されていてもよい。サーバ装置10及び端末装置20は、ネットワーク3を介して通信可能に接続される。例えば、サーバ装置10及び端末装置20が協動して、仮想現実に関する多様な処理を実行する。 The terminal device 20 can execute the virtual reality application according to this embodiment. The virtual reality application may be received by the terminal device 20 from the server device 10 or a predetermined application distribution server via the network 3, or may be received by the terminal device 20 from a storage device provided in the terminal device 20 or a memory card readable by the terminal device 20. It may be stored in advance in a storage medium such as. The server device 10 and the terminal device 20 are communicably connected via the network 3. For example, the server device 10 and the terminal device 20 cooperate to execute various processes related to virtual reality.

各端末装置20は、サーバ装置10を介して互いに通信可能に接続されている。なお、以下では、「一の端末装置20が情報を他の端末装置20に送信する」とは、「一の端末装置20が情報をサーバ装置10を介して他の端末装置20に送信する」ことを意味する。同様に、「一の端末装置20が情報を他の端末装置20から受信する」とは、「一の端末装置20が情報をサーバ装置10を介して他の端末装置20から受信する」ことを意味する。ただし、変形例では、各端末装置20は、サーバ装置10を介さずに通信可能に接続されてもよい。 The terminal devices 20 are communicably connected to each other via the server device 10. Note that in the following, "one terminal device 20 transmits information to another terminal device 20" means "one terminal device 20 transmits information to another terminal device 20 via the server device 10". It means that. Similarly, "one terminal device 20 receives information from another terminal device 20" means "one terminal device 20 receives information from another terminal device 20 via the server device 10". means. However, in a modified example, each terminal device 20 may be communicably connected without going through the server device 10.

なお、ネットワーク3は、無線通信網や、インターネット、VPN(Virtual Private Network)、WAN(Wide Area Network)、有線ネットワーク、又はこれらの任意の組み合わせ等を含んでよい。 Note that the network 3 may include a wireless communication network, the Internet, a VPN (Virtual Private Network), a WAN (Wide Area Network), a wired network, or any combination thereof.

図1に示す例では、仮想現実生成システム1は、スタジオユニット30A、30Bを含む。スタジオユニット30A、30Bは、主催側の端末装置20Aと同様、主催側の装置である。スタジオユニット30A、30Bは、コンテンツ制作用のスタジオ、部屋、ホール等に配置され得る。スタジオユニット30A、30Bには、モーションキャプチャ用の各種機材が設置されてもよい。 In the example shown in FIG. 1, the virtual reality generation system 1 includes studio units 30A and 30B. The studio units 30A and 30B are host-side devices, similar to the host-side terminal device 20A. The studio units 30A and 30B may be placed in a content production studio, room, hall, or the like. Various equipment for motion capture may be installed in the studio units 30A and 30B.

各スタジオユニット30A、30Bは、主催側の端末装置20A、及び/又は、サーバ装置10と同様の機能を有することができる。以下、主催側と参加側を区別する場合、説明を簡単にするために、主催側の端末装置20Aがサーバ装置10を介して各参加側の端末装置20Bに対して各種のコンテンツを配信する態様を主に説明する。しかしながら、これに代えて又はこれに加えて、主催側ユーザに対向するスタジオユニット30A、30Bが、主催側の端末装置20Aと同様の機能を有することにより、サーバ装置10を介して各参加側の端末装置20Bに対して各種のコンテンツを配信してもよい。なお、変形例では、仮想現実生成システム1は、スタジオユニット30A、30Bを備えていなくてもよい。 Each studio unit 30A, 30B can have the same functions as the host's terminal device 20A and/or the server device 10. Hereinafter, when distinguishing between the host side and the participant side, in order to simplify the explanation, the host side terminal device 20A distributes various contents to each participant side terminal device 20B via the server device 10. Mainly explained. However, instead of or in addition to this, the studio units 30A and 30B facing the host user have the same functions as the host user's terminal device 20A, so that each participating user can receive information via the server device 10. Various contents may be distributed to the terminal device 20B. Note that in a modified example, the virtual reality generation system 1 may not include the studio units 30A and 30B.

以下では、仮想現実生成システム1が、情報処理システムの一例を実現するが、特定の一の端末装置20の各要素(図1の端末通信部21から端末制御部25参照)が、情報処理システムの一例を実現してもよいし、複数の端末装置20が、協動して情報処理システムの一例を実現してもよい。また、サーバ装置10が単独で、情報処理システムの一例を実現してもよいし、サーバ装置10と1つ以上の端末装置20が、協動して情報処理システムの一例を実現してもよい。 In the following, the virtual reality generation system 1 realizes an example of an information processing system, but each element of a specific terminal device 20 (see terminal communication unit 21 to terminal control unit 25 in FIG. 1) An example of this may be realized, or a plurality of terminal devices 20 may cooperate to realize an example of an information processing system. Further, the server device 10 alone may realize an example of an information processing system, or the server device 10 and one or more terminal devices 20 may cooperate to realize an example of an information processing system. .

ここで、本実施形態に係る仮想現実の概要について説明する。本実施形態に係る仮想現実は、例えば教育、旅行、ロールプレイング、シミュレーション、ゲームやコンサートのようなエンターテイメント等、任意の現実に対する仮想現実等であって、仮想現実の実行に伴い、アバターのような仮想現実媒体が用いられる。例えば、本実施形態に係る仮想現実は、3次元の仮想空間と、当該仮想空間内に登場する各種の仮想現実媒体と、当該仮想空間内で提供される各種のコンテンツとにより実現されてよい。 Here, an overview of the virtual reality according to this embodiment will be explained. The virtual reality according to the present embodiment is a virtual reality for any reality such as education, travel, role-playing, simulation, entertainment such as games and concerts, etc. A virtual reality medium is used. For example, the virtual reality according to this embodiment may be realized by a three-dimensional virtual space, various virtual reality media that appear in the virtual space, and various contents provided in the virtual space.

仮想現実媒体は、仮想現実に使用される電子データであり、例えば、カード、アイテム、ポイント、サービス内通貨(又は仮想現実内通貨)、トークン(例えば、非代替性トークン:Non-Fungible Token(NFT))、チケット、キャラクタ、アバター、パラメータ等、任意の媒体を含む。また、仮想現実媒体は、レベル情報、ステータス情報、パラメータ情報(体力値及び攻撃力等)又は能力情報(スキル、アビリティ、呪文、ジョブ等)のような、仮想現実関連情報であってもよい。また、仮想現実媒体は、ユーザによって仮想現実内で取得、所有、使用、管理、交換、合成、強化、売却、廃棄、又は贈与等され得る電子データであるが、仮想現実媒体の利用態様は本明細書で明示されるものに限られない。 The virtual reality medium is electronic data used in virtual reality, such as cards, items, points, in-service currency (or virtual reality currency), tokens (e.g., non-fungible tokens (NFTs), etc.). )), including any media such as tickets, characters, avatars, parameters, etc. The virtual reality medium may also be virtual reality related information, such as level information, status information, parameter information (physical strength and attack power, etc.), or ability information (skills, abilities, spells, jobs, etc.). In addition, virtual reality media are electronic data that can be acquired, owned, used, managed, exchanged, synthesized, enhanced, sold, discarded, or gifted within virtual reality by users, but the usage mode of virtual reality media is It is not limited to what is specified in the specification.

なお、アバターは、典型的には、正面方向を有するキャラクタの形態であり、人や動物又はその類の形態を有してよい。アバターは、各種アバターアイテムに対応付けられることで、多様な容姿(描画されたときの容姿)を有することができる。また、以下では、アバターの性質上、ユーザとアバターとは同一視して説明する場合がある。従って、例えば、「一のアバターが〇〇する」は、「一のユーザが〇〇する」と同義である場合がある。 Note that the avatar typically takes the form of a character facing forward, and may take the form of a person, an animal, or the like. Avatars can have various appearances (appearances when drawn) by being associated with various avatar items. Further, in the following explanation, the user and the avatar may be considered to be the same due to the nature of the avatar. Therefore, for example, "one avatar does XX" may be synonymous with "one user does XX".

ユーザは、頭部又は顔の一部に装着型装置を装着し、当該装着型装置を介して仮想空間を視認してよい。なお、装着型装置は、ヘッドマウントディスプレイやメガネ型装置であってもよい。メガネ型装置は、いわゆるAR(Augmented Reality)グラスやMR(Mixed Reality)グラスであってよい。いずれの場合でも、装着型装置は、端末装置20とは別であってもよいし、端末装置20の一部又は全部の機能を実現してもよい。端末装置20は、ヘッドマウントディスプレイにより実現されてよい。 A user may wear a wearable device on his head or part of his face, and view the virtual space through the wearable device. Note that the wearable device may be a head-mounted display or a glasses-type device. The glasses-type device may be so-called AR (Augmented Reality) glasses or MR (Mixed Reality) glasses. In either case, the wearable device may be separate from the terminal device 20 or may realize some or all of the functions of the terminal device 20. The terminal device 20 may be realized by a head mounted display.

(サーバ装置の構成)
サーバ装置10の構成について具体的に説明する。サーバ装置10は、サーバコンピュータにより構成される。サーバ装置10は、複数台のサーバコンピュータにより協動して実現されてもよい。例えば、サーバ装置10は、各種のコンテンツを提供するサーバコンピュータや、各種の認証サーバを実現するサーバコンピュータ等により協動して実現されてもよい。また、サーバ装置10は、Webサーバを含んでよい。この場合、後述する端末装置20の機能の一部は、Webサーバから受領したHTML文書やそれに付随する各種プログラム(Javascript)をブラウザが処理することによって実現されてもよい。
(Configuration of server device)
The configuration of the server device 10 will be specifically explained. The server device 10 is configured by a server computer. The server device 10 may be implemented by a plurality of server computers working together. For example, the server device 10 may be implemented in cooperation with a server computer that provides various types of content, a server computer that implements various types of authentication servers, and the like. Further, the server device 10 may include a web server. In this case, some of the functions of the terminal device 20, which will be described later, may be realized by the browser processing an HTML document and various programs (JavaScript) associated with the HTML document received from the Web server.

サーバ装置10は、図1に示すように、サーバ通信部11と、サーバ記憶部12と、サーバ制御部13と、を備える。 As shown in FIG. 1, the server device 10 includes a server communication section 11, a server storage section 12, and a server control section 13.

サーバ通信部11は、外部装置と無線又は有線によって通信し、情報の送受信を行うインターフェースを含む。サーバ通信部11は、例えば無線LAN(Local Area Network)通信モジュール又は有線LAN通信モジュール等を含んでもよい。サーバ通信部11は、ネットワーク3を介して、端末装置20との間で情報を送受信可能である。 The server communication unit 11 includes an interface that communicates with an external device wirelessly or by wire to send and receive information. The server communication unit 11 may include, for example, a wireless LAN (Local Area Network) communication module or a wired LAN communication module. The server communication unit 11 is capable of transmitting and receiving information to and from the terminal device 20 via the network 3.

サーバ記憶部12は、例えば記憶装置であって、仮想現実に係る各種処理に必要な種々の情報及びプログラムを記憶する。 The server storage unit 12 is, for example, a storage device, and stores various information and programs necessary for various processes related to virtual reality.

サーバ制御部13は、専用のマイクロプロセッサ又は特定のプログラムを読み込むことにより特定の機能を実現するCPU(Central Processing Unit)や、GPU(Graphics Processing Unit)等を含んでよい。例えばサーバ制御部13は、端末装置20と協動して、ユーザ入力に応じて仮想現実アプリケーションを実行する。 The server control unit 13 may include a dedicated microprocessor or a CPU (Central Processing Unit) that implements a specific function by reading a specific program, a GPU (Graphics Processing Unit), or the like. For example, the server control unit 13 cooperates with the terminal device 20 to execute a virtual reality application in response to user input.

(端末装置の構成)
端末装置20の構成について説明する。図1に示すように、端末装置20は、端末通信部21と、端末記憶部22と、表示部23と、入力部24と、端末制御部25とを備える。
(Configuration of terminal device)
The configuration of the terminal device 20 will be explained. As shown in FIG. 1, the terminal device 20 includes a terminal communication section 21, a terminal storage section 22, a display section 23, an input section 24, and a terminal control section 25.

端末通信部21は、外部装置と無線又は有線によって通信し、情報の送受信を行うインターフェースを含む。端末通信部21は、例えばLTE(Long Term Evolution)(登録商標)や、LTE-A(LTE-Advanced)、第五世代移動通信システム、UMB(Ultra Mobile Broadband)等のモバイル通信規格に対応する無線通信モジュール、無線LAN通信モジュール、又は有線LAN通信モジュール等を含んでもよい。端末通信部21は、ネットワーク3を介して、サーバ装置10との間で情報を送受信可能である。 The terminal communication unit 21 includes an interface that communicates with an external device wirelessly or by wire to send and receive information. The terminal communication unit 21 is a wireless communication device compatible with mobile communication standards such as LTE (Long Term Evolution) (registered trademark), LTE-A (LTE-Advanced), a fifth generation mobile communication system, and UMB (Ultra Mobile Broadband). It may also include a communication module, a wireless LAN communication module, a wired LAN communication module, or the like. The terminal communication unit 21 is capable of transmitting and receiving information to and from the server device 10 via the network 3.

端末記憶部22は、例えば一次記憶装置及び二次記憶装置を含む。例えば端末記憶部22は、半導体メモリ、磁気メモリ、又は光メモリ等を含んでもよい。端末記憶部22は、サーバ装置10から受信する、仮想現実の処理に用いられる種々の情報及びプログラムを記憶する。仮想現実の処理に用いられる情報及びプログラムは、端末通信部21を介して外部装置から取得されてもよい。例えば、仮想現実アプリケーションプログラムが、所定のアプリケーション配信サーバから取得されてもよい。以下、アプリケーションプログラムを、単にアプリケーションともいう。 The terminal storage unit 22 includes, for example, a primary storage device and a secondary storage device. For example, the terminal storage unit 22 may include a semiconductor memory, a magnetic memory, an optical memory, or the like. The terminal storage unit 22 stores various information and programs used for virtual reality processing, which are received from the server device 10. Information and programs used for virtual reality processing may be acquired from an external device via the terminal communication unit 21. For example, a virtual reality application program may be obtained from a predetermined application distribution server. Hereinafter, the application program will also be simply referred to as an application.

また、端末記憶部22は、仮想空間を描画するためのデータ、例えば建物のような屋内の空間や、屋外の空間の画像等を記憶してよい。なお、仮想空間を描画するためのデータは、仮想空間ごとに複数種類用意され、使い分けられてもよい。 The terminal storage unit 22 may also store data for drawing a virtual space, such as images of indoor spaces such as buildings and outdoor spaces. Note that a plurality of types of data for drawing the virtual space may be prepared for each virtual space and used appropriately.

また、端末記憶部22は、3次元の仮想空間内に配置された種々のオブジェクトに投影(テクスチャマッピング)するための種々の画像(テクスチャ画像)を記憶してよい。 Furthermore, the terminal storage unit 22 may store various images (texture images) for projection (texture mapping) onto various objects arranged in a three-dimensional virtual space.

例えば、端末記憶部22は、各ユーザに対応付けられる仮想現実媒体としてのアバターに係るアバター描画情報を記憶する。仮想空間内のアバターは、当該アバターに係るアバター描画情報に基づいて描画される。 For example, the terminal storage unit 22 stores avatar drawing information related to an avatar as a virtual reality medium associated with each user. The avatar in the virtual space is drawn based on avatar drawing information related to the avatar.

また、端末記憶部22は、例えば各種のギフトオブジェクト、建物、壁、又はNPC(Non Player Character)等のような、アバターとは異なる各種のオブジェクト(仮想現実媒体)に係る描画情報を記憶する。仮想空間内の各種のオブジェクトは、かかる描画情報に基づいて描画される。なお、ギフトオブジェクトとは、一のユーザから他のユーザへのギフト(贈り物)に対応するオブジェクトであり、アイテムの一部である。ギフトオブジェクトは、アバターの身に着けるもの(服やアクセサリー)や装飾するもの(花火やお花等)、背景(壁紙)又はその類や、ガチャ(抽選)を回すことのできるチケット又はその類であってよい。なお、本件出願において用いられる「ギフト」という用語は、「トークン(token)」という用語と同様の概念を意味する。したがって、「ギフト」という用語を「トークン(token)」という用語に置き換えて、本件出願に記載された技術を理解することも可能である。 The terminal storage unit 22 also stores drawing information related to various objects (virtual reality media) different from avatars, such as various gift objects, buildings, walls, NPCs (Non Player Characters), and the like. Various objects in the virtual space are drawn based on such drawing information. Note that the gift object is an object corresponding to a gift from one user to another user, and is a part of an item. Gift objects include items worn by the avatar (clothes and accessories), decorations (fireworks, flowers, etc.), backgrounds (wallpaper), and the like, tickets that can be used for gacha (lotteries), and the like. It's fine. Note that the term "gift" used in this application means the same concept as the term "token". Therefore, it is also possible to understand the technology described in the present application by replacing the term "gift" with the term "token."

表示部23は、例えば液晶ディスプレイ又は有機EL(Electro-Luminescence)ディスプレイ等の表示デバイスを含む。表示部23は、多様な画像を表示可能である。表示部23は、例えばタッチパネルで構成され、多様なユーザ操作を検出するインターフェースとして機能する。なお、表示部23は、上述したように、ヘッドマウントディスプレイに内蔵される形態であってよい。 The display unit 23 includes a display device such as a liquid crystal display or an organic EL (Electro-Luminescence) display. The display unit 23 can display various images. The display unit 23 is configured with a touch panel, for example, and functions as an interface for detecting various user operations. Note that, as described above, the display unit 23 may be built into a head-mounted display.

入力部24は、物理キーを含んでもよいし、マウス等のようなポインティングデバイスをはじめとする任意の入力インターフェースを更に含んでもよい。また、入力部24は、音声入力やジェスチャ入力、視線入力のような、非接触型のユーザ入力を受付可能であってもよい。なお、ジェスチャ入力には、ユーザの各種状態を検出するためのセンサ(画像センサや、加速度センサ、距離センサ等)や、センサ技術やカメラを統合した専用のモーションキャプチャ、ジョイパッドのようなコントローラ等が利用されてもよい。また、視線検出用のカメラは、ヘッドマウントディスプレイ内に配置されてもよい。なお、上述したように、ユーザの各種状態は、例えばユーザの向きや位置、動き又はその類であり、この場合、ユーザの向きや位置、動きとは、ユーザの顔や手等の身体の一部や全部の向き、位置、動きのみならず、ユーザの視線の向き、位置、動き又はその類を含む概念である。 The input unit 24 may include physical keys, and may further include any input interface including a pointing device such as a mouse. Further, the input unit 24 may be capable of receiving non-contact user input such as voice input, gesture input, and gaze input. In addition, gesture input uses sensors (image sensors, acceleration sensors, distance sensors, etc.) to detect various states of the user, dedicated motion capture that integrates sensor technology and cameras, controllers such as joypads, etc. may be used. Further, the camera for detecting the line of sight may be placed within the head-mounted display. As mentioned above, the various states of the user include, for example, the user's orientation, position, movement, and the like; in this case, the user's orientation, position, and movement refer to the user's face, hands, and other body parts. This is a concept that includes not only the direction, position, and movement of parts or all parts, but also the direction, position, and movement of the user's line of sight, and the like.

なお、ジェスチャによるユーザ入力は、仮想カメラの視線の変更に利用されてもよい。例えば、図3に模式的に示すように、ユーザが、端末装置20を手で持ちながら、端末装置20の向きを変化させると、その方向に応じて、仮想カメラの視線が変化されてもよい。この場合、スマートフォンのような比較的小さい画面の端末装置20を利用する場合でも、ヘッドマウントディスプレイを介して周囲を見渡せるのと同様の態様で視認領域の広さを確保できる。 Note that user input using gestures may be used to change the line of sight of the virtual camera. For example, as schematically shown in FIG. 3, when the user changes the orientation of the terminal device 20 while holding the terminal device 20 in his hand, the line of sight of the virtual camera may change depending on the direction. . In this case, even when using a terminal device 20 with a relatively small screen such as a smartphone, the width of the viewing area can be secured in the same manner as being able to look around the surroundings through a head-mounted display.

端末制御部25は、1つ以上のプロセッサを含む。端末制御部25は、端末装置20全体の動作を制御する。 Terminal control unit 25 includes one or more processors. The terminal control unit 25 controls the overall operation of the terminal device 20.

端末制御部25は、端末通信部21を介して情報の送受信を行う。例えば、端末制御部25は、仮想現実に係る各種処理に用いられる種々の情報及びプログラムを、サーバ装置10及び他の外部サーバの少なくとも一方から受信する。端末制御部25は、受信した情報及びプログラムを、端末記憶部22に記憶する。例えば、端末記憶部22には、Webサーバに接続するためのブラウザ(インターネットブラウザ)が格納されてよい。 The terminal control unit 25 transmits and receives information via the terminal communication unit 21. For example, the terminal control unit 25 receives various information and programs used for various processes related to virtual reality from at least one of the server device 10 and another external server. The terminal control unit 25 stores the received information and program in the terminal storage unit 22. For example, the terminal storage unit 22 may store a browser (Internet browser) for connecting to a web server.

端末制御部25は、ユーザの操作に応じて仮想現実アプリケーションを起動する。端末制御部25は、サーバ装置10と協動して、仮想現実に係る各種処理を実行する。例えば、端末制御部25は、仮想空間の画像を表示部23に表示させる。画面上には、例えばユーザ操作を検出するGUI(Graphical User Interface)が表示されてもよい。端末制御部25は、入力部24を介して、ユーザ操作を検出可能である。例えば端末制御部25は、ユーザのジェスチャによる各種操作(タップ操作、ロングタップ操作、フリック操作、及びスワイプ操作等に対応する操作)を検出可能である。端末制御部25は、操作情報をサーバ装置10に送信する。 The terminal control unit 25 starts a virtual reality application in response to a user's operation. The terminal control unit 25 cooperates with the server device 10 to execute various processes related to virtual reality. For example, the terminal control unit 25 causes the display unit 23 to display an image of the virtual space. For example, a GUI (Graphical User Interface) that detects user operations may be displayed on the screen. The terminal control unit 25 can detect user operations via the input unit 24 . For example, the terminal control unit 25 can detect various operations based on user gestures (operations corresponding to tap operations, long tap operations, flick operations, swipe operations, etc.). The terminal control unit 25 transmits operation information to the server device 10.

端末制御部25は、仮想空間(画像)とともにアバター等を描画し、端末用画像を表示部23に表示させる。この場合、例えば、図2に示すように、左右の目でそれぞれ視認される画像G200、G201を生成することで、ヘッドマウントディスプレイ用の立体視画像を生成してよい。図2には、左右の目でそれぞれ視認される画像G200、G201が模式的に示されている。なお、以下では、特に言及しない限り、仮想空間の画像とは、画像G200、G201で表現される画像全体を指す。また、端末制御部25は、例えばユーザによる各種操作に応じて、仮想空間内においてアバターの各種動き等を実現させる。 The terminal control unit 25 draws an avatar and the like together with the virtual space (image), and causes the display unit 23 to display the terminal image. In this case, for example, as shown in FIG. 2, a stereoscopic image for a head-mounted display may be generated by generating images G200 and G201 that are viewed by the left and right eyes, respectively. FIG. 2 schematically shows images G200 and G201 that are viewed by the left and right eyes, respectively. In addition, below, unless otherwise mentioned, the image in the virtual space refers to the entire image represented by the images G200 and G201. Further, the terminal control unit 25 realizes various movements of the avatar in the virtual space, for example, in response to various operations by the user.

なお、以下で説明する仮想空間は、ヘッドマウントディスプレイ又はその類を利用して視認可能な没入型の空間であってユーザがアバターを介して自由に(現実と同様に)動き回ることができる連続性のある3次元的な空間のみならず、図3を参照して上述したようなスマートフォン又はその類を利用して視認可能な非没入型の空間をも含む概念である。なお、スマートフォン又はその類を利用して視認可能な非没入型の空間は、アバターを介して自由に動き回ることができる連続性のある3次元的な空間であってもよいし、2次元的な不連続な空間であってもよい。以下、区別するときは、ユーザがアバター(例えば3Dアバター)を介して自由に動き回ることができる連続性のある3次元的な空間を、「メタバース空間」とも称し、それ以外の仮想空間(例えば不連続な空間)を、「非メタバース空間」とも称する。 The virtual space described below is an immersive space that can be viewed using a head-mounted display or the like, and is a continuous space in which the user can move freely (just like in real life) through an avatar. The concept includes not only a certain three-dimensional space but also a non-immersive space that can be viewed using a smartphone or the like as described above with reference to FIG. Note that the non-immersive space that can be viewed using a smartphone or the like may be a continuous three-dimensional space in which you can freely move around via an avatar, or a two-dimensional space that can be viewed using a smartphone or similar device. It may be a discontinuous space. Hereinafter, when making a distinction, a continuous three-dimensional space in which a user can freely move around using an avatar (e.g., a 3D avatar) is also referred to as a "metaverse space," and other virtual spaces (e.g., a metaverse space) are referred to as a "metaverse space." A continuous space) is also called a "non-metaverse space."

ここで、このような多様な仮想空間においては、多種多様なユーザが存在しうる。例えば、配信ユーザは、映像および/または音声に関する情報を送信する側のユーザを意味するものとする。例えば、配信ユーザは、単独での動画配信、複数人が参加可能なコラボ配信、複数人が参加および/または視聴可能なビデオチャットまたはボイスチャット、複数人が参加および/または視聴可能な仮想空間上でのイベント(パーティなど)を主催または開催するユーザ、すなわち、これらをメインで実行するユーザであればよい。そのため、本開示における配信ユーザは、ホストユーザ、主催ユーザまたは開催ユーザなどと言い換えることもできる。 Here, in such various virtual spaces, a wide variety of users may exist. For example, a distribution user refers to a user who transmits information regarding video and/or audio. For example, a distribution user may broadcast a video individually, collaborate with multiple people to participate, video chat or voice chat where multiple people can participate and/or view, or use a virtual space where multiple people can participate and/or view. The user may be a user who hosts or holds an event (such as a party), that is, a user who primarily executes these events. Therefore, the distribution user in the present disclosure can also be referred to as a host user, an organizer user, an organizer user, or the like.

一方で、視聴ユーザは、映像および/または音声に関する情報を受信する側のユーザを意味するものとする。ただし、視聴ユーザは上記情報を受信するのみならず、リアクションすることも可能なユーザとすることができる。例えば、視聴ユーザは、動画配信、コラボ配信を視聴するユーザ、または、ビデオチャット、ボイスチャットやイベントに参加および/またはこれらを視聴するユーザであればよい。そのため、本開示における視聴ユーザは、ゲストユーザ、参加ユーザ、リスナー、観覧ユーザ、応援ユーザなどと言い換えることもできる。 On the other hand, the viewing user refers to a user who receives information regarding video and/or audio. However, the viewing user can be a user who can not only receive the above information but also react. For example, the viewing user may be a user who views a video distribution, a collaboration distribution, or a user who participates in and/or views a video chat, voice chat, or event. Therefore, the viewing user in the present disclosure can also be referred to as a guest user, participating user, listener, viewing user, supporting user, etc.

また、本開示の実施形態における情報処理システムは、多くの人が同時に参加してキャラクタオブジェクト(アバター)を通じた交流や仕事、遊びなどを実社会に近いレベルの自由な活動ができるデジタル世界であって、現実と仮想の隔たりを超えて社会活動ができる、次のインターネット空間(メタバース)を提供するために用いられることができる。 Furthermore, the information processing system in the embodiment of the present disclosure is a digital world in which many people can participate at the same time and engage in free activities at a level similar to the real world, such as interacting, working, and playing through character objects (avatars). , can be used to provide the next Internet space (metaverse) where social activities can transcend the gap between reality and virtuality.

このようなメタバース空間において、ユーザのアバターはワールド内を自由に歩き回り、互いにコミュニケーションをとることが可能である。 In such a metaverse space, user avatars can freely walk around the world and communicate with each other.

そして、かかるメタバース空間にいる複数のアバターの中の一のアバター(キャラクタオブジェクト)が、配信ユーザのキャラクタオブジェクトとして動画を配信できる構成としてもよい。すなわち、多対多のメタバース空間において一対多の動画配信を行うことができるものとしてもよい。 Then, one avatar (character object) among the plurality of avatars in the metaverse space may be configured to be able to distribute the video as the character object of the distribution user. That is, it may be possible to perform one-to-many video distribution in a many-to-many metaverse space.

このようなメタバース空間において、配信ユーザと視聴ユーザとは特に区別されないものとすることができる。 In such a metaverse space, distribution users and viewing users may not be particularly distinguished.

次に、図4から図13を参照して、仮想空間内におけるアバターの動作に関する特徴的な構成を説明する。なお、以下説明する技術は、メタバース空間だけでなく、非メタバース空間(例えば、配信ユーザと視聴ユーザがいる空間)にも適用可能である。 Next, with reference to FIGS. 4 to 13, a characteristic configuration regarding the movement of the avatar in the virtual space will be described. Note that the technology described below is applicable not only to metaverse space but also to non-metaverse space (for example, a space where there are distribution users and viewing users).

図4は、所定スキル『サッカーボールのリフティング』に基づく動作のイメージ図であり、リフティングをしているアバターX1が示されている。図5は、所定スキル『ピアノの演奏』に基づく動作のイメージ図であり、ピアノを演奏しているアバターX2が示されている。図6は、所定スキル『バンドでの演奏』に基づく動作のイメージ図であり、図7は、所定スキルの選択画面(ユーザインタフェース)の一例の説明図である。図8A及び図8Bは、歩き方に係る所定スキルの説明図である。図9Aは、関節モデルの一例の説明図であり、図9Bは、関節モデルを利用した各部位の関係を示す図である。図10は、指の動きの変化の説明図であり、図11は、アバターの特性を反映するために好適な関数の説明図であり、図12は、アバターの特性を反映するために好適な期間の説明図である。なお、本実施形態では、後述するように、「アバターの特性」は、「アバターの行動の中でもモーションの細かい動作表現の自動化に関わるスイッチングアルゴリズム」を指している。 FIG. 4 is an image diagram of an action based on the predetermined skill "Lifting a Soccer Ball", and shows the avatar X1 lifting. FIG. 5 is an image diagram of an action based on the predetermined skill "playing the piano", and shows the avatar X2 playing the piano. FIG. 6 is an image diagram of an operation based on the predetermined skill "performance in a band", and FIG. 7 is an explanatory diagram of an example of a selection screen (user interface) for the predetermined skill. FIGS. 8A and 8B are explanatory diagrams of predetermined skills related to walking. FIG. 9A is an explanatory diagram of an example of a joint model, and FIG. 9B is a diagram illustrating the relationship between parts using the joint model. FIG. 10 is an explanatory diagram of changes in finger movement, FIG. 11 is an explanatory diagram of a function suitable for reflecting the characteristics of an avatar, and FIG. 12 is an explanatory diagram of a function suitable for reflecting the characteristics of an avatar. It is an explanatory diagram of a period. In this embodiment, as will be described later, "characteristics of the avatar" refers to a "switching algorithm related to automation of detailed motion expressions among the actions of the avatar."

なお、以下の説明において登場する各種モノ(例えばサッカーボールやピアノ等)は、特に言及しない限り、仮想空間におけるオブジェクトであり、実物とは異なる。また、以下の説明における各種イベントは、仮想空間における各種イベント(例えば、演奏会等)であり、現実でのイベントとは異なる。また、以下の説明において、アバターが、あるモノを取得する(手に入れる)とは、当該アバターに、当該モノが対応付けられていない状態から、当該モノが対応付けられている状態への遷移を表す。また、上述したように、一のアバターと、当該一のアバターに対応付けられているユーザとは、同一視できる関係であるので、これらを区別せずに説明する場合もある。なお、一のユーザが、複数のアバターに対応付けられる仕様も可能であるが、この場合も、当該一のユーザは、一のアバターを選択して仮想空間内で活動する。従って、この場合も、各時点では、一のアバターと、当該一のアバターに対応付けられているユーザとは、同一視できる関係である。 It should be noted that various objects appearing in the following description (for example, a soccer ball, a piano, etc.) are objects in a virtual space, and are different from the real thing, unless otherwise specified. Further, various events in the following description are various events in virtual space (for example, a concert, etc.) and are different from events in reality. In addition, in the following explanation, when an avatar acquires (obtains) a certain thing, it means a transition from a state in which the thing is not associated with the avatar to a state in which the thing is associated with the avatar. represents. Further, as described above, one avatar and the user associated with the one avatar are in the same relationship, so they may be described without distinguishing between them. Note that a specification in which one user is associated with a plurality of avatars is also possible, but in this case as well, the one user selects one avatar and acts in the virtual space. Therefore, in this case as well, at each point in time, one avatar and the user associated with the one avatar are in a relationship that can be regarded as the same.

本実施形態では、仮想空間内におけるアバターの動作は、ユーザからのユーザ入力に応じた通常の動作に加えて、所定スキルに基づく動作を含む。なお、動作とは、アバターの動きを伴う動作のみならず、アバターの動きを伴わない動作(例えば声を出す動作)をも含む概念である。 In this embodiment, the avatar's actions in the virtual space include normal actions in response to user input from the user, as well as actions based on predetermined skills. Note that the term "action" is a concept that includes not only actions that involve movement of the avatar, but also actions that do not involve movement of the avatar (for example, an action that makes a sound).

所定スキルに基づく動作は、所定スキルが対応付けられていないアバターによっては行うことができない動作であり、所定スキルが対応付けられているアバターによってのみ行うことができる動作である。 The action based on the predetermined skill is an action that cannot be performed by an avatar to which the predetermined skill is not associated, and is an action that can only be performed by an avatar to which the predetermined skill is associated.

所定スキルの内容や属性等は、任意であるが、所定スキルは、例えば図4に模式的に示すように、サッカーボールのリフティング、シュート、オーバーヘッドシュートのようなスポーツ系のスキルや、図5に模式的に示すように、ピアノの演奏のような芸術系のスキル、料理系のスキル、演技系のスキル、歌唱力や声量に係るスキル、マジックなどのエンタメ系のスキル、変身や呪文、魔法のようなゲーム系のスキル、車など乗り物の運転に係るスキル等を含んでよい。図6には、各種楽器を演奏するスキルが対応付けられている4人のアバターA1からA4による演奏シーンが模式的に示されている。 Although the content and attributes of the predetermined skill are arbitrary, the predetermined skill may include, for example, sports skills such as lifting, shooting, and overhead shooting of a soccer ball, as schematically shown in FIG. As shown schematically, there are artistic skills such as piano performance, cooking skills, acting skills, singing skills and vocal volume skills, entertainment skills such as magic, transformation, spells, and magical skills. This may include game-related skills such as games, skills related to driving vehicles such as cars, etc. FIG. 6 schematically shows a performance scene by four avatars A1 to A4 who are associated with skills for playing various musical instruments.

本実施形態では、所定スキルは、複数種類あり、所定取得条件を満たしたアバターに対応付けられるものとする。所定取得条件は、所定スキルごとに設定されてもよいし、所定スキルの属性ごとに設定されてもよい。所定取得条件は、任意であり、仮想現実媒体(例えば仮想通貨)の消費や交換等に基づく条件や、仮想空間におけるアバターの活動に基づく条件、アバターに対応付けられている所定アイテムに基づく条件、又は、これらの組み合わせ等であってもよい。例えば、所定スキルが、図4に示すサッカーボールのリフティングの場合、当該所定スキルに係る所定取得条件は、特定のサッカーボールの取得(所持)であってもよいし、サッカー教室等での修了証(所定アイテム)の取得(所持)であってもよい。また、所定スキルが、図5に示すピアノの演奏の場合、当該所定スキルに係る所定取得条件は、特定のピアノの取得(所持)であってもよいし、ピアノ教室等での修了証(所定アイテム)の取得(所持)であってもよい。また、所定特定条件は、e-Learning動画視聴による実際の知識やスキル獲得のためのトレーニングと連動させてもよいし、広告動画(例えばスポーツグッズや楽器など)等の広告の視聴により付与されてもよい。また、所定特定条件は、システム内でのアイテムの取得のほかに、NFTマーケットプレイスを利用したシステム外部からの証明書の取り込みをもって解釈されるようにしてもよい。さらには、所定特定条件は、実際の教育機関が作成したブロックチェーン等の履歴と連動し、履修科目や検定試験の証明書をもって付与されるようにしてもよい。 In this embodiment, there are a plurality of types of predetermined skills, and the predetermined skills are associated with avatars that satisfy predetermined acquisition conditions. The predetermined acquisition condition may be set for each predetermined skill, or may be set for each attribute of the predetermined skill. The predetermined acquisition conditions are arbitrary, and include conditions based on the consumption or exchange of virtual reality media (for example, virtual currency), conditions based on the activities of the avatar in the virtual space, conditions based on predetermined items associated with the avatar, etc. Alternatively, a combination of these may be used. For example, if the predetermined skill is lifting a soccer ball as shown in FIG. 4, the predetermined acquisition condition for the predetermined skill may be the acquisition (possession) of a specific soccer ball, or a certificate of completion at a soccer class, etc. It may also be acquisition (possession) of (predetermined item). Furthermore, in the case where the predetermined skill is piano performance as shown in FIG. It may also be the acquisition (possession) of an item). Further, the predetermined specific conditions may be linked to training for acquiring actual knowledge and skills by watching e-learning videos, or may be provided by watching advertisements such as advertising videos (for example, for sports goods and musical instruments). Good too. Further, the predetermined specific condition may be interpreted as not only acquiring an item within the system but also importing a certificate from outside the system using an NFT marketplace. Furthermore, the predetermined specific conditions may be linked to the history of a block chain or the like created by an actual educational institution, and may be provided with a certificate of a course taken or a certification exam.

また、所定スキルの粒度は、任意であり、図4に示すサッカーボールのリフティングの場合、所定スキルは、より細かい粒度として、リフティングにおける各種スキル(例えば難易度が異なるスキル)ごとに異なってもよい。あるいは、より粗い粒度として、所定スキルは、サッカーボールを扱うスキル(例えばドリブル等を含むスキル)であってもよい。また、所定スキルが、図5に示すピアノの演奏の場合、楽曲(例えば難易度が異なる楽曲)ごとに異なってもよい。この場合、所定スキルに係る所定取得条件は、楽曲の楽譜やカセットテープ(所定アイテム)の取得(所持)であってもよい。 Further, the granularity of the predetermined skill is arbitrary, and in the case of lifting a soccer ball shown in FIG. 4, the predetermined skill may have a finer granularity and be different for each type of skill in lifting (for example, skills with different difficulty levels). . Alternatively, as a coarser granularity, the predetermined skill may be a skill for handling a soccer ball (for example, a skill including dribbling, etc.). Further, in the case of piano performance shown in FIG. 5, the predetermined skill may be different for each song (for example, songs with different difficulty levels). In this case, the predetermined acquisition condition related to the predetermined skill may be the acquisition (possession) of a musical score or a cassette tape (predetermined item).

なお、所定スキルは、個々のアバターに対応付けられるが、一の所定スキルが複数のアバターに対応付け可能であってよい。複数のアバターに対応付け可能な所定スキルは、例えば図6に示すような演奏のコラボレーション(バンドでの演奏)に関連してもよい。なお、スポーツ系の場合、複数のアバターに対応付け可能な所定スキルは、例えば、サッカーボールのパス回しや、野球のキャッチボールやトスバッティング等のような、複数で行う共同スキルを含んでよい。また、その他、綱引き、二人三脚、大縄跳び等であってよい。なお、コラボレーションは、スタジオユニット30A、30B等を利用して実行されていてもよいし、自然発生的に発生してもよい。また、コラボレーションのためのスキルは、「リズムゲーム」や「ジャンケン」、「あっち向いてホイ」といった異なる難度の協調協力プレイゲームによって練度を設定されてもよい。この中で、個々のユーザ単体での練度に加え、個別のパートナーとの協調プレイ時間によるスキルの向上が設定されてもよい。これにより、ゲームのプレイ時間やゲーム内通貨の消費向上、ユーザ間のコミュニケーションの実質的向上や、チート行為の排除という効果がある。 Note that although the predetermined skills are associated with individual avatars, one predetermined skill may be associated with multiple avatars. The predetermined skill that can be associated with a plurality of avatars may be related to performance collaboration (performance in a band) as shown in FIG. 6, for example. In the case of sports, the predetermined skills that can be associated with a plurality of avatars may include, for example, joint skills performed by a plurality of avatars, such as passing a soccer ball, catching a baseball, batting, and the like. In addition, other activities such as tug-of-war, three-legged competition, and long rope jumping may be used. Note that the collaboration may be performed using the studio units 30A, 30B, etc., or may occur spontaneously. Furthermore, the skills for collaboration may have a level of proficiency set through collaborative cooperative play games with different difficulty levels, such as "rhythm game," "rock, paper, scissors," and "acchi maite hoi." Among these, in addition to the proficiency level of each individual user, skill improvement may be set based on cooperative play time with an individual partner. This has the effect of increasing game play time and in-game currency consumption, substantially improving communication between users, and eliminating cheating.

本実施形態では、所定スキルに基づく動作は、アニメーションにより描画可能な動作を含む。ここで、アニメーションにより描画可能な動作とは、ユーザからのユーザ入力とは無関係に描画可能な動作である。これより、ユーザの全ての動きをトラッキングする必要がないため処理負荷を低減することができ、効率的にユーザの特性が反映されたアバターの動きを表現できる。特に、所定スキルに基づく動作が、複雑な動作を伴う場合であっても、描画に係る処理負荷を低減できる。すなわち、所定スキルに基づく動作を精密に描画しつつ、描画に係る処理負荷を低減できる。また、ユーザが取得した所定スキルに応じて、所定スキルに基づく動作の種類が異なるため、ユーザの特性が反映された表現が可能となる。 In this embodiment, the actions based on the predetermined skill include actions that can be drawn with animation. Here, the motion that can be drawn by animation is the motion that can be drawn regardless of user input from the user. As a result, it is not necessary to track all of the user's movements, so the processing load can be reduced, and the avatar's movements that reflect the user's characteristics can be expressed efficiently. In particular, even if the motion based on the predetermined skill involves a complicated motion, the processing load related to drawing can be reduced. That is, the processing load related to drawing can be reduced while accurately drawing the motion based on the predetermined skill. Furthermore, since the type of action based on the predetermined skill differs depending on the predetermined skill acquired by the user, it is possible to express the user's characteristics.

例えば、前述のコラボレーションスキルを向上させるためのゲームとして「ジャンケン」を例に取れば、「ジャンケン」は、2名のみに注目して描画やネットワーク処理を行うことができる。このような高品質で高速な身体表現が必要なモーションデータを、インターネットを介して空間内の多人数に対してリアルタイムで送信し続けることは合理的ではないが、このスキルの獲得によって、複雑なすべての動きをトラッキングして共有するのではなく、そのモーションデータの中でも特性を表現できる差分と、ゲームシステム上必要となる記号的表現(記号グー、記号チョキ、記号パー/rock,scissors,paper)で負荷少なく記述可能になる。 For example, if we take "Rock, Paper, Scissors" as an example of the aforementioned game for improving collaboration skills, "Rock, Paper, Scissors" allows drawing and network processing to be performed while focusing on only two people. Although it is unreasonable to continue transmitting motion data that requires high-quality, high-speed physical expression in real time to a large number of people in a space via the Internet, by acquiring this skill, we can Rather than tracking and sharing all movements, we use differences that can express characteristics within the motion data, and symbolic expressions necessary for the game system (symbol goo, symbol scissors, symbol par/rock, scissors, paper). It becomes possible to write with less load.

所定スキルに基づく動作は、所定の発動条件が満たされた場合に、その後のユーザからのユーザ入力とは無関係に(自動的に)発動されてもよい。あるいは、所定スキルに基づく動作は、所定の発動条件が満たされた場合に、その後のユーザからの所定入力(発動を指示する入力)に応答して発動されてもよい。このような違いは、所定スキルの属性に応じて生じてもよい。 The operation based on the predetermined skill may be activated (automatically) regardless of subsequent user input from the user when a predetermined activation condition is met. Alternatively, the action based on the predetermined skill may be activated in response to a subsequent predetermined input from the user (input instructing activation) when a predetermined activation condition is met. Such differences may occur depending on the attributes of a given skill.

所定の発動条件は、仮想空間における所定オブジェクトと関連する。所定オブジェクトは、任意であるが、対応する所定スキルに関連してよい。例えば、所定スキルが、図4に示すサッカーボールのリフティングの場合、所定の発動条件は、所定オブジェクトとしてサッカーボール(オブジェクト)に関連してよい。例えば、所定の発動条件は、所定オブジェクトとアバターの所定部位との間の位置関係が所定関係になった場合に満たされてよい。所定関係は、任意であるが、所定オブジェクトとアバターの所定部位との間の距離が近くなることを含んでよい。例えば、所定関係は、当該距離が閾値未満となった場合、所定オブジェクトの周囲の所定範囲内にアバターの所定部位が位置する場合、アバターの所定部位が位置する仮想空間上の座標と所定オブジェクトが位置する座標との距離差分が所定条件である場合などであってよい。また、所定関係は、所定オブジェクトに対するアバターの自然な動きが実現されるように、所定スキルごとに適合されてもよい。例えば、所定の発動条件は、アバターがサッカーボールを自身のアバターの足のそばに落とした場合に満たされてよい。また、所定スキルが、図5に示すピアノの演奏の場合、アバターが楽譜をピアノに置いて着席し、手を鍵盤の上に配置させた場合に満たされてよい。 The predetermined activation condition is associated with a predetermined object in the virtual space. The predetermined object may optionally be associated with a corresponding predetermined skill. For example, when the predetermined skill is soccer ball lifting shown in FIG. 4, the predetermined activation condition may be related to a soccer ball (object) as the predetermined object. For example, the predetermined activation condition may be satisfied when the positional relationship between the predetermined object and the predetermined part of the avatar becomes a predetermined relationship. Although the predetermined relationship is arbitrary, it may include that the distance between the predetermined object and the predetermined part of the avatar becomes short. For example, the predetermined relationship is that when the distance is less than a threshold, when the predetermined part of the avatar is located within a predetermined range around the predetermined object, the coordinates in the virtual space where the predetermined part of the avatar is located and the predetermined object are This may be the case where the distance difference from the location coordinates is a predetermined condition. Furthermore, the predetermined relationship may be adapted for each predetermined skill so that natural movement of the avatar relative to the predetermined object is achieved. For example, the predetermined triggering condition may be met if the avatar drops a soccer ball near the avatar's feet. Further, in the case of playing the piano shown in FIG. 5, the predetermined skill may be satisfied when the avatar places a musical score on the piano, takes a seat, and places his/her hands on the keyboard.

所定の発動条件が関連する所定オブジェクトは、所定の発動条件ごとに異なってもよいが、複数の所定の発動条件間で共通(同じ)であってもよい。すなわち、複数の所定スキルが対応付けられる共通(同じ)の一の所定の発動条件は、異なる所定オブジェクト間で共通(同じ)であってもよい。この場合、例えば、ピアノという所定オブジェクトで演奏可能な複数種類の楽譜(すなわち所定スキル)が対応付けられてもよい。また、サッカーボール(オブジェクト)に、リフティングや、ドリブル、シュート等の複数の所定スキルが対応付けられてもよい。この場合、アバターとオブジェクト(上記の例では、ピアノやサッカーボール)とが所定距離内に位置すると、共通の一の所定の発動条件が満たされることになる。 The predetermined object to which a predetermined activation condition is related may be different for each predetermined activation condition, or may be common (the same) among a plurality of predetermined activation conditions. That is, one common (same) predetermined activation condition to which a plurality of predetermined skills are associated may be common (same) between different predetermined objects. In this case, for example, multiple types of musical scores (ie, predetermined skills) that can be played on a predetermined object such as a piano may be associated. Further, a plurality of predetermined skills such as lifting, dribbling, and shooting may be associated with a soccer ball (object). In this case, when the avatar and the object (in the above example, the piano or the soccer ball) are located within a predetermined distance, a common predetermined activation condition is satisfied.

ここで、一のアバターに対応付けられている複数種類の所定スキルが、共通の同じ所定の発動条件に対応付けられている場合、当該所定の発動条件が満たされた際に、複数種類の所定スキルのいずれか1つ以上を、当該一のアバターが選択可能とされてもよい。この場合、当該一のアバターが選択した1つ以上の種類の所定スキルに基づく動作が実現されてもよい。なお、2つ以上の種類の所定スキルが選択された場合、選択された所定スキルに基づく動作が順に実行されてもよいし、複合的に実行されてもよい。 Here, if multiple types of predetermined skills associated with one avatar are associated with the same predetermined activation condition in common, when the predetermined activation condition is met, multiple types of predetermined skills The one avatar may be able to select one or more of the skills. In this case, an action may be implemented based on one or more types of predetermined skills selected by the one avatar. Note that when two or more types of predetermined skills are selected, operations based on the selected predetermined skills may be performed sequentially or may be performed in combination.

図7に示す例では、所定の発動条件が満たされた際に、音符マークM70のユーザインタフェースが出現し、音符マークM70のユーザインタフェースには、所定スキルとして2つの楽曲(“楽曲A”及び“楽曲B”)のいずれかを選択可能とするユーザインタフェースB71、B72を含む。なお、音符マークM70のユーザインタフェース及び/又はユーザインタフェースB71、B72は、所定の発動条件が満たされた際に、自動的に出現してもよいし、ユーザからのユーザ入力に応答して出現されてもよい。なお、このように共通の所定の発動条件に対応付けられている複数種類の所定スキルが一のアバターに対応付けられている場合、複数種類の所定スキルのすべてが選択可能とされてもよいし、一部だけが選択可能とされてもよい。この場合、選択可能な所定スキルは、アバターやその衣装の属性に応じて変化してもよい。例えば、アバターの衣装が“正装”であるときは、格式高い楽曲だけが選択可能とされ、アバターの衣装が“ヘビメタ系”である場合は、ロック調の楽曲だけが選択可能とされてもよい。 In the example shown in FIG. 7, when a predetermined activation condition is met, a user interface with a musical note mark M70 appears, and two songs ("Song A" and "Song A" and " It includes user interfaces B71 and B72 that allow selection of either song B''). Note that the user interface of the musical note mark M70 and/or the user interfaces B71 and B72 may appear automatically when a predetermined activation condition is met, or may appear in response to user input from the user. It's okay. Note that in this case, when multiple types of predetermined skills that are associated with a common predetermined activation condition are associated with one avatar, all of the multiple types of predetermined skills may be selectable. , only some of them may be selectable. In this case, the selectable predetermined skills may change depending on the attributes of the avatar and its costume. For example, when the avatar's costume is "formal attire," only formal songs may be selectable, and when the avatar's costume is "heavy metal style," only rock-style songs may be selectable. .

また、一の所定の発動条件は、2つ以上の所定オブジェクトと同時に関連してもよい。例えば、一の所定の発動条件は、アバターが、一の所定オブジェクトを所持し、かつ、他の一の所定オブジェクトに近づくことを条件として含んでもよい。 Further, one predetermined activation condition may be associated with two or more predetermined objects at the same time. For example, one predetermined activation condition may include that the avatar possesses one predetermined object and approaches another one predetermined object.

また、一の所定スキルには、複数の発動条件が対応付けられてもよい。例えば、「走る」というスキルには、ズボン着用、スニーカー着用、及びジャージ着用、といった複数の発動条件が設定されてもよい。この場合、一の共通の所定スキルに対応付けられる複数の発動条件は、それぞれに関連する所定オブジェクトが互いに異なることになる。すなわち、上記の例の場合、それぞれに関連する所定オブジェクトは、ズボン、スニーカー及びジャージとなり、互いに異なる。 Moreover, a plurality of activation conditions may be associated with one predetermined skill. For example, a plurality of activation conditions such as wearing pants, wearing sneakers, and wearing a jersey may be set for the skill "running". In this case, the predetermined objects associated with the plurality of activation conditions associated with one common predetermined skill are different from each other. That is, in the case of the above example, the predetermined objects associated therewith are pants, sneakers, and jersey, and are different from each other.

また、所定の発動条件は、所定オブジェクト自体に関連してもよいし、所定オブジェクトの動作や動き等に関連してもよい。例えば、所定スキルが“自動リアクション”である場合、所定の発動条件は、所定オブジェクトとして特定のアバターが所定位置関係にあり、かつ、当該特定のアバターが特定動作を行う場合に満たされてもよい。この場合、自動リアクションは、“おしとやかなリアクション”、“大げさなリアクション”、“冷めたリアクション”など、アバターの特性が反映されてもよい。また、一のアバターに複数種類の自動リアクションが所定スキルとして対応付けられている場合は、当該一のアバターにより自動リアクションの種類が選択可能とされてもよい。ただし、この際、一のアバターの衣装が着物の場合には、“おしとやかなリアクション”しか選択できないような制限が課せられるといった具合に、アバターやその衣装の属性に応じて選択できる所定スキルが制限されてもよい。 Further, the predetermined activation condition may be related to the predetermined object itself, or may be related to the action or movement of the predetermined object. For example, when the predetermined skill is "automatic reaction", the predetermined activation condition may be satisfied when a specific avatar is in a predetermined positional relationship as a predetermined object, and the specific avatar performs a specific action. . In this case, the automatic reaction may reflect the characteristics of the avatar, such as a "ladylike reaction," an "exaggerated reaction," or a "cold reaction." Furthermore, if a plurality of types of automatic reactions are associated with one avatar as a predetermined skill, the type of automatic reaction may be selectable by the one avatar. However, in this case, if the first avatar's costume is a kimono, there will be restrictions such as being able to only select a "ladylike reaction".There are certain skills that can be selected depending on the attributes of the avatar and its costume. May be limited.

補足すると、自動リアクションは、SNSのソーシャルグラフ、具体的には過去の接触履歴から、初見、知人、仲の良いユーザ、一方的にフォローしている超有名人といった相手とユーザとの関係やソーシャルグラフ的な距離によって、リアクションの態様やその頻度が変わってもよい。例えば、「推し活」(自身が好きになった対象(推し)を応援する活動)というスキルを持っており「おしとやか」に設定されたアバターについては、対象となる“超有名人”(フォロワー数に対してフォロー数が極端に少ない)が視野に入ると、「目をハートにして手を大きく振る」といった派手なモーションを自動再生するが、それ以外のユーザに対しては通常の動作を行うといったものである。また、「愛想笑い」というスキルが高い場合には、誰に対しても微笑みと挨拶のモーションを生成するが、「憂鬱」というスキルを併せ持っていると、特に仲の良いユーザでなければ、あえて視線を外したり、表情の変化を少なめにしたりするといった、複数のスキルを融合させたバリエーションの設定や優先度の設定がなされてよい。 As a supplement, automatic reactions are based on the social graph of SNS, specifically past contact history, and the relationship between the user and the other party, such as a first time meeting, an acquaintance, a close user, a super celebrity who is unilaterally following, and the social graph. The mode and frequency of reactions may change depending on the distance. For example, for an avatar that has the skill "Oshikatsu" (an activity to support the person you like) and is set to "Lady", the target "Super Celebrity" (Number of followers) When a user (who has an extremely small number of followers) comes into view, it automatically plays a flashy motion such as ``making heart-shaped eyes and waving their hands wide,'' but for other users, it performs normal actions. Something like this. Also, if the skill ``Friendly Laughter'' is high, it will generate a smile and greeting motion to everyone, but if the user also has the skill ``Melancholy,'' unless the user is particularly close to the user, he or she will make a motion to smile and greet everyone. It is also possible to set variations and priorities that combine multiple skills, such as removing the expression or reducing changes in facial expressions.

また、一の所定の発動条件は、2種類以上の特定の所定スキルが対応付けられていることを条件として含んでもよい。この場合、例えば、特定の楽曲の楽譜と、ピアノをひくスキルの両方を取得していないと、ピアノの近くに行っても演奏ができない等の制限を実現できる。 Further, one predetermined activation condition may include a condition that two or more types of specific predetermined skills are associated with each other. In this case, for example, if the user does not acquire both the musical score of a specific song and the skills to play the piano, a restriction can be realized, such as not being able to play even if the user goes near the piano.

また、所定スキルは、歩き方や、話し方、食べ方等のような各種所作に関連してもよい。例えば、所定スキルが、『“おしとやかに(上品に)”歩く』である場合、所定の発動条件は、所定オブジェクトとして、その際のアバターの衣装(オブジェクト)に関連してよい。例えば、所定の発動条件は、アバターの衣装が、“おしとやかな(上品な)”歩き方が似合う又は求められる衣装(例えばドレスや着物)である場合に満たされてもよい。この場合、同じドレスを着用しているアバターY1であっても、所定スキル『“おしとやかに(上品に)”歩く』が対応付けられていない場合は、図8Aに模式的に示すような、大雑把な歩き方となる反面、所定スキル『“おしとやかに(上品に)”歩く』が対応付けられている場合は、図8Bに模式的に示すような、“おしとやかな(上品な)”歩き方となる。 Further, the predetermined skill may be related to various behaviors such as how to walk, how to speak, how to eat, etc. For example, when the predetermined skill is "walk gracefully (elegantly)", the predetermined activation condition may be related to the costume (object) of the avatar at that time as a predetermined object. For example, the predetermined activation condition may be satisfied when the avatar's costume is a costume (for example, a dress or a kimono) that suits or requires a "ladylike (elegant)" way of walking. In this case, even if the avatar Y1 is wearing the same dress, if the predetermined skill "walk gracefully" is not associated, then the avatar Y1 as shown schematically in FIG. 8A, On the other hand, if the predetermined skill ``walk gracefully (elegantly)'' is associated, it will be a ``ladylike (elegant)'' walk as schematically shown in Figure 8B. It becomes a way of walking.

また、図示しないが所定スキルが、『早く走る』である場合、所定の発動条件は、所定オブジェクトとして、その際のアバターが装着している靴(オブジェクト)に関連してよい。例えば、所定の発動条件は、アバターが装着している靴が特定の運動靴である場合に満たされてもよい。特定の運動靴は、任意であるが、当該オブジェクトの所有者履歴に基づいて、足の早い有名なユーザ(例えばオリンピックのメダリスト)が利用した履歴を含む運動靴であってもよい。なお、所定スキル『早く走る』は、ユーザからの所定入力(『走る』を指示する入力)、または、端末装置20のスマートフォン等のデバイスに内蔵された加速度センサ等の入力に応答して発動されてもよい。 Further, although not shown, when the predetermined skill is "run fast", the predetermined activation condition may be related to shoes (objects) worn by the avatar at that time, as the predetermined object. For example, the predetermined activation condition may be satisfied when the shoes worn by the avatar are specific athletic shoes. The particular athletic shoe may optionally be an athletic shoe that includes a history of use by a famous fast user (eg, an Olympic medalist) based on the object's ownership history. Note that the predetermined skill "run fast" is activated in response to a predetermined input from the user (an input instructing to "run") or an input from an acceleration sensor or the like built into a device such as a smartphone of the terminal device 20. It's okay.

また、アバターの衣装(オブジェクト)のようなオブジェクトの属性に応じて選択できる所定スキルが制限されてもよい。例えば、『走る』、『元気よく歩く!』、『スキップ』、『おしとやかに歩く』、『ガニ股で男らしく歩く』といった各種の所定スキルが対応付けられているアバターが、特定のオブジェクト(ドレス、着物、スポーツウェア、タンクトップ、スニーカー、ハイヒール等)を手に入れると、そのオブジェクトで選択可能な歩き方の一覧が表示されてもよい。この場合、ユーザが選択した歩き方で移動可能とされてもよい。ただし、この際、オブジェクトが着物の場合には、スキップとおしとやかに歩くしか選択できないような制限が課せられるといった具合に、オブジェクトの属性に応じて選択できる所定スキルが制限されてもよい。更に、アバターの属性(性別や体型等)に応じて更に選択肢が絞られてもよい。 Furthermore, the predetermined skills that can be selected may be limited depending on the attributes of an object such as an avatar's costume (object). For example, ``Run'' and ``Walk energetically! '', ``Skip'', ``Walk gracefully'', and ``Walk like a man with crotch legs''. When the user obtains a pair of high heels (such as high heels), a list of selectable walking styles may be displayed with the object. In this case, the user may be able to move in a walking manner selected by the user. However, in this case, if the object is a kimono, the predetermined skills that can be selected may be limited depending on the attributes of the object, such as a restriction that only skipping and walking gracefully can be selected. Furthermore, the options may be further narrowed down depending on the attributes of the avatar (gender, body type, etc.).

また、図示しないが所定スキルが、『カラオケ』である場合、所定の発動条件は、アバターが楽譜を手に入れ、マイク(オブジェクト)のそばに行き、マイクを手にとると、満たされてよい。この場合、手に入れた楽譜の曲の一覧が表示され、ユーザが選んだ曲にあった振りつけやダンスが、所定スキルに基づく動作として実現されてもよい。なお、カラオケの場合、ユーザ入力に基づいて音声を出力する等が実現されてもよい。すなわち、ユーザは、歌を自分で歌うことや、演奏の音は自分で出す等のオプションを選択可能であってもよい。 Also, although not shown, if the predetermined skill is "Karaoke", the predetermined activation condition may be satisfied when the avatar obtains the music score, goes near the microphone (object), and picks up the microphone. . In this case, a list of songs of the obtained musical score may be displayed, and choreography and dance suitable for the song selected by the user may be realized as movements based on predetermined skills. Note that in the case of karaoke, it may be possible to output audio based on user input. That is, the user may be able to select options such as singing the song himself or producing the sound of the performance himself.

また、図示しないが所定スキルが、『変身』である場合、所定の発動条件は、所定の呪文(仮想現実媒体)を取得する場合に満たされてよい。また、呪文を取得する場合のほか、選択する場合、すなわち、ユーザのアバターが所定オブジェクトを着用するときに、ユーザが「呪文を唱える」などの選択肢から選択する場合や、入力する場合、すなわち、ユーザが呪文の文言(「アブラカタブラ」等)を文字入力または発話により音声入力する場合に満たされてもよい。これらの場合、アバターは、所定オブジェクト(例えば衣装であれば、ドレスやスーツ)を手に入れたり、装着(着用)したりして、呪文を選択すると、ドレスや戦隊ものスーツに、それらしい変身アクションで変身する動作(例えばエフェクトを伴う動作)が、所定スキルに基づく動作として実現されてもよい。なお、所定スキル『変身』又は所定の呪文を備えていない場合、単に着替えるだけの動作となってよい。また、『変身』の所定スキルは、有料のオブジェクトの消費によって期間や回数を限定して処理されてもよい。また、初回の処理までどのような効果を持ったスキルであるかを表示せずに「???」といった別名で表示し、ユーザの興味喚起や関連したオブジェクトの消費を図るようにしてもよい。 Further, although not shown, when the predetermined skill is "transformation", the predetermined activation condition may be satisfied when a predetermined spell (virtual reality medium) is acquired. In addition to acquiring a spell, when the user selects a spell, that is, when the user's avatar wears a predetermined object, the user selects from options such as "cast a spell," or inputs the following: This condition may be satisfied when the user inputs the wording of the spell (such as "abracadabra") by inputting text or speaking. In these cases, the avatar obtains or equips (wears) a predetermined object (for example, a dress or suit for costumes), selects a spell, and transforms into a dress or squadron suit. A movement that transforms as an action (for example, a movement accompanied by an effect) may be realized as a movement based on a predetermined skill. Note that if the user does not have the predetermined skill "transformation" or the predetermined spell, the action may be simply changing clothes. Further, the predetermined skill of "transformation" may be processed for a limited period or number of times by consuming a paid object. Additionally, the effect of the skill may not be displayed until the first processing, and may be displayed under a different name such as "???" in order to arouse the user's interest and encourage them to consume related objects. .

ここで、所定スキルが同一である場合、当該所定スキルに基づく動作は、当該所定スキルが対応付けられているすべてのアバターに共通であってもよいが、好ましくは、各アバターの特性が表現可能となるように、一のアバターごとに又は複数のアバターごとに異なることが可能であってよい。例えば、アバターの属性(例えばサイズや性別等)に応じて、複数のアニメーションが用意されてもよい。 Here, if the predetermined skill is the same, the behavior based on the predetermined skill may be common to all avatars to which the predetermined skill is associated, but preferably, the characteristics of each avatar can be expressed. It may be possible to be different for each avatar or for multiple avatars, so that For example, multiple animations may be prepared depending on the attributes of the avatar (eg, size, gender, etc.).

共通のスキルとしては、NFTマーケットプレイス等で外部システムを経由して流通させたり、他のゲームシステムにおけるオブジェクト、広告や商品の購入、動画の視聴と連動したインセンティブとして配布されたりしてもよい。その際もより共通化したアニメーション処理として再生されてもよいし、アバターのサイズ(手足や髪の長さ、体重などの不可視要素)や性格付け、アバターを操作する実ユーザの属性(男性/女性、年齢、地域、言語)によって、再生される動作の違いが許容されてもよい。これは同一のジェスチャであっても多様な文化圏においては異なる意味であることを回避することを想定している(例:親指を突き立てる、指で輪を作る、中指を立てる、小指を立てるなど)。 As a common skill, it may be distributed via an external system such as an NFT marketplace, or it may be distributed as an object in another game system, an advertisement, an incentive linked to the purchase of a product, or the viewing of a video. In that case, it may be played back as a more standardized animation process, or the avatar's size (invisible elements such as limbs, hair length, weight, etc.), personality rating, and attributes of the actual user operating the avatar (male/female) may be reproduced. , age, region, language) may allow for differences in the actions to be played. This is intended to avoid the fact that the same gesture has different meanings in different cultures (e.g., thumb up, fingers in a circle, middle finger up, little finger up, etc.) ).

複数のアニメーションとしては、アバターや装着するオブジェクトの属性(個性情報。アバターの個性は、例えば、髪の色、服装、性別などを指す。)に応じて、例えば元気な属性なら活発によく動くアニメーションデータを、静かな属性なら動きがゆっくりであったり少なかったりなどのアニメーションデータが用意されてもよい。また、アバターや装着するオブジェクトの属性は、ユーザによって、属性(または性格)を複数の選択肢の中から選択して設定されるようにしてもよい。さらに、一のユーザIDに対して複数のアバターIDが対応付けられる場合、ユーザは、各アバターに対して各属性(または性格)を任意に設定できる。 As for multiple animations, depending on the attributes (personality information. The avatar's personality refers to, for example, hair color, clothing, gender, etc.) of the avatar or the object it is attached to, for example, if it is a lively attribute, it will be an animation that moves actively. If the data is a quiet attribute, animation data such as slow or small movement may be prepared. Further, the attributes of the avatar or the object to be worn may be set by the user selecting the attribute (or personality) from a plurality of options. Furthermore, when a plurality of avatar IDs are associated with one user ID, the user can arbitrarily set each attribute (or personality) for each avatar.

ところで、アニメーションによる描画は、事前にアニメーションを製作しておくことで、リアルタイムの描画を、低減された処理負荷で実現できる利点を有する反面、各アバターの特性が表現し難いという背反がある。 Incidentally, drawing using animation has the advantage that by creating the animation in advance, real-time drawing can be realized with a reduced processing load, but on the other hand, it has the disadvantage that it is difficult to express the characteristics of each avatar.

そこで、本実施形態では、アニメーションによる描画は、アバターの各部位の一部だけに適用されてもよい。その際において、まず、関節を無視する最も簡単な描画処理を説明すると、例えば、親指を立てて「いいね」を表現するアニメーションの場合、重要となる部位は右手と指の形状である。この場合、右手首より先の関節は、事前に準備した指形状(関節の曲がり角度の配列)で表現し、手首より腕側の関節は、モーションキャプチャ等のデータを利用することができる。 Therefore, in this embodiment, animation drawing may be applied only to a portion of each part of the avatar. In this case, first, we will explain the simplest drawing process that ignores joints. For example, in the case of an animation that expresses "I like" by holding up the thumb, the important parts are the shapes of the right hand and fingers. In this case, the joints beyond the right wrist can be represented by a previously prepared finger shape (arrangement of joint bending angles), and the joints on the arm side of the wrist can use data such as motion capture.

次に、関節に着目する描画処理を説明すると、アバターの各可動部のうちの、一部である所定部位だけをアニメーションによる描画で実現し、他の部位は、関節に着目して、所定部位の動きに連動する態様で描画されてもよい。この場合、他の部位を位置も含めて表現するときは、例えば、インバースキネマティクス(Inverse Kinematics。以下、「IK」と略していうことがある。)を利用して描画されてよい。この場合、アバターは、任意の関節モデルで表現されてもよい。この場合、使用する関節モデルは、アバターの関節に係る任意のモデルであり、例えば、複数の関節と、関節間の骨格(リンク)とで表されるモデルである。本実施形態では、一例として、図9Aに示すような関節モデルが用いられる。図9Aに示すような関節モデルは、頭部が1つ、胴部(胴体部)、両腕部、及び両脚部がそれぞれ3つの関節を持つ16関節モデルであり、頭部は両端が関節として規定され、その他は両端及び中点の3つが関節として規定される。具体的には、関節モデルは、16個の関節A0~A15と、関節間を繋ぐ15個の骨格B1~B15(又は「部位B1~B15」とも称する)とからなる。なお、理解できるように、例えば関節A4、A7は、左右の肩の関節であり、関節A2は、頸椎に係る関節である。また、関節A14、A15は、左右の股関節であり、関節A0は、腰椎に係る関節である。この場合、アバターは、図9Bに示すように、複数の可動部位が、複数の関節を介して繋がるモデルとして描画できる。図9Bに示す例では、アバターに係る11個の可動部位Bp1~Bp11が、複数の関節(黒●で表現)を介して繋がるモデルである。なお、アバターの各可動部位は、必ずしも人の実際の各可動部位に対応している必要はなく、省略されてもよいし、羽や尻尾のような、人が有さない別の可動部位が追加されてもよい。 Next, to explain the drawing process that focuses on the joints, only a predetermined part of each movable part of the avatar is drawn using animation, and other parts are drawn using predetermined parts with a focus on the joints. It may be drawn in a manner that is linked to the movement of. In this case, when expressing other parts including their positions, they may be drawn using, for example, inverse kinematics (hereinafter sometimes abbreviated as "IK"). In this case, the avatar may be represented by any joint model. In this case, the joint model used is any model related to the joints of the avatar, for example, a model represented by a plurality of joints and a skeleton (link) between the joints. In this embodiment, a joint model as shown in FIG. 9A is used as an example. The joint model shown in FIG. 9A is a 16-joint model in which the head has one joint, and the torso (torso), both arms, and both legs each have three joints, and the head has both ends as joints. The other three points, both ends and the middle point, are defined as joints. Specifically, the joint model consists of 16 joints A0 to A15 and 15 skeletons B1 to B15 (also referred to as "parts B1 to B15") that connect the joints. As can be understood, for example, joints A4 and A7 are joints of the left and right shoulders, and joint A2 is a joint related to the cervical vertebrae. Further, joints A14 and A15 are left and right hip joints, and joint A0 is a joint related to the lumbar vertebrae. In this case, the avatar can be drawn as a model in which multiple movable parts are connected via multiple joints, as shown in FIG. 9B. The example shown in FIG. 9B is a model in which 11 movable parts Bp1 to Bp11 related to the avatar are connected via a plurality of joints (represented by black circles). Note that each movable part of the avatar does not necessarily correspond to each actual movable part of a person, and may be omitted, or other movable parts that humans do not have, such as wings or a tail, may be omitted. May be added.

ここで、描画処理は、IK方式によらない他の方式でもよく、例えば、各部位のモーションデータをスキルと紐づけて記憶し、スキルを発揮すると、そのモーションデータに基づいてアニメーションを描画する方式や、スキルのアニメーションデータが動画データで、スキルが発動されるとその動画が再生される方式であってもよい。例えば、アニメーションGIFファイルが定義されており、特定の動画ファイルを選択して再生する方式であってもよい。 Here, the drawing process may be performed using a method other than the IK method, such as a method in which the motion data of each part is stored in association with a skill, and when the skill is demonstrated, an animation is drawn based on the motion data. Alternatively, the animation data of the skill may be video data, and the video may be played back when the skill is activated. For example, an animation GIF file may be defined, and a specific video file may be selected and played.

描画処理について、さらにその詳細を整理して説明すると、次のようである。 The details of the drawing process will be explained as follows.

(1)各スキルのアニメーションデータに基づいてアバターを描画する。 (1) Draw an avatar based on the animation data of each skill.

(2)アニメーションデータには、アバターの各部位のモーションデータが含まれる。各スキルのモーションデータに基づいて、アバターを描画するケースと、IKコントローラによって生成するケース、ロジックによって生成するケースがある。 (2) The animation data includes motion data for each part of the avatar. There are cases in which the avatar is drawn based on the motion data of each skill, cases in which it is generated by an IK controller, and cases in which it is generated by logic.

(3)なお、ロジックや物理シミュレーションによってIKコントローラを操作する方法により、アバターを描画してもよい。起点のボーンにターゲットを設定したIKターゲットを動かすと、起点のボーンと対象のボーンとがターゲットの動きに連動して動くよう設定されている。 (3) Note that the avatar may be drawn by operating the IK controller using logic or physical simulation. When an IK target whose target is set to the starting point bone is moved, the starting point bone and the target bone are set to move in conjunction with the movement of the target.

(4)上記の方式の場合、各スキルのアニメーションデータには、ターゲットの動きだけ設定されていてもよい(例:リフティングのボールの動き)。スキルが発動されると、そのターゲットの動きのデータと、あらかじめアバターのボーンに設定されているIKとを用いて、ターゲット及び連動するボーンとを動かし、アバターを描画する。 (4) In the case of the above method, only the movement of the target may be set in the animation data of each skill (eg, the movement of a lifting ball). When the skill is activated, the target and the linked bones are moved using data on the movement of the target and IK set in advance for the bones of the avatar to draw the avatar.

(5)ボーンのように関節として接続された構造だけでなく、首や視線、エフェクトなどを同様に操作してもよい。 (5) In addition to structures connected as joints such as bones, the neck, line of sight, effects, etc. may be manipulated in the same way.

(6)なお、スキルをロジックによって実装する場合は、与えられたモーションデータの各部位に対するIF文による分岐や音声ストリームに対する分析、参考となるミュージックビデオなどの画像認識や歌詞などの埋め込みデータ、またはそれを複合させた学習セットによる機械学習による判定を利用して再生すべきアニメーションをロードする。 (6) If the skill is implemented using logic, branching using IF statements for each part of the given motion data, analysis of the audio stream, image recognition such as a reference music video, embedded data such as lyrics, or The animation to be played is loaded using judgments made by machine learning using a learning set that combines them.

(7)手、足、胴体などの各部位については、Unityのレイヤーとアバターマスクとを使ってモーションを設定してもよい。例えば、あるスキルのアニメーションデータについて、アバターマスクの設定によりアバターの一部の部位のアニメーションを変化させ、別個のアニメーションデータとして記憶しておいてもよい。アバターマスクで設定されたモーションとIK方式とを組み合わせて、0~1のブレンド率や時間に対して変化するブレンドモデル(リニア補完やスプライン補間)など利用して描画してもよい。 (7) Motions may be set for each part of the body, such as hands, legs, and torso, using Unity layers and avatar masks. For example, regarding animation data of a certain skill, the animation of some parts of the avatar may be changed by setting an avatar mask, and may be stored as separate animation data. It is also possible to combine the motion set in the avatar mask and the IK method, and draw using a blending ratio of 0 to 1 or a blending model that changes over time (linear interpolation or spline interpolation).

上記した内容を手順として説明すると、次のようである。 The steps described above are explained as follows.

I.[スタート] I. [Start]

(1)モーションキャプチャからのデータ (1) Data from motion capture

(2)ロジックによる生成 (2) Generation by logic

(3)IKによる生成
II.[特性による優先付け]
上記(1),(2),(3)にそれぞれ、-1~+1の寄与率が、アバターやアバターの装着するオブジェクト、ユーザが選択したタイプ等に応じて、設定される(ブレンドパラメータ)。
(3) Generation by IK
II. [Prioritization by characteristics]
For each of (1), (2), and (3) above, a contribution rate of -1 to +1 is set (blend parameter) depending on the avatar, the object worn by the avatar, the type selected by the user, and the like.

III.[アバターマスクによる定義]x[ブレンドパラメータ]
IV.[アニメーション生成]
これによって、例えば以下のような動作が可能となる。
III. [Definition by avatar mask] x [blend parameter]
IV. [Animation generation]
This enables the following operations, for example.

・ピアノ演奏において、(1)による演技を重視するが、(2)によって楽譜どおりに弾けない姿勢になることもある。 ・When playing the piano, emphasis is placed on performance according to (1), but (2) can sometimes lead to a posture that prevents the player from playing according to the score.

・ピアノ演奏において、(2)によって楽譜どおりに演奏するが、(1)によって首を曲に合わせて振ったりするような動作はしない。 ・When playing the piano, (2) means that the person plays according to the score, but (1) does not make movements such as shaking the head in time with the music.

・サッカーボールのリフティングにおいて、(3)のボールを常に追いかけるが、(1)によってときどき周りを見る。 ・When lifting a soccer ball, (3) always chases the ball, but (1) occasionally looks around.

なお、上記において、「特性」とは、「アバターの行動の中でもモーションの細かい動作表現の自動化に関わるスイッチングアルゴリズム」と捉えることが可能である。ロジックによる生成と計算による生成、モーションキャプチャによるデータ、どれが優先されるのかを選択することで多様な表現が可能となり、明示的に選択しなくても、モーションキャプチャの動きが多いとか少ないとか、算出した動きに近いとか遠いとかで学習させたりキャリブレーションしたりすることができ、個々のアバター表現の多様化につながりうる。 Note that in the above, "characteristics" can be understood as "switching algorithms involved in automating the expression of detailed motions among the avatar's actions." By selecting which is prioritized between logic generation, calculation generation, and motion capture data, it is possible to create a variety of expressions, such as whether there is more motion capture or less motion capture, etc., without having to explicitly select it. It can be trained and calibrated based on whether the movement is close to or far from the calculated movement, which can lead to diversification of individual avatar expressions.

なお、関節モデルに係るパラメータ(例えば関節の自由度等)は、アバターごとに異なってもよい。また、複数の可動部位の長さや太さ等も、アバターごとに異なってもよい。 Note that parameters related to the joint model (for example, degrees of freedom of joints, etc.) may differ for each avatar. Further, the lengths, thicknesses, etc. of the plurality of movable parts may also differ for each avatar.

所定部位は、所定スキルに関連する部位であり、所定スキルに基づく動作において最も動きが複雑となる部位であってよい。例えば、所定スキルが、図4に示すサッカーボールのリフティングの場合、所定部位は、サッカーボールを扱う部位(足や頭部)であってよい。このような構成によれば、所定部位以外の他の部位のうち、所定部位の動きに無関係な部位については、インバースキネマティクスに基づく描画に代えて又はインバースキネマティクスとの組み合わせで、ユーザ操作に基づく描画も可能である。この場合、各アバターの特性の表現が可能となる。例えば、所定スキルが、図4に示すサッカーボールのリフティングの場合、手の動き等は、ユーザ操作に基づく描画も可能となりうる。同様に、所定スキルが、図5に示すピアノの演奏の場合、頭部の動き等は、ユーザ操作に基づく描画も可能となりうる。また、いずれの場合も、ユーザ操作に基づく描画に代えて又はそれとの組み合わせで、モーションキャプチャで取得されたトラッキング情報に基づく描画が実現されてもよい。 The predetermined part is a part related to a predetermined skill, and may be a part whose movement is most complicated in an action based on the predetermined skill. For example, if the predetermined skill is lifting a soccer ball as shown in FIG. 4, the predetermined part may be a part (legs or head) that handles a soccer ball. According to such a configuration, for parts other than the predetermined part that are unrelated to the movement of the predetermined part, instead of drawing based on inverse kinematics or in combination with inverse kinematics, user operations can be applied to parts other than the predetermined part. Drawing based on this is also possible. In this case, it becomes possible to express the characteristics of each avatar. For example, if the predetermined skill is lifting a soccer ball as shown in FIG. 4, hand movements and the like may be drawn based on user operations. Similarly, if the predetermined skill is piano performance as shown in FIG. 5, it may be possible to draw head movements and the like based on user operations. Furthermore, in any case, instead of or in combination with drawing based on user operations, drawing based on tracking information acquired by motion capture may be realized.

なお、タッチパネル等に対するユーザ操作に基づく描画は、モーションキャプチャで取得されたトラッキング情報と同様に実現されてもよい。例えば、入力部24がタッチパネルの場合は、上下左右のスワイプで、頭の位置や腰の動きなどの指示が可能であり、アバターの全身が揺れたりする演出が可能となる。ボタン操作の場合も同様で、足や首でリズムをとることで、全身が揺れたりする演出が可能となる。 Note that drawing based on user operations on a touch panel or the like may be realized in the same way as tracking information acquired by motion capture. For example, if the input unit 24 is a touch panel, by swiping up, down, left, or right, it is possible to instruct the position of the head, the movement of the hips, etc., and it is possible to create an effect in which the avatar's whole body sways. The same goes for button operations, and by creating a rhythm with your feet and neck, you can create an effect where your whole body sways.

なお、アバターの顔の表情(例えば目や口等の動き)やそれに付随する部分(髪や髪飾りなど)を描画可能である仕様の場合、所定スキルに基づく動作中のアバターの顔の表情やそれに付随する部分の動きは、同様にアニメーションによる描画であってもよいし、ユーザ操作に基づく描画であってもよい。また、アバターの顔の表情(例えば目や口等の動き)を描画可能である仕様の場合、所定スキルに基づく動作中のアバターの顔の表情は、ユーザの顔画像情報やモーションキャプチャ(フェイスキャプチャ)で取得されたトラッキング情報に基づいて描画されてもよい。顔の表情は、ユーザ本人のモーションキャプチャデータだけではなく、マイクから入力された音声や録音された音源などから生成した、リップシンクデータや、音声信号処理によるタイミングを検出したトリガーとなるデータを利用してもよい。汎用アバターによる口の形状の開閉は、見た目の制御のために大きく開くことが難しいが、例えば、特定の歌唱タイミングにおいて特徴的な口の開きや手の拳の握り方、顔の赤らみや汗、漫符など漫画的な誇張・強調表現を適用してもよい。 In addition, if the specification allows the drawing of the avatar's facial expressions (e.g. movements of the eyes, mouth, etc.) and the accompanying parts (hair, hair ornaments, etc.), the avatar's facial expressions and movements based on predetermined skills can be drawn. The movement of the parts associated therewith may similarly be drawn by animation or may be drawn based on user operations. In addition, if the avatar's facial expressions (e.g. movements of eyes, mouth, etc.) can be drawn, the avatar's facial expressions during movement based on predetermined skills may be drawn using the user's facial image information or motion capture (face capture). ) may be drawn based on the tracking information obtained. Facial expressions are created using not only the user's own motion capture data, but also lip sync data generated from the voice input from the microphone and recorded sound sources, as well as trigger data that detects timing through audio signal processing. You may. It is difficult to open and close the mouth shape of a general-purpose avatar in order to control the appearance, but for example, it is difficult to open and close the mouth widely to control the appearance, but for example, it is possible to adjust the opening and closing of the mouth that is characteristic at specific singing timings, the way the hands are clenched into fists, the redness of the face, the sweat, etc. Cartoon-like exaggerated/emphasized expressions such as comic marks may be applied.

また、所定部位の動きについても、各アバターの特性が現れるように、アバターごとに異なりうる描画態様でアニメーションによる描画が実現されてもよい。この場合、例えば、ある1時点での所定部位の姿勢(以下、「第1姿勢」と称する)と、次の1時点での所定部位の姿勢(以下、「第2姿勢」と称する)とがアニメーションデータにより規定されている場合に、所定部位の動きの速さ等を規定する関数を利用して、第1姿勢から第2姿勢までの動きを表現してもよい。 Further, regarding the movement of a predetermined part, animation drawing may be realized in a drawing mode that can differ for each avatar so that the characteristics of each avatar can be expressed. In this case, for example, the posture of a predetermined region at one point in time (hereinafter referred to as the "first posture") and the posture of the predetermined region at the next point in time (hereinafter referred to as "second posture") are different. When defined by animation data, the movement from the first posture to the second posture may be expressed using a function that defines the speed of movement of a predetermined part.

例えば、図10には、指の状態A(第1姿勢)から指の状態B(第2姿勢)への変化が模式的に示されている。図10では、指の関節(黒●で表現)での2部位のなす角度θ(以下、「関節角度θ」とも称する)が、0より大きい関節角度θ(状態A)から、関節角度θ=0度(状態B)へと変化する。この場合、図11に示すような複数種類の関数F101からF104のうちから、アバターの個性(例えば髪の色、服装、性別など)に応じて選択された関数が利用されてもよい。また、例えば、カジュアルな服装のアバターは元気よくピアノを弾くなどのアバターの属性を、アバターの個性である髪の色、服装、性別などに対応付けてもよい。さらには、ユーザがピアノの弾き方(すなわち、いずれの関数を適用するか)を選択できるようにしてもよい。関数F101からF104は、横軸を時間として縦軸を関節角度θとして、時間に応じて関節角度θの変化を規定する。これにより、丁寧に弾く、アグレッシブに弾く等のユーザの特性を運指に反映できる。なお、図11では、関数F101は、線形関数であるが、他のF102からF104は、非線形関数である。このような関数は、イージング(easing)関数であってよい。このような関数は、ピアノの演奏の際の指(所定部位)の動き等に適用するのが好適であるが、他の任意の所定部位の動きに適用可能である。なお、図11では、4種類の関数F101からF104が一例として示されているが、より多くの種類の関数が用意されてもよいし、より少ない種類の関数が用意されてもよい。また、図10及び図11では、1つの関節角度θだけが示されているが、関節ごとの動きの自由度に応じて、より多数の関節角度が同様の関数に基づいて変化されてもよい。 For example, FIG. 10 schematically shows a change from finger state A (first posture) to finger state B (second posture). In FIG. 10, the angle θ formed by two parts of the finger joint (represented by black ●) (hereinafter also referred to as "joint angle θ") is greater than 0 (state A), so joint angle θ= The temperature changes to 0 degrees (state B). In this case, a function selected from a plurality of types of functions F101 to F104 as shown in FIG. 11 according to the avatar's personality (for example, hair color, clothing, gender, etc.) may be used. Furthermore, for example, attributes of the avatar, such as an avatar wearing casual clothes playing the piano cheerfully, may be associated with the avatar's personality, such as hair color, clothing, gender, etc. Furthermore, the user may be able to select how to play the piano (that is, which function to apply). The functions F101 to F104 define changes in the joint angle θ according to time, with the horizontal axis representing time and the vertical axis representing the joint angle θ. This allows the user's characteristics, such as careful playing or aggressive playing, to be reflected in the fingering. Note that in FIG. 11, the function F101 is a linear function, but the other functions F102 to F104 are nonlinear functions. Such a function may be an easing function. Such a function is preferably applied to movements of fingers (predetermined parts) during piano performance, but can be applied to movements of any other predetermined parts. In addition, although four types of functions F101 to F104 are shown as an example in FIG. 11, more types of functions may be prepared, or fewer types of functions may be prepared. Furthermore, although only one joint angle θ is shown in FIGS. 10 and 11, a larger number of joint angles may be changed based on a similar function depending on the degree of freedom of movement of each joint. .

このような音楽の演奏表現やダンスのモーションには、従来の音楽理論に基づく動作の微妙な異なりが存在する。例えば、連続した4拍がある場合、最初の1拍は強く(強拍)、最後の1拍は弱く流れるように抜く(弱拍)といったテクニックがある。同じ演奏やダンスモーション内の基本的な連続動作であったとしても、このような強拍/弱拍のようなアクセントが見る側の人間に及ぼす印象は大きく、科学的現象として広く一定の効果が認められる。例として、強拍/弱拍のアクセントを同一にすることで、より初心者的表現が可能になり、強拍をより前駆動作を含めて大きくすることで、感情的な表現がパラメトリックに実装可能になる。これにより、従来の手付けのアニメーションによる作業を、すべてのアバターアニメーションにおいて、行う必要をなくせる効果がある。 There are subtle differences in musical performance expressions and dance motions based on conventional music theory. For example, when there are four consecutive beats, there is a technique to make the first beat strong (strong beat) and the last beat weak and flowing (weak beat). Even if it is a basic continuous movement within the same performance or dance motion, accents such as strong beats and weak beats have a large impression on the viewer, and as a scientific phenomenon, they have a wide and certain effect. Is recognized. For example, by making the accents of the strong beats and weak beats the same, it is possible to create more beginner-like expressions, and by making the strong beats louder, including more front-driven movements, it is possible to parametrically implement emotional expressions. Become. This has the effect of eliminating the need to perform conventional manual animation work for all avatar animations.

ところで、所定スキルに基づく動作は、比較的長い時間継続する場合がある。例えば、所定スキルが、図4に示すサッカーボールのリフティングの場合、所定スキルに基づく動作は、少なくとも何秒かは継続することになる。また、所定スキルが、図5に示すピアノの演奏の場合、所定スキルに基づく動作は、基本的に、楽曲の演奏が終わるまで継続することになる。 Incidentally, an action based on a predetermined skill may continue for a relatively long time. For example, if the predetermined skill is lifting a soccer ball as shown in FIG. 4, the action based on the predetermined skill will continue for at least several seconds. Further, when the predetermined skill is piano performance as shown in FIG. 5, the operation based on the predetermined skill basically continues until the performance of the music is finished.

そこで、所定スキルに基づく動作中に、特定の期間だけ、各アバターの特性が現れるように、アバターごとに異なりうる描画態様でアバターの動きが描画可能とされてもよい。この場合、アバターは、特定の期間だけ、ユーザ操作に基づいて描画されてもよいし、モーションキャプチャで取得されたトラッキング情報に基づいて描画されてもよい。 Therefore, the movements of the avatars may be drawn in a drawing manner that can be different for each avatar so that the characteristics of each avatar appear only for a specific period during an action based on a predetermined skill. In this case, the avatar may be drawn based on a user's operation only for a specific period of time, or may be drawn based on tracking information obtained by motion capture.

図12は、所定スキルに基づく動作中における期間の属性の変化態様の一例を示す図である。属性M1は、所定部位の動きに対してアニメーションによる描画が適用される期間であることを示し、属性M4は、アバターごとに異なりうる描画態様でアバターの動きが描画可能な期間を示す。所定スキルが、図4に示すサッカーボールのリフティングの場合、属性M4の期間(所定期間の一例)は、サッカーボールをリフトしてから下降してくるまでの期間が長い場合に、当該期間に対して設定されてもよい。また、所定スキルが、図5に示すピアノの演奏の場合、属性M4の期間は、間奏期間や休止期間(休符期間)に対して設定されてもよい。この場合、属性M4の期間において、アバターは、足や首でリズムをとることで、全身が揺れたりする演出も可能となる。例えば、ユーザ操作またはモーションキャプチャの情報に基づいて、アバターが足や首でリズムをとることで全身が揺れたり、各アバターの個性が発揮できたりする。 FIG. 12 is a diagram illustrating an example of how period attributes change during an operation based on a predetermined skill. The attribute M1 indicates a period during which animation drawing is applied to the movement of a predetermined body part, and the attribute M4 indicates a period during which the avatar's movement can be drawn in a drawing mode that may vary from avatar to avatar. When the predetermined skill is lifting a soccer ball as shown in FIG. may be set. Further, when the predetermined skill is piano performance shown in FIG. 5, the period of attribute M4 may be set for an interlude period or a pause period (rest period). In this case, during the period of attribute M4, the avatar can create an effect in which the whole body sways by keeping the rhythm with the feet and neck. For example, based on user operations or motion capture information, the avatar's entire body can sway by rhythmically moving its legs and neck, allowing each avatar to express their individuality.

図13は、所定スキルが楽器の演奏の場合の具体的な描画方法の一例の流れを示す概略的なフローチャートである。図14は、複数のアバターによる同期再生の説明図である。 FIG. 13 is a schematic flowchart showing an example of a specific drawing method when the predetermined skill is playing a musical instrument. FIG. 14 is an explanatory diagram of synchronous playback by a plurality of avatars.

図13に示す例では、演奏対象のスタンダードMIDIファイルデータ(SMFデータ)がセットされる(ステップS1400)。SMFデータは、チャンネル、イベント(打鍵or離鍵)、時間、音高、強さ等の各種情報を含む。ついで、MIDIデータの読み込みが実行される(ステップS1402)。MIDIデータの読み込みの際、MIDIデータは、扱い易いデータに変換されてもよい。ついで、トラックチャンクの分類処理が実行される(ステップS1404)。例えば、楽器の種類や演奏する際に利用する手の種類(右手又は左手若しくは両手)が特定される。なお、リアルタイム化を図る場合、トラックチャンクは、1つとされてもよい(すなわち、フォーマット0に変換されてもよい)。 In the example shown in FIG. 13, standard MIDI file data (SMF data) to be played is set (step S1400). The SMF data includes various information such as channel, event (key press or key release), time, pitch, and strength. Then, MIDI data is read (step S1402). When reading MIDI data, the MIDI data may be converted into data that is easy to handle. Next, track chunk classification processing is performed (step S1404). For example, the type of musical instrument and the type of hand used when playing (right hand, left hand, or both hands) are specified. Note that, when realizing real-time performance, the number of track chunks may be one (that is, it may be converted to format 0).

ついで、イベントの分類処理(ステップS1406)が実行され、鳴り始めか鳴り終わりかが判定される。ついで、データ取得処理(ステップS1408)が実行され、音高やベロシティが取得される。ついで、和音であるか否かを判定し(ステップS1410)、和音である場合は、コードの分類処理(ステップS1412A)を、和音でない場合は、運指の確認処理(ステップS1412B)を、それぞれ実行する。コードの分類処理は、Amコード、Gコード、D7コード等の各種コードの分類処理である。運指の確認処理は、別途利用されてもよい運指データを利用してもよいし、推定処理により実現されてもよい。また、1小節や4音といった音楽理論に基づく単位で分類して、分類器で処理してもよい。同様に機械学習を用いて類似の処理ユニットをまとめたり、亜種を推定することでベースとなるモーションを最小に多様な演奏を実現させる分類器を生成したりして処理してもよい。ついで、手首の位置の計算処理(ステップS1414)が実行される。例えば、上述した関節モデルを利用して、楽器サイズや音高に基づいて手首の位置(図9Aの関節A6、A9参照)が算出されてもよい。この際、手首との距離(手首まわりの回転角度)や、再生している音楽の速度(BPM=Beats Per Minute)が考慮されてもよい。また、腕の長さが足りない場合、上述したインバースキネマティクスに基づき上半身(腕を含む)の位置が連動されてもよい。 Next, event classification processing (step S1406) is executed, and it is determined whether the sound starts or ends. Next, data acquisition processing (step S1408) is executed to acquire pitch and velocity. Next, it is determined whether or not it is a chord (step S1410), and if it is a chord, a chord classification process (step S1412A) is executed, and if it is not a chord, a fingering confirmation process (step S1412B) is executed. do. The code classification process is a process of classifying various codes such as Am code, G code, and D7 code. The fingering confirmation process may utilize fingering data that may be used separately, or may be realized by estimation processing. Alternatively, the data may be classified in units based on music theory, such as one measure or four notes, and processed by a classifier. Similarly, similar processing units may be grouped together using machine learning, or a classifier may be generated that realizes various performances by minimizing the base motion by estimating subspecies. Next, wrist position calculation processing (step S1414) is executed. For example, the position of the wrist (see joints A6 and A9 in FIG. 9A) may be calculated based on the instrument size and pitch using the joint model described above. At this time, the distance to the wrist (rotation angle around the wrist) and the speed of the music being played (BPM = Beats Per Minute) may be taken into consideration. Furthermore, if the arm length is insufficient, the position of the upper body (including the arm) may be linked based on the above-mentioned inverse kinematics.

ついで、難しさ判定処理(ステップS1416)が実行される。難しさ判定処理は、前の音からの距離(移動距離)とBPMから算出した次の発音までの時間に基づいて判定されてもよい。例えばピアノの場合、離鍵から次の打鍵までの時間と距離に基づいて判定されてもよい。この場合、移動距離が長いほどかつ時間が短いほど難易度が高くなる態様で難しさ判定処理が実行されてもよい。また、ピアノや打楽器のように、打鍵の際の前駆動作の大きさや打突の瞬間や振り抜き動作が重要な楽器の場合、BPMから算出した次の発音までの時間とアバターの性格付けによって、前駆動作や振り抜き動作に特別なモーションや再生速度を設定してもよい。なお、難しさ判定処理の結果は、表情演技等の自動生成に利用されてもよい。例えば、難しい運指のところは、表情が苦しそうになる等の表情演技が実現されてもよい。また、アバターの顔は曲調に合わせた表情に変化してもよく、例えば、元気でリズミカルな曲なら笑顔、ゆったりした曲なら目を閉じる等が実現されてもよい。ついで、アニメーションイベントの作成処理(ステップS1418)が実行される。アニメーションイベントの作成処理では、手首の移動や指の形の変形がアニメーションにより描画される。 Next, difficulty determination processing (step S1416) is executed. The difficulty determination process may be performed based on the distance from the previous sound (movement distance) and the time until the next pronunciation calculated from the BPM. For example, in the case of a piano, the determination may be made based on the time and distance from key release to next key press. In this case, the difficulty determination process may be executed in such a manner that the longer the travel distance and the shorter the time, the higher the difficulty level. In addition, in the case of instruments such as pianos and percussion instruments, where the size of the front movement when hitting the key, the moment of impact, and the swinging movement are important, the time until the next sound calculated from the BPM and the avatar's character A special motion or playback speed may be set for the forward drive motion or swing motion. Note that the results of the difficulty determination process may be used for automatically generating facial expressions and the like. For example, for difficult fingering, facial expressions such as a pained expression may be realized. Furthermore, the avatar's face may change its expression to match the melody; for example, it may smile if the song is lively and rhythmic, or close its eyes if the song is slow. Next, animation event creation processing (step S1418) is executed. In the animation event creation process, movement of the wrist and deformation of the shape of the fingers are drawn as animation.

このような図13に示す処理は、ユーザの全ての動きをトラッキングする必要がないため処理負荷を低減することができ、効率的にユーザの個性が反映されたアバターの動き(モーション)を描画(再生)できる。なお、図13に示す処理は、必ずしも全ステップが実行される必要はなく、求められるアニメーションの処理に応じて、一部が省略されてもよい。 The processing shown in FIG. 13 can reduce the processing load because it is not necessary to track all of the user's movements, and can efficiently draw the avatar's movements (motions) that reflect the user's individuality. (playback) possible. Note that all steps of the process shown in FIG. 13 do not necessarily need to be executed, and some of them may be omitted depending on the desired animation process.

また、このような図13に示す処理は、複数の楽器に応用可能である。例えば、ギターである場合は、タブ譜かコードかの判定処理を含んでもよい。タブ譜である場合、同じ音高は同じ指使いと仮定してよい。ただし、同じ音高で別の場所を弾くこともありえ、次の音の距離を計算してどちらに飛ぶべきか判断してもよい。また、右手は同じ動きの繰り返しでもよいが、休符情報を読み取ることで、動きを止めたり、弦を押さえたりすることとしてもよい。ギターの休符は、明確なミュートとする場合があり、映像では視認しづらいが、指の動きとしてはミュート動作を再生することが好ましい。一方で、開放弦(長音となる場合)は、映像では視認しづらいが、弦は音の鳴り響きを表現することが好ましい。開放弦の場合は、使用しない指や腕をモーションキャプチャからのデータを利用したり、振動している弦をパーティクルや明滅などの映像効果や振動デバイスへの信号などで表現したりすることができる。また、ギターの場合、アバターの腕の動きは、上述したインバースキネマティクスに基づき決定されてもよい。また、ドラムの場合も、基本的にはギターの場合と同様であってよい。ただし、ドラムの場合、単純な8ビートや4ビートではなく、変則的なリズム(例えば、いわゆる“ダカダカダン”等)に係る腕の動きは、別途適合されてもよい。また、この処理をメタバース内のリズムゲームや音楽ゲームの正解判定、正しい演奏動作を学ぶための3次元主観で観測できる学習システムに利用することもできる。ユーザの入力とMIDIによる楽譜の動作の違いを、アレンジや個性として、差分を検出、保存、共有、公開、流通させることができる。 Furthermore, the processing shown in FIG. 13 can be applied to a plurality of musical instruments. For example, in the case of a guitar, processing for determining whether it is a tablature or a chord may be included. If it's tablature, you can assume that the same pitches have the same fingering. However, it is possible to play the same pitch in different places, and you can decide which direction to play by calculating the distance to the next note. Furthermore, the right hand may repeat the same movement, but it may also stop the movement or hold down the strings by reading rest information. Guitar rests may be clearly muted, and although they are difficult to see in the video, it is preferable to reproduce mute movements as finger movements. On the other hand, open strings (in the case of long notes) are difficult to visually recognize in the video, but it is preferable that the strings express the resounding sound. In the case of open strings, it is possible to use data from motion capture to represent unused fingers and arms, and to express vibrating strings with visual effects such as particles and flickering, or signals to vibration devices. . Furthermore, in the case of a guitar, the movement of the avatar's arm may be determined based on the above-mentioned inverse kinematics. Also, the case of drums may be basically the same as the case of guitar. However, in the case of drums, arm movements associated with irregular rhythms (for example, so-called "daka-da-ka-dan") rather than simple 8-beat or 4-beat rhythms may be adapted separately. Furthermore, this processing can be used for determining correct answers in rhythm games and music games in the metaverse, and for learning systems that allow three-dimensional subjective observation to learn correct performance movements. It is possible to detect, save, share, publish, and distribute the differences between user input and MIDI musical score operations as arrangements and individuality.

また、複数の楽器に応用可能であるため、楽器演奏をリアルタイムで配信することも可能である。例えば、ピアノ+ドラム+ギター+ベース+歌唱という組み合わせも可能であるし、ピアノであれば連弾なども可能になる。この場合、取得したスタンダードMIDIファイルデータを用いてアニメーションイベントでアニメーションを生成することで、配信を目的としたリアルタイム生成を実現できる。また、BPM(Beat per Minutes)を合わせて、開始タイミングを合わせることで、例えば図14に模式的に示すような、同期再生が実現できる。図14に示す例では、アバターAに係るユーザとアバターBに係るユーザが、別々のユーザであり、メタバース空間内でのコラボレーションの配信を実現する形態が示されている。この場合、ユーザAに係るアバターは、楽曲Xを所定スキルとして所定オブジェクトA(本例ではドラム)に近づくことで所定の発動条件が満たされている。他方、ユーザBに係るアバターは、楽曲Xを所定スキルとして所定オブジェクトB(本例ではピアノ)に近づくことで所定の発動条件が満たされている。これにより、ユーザAに係るアバターが、所定スキルに基づく動作としてドラムの演奏を実現し、ユーザBに係るアバターが、所定スキルに基づく動作としてピアノの演奏を実現する。そして、これらの演奏がBPMに基づいて同期再生される。 Furthermore, since it can be applied to multiple musical instruments, it is also possible to distribute musical instrument performances in real time. For example, a combination of piano + drums + guitar + bass + singing is possible, and if it is a piano, it is also possible to play duet. In this case, real-time generation for the purpose of distribution can be realized by generating an animation in an animation event using the acquired standard MIDI file data. Further, by adjusting the BPM (Beat per Minutes) and adjusting the start timing, synchronized playback as schematically shown in FIG. 14, for example, can be realized. In the example shown in FIG. 14, a user related to avatar A and a user related to avatar B are different users, and a form is shown in which collaboration distribution within the metaverse space is realized. In this case, the avatar associated with user A satisfies the predetermined activation condition by approaching a predetermined object A (drum in this example) with song X as a predetermined skill. On the other hand, the avatar associated with user B satisfies the predetermined activation condition by approaching a predetermined object B (in this example, a piano) with song X as a predetermined skill. As a result, the avatar associated with user A performs a drum performance as an action based on the predetermined skill, and the avatar associated with user B performs a piano performance as an action based on the predetermined skill. These performances are then synchronously reproduced based on BPM.

また、同期再生の場合、指揮者のようなプレイヤー(ユーザ)にBPMを制御させる(このプレイヤーの時間に合わせて再生する)ことも可能である。また、例えば3人による演奏中に、後から他のアバターが参加するといった参加型のコラボレーションも可能となる。なお、参加タイミングは、前奏や間奏期間等に限定されてもよい。また、事前保存された他者の演奏データに重ねる形で非同期保存処理されてもよいし、あらかじめ設定された世界標準時を正確なメトロノームのクリック音として利用して、同時に演奏する方式をとってもよい。このような形態のコラボレーションは、音楽だけでなく、他の活動や競技(例えばダンス等)でも適用可能である。なお、同期再生時の描画処理について、クライアントレンダリングにより端末装置20側で混合(立体音響化)してもよいし、サーバ装置10側で合成してもよい。さらには、別の収録用のシステム、例えばビデオ録画ファイルからのコンピュータビジョンと音響信号分析を利用してもよい。また、モーションキャプチャに基づくトラッキング情報は、端末装置20でのローカル保存及びサーバ装置10経由で他のユーザに共有されてよく、この場合、同時リアルタイム再生や、保存されたデータをもとに時間非同期再生(シャドウプレイ)が可能となる。この際、各ユーザに係るトラッキング情報(モーションキャプチャで取得されたトラッキング情報)は、ユーザ間のディレイを計測して揃えられてよい。 Furthermore, in the case of synchronous playback, it is also possible to have a player (user) like a conductor control the BPM (playback in accordance with the player's time). Furthermore, participatory collaboration is also possible, for example, during a performance by three people, other avatars can join later. Note that the participation timing may be limited to the prelude, interlude period, or the like. Further, the data may be stored asynchronously by being superimposed on pre-saved performance data of another person, or may be performed simultaneously using a preset world standard time as an accurate metronome click sound. This form of collaboration can be applied not only to music, but also to other activities and competitions (such as dance). Note that regarding the drawing process during synchronous playback, mixing (stereophonic sound) may be performed on the terminal device 20 side by client rendering, or synthesis may be performed on the server device 10 side. Additionally, other recording systems may be used, such as computer vision and audio signal analysis from video recording files. Further, tracking information based on motion capture may be locally saved on the terminal device 20 and shared with other users via the server device 10. In this case, simultaneous real-time playback or time asynchronous playback based on the saved data may be performed. Playback (shadow play) becomes possible. At this time, tracking information for each user (tracking information acquired by motion capture) may be aligned by measuring delays between users.

また、リップシンク(Lip Sync、Lip Synchronization)と組み合わせることで弾き語りも可能である。この場合、ユーザからの音声情報が利用されてよい。 It is also possible to play and sing in combination with lip sync (Lip Synchronization). In this case, voice information from the user may be used.

本実施形態では、上述したように、所定スキルに基づく動作は、アバターの特性を反映する動作となりうるため、所定スキルに基づく動作が開始されると、周辺アバターに係る仮想カメラの視野が変更されてもよい。すなわち、周辺アバターに係る仮想カメラの視野は、所定スキルに基づく動作を行うアバターがよくみえるように自動的に変更されてもよい。また、周辺アバターの端末装置20の表示部23に、所定スキルに基づく動作を行なうアバターを含む仮想空間画像が追加的に表示されるようにしてもよい。例えば、もともと表示されているメイン画面に重畳して又は隣接して、サブ画面が追加されるように構成してもよい。これにより、周辺アバターが、同じ仮想空間にいるアバターの所定動作を容易に把握することができるとの効果を奏する。また、周辺アバターに係る仮想カメラの視野に代えて又は加えて、所定スキルに基づく動作を行うアバターの視野が自動的に変更されてもよい。この場合も、所定スキルの動作を行うアバターの端末装置20の表示部23にも、周辺アバターのリアクションを含む仮想空間画像が追加的に表示されるように構成してもよい。 In this embodiment, as described above, the action based on the predetermined skill can be an action that reflects the characteristics of the avatar, so when the action based on the predetermined skill is started, the field of view of the virtual camera related to the surrounding avatars is changed. It's okay. That is, the field of view of the virtual camera related to surrounding avatars may be automatically changed so that the avatars performing actions based on predetermined skills can be clearly seen. Furthermore, a virtual space image including an avatar that performs an action based on a predetermined skill may be additionally displayed on the display unit 23 of the terminal device 20 of the surrounding avatar. For example, a sub-screen may be added superimposed on or adjacent to the originally displayed main screen. This has the effect that surrounding avatars can easily understand the predetermined actions of avatars in the same virtual space. Further, instead of or in addition to the field of view of the virtual camera related to surrounding avatars, the field of view of the avatar that performs an action based on a predetermined skill may be automatically changed. In this case as well, the virtual space image including the reactions of the surrounding avatars may be additionally displayed on the display unit 23 of the terminal device 20 of the avatar performing the action of the predetermined skill.

所定スキルに基づく動作を行うアバターの視野が自動的に変更される場合、所定スキルに基づく動作を行うアバターの視野は、周辺アバターの所定動作(例えば上述した自動リアクション)の様子も良く見えるように自動的に変更されてもよい。あらかじめ検出、設定された楽曲の盛り上がりや視聴者のリアクションにより、アバターの特定アクション(同時にジャンプする、背中を併せた状態で演奏するなど)や、観客のサイリウム、花火やスモーク、ライティングといったステージ内の演出を効果的に見せるカメラモーションを再生してもよい。なお、アクションを行う周辺アバターに係る仮想カメラの視野だけが変更される場合(例えば、所定スキルに基づく動作を行うアバターの視野が変更されない場合)、視野の自動的な変化に伴うユーザ(所定スキルに基づく動作を行うアバターに係るユーザ)の酔いの防止を図ることができる。また、特定のアバターを自分にだけ視線を向けさせる処理もできる。例えば、「大きな額のギフトを贈ったユーザに投げキッスをする」というスキルが、特定のユーザに向けられるのではなく、特定の金額のギフトを贈ったすべてのユーザに個々に「自分に向けて投げキッスを贈られたように見える」角度でレンダリングすることができる。楽曲だけでなく、挨拶や握手、視線や演出用のカメラ(HMDの場合それに代わるユーザの視点)に適用可能である。 When the field of view of an avatar that performs an action based on a predetermined skill is automatically changed, the field of view of the avatar that performs an action based on a predetermined skill is such that it can clearly see the predetermined action (for example, the automatic reaction described above) of surrounding avatars. It may be changed automatically. Based on the excitement of the songs and the audience's reactions that have been detected and set in advance, the avatar's specific actions (jumping at the same time, playing with their backs together, etc.), the audience's psyllium, fireworks, smoke, lighting, etc. Camera motions may be played to make the production more effective. Note that if only the field of view of the virtual camera related to surrounding avatars performing an action is changed (for example, if the field of view of an avatar performing an action based on a predetermined skill is not changed), the user's (predetermined skill It is possible to prevent the user (whose avatar performs actions based on the above) from getting sick. You can also make a specific avatar look only at you. For example, the skill "Blow a kiss to a user who gave a large gift" will not be directed to a specific user, but will be directed to all users who have given a gift of a certain amount, "Blow a kiss to yourself." It can be rendered at an angle that makes it look like someone has just been blown a kiss. It can be applied not only to music, but also to greetings, handshakes, line of sight, and direction cameras (in the case of an HMD, the user's viewpoint is substituted for that).

例えば、所定スキルに基づく動作としてピアノを弾くアバターの視野は、自動リアクションを行う周辺アバターの様子(拍手をしている周辺アバター等)が見えるように変化するが、自動リアクションを行う周辺アバターの視野は特に変わらないこととしてもよい。この場合、周辺アバターの視野は任意となる。また、ピアノを弾くアバターの視野では、自動リアクションを行う周辺アバターの様子が表示されるが、自動リアクションを行う周辺アバターに対応する実際のユーザは自由に動いており、当該ユーザの世界(現実)では当該ユーザは任意の動きをしていてよい(例えば、何ら動作をしていなくてもよいし、ピアノを弾くアバターを見ていなくてもいい)。ここで、周辺アバターの視線を頻度高く向けることで、ユーザ間の親密度を表現するようにしてもよい。 For example, the field of view of an avatar playing the piano as an action based on a predetermined skill changes so that it can see surrounding avatars that perform automatic reactions (such as nearby avatars clapping); It may be assumed that there is no particular change. In this case, the field of view of the peripheral avatar is arbitrary. In addition, in the field of view of the avatar playing the piano, surrounding avatars that perform automatic reactions are displayed, but the actual users corresponding to the surrounding avatars that perform automatic reactions are moving freely, and the world (reality) of the user Then, the user may be making any movement (for example, he or she may not be making any movements or looking at the avatar playing the piano). Here, intimacy between users may be expressed by frequently directing the gaze of surrounding avatars.

あるいは、所定スキルに基づく動作が開始されると、所定スキルに基づく動作を行うアバターを見るような案内情報が、周辺アバターに対して生成されてもよい。かかる仮想カメラの視野の変更や案内情報は、メタバース空間において有効となる。案内情報は、文字や音声で示してもよいし、動作を行うアバターがいる方向を示す情報を表示してもよい。案内情報により、例えば、メタバース空間にいるユーザが何をしたらいいか、どこに行ったらいいかわからないときに、判断のヒントになる。また、他のアバターとのコミュニケーションのきっかけともなる。なお、配信用の非メタバース空間の場合、仮想カメラの視野は、配信アバターに基づいて設定されるので、配信アバターが所定スキルに基づく動作を行う際、視聴ユーザは、配信アバターが所定スキルに基づく動作を行う様子を視聴できる。 Alternatively, when an action based on a predetermined skill is started, guidance information for viewing an avatar performing an action based on a predetermined skill may be generated for surrounding avatars. Changes in the visual field of the virtual camera and guidance information become effective in the metaverse space. The guide information may be shown in text or voice, or may display information indicating the direction in which the avatar performing the action is located. For example, the guide information provides hints for decisions when a user in the metaverse space does not know what to do or where to go. It also serves as an opportunity to communicate with other avatars. In addition, in the case of a non-metaverse space for distribution, the field of view of the virtual camera is set based on the distribution avatar, so when the distribution avatar performs an action based on a predetermined skill, the viewing user can You can watch the action being performed.

次に、図15以降を参照して、上述した所定スキルに基づくアバターの動作に関連したサーバ装置10及び端末装置20のそれぞれの機能的な構成例について説明する。 Next, with reference to FIG. 15 and subsequent figures, an example of the functional configuration of each of the server device 10 and the terminal device 20 related to the actions of the avatar based on the above-mentioned predetermined skills will be described.

図15は、上述した所定スキルに基づくアバターの動作に関連したサーバ装置10の機能を示す概略的なブロック図である。図16は、オブジェクト情報記憶部140内のデータの一例を示す説明図である。図17は、スキル関連データ記憶部142内のデータの一例を示す説明図である。図18は、ユーザ情報記憶部144内のデータの一例を示す説明図である。図19は、アバター情報記憶部146内のデータの一例を示す説明図である。なお、図16(以下の同様の図17等も同様)において、「***」は、なんらかの情報が格納されている状態を示し、「・・・」は、同様の情報の格納の繰り返し状態を示す。 FIG. 15 is a schematic block diagram showing the functions of the server device 10 related to the actions of the avatar based on the above-mentioned predetermined skills. FIG. 16 is an explanatory diagram showing an example of data in the object information storage section 140. FIG. 17 is an explanatory diagram showing an example of data in the skill-related data storage section 142. FIG. 18 is an explanatory diagram showing an example of data in the user information storage section 144. FIG. 19 is an explanatory diagram showing an example of data in the avatar information storage section 146. In addition, in FIG. 16 (and similar figures such as FIG. 17 below), "***" indicates a state in which some information is stored, and "..." indicates a state in which similar information is repeatedly stored. shows.

サーバ装置10は、図15に示すように、オブジェクト情報記憶部140、スキル関連データ記憶部142(第1から第3記憶部の一例)、ユーザ情報記憶部144(第4記憶部の一例)、アバター情報記憶部146、ユーザ入力取得部150(入力取得部の一例)、アバター処理部152、発動条件判定部154(判定部の一例)、及び視野変化処理部156を含む。 As shown in FIG. 15, the server device 10 includes an object information storage section 140, a skill-related data storage section 142 (an example of first to third storage sections), a user information storage section 144 (an example of a fourth storage section), It includes an avatar information storage section 146, a user input acquisition section 150 (an example of an input acquisition section), an avatar processing section 152, an activation condition determination section 154 (an example of a determination section), and a visual field change processing section 156.

なお、図15において、オブジェクト情報記憶部140、スキル関連データ記憶部142、ユーザ情報記憶部144、及びアバター情報記憶部146は、図1に示したサーバ装置10のサーバ記憶部12により実現できる。また、ユーザ入力取得部150から視野変化処理部156の各部の機能は、図1に示したサーバ装置10のサーバ制御部13やサーバ通信部11により実現できる。 Note that in FIG. 15, the object information storage section 140, skill-related data storage section 142, user information storage section 144, and avatar information storage section 146 can be realized by the server storage section 12 of the server device 10 shown in FIG. Further, the functions of each section from the user input acquisition section 150 to the visual field change processing section 156 can be realized by the server control section 13 and the server communication section 11 of the server device 10 shown in FIG.

オブジェクト情報記憶部140には、仮想空間内に配置される各オブジェクト(上述した所定オブジェクトを含む)に関するオブジェクト情報が記憶される。オブジェクト情報は、例えば図16に示すように、オブジェクトIDごとに、オブジェクト属性、位置情報、及び描画用情報を含んでよい。オブジェクトIDは、各オブジェクトの生成時に自動的に生成されるIDである。オブジェクト属性は、各オブジェクトの属性を表し、位置情報は、各オブジェクトの位置情報(仮想空間内の位置情報)である。なお、オブジェクト属性が移動物であるオブジェクトに係る位置情報は、適宜、更新されてよい。描画用情報は、各オブジェクトを描画するために必要な情報を含んでよい。 The object information storage unit 140 stores object information regarding each object (including the above-mentioned predetermined object) placed in the virtual space. For example, as shown in FIG. 16, the object information may include object attributes, position information, and drawing information for each object ID. The object ID is an ID that is automatically generated when each object is generated. The object attribute represents the attribute of each object, and the position information is position information of each object (position information in virtual space). Note that the position information regarding an object whose object attribute is a moving object may be updated as appropriate. The drawing information may include information necessary to draw each object.

スキル関連データ記憶部142には、上述した各所定スキルに関連したスキル関連データが記憶される。スキル関連データは、例えば図17に示すように、スキルIDごとに、スキル属性、発動条件情報、アニメーションデータ(動作描画用の所定データの一例)、及び再生用情報を含んでよい。 The skill-related data storage unit 142 stores skill-related data related to each of the above-mentioned predetermined skills. For example, as shown in FIG. 17, the skill-related data may include, for each skill ID, skill attributes, activation condition information, animation data (an example of predetermined data for drawing motions), and reproduction information.

スキルIDは、各所定スキルの生成時に自動的に生成されるIDである。スキル属性は、所定スキルの属性を表し、所定スキルの属性は、例えばコラボレーション用であるか否か等の情報を含んでよい。発動条件情報は、上述した所定の発動条件を表す情報を含んでよい。 The skill ID is an ID that is automatically generated when each predetermined skill is generated. The skill attributes represent attributes of a predetermined skill, and the attributes of the predetermined skill may include information such as whether the skill is for collaboration or not. The activation condition information may include information representing the above-described predetermined activation condition.

アニメーションデータは、上述した所定スキルに基づく動作の描画用のアニメーションデータを含む。アニメーションによる描画については、事前に動画を生成してそれを再生する形態のほか、アニメーションデータに、アニメーションを描画するために用いるアバターやオブジェクトのモーションデータ(各部位をどう動かすかのデータ)を含め、アバターやオブジェクトのモーションデータを基に、アバターやオブジェクトを描画するようしてもよい。アニメーションデータは、上述したように、アバターの所定部位の動きだけに関するデータであってよい。この場合、アニメーションデータは、複数のアバター間で共用できるように生成でき、データの効率化を図ることができる。例えば、アニメーションデータは、図9Aや図9Bを参照して上述したようなモデルであって、複数のアバター間で共用できるモデルに基づいて生成されてもよい。なお、アニメーションデータは、実際の人(ユーザ)が所定スキルに係る実際の動作を行った際に得られるトラッキング情報に基づいて生成されてよい。なお、アニメーションによる描画は、IK方式の描画には限られない。 The animation data includes animation data for drawing an action based on the above-mentioned predetermined skill. Regarding animation drawing, in addition to generating a video in advance and playing it back, the animation data includes motion data (data on how to move each part) of the avatar and object used to draw the animation. , the avatar or object may be drawn based on the motion data of the avatar or object. As described above, the animation data may be data related only to the movement of a predetermined part of the avatar. In this case, animation data can be generated so that it can be shared among a plurality of avatars, and data efficiency can be improved. For example, the animation data may be generated based on a model as described above with reference to FIGS. 9A and 9B, which can be shared among a plurality of avatars. Note that the animation data may be generated based on tracking information obtained when an actual person (user) performs an actual action related to a predetermined skill. Note that animation drawing is not limited to IK drawing.

再生用情報は、アニメーションデータの再生の開始条件や再生の終了条件を表す基本情報を含む。また、図12を参照して上述した属性M4の期間のような特定の期間が設定されている場合、再生用情報は、特定の期間の長さや開始タイミング等を表す情報を含んでよい。また、再生用情報は、同期再生用の情報を含んでもよい。さらに、再生用情報は、ユーザの個性を表すため、所定スキルに基づく動作にユーザの個性を反映するための個性情報を含んでよい。 The playback information includes basic information representing playback start conditions and playback end conditions of animation data. Further, when a specific period is set, such as the period of attribute M4 described above with reference to FIG. 12, the reproduction information may include information representing the length, start timing, etc. of the specific period. Furthermore, the reproduction information may include information for synchronous reproduction. Furthermore, in order to represent the user's individuality, the reproduction information may include personality information for reflecting the user's individuality in actions based on predetermined skills.

ユーザ情報記憶部144には、各ユーザに関する情報が記憶される。各ユーザに関する情報には、ユーザが所有するオブジェクト情報も記憶される。各ユーザに関する情報は、例えばユーザ登録時に生成されてよく、その後、適宜、更新等されてよい。例えば、図18に示す例では、ユーザ情報記憶部144には、ユーザIDごとに、ユーザ名、アバターID、所有スキル情報、会話情報、活動情報、フレンド情報、及び好み情報の各項目が対応付けられている。 The user information storage unit 144 stores information regarding each user. Information regarding each user also stores object information owned by the user. Information regarding each user may be generated, for example, at the time of user registration, and may be updated as appropriate thereafter. For example, in the example shown in FIG. 18, the user information storage unit 144 stores each item of user name, avatar ID, possessed skill information, conversation information, activity information, friend information, and preference information in correspondence for each user ID. It is being

ユーザIDは、ユーザ登録時に自動的に生成されるIDである。 The user ID is an ID automatically generated at the time of user registration.

ユーザ名は、各ユーザが自身で登録した名前であり、任意である。 The user name is a name registered by each user and is arbitrary.

アバターIDは、ユーザが利用するアバターを表すIDである。アバターIDは、一のユーザに対して複数のものが記憶されてもよい。アバターIDには、対応するアバターを描画するためのアバター描画情報(図19参照)が対応付けられてよい。なお、一のアバターIDに対応付けられるアバター描画情報は、対応するユーザからの入力等に基づいて追加や編集等が可能であってよい。 The avatar ID is an ID representing the avatar used by the user. A plurality of avatar IDs may be stored for one user. The avatar ID may be associated with avatar drawing information (see FIG. 19) for drawing the corresponding avatar. Note that the avatar drawing information associated with one avatar ID may be able to be added, edited, etc. based on input from the corresponding user.

所有スキル情報は、対応するアバターに対応付けられている1つ以上の所定スキルを表す。所有スキル情報は、アバターが新たな所定スキルを取得したり、アバターが所定スキルを失ったりした場合に、更新されてよい。 Possessed skill information represents one or more predetermined skills associated with the corresponding avatar. Possessed skill information may be updated when the avatar acquires a new predetermined skill or loses a predetermined skill.

会話情報は、対応するアバターが仮想空間内において発話した際の発話内容に関する情報を表す。会話情報は、テキスト化されたデータであってよい。また、会話情報は、どの言語を話すかを表す情報(例えばロケールID)を含んでもよい。また、会話情報は、一人称の呼び方、言葉遣い、方言等に関する情報を含んでもよい。 Conversation information represents information regarding the content of utterances made by the corresponding avatar in the virtual space. The conversation information may be data converted into text. The conversation information may also include information indicating which language is spoken (for example, locale ID). Further, the conversation information may include information regarding first-person address, wording, dialect, and the like.

活動情報は、仮想空間における各種活動履歴を表す情報を含む。各種活動は、イベント参加及びイベント主催等のような特別な活動のみならず、仮想空間へのアクセスや仮想空間内の滞在時間等のような、通常的な活動をも表す情報を含んでよい。なお、活動情報は、所定スキルの取得条件(すなわち所定取得条件)の成否の判定に利用されてもよい。 The activity information includes information representing various activity histories in the virtual space. The various activities may include information representing not only special activities such as event participation and event hosting, but also regular activities such as access to a virtual space, time spent in the virtual space, and the like. Note that the activity information may be used to determine whether a predetermined skill acquisition condition (that is, a predetermined acquisition condition) is met.

フレンド情報は、フレンド関係にあるユーザを特定可能な情報(例えばユーザID)であってよい。フレンド情報は、ユーザ間の交流や交友の有無や度合いを表す情報を含んでよい。なお、フレンド情報は、フォロー、フォロワー、相互フォロワー(互いにフォローし合っている状態)の情報であってもよい。 The friend information may be information (for example, a user ID) that can identify a user in a friend relationship. Friend information may include information indicating the presence or absence and degree of interaction and friendship between users. Note that the friend information may be information on follows, followers, and mutual followers (a state in which they follow each other).

好み情報は、対応するユーザの嗜好を表す。好み情報は、任意であるが、ユーザの好む言語設定や、好むキーワードを含んでよい。また、ユーザがあらかじめ自分の好きなことや嫌いなこと等を設定することが可能であってよく、この場合、好み情報は、かかる設定内容を含んでよい。また、好み情報は、ユーザプロフィール情報を含んでよい。好み情報は、端末装置20上で生成されるユーザインタフェースを介して選択されて、JSON(JavaScript Object Notation)リクエスト等でサーバ装置10に提供されてもよい。また、好み情報は、会話情報や行動履歴等に基づいて自動的に抽出されてもよい。ここで、ユーザ情報記憶部144内のデータは、上述したような、所定スキルに基づく動作にユーザの個性を反映する際に利用されてもよい。例えば、会話情報は、ユーザの個性を表すため、所定スキルに基づく動作にユーザの個性を反映するための個性情報として利用されてもよい。好み情報等も同様である。個性情報は、例えば、前述したように、個性情報に応じた複数のアニメーションデータを準備するために利用されてもよいし、図11のように、個性情報に応じた複数の関数を準備するために利用されてもよい。 Preference information represents the preferences of the corresponding user. The preference information is optional, but may include the user's preferred language settings and preferred keywords. Further, it may be possible for the user to set things he/she likes or dislikes in advance, and in this case, the preference information may include such settings. Preference information may also include user profile information. The preference information may be selected via a user interface generated on the terminal device 20 and provided to the server device 10 as a JSON (JavaScript Object Notation) request or the like. Further, preference information may be automatically extracted based on conversation information, action history, or the like. Here, the data in the user information storage unit 144 may be used to reflect the user's individuality in actions based on predetermined skills, as described above. For example, since the conversation information represents the user's personality, it may be used as personality information to reflect the user's personality in actions based on predetermined skills. The same applies to preference information and the like. Personality information may be used, for example, as described above, to prepare multiple animation data according to personality information, or as shown in FIG. 11, to prepare multiple functions according to personality information. may be used for.

アバター情報記憶部146には、各ユーザのアバターを描画するためのアバター描画情報が記憶される。図19に示す例では、アバター描画情報は、各アバターIDに、顔パーツID、髪型パーツID、服装パーツID等が対応付けられる。顔パーツID、髪型パーツID、服装パーツID等の容姿に係るパーツ情報は、アバターを特徴付けるパラメータであり、各ユーザにより選択されてよい。アバター描画情報の全部または一部は、ユーザIDに関連付けられて記憶されており、その中から選択して各アバターに対応付けることができる。その際、ユーザIDに関連付けられているオブジェクト情報も、各アバターに対応付けられる(装着される)。例えば、アバターに係る顔パーツID、髪型パーツID、服装パーツID等の容姿に係る情報は、複数種類用意される。また、顔パーツIDについては、顔の形、目、口、鼻等の各種類にそれぞれパーツIDが用意され、顔パーツIDに係る情報は、当該顔を構成する各パーツのIDの組み合わせで管理されてもよい。この場合、各アバターIDに紐付けられた容姿に係る各IDに基づいて、サーバ装置10のみならず端末装置20側においても各アバターを描画することが可能となる。 The avatar information storage unit 146 stores avatar drawing information for drawing each user's avatar. In the example shown in FIG. 19, in the avatar drawing information, each avatar ID is associated with a face part ID, a hairstyle part ID, a clothing part ID, and the like. Appearance-related part information such as face part ID, hairstyle part ID, and clothing part ID are parameters that characterize the avatar, and may be selected by each user. All or part of the avatar drawing information is stored in association with the user ID, and can be selected from among them and associated with each avatar. At that time, object information associated with the user ID is also associated with (attached to) each avatar. For example, a plurality of types of appearance information such as face part ID, hairstyle part ID, clothing part ID, etc. related to the avatar are prepared. Regarding facial part IDs, a part ID is prepared for each type of face, such as face shape, eyes, mouth, nose, etc., and information related to facial part IDs is managed by combining the IDs of each part that makes up the face. may be done. In this case, each avatar can be drawn not only on the server device 10 but also on the terminal device 20 side based on each ID related to appearance linked to each avatar ID.

ここで、アバター情報記憶部146内のデータは、上述したような、所定スキルに基づく動作にユーザの個性を反映する際に利用されてもよい。例えば、アバターの服装や髪型等は、ユーザの個性を表すため、所定スキルに基づく動作にユーザの個性を反映するための個性情報として利用されてもよい。前述のとおり、アバターの服装などの個性情報は、ピアノの弾き方などのアバターの属性に対応付けられてよい。また、個性情報は、複数のアニメーションデータの準備や、複数の関数を準備するために利用されてもよい。 Here, the data in the avatar information storage unit 146 may be used to reflect the user's personality in actions based on predetermined skills, as described above. For example, the avatar's clothes, hairstyle, etc. may be used as personality information to reflect the user's personality in actions based on predetermined skills, since they represent the user's personality. As described above, personality information such as the avatar's clothing may be associated with the avatar's attributes such as how to play the piano. Furthermore, the personality information may be used to prepare multiple pieces of animation data or multiple functions.

また、アバター情報記憶部146には、図19には図示しないが、アバターごとに、関節モデルに係る各種パラメータ(各関節の位置や可動範囲等)が記憶されてもよい。 Further, although not shown in FIG. 19, the avatar information storage unit 146 may store various parameters related to the joint model (positions of each joint, range of motion, etc.) for each avatar.

ユーザ入力取得部150は、端末装置20の入力部24を介して入力される各ユーザによる各種ユーザ入力を取得する。各種入力は、上述したとおりであり、モーションキャプチャで取得されたトラッキング情報を含んでよい。 The user input acquisition unit 150 acquires various user inputs input by each user via the input unit 24 of the terminal device 20. The various inputs are as described above, and may include tracking information obtained by motion capture.

アバター処理部152は、所定の発動条件が満たされた場合に、アバターに所定スキルに基づく動作を行わせる。 The avatar processing unit 152 causes the avatar to perform an action based on a predetermined skill when a predetermined activation condition is met.

アバター処理部152は、アバター動作処理部1521と、描画処理部1522を含む。 The avatar processing section 152 includes an avatar motion processing section 1521 and a drawing processing section 1522.

アバター動作処理部1521は、アバターごとに、対応する各ユーザによる各種入力に基づいて、アバターの動作(位置の変化や各部位の動き等)を決定する。 The avatar motion processing unit 1521 determines the motion of the avatar (change in position, movement of each part, etc.) for each avatar based on various inputs from each corresponding user.

描画処理部1522は、アバターを含む仮想空間の画像であって、端末装置20で視聴用の画像(端末用画像)を生成する。描画処理部1522は、各アバターに対応付けられた仮想カメラに基づいて、各アバター用の画像(端末装置20用の画像)を生成する。本実施形態では、描画処理部1522は、所定スキルに基づく動作を行うアバター、又はアバター及び所定オブジェクトを描画する。この場合、描画処理部1522は、図17に示したスキル関連データ記憶部142内のスキル関連データに基づいて、低減された処理負荷で、所定スキルに基づく動作を描画できる。 The drawing processing unit 1522 generates an image for viewing on the terminal device 20 (terminal image), which is an image of a virtual space including an avatar. The drawing processing unit 1522 generates an image for each avatar (image for the terminal device 20) based on the virtual camera associated with each avatar. In this embodiment, the drawing processing unit 1522 draws an avatar that performs an action based on a predetermined skill, or an avatar and a predetermined object. In this case, the drawing processing unit 1522 can draw the action based on the predetermined skill with a reduced processing load based on the skill-related data in the skill-related data storage unit 142 shown in FIG.

発動条件判定部154は、一のアバターに所定スキルが対応付けられている場合に、所定の発動条件の成否を判定する。所定の発動条件は、上述したとおりである。発動条件判定部154は、図17に示したスキル関連データ記憶部142内のスキル関連データにおける発動条件情報に基づいて、所定の発動条件の成否を判定してよい。 The activation condition determination unit 154 determines whether or not a predetermined activation condition is met when a predetermined skill is associated with one avatar. The predetermined activation conditions are as described above. The activation condition determining unit 154 may determine whether a predetermined activation condition is satisfied based on activation condition information in the skill-related data in the skill-related data storage unit 142 shown in FIG. 17.

視野変化処理部156は、一のアバターが所定スキルに基づく動作を行う場合に、当該一のアバターの位置情報に基づいて、当該一のアバターの周辺に位置する他のアバター(すなわち周辺アバター)の視野を自動的に変化させる。具体的には、視野変化処理部156は、周辺アバターに対応付けられている仮想カメラの撮像パラメータの各値を、当該周辺アバターの視野内に当該一のアバターが入るように変化させる。これにより、上述したように、所定スキルに基づく動作を行うアバターに、周辺アバターが気付きやすくなり、両者の交流等の促進を図ることができる。また、この際、視野変化処理部156は、所定スキルに基づく動作を行うアバターの視線を、リアクションを行う周辺アバターの位置情報に変化させてもよい。具体的には、視野変化処理部156は、所定スキルに基づく動作を行うアバターに対応付けられている仮想カメラの撮像パラメータの各値を、当該アバターの視野内に当該周辺アバターが入るように変化させてもよい。 When one avatar performs an action based on a predetermined skill, the visual field change processing unit 156 determines the position of other avatars located around the one avatar (i.e., surrounding avatars) based on the position information of the one avatar. Automatically change the field of view. Specifically, the visual field change processing unit 156 changes each value of the imaging parameter of the virtual camera associated with the peripheral avatar so that the one avatar falls within the visual field of the peripheral avatar. As a result, as described above, surrounding avatars can easily notice an avatar that performs an action based on a predetermined skill, and interaction between the two can be promoted. Further, at this time, the visual field change processing unit 156 may change the line of sight of the avatar that performs an action based on a predetermined skill to position information of surrounding avatars that perform a reaction. Specifically, the visual field change processing unit 156 changes each value of the imaging parameter of the virtual camera that is associated with the avatar that performs an action based on a predetermined skill so that the peripheral avatar comes within the visual field of the avatar. You may let them.

また、視野変化処理部156は、上述したように、一のアバターが行う所定スキルに基づく動作に対して、周辺アバターの一部がリアクション(例えば拍手や手を振るなどのリアクション)を行った場合に、所定スキルに基づく動作を行うアバターの視野を変化させてもよい。すなわち、所定スキルに基づく動作を行うアバターの視野内にリアクションを行う周辺アバターが入るように、所定スキルに基づく動作を行うアバターの視野を変化させてもよい。なお、リアクションが上述した自動リアクションの場合、自動リアクションを行う周辺アバターの視野自体は、変化されなくてよい。これにより、視野の自動的な変化に伴う周辺アバターに係るユーザの酔い(特にヘッドマウントディスプレイ装着時の“酔い”)の防止を図ることができる。例えば、周辺アバターBが、所定スキルに基づく動作を行うアバターAを見ずに例えば別の周辺アバターCと会話している場合、周辺アバターBは、アバターAから見ると、周辺アバターBが自動リアクションを行っているが、周辺アバターB自身は、別の周辺アバターCと会話しているままである。この場合、アバターAと周辺アバターBのそれぞれのユーザに係る端末用画像における周辺アバターBの動作は、異なることになる。 In addition, as described above, the visual field change processing unit 156 is configured to perform processing when some of the surrounding avatars react (for example, react by clapping or waving their hands) to an action based on a predetermined skill performed by one avatar. Additionally, the field of view of the avatar that performs actions based on predetermined skills may be changed. That is, the field of view of the avatar performing an action based on a predetermined skill may be changed so that surrounding avatars performing a reaction come within the field of view of the avatar performing an action based on the predetermined skill. Note that when the reaction is the automatic reaction described above, the field of view of the surrounding avatar that performs the automatic reaction does not need to be changed. Thereby, it is possible to prevent the user from becoming motion sickness (particularly "sickness" when wearing a head-mounted display) related to the surrounding avatars due to automatic changes in the field of view. For example, if surrounding avatar B is talking with another surrounding avatar C without looking at avatar A that performs an action based on a predetermined skill, surrounding avatar B will automatically react when seen from avatar A. However, the peripheral avatar B itself is still conversing with another peripheral avatar C. In this case, the actions of the surrounding avatar B in the terminal images related to the respective users of the avatar A and the surrounding avatar B will be different.

また、視野変化処理部156は、上述したように、一のアバターが行う所定スキルに基づく動作に対して、周辺アバターの一部がリアクション(例えば拍手や手を振るなどのリアクション)を行った場合に、当該リアクションを行う周辺アバターの周辺に位置する他のアバター(更なる周辺アバター)の視野を変化させてもよい。すなわち、更なる周辺アバターの視野内にリアクションを行う周辺アバターが入るように、更なる周辺アバターの視野を変化させてもよい。この場合、更なる周辺アバターは、所定スキルに基づく動作を行うアバターに対する周辺アバターの一部であってもよいし、異なるアバターを含んでもよい。 In addition, as described above, the visual field change processing unit 156 is configured to perform processing when some of the surrounding avatars react (for example, react by clapping or waving their hands) to an action based on a predetermined skill performed by one avatar. Additionally, the field of view of other avatars (further peripheral avatars) located around the peripheral avatar making the reaction may be changed. That is, the field of view of the further peripheral avatar may be changed so that the peripheral avatar that performs the reaction is included in the field of view of the further peripheral avatar. In this case, the additional surrounding avatars may be part of the surrounding avatars for the avatar that performs an action based on a predetermined skill, or may include different avatars.

なお、上述したサーバ装置10及び端末装置20間の機能の分担は、あくまで一例として、サーバレンダリングの場合を述べたものであり、上述したように、多様に変更が可能である。すなわち、サーバ装置10の機能の一部又は全部は、適宜、端末装置20により実現されてもよい。サーバレンダリングでは、サーバ装置10のサーバ制御部13(アバター処理部152)で描画した動画を端末装置20に送信し、端末装置20の表示部23に動画を表示させる、すなわち、端末装置20から操作情報を収集して、映像をサーバ装置10で生成して、各端末装置20にブロードキャストする(最初から映像化されている)ことになるが、このほかにも、クライアントレンダリング、ブラウザレンダリングでもよく、それぞれの場合は、次のとおりとなる。 Note that the division of functions between the server device 10 and the terminal device 20 described above is for server rendering only as an example, and can be variously changed as described above. That is, some or all of the functions of the server device 10 may be realized by the terminal device 20 as appropriate. In server rendering, a video drawn by the server control unit 13 (avatar processing unit 152) of the server device 10 is transmitted to the terminal device 20, and the video is displayed on the display unit 23 of the terminal device 20, that is, an operation is performed from the terminal device 20. Information is collected, a video is generated by the server device 10, and is broadcast to each terminal device 20 (it is visualized from the beginning), but in addition to this, client rendering, browser rendering, In each case, the results are as follows.

まず、クライアントレンダリングの場合には、端末装置20は、あらかじめアバターオブジェクト等の画像や描画用プログラムをサーバ装置10から受信して保持しておく。端末装置20は、サーバ装置10から、アバターの識別情報やモーションのデータ、音声データを受信する。端末装置20は、受信した識別情報やモーションデータに応じて、既に保持しているアバター等の画像を呼び出して、動画をレンダリングする、すなわち、動画を生成して表示する。 First, in the case of client rendering, the terminal device 20 receives and holds images such as avatar objects and drawing programs from the server device 10 in advance. The terminal device 20 receives avatar identification information, motion data, and audio data from the server device 10 . The terminal device 20 calls an already held image such as an avatar according to the received identification information and motion data, and renders a moving image, that is, generates and displays a moving image.

次に、ブラウザレンダリングの場合には、最初に、HTML文書をダウンロードし、HTML文書に記載のサーバ装置20に画像やブラウザ上で動くプログラム(Javascript)等の必要なものをダウンロードし、サーバ装置10から各端末の処理のデータを受信し、ブラウザ側のプログラム(Javascript)を用いて描画する。言語がHTMLなだけでアプリによるクライアントレンダリングにも似ているが、アプリはアバター等の画像データを一度ダウンロードすればアプリ内に残しておけるが、ブラウザはRAMに格納し、閉じると端末装置20側には何も残らない点が異なる。CookieでURLだけとっておけるブラウザは、その都度、アバターの画像等をダウンロードしなければならない。どこから、つまり、どこのサーバからそのアバターをダウンロードするかは、HTML文書に記述されている。 Next, in the case of browser rendering, first download an HTML document, download necessary items such as images and a program (JavaScript) that runs on the browser to the server device 20 described in the HTML document, and The processing data of each terminal is received from the computer and drawn using a browser-side program (JavaScript). Although the language is HTML, it is similar to client rendering by an app, but once you download image data such as avatars, you can leave it in the app, but the browser stores it in RAM, and when you close it, it is saved on the terminal device 20 side. The difference is that nothing remains. Browsers that can save only URLs using cookies must download avatar images and the like each time. Where to download the avatar from, that is, from which server, is described in the HTML document.

次に、図20以降を参照して、上述した所定スキルに基づくアバターの動作に関連した仮想現実生成システム1の動作例について説明する。 Next, with reference to FIG. 20 and subsequent figures, an example of the operation of the virtual reality generation system 1 related to the operation of the avatar based on the above-mentioned predetermined skill will be described.

図20は、上述した所定スキルに基づくアバターの動作に関連した仮想現実生成システム1の動作例を概略的に示すタイミングチャートである。 FIG. 20 is a timing chart schematically showing an example of the operation of the virtual reality generation system 1 related to the avatar's movement based on the above-mentioned predetermined skill.

図20は、上述した所定スキルに基づくアバターの動作に関連してサーバ装置10により実行される処理の一例を示す概略的なフローチャートである。図20に示す処理は、特定の一のアバター(以下、「対象アバター」とも称する)に関する処理であり、所定周期ごとに繰り返し実行されてよい。図20に示す処理は、仮想空間内のアバターごとに並列的に実行されてよい。以下では、前提として、対象アバターには、1つ以上の所定スキルが対応付けられているものとする。 FIG. 20 is a schematic flowchart showing an example of a process executed by the server device 10 in relation to the avatar's movement based on the above-mentioned predetermined skill. The process shown in FIG. 20 is a process related to a specific avatar (hereinafter also referred to as "target avatar"), and may be repeatedly executed at predetermined intervals. The process shown in FIG. 20 may be executed in parallel for each avatar in the virtual space. In the following, it is assumed that one or more predetermined skills are associated with the target avatar.

ステップS200では、サーバ装置10は、対象アバターに対応するユーザからの今回周期のユーザ入力を取得する。 In step S200, the server device 10 obtains the current cycle's user input from the user corresponding to the target avatar.

ステップS201では、サーバ装置10は、アニメーション再生フラグF1が“0”であるか否かを判定する。アニメーション再生フラグF1が“1”である状態は、上述した所定スキルに基づくアバターの動作に関連してアニメーションデータが再生されている状態を表し、アニメーション再生フラグF1が“0”である状態は、それ以外の状態を表す。判定結果が“YES”の場合、ステップS202に進み、それ以外の場合は、ステップS214に進む。 In step S201, the server device 10 determines whether the animation playback flag F1 is "0". A state in which the animation playback flag F1 is "1" represents a state in which animation data is being played in relation to the avatar's movement based on the above-mentioned predetermined skill, and a state in which the animation playback flag F1 is "0" is Represents other states. If the determination result is "YES", the process advances to step S202; otherwise, the process advances to step S214.

ステップS202では、サーバ装置10は、対象アバターに対応付けられている1つ以上の所定スキルに関する発動条件情報を抽出する。 In step S202, the server device 10 extracts activation condition information regarding one or more predetermined skills associated with the target avatar.

ステップS204では、サーバ装置10は、対象アバターの周辺に配置されている各オブジェクトに関するオブジェクト情報を抽出する。この場合、オブジェクト情報の抽出対象のオブジェクトは、ステップS202で抽出した発動条件情報に関連するオブジェクトのみであってよい。 In step S204, the server device 10 extracts object information regarding each object placed around the target avatar. In this case, the object whose object information is to be extracted may be only the object related to the activation condition information extracted in step S202.

ステップS206では、サーバ装置10は、ステップS202で得られた発動条件情報と、ステップS204で得られたオブジェクト情報とに基づいて、対象アバターに対応付けられている1つ以上の所定スキルに係る所定の発動条件が成立したか否かを判定する。判定結果が“YES”の場合、ステップS208に進み、それ以外の場合は、ステップS212に進む。 In step S206, the server device 10 determines a predetermined skill related to one or more predetermined skills associated with the target avatar based on the activation condition information obtained in step S202 and the object information obtained in step S204. Determine whether the activation conditions are met. If the determination result is "YES", the process advances to step S208; otherwise, the process advances to step S212.

ステップS208では、サーバ装置10は、アニメーション再生フラグF1を“1”にセットする。 In step S208, the server device 10 sets the animation playback flag F1 to "1".

ステップS210では、サーバ装置10は、所定の発動条件が成立した所定スキル(以下、「対象の所定スキル」とも称する)に関するアニメーションデータ及び再生用情報(図17参照)をセットする。 In step S210, the server device 10 sets animation data and reproduction information (see FIG. 17) regarding a predetermined skill (hereinafter also referred to as "target predetermined skill") for which a predetermined activation condition is satisfied.

ステップS212では、サーバ装置10は、ユーザによる各種入力に基づいて、対象アバターに通常動作(例えば走る、歩く、飛ぶ等)を行わせる。なお、なんらユーザ入力が取得されない場合(すなわちユーザがなんら入力を行っていない場合)、対象アバターが所定の静止状態で維持されてよい。 In step S212, the server device 10 causes the target avatar to perform normal actions (for example, running, walking, jumping, etc.) based on various inputs by the user. Note that when no user input is obtained (that is, when the user has not made any input), the target avatar may be maintained in a predetermined stationary state.

ステップS214では、サーバ装置10は、再生中にアニメーションデータの再生の終了条件が満たされたか否かを判定する。再生の終了条件は、アニメーションデータの終了時点で満たされてもよいし、アニメーションデータの終了時点までに所定のユーザ入力(終了指示)等に基づいて満たされてもよい。判定結果が“NO”の場合、ステップS216に進み、それ以外の場合は、ステップS218に進む。 In step S214, the server device 10 determines whether a condition for ending the reproduction of the animation data is satisfied during the reproduction. The playback end condition may be satisfied at the end of the animation data, or may be satisfied based on a predetermined user input (end instruction) or the like before the end of the animation data. If the determination result is "NO", the process advances to step S216; otherwise, the process advances to step S218.

ステップS216では、サーバ装置10は、対象の所定スキルに基づく動作を行わせる。 In step S216, the server device 10 causes the target to perform an operation based on a predetermined skill.

ステップS218では、サーバ装置10は、前回の処理周期までステップS216で実行していた対象の所定スキルに基づく動作を終了する。 In step S218, the server device 10 ends the operation based on the target predetermined skill that was being executed in step S216 until the previous processing cycle.

ステップS220では、サーバ装置10は、アニメーション再生フラグF1を“0”にリセットする。 In step S220, the server device 10 resets the animation playback flag F1 to "0".

図21は、図20に示す処理に関連して実行される対象アバターに関する描画処理の一例を示す概略フローチャートである。 FIG. 21 is a schematic flowchart showing an example of a drawing process regarding a target avatar that is executed in connection with the process shown in FIG. 20.

ステップS230では、サーバ装置10は、アニメーション再生フラグF1が“1”であるか否かを判定する。判定結果が“YES”の場合、ステップS231に進み、それ以外の場合は、ステップS235に進む。 In step S230, the server device 10 determines whether the animation playback flag F1 is "1". If the determination result is "YES", the process advances to step S231; otherwise, the process advances to step S235.

ステップS231では、サーバ装置10は、アニメーション再生フラグF1が“1”になった直後の所定時間内であるか否かを判定する。すなわち、対象の所定スキルに基づく動作開始からの経過時間が所定時間内であるか否かを判定する。サーバ装置10は、所定時間は、対象の所定スキルに基づく動作を周辺アバターに気付かせるための時間であり、固定値であってもよいし、可変値であってもよい。判定結果が“YES”の場合、ステップS232に進み、それ以外の場合は、ステップS233に進む。 In step S231, the server device 10 determines whether or not it is within a predetermined time immediately after the animation playback flag F1 becomes "1". That is, it is determined whether the elapsed time from the start of the movement based on the target's predetermined skill is within a predetermined time. In the server device 10, the predetermined time is a time for making surrounding avatars aware of the action based on the target's predetermined skill, and may be a fixed value or a variable value. If the determination result is "YES", the process advances to step S232; otherwise, the process advances to step S233.

ステップS232では、サーバ装置10は、周辺アバターに係る視線を対象アバターに強制的に(かつ一時的に)向けさせる。すなわち、周辺アバターに係るユーザ用の仮想カメラの視野内に対象アバターが含まれるように、仮想カメラの視線を変更させる。なお、周辺アバターは、対象アバターを中心とした所定距離内のアバターを含んでよい。周辺アバターに係る視線は、一時的に(例えばステップS231の所定時間だけ)対象アバターに向けられてよい。なお、サーバ装置10は、周辺アバターのすべての視線を変更させる必要はなく、当該対象の所定スキルに基づく動作に対して関心がある可能性が高い周辺アバターの視線だけを変更させてもよい。この場合、周辺アバターのすべての視線を変更させる場合に比べて、処理負荷を効率的に低減できる。所定スキルに基づく動作に対して関心があるか否かは、周辺アバターのユーザ情報(例えば好み情報)に基づいて判定されてもよい。例えば、所定スキルに基づく動作が、サッカーボールのリフティングである場合、好み情報に基づきサッカーが好きな周辺アバターが抽出され、当該抽出された周辺アバターの視線だけが変更されてもよい。 In step S232, the server device 10 forcibly (and temporarily) directs the lines of sight of surrounding avatars toward the target avatar. That is, the line of sight of the virtual camera is changed so that the target avatar is included within the field of view of the virtual camera for the user related to the surrounding avatars. Note that the surrounding avatars may include avatars within a predetermined distance from the target avatar. The line of sight of the surrounding avatars may be temporarily directed toward the target avatar (for example, only for a predetermined time in step S231). Note that the server device 10 does not need to change the line of sight of all surrounding avatars, and may change only the line of sight of surrounding avatars that are likely to be interested in the action based on the predetermined skill of the target. In this case, the processing load can be more efficiently reduced than in the case where the line of sight of all surrounding avatars is changed. Whether or not the user is interested in an action based on a predetermined skill may be determined based on user information (for example, preference information) of surrounding avatars. For example, when the action based on the predetermined skill is lifting a soccer ball, surrounding avatars who like soccer may be extracted based on the preference information, and only the line of sight of the extracted surrounding avatars may be changed.

ステップS233では、サーバ装置10は、周辺アバターに係るユーザ用の仮想カメラのうち、対象アバターが視野内に入る仮想カメラが存在するか否かを判定する。すなわち、対象アバターを視ている周辺アバターが存在するか否かを判定する。判定結果が“YES”の場合、ステップS234に進み、それ以外の場合は、ステップS235に進む。 In step S233, the server device 10 determines whether there is a virtual camera that the target avatar can see within its field of view, among the virtual cameras for users related to surrounding avatars. That is, it is determined whether there are any nearby avatars viewing the target avatar. If the determination result is "YES", the process advances to step S234; otherwise, the process advances to step S235.

ステップS234では、サーバ装置10は、ステップS210(図20参照)でセットしたアニメーションデータ及び再生用情報に基づいて、対象アバターに係るアニメーションデータの再生処理(以下、単に「アニメーション再生処理」とも称する)を実行する。アニメーション再生処理の具体例は、図22を参照して後述する。本実施形態では、ステップS234において、対象アバター、または対象アバター及び所定オブジェクトを描画する。 In step S234, the server device 10 performs a process (hereinafter also simply referred to as "animation playback process") of animation data related to the target avatar based on the animation data and playback information set in step S210 (see FIG. 20). Execute. A specific example of the animation playback process will be described later with reference to FIG. 22. In this embodiment, in step S234, the target avatar or the target avatar and the predetermined object are drawn.

ステップS235では、サーバ装置10は、通常の描画処理を実行する。なお、この際、アニメーション再生フラグF1が“0”である場合に、周辺アバターに係るユーザ用の仮想カメラの視野内に、対象アバターが存在する場合は、ステップS212(図20参照)に係る通常動作中の対象アバターが描画されることになる。 In step S235, the server device 10 executes normal drawing processing. At this time, if the animation playback flag F1 is "0" and the target avatar exists within the field of view of the user's virtual camera related to the surrounding avatars, the normal processing in step S212 (see FIG. 20) is performed. The target avatar in action will be drawn.

なお、図21に示す処理のうち、対象アバターに関する描画処理の一部については、変更されてもよい。例えば、所定スキルに基づく動作開始からの所定時間にかかわらず周辺アバターに係る視点を対象アバターに向かせたい場合には、ステップS231やステップ233は、省略されてもよい。その場合には、図20のフローチャートは、ステップS230→ステップS232→ステップS234となる。また、ステップS231やステップ233が省略されてもされなくても、ステップS232とステップS234は、同時にまたは並行して行われてもよい。さらには、周辺アバターに係る視点を対象アバターに向かせない場合は、ステップS231,ステップS233に加え、ステップS232も省略されてもよい。 Note that among the processes shown in FIG. 21, a part of the drawing process regarding the target avatar may be changed. For example, if it is desired to direct the viewpoints of surrounding avatars toward the target avatar regardless of the predetermined time from the start of the action based on the predetermined skill, step S231 and step 233 may be omitted. In that case, the flowchart of FIG. 20 changes from step S230 to step S232 to step S234. Further, even if step S231 and step 233 are omitted or not, step S232 and step S234 may be performed simultaneously or in parallel. Furthermore, if the viewpoints of the surrounding avatars are not directed toward the target avatar, in addition to steps S231 and S233, step S232 may also be omitted.

図22は、アニメーション再生処理(図21のステップS234)の一例を示す概略フローチャートである。 FIG. 22 is a schematic flowchart showing an example of the animation playback process (step S234 in FIG. 21).

ステップS240では、サーバ装置10は、各スキルのアニメーションデータに基づいてアバターの描画処理を行う。 In step S240, the server device 10 performs avatar drawing processing based on the animation data of each skill.

描画処理は、前述のとおり、いくつかの方式が採用されてよいが、ステップS240でインバースキネマティクスを用いた場合には、まず、ステップS241において、サーバ装置10は、対象アバターの各部位のうちの、上述した所定部位についてアニメーションデータの再生に基づく描画処理を行う。次に、ステップS242では、サーバ装置10は、対象アバターの各部位のうちの、所定部位以外の各部位について、所定部位の位置や向きを基準としたインバースキネマティクスに基づいて、描画処理を行う。 As described above, several methods may be adopted for the drawing process, but when inverse kinematics is used in step S240, first, in step S241, the server device 10 A drawing process is performed on the above-mentioned predetermined portion based on reproduction of animation data. Next, in step S242, the server device 10 performs a drawing process for each part of the target avatar other than the predetermined part based on inverse kinematics based on the position and orientation of the predetermined part. .

ステップS244では、サーバ装置10は、対象アバターに係るユーザ入力のうちの、モーションキャプチャにより取得されたトラッキング情報に基づいて、対象アバターの他の部位(例えば顔の表情等)について、特性を反映するための描画処理を行う。描画処理にあたっては、部位だけではなく、図12を用いて説明した期間に応じて、モーションキャプチャのトラッキング情報を使って描画してもよい。なお、特性を反映させない場合には、ステップS244は、省略されてもよい。 In step S244, the server device 10 reflects the characteristics of other parts of the target avatar (for example, facial expressions, etc.) based on the tracking information acquired by motion capture among the user inputs related to the target avatar. Performs drawing processing for. In the drawing process, the tracking information of motion capture may be used to draw not only the body part but also the period described using FIG. 12 . Note that if the characteristics are not reflected, step S244 may be omitted.

ステップS246では、サーバ装置10は、ステップS240からステップS244による描画処理結果を利用して、各仮想カメラからの視線に対応した各端末用画像(端末装置20での視聴用画像)を生成する。 In step S246, the server device 10 uses the drawing processing results from steps S240 to S244 to generate images for each terminal (images for viewing on the terminal device 20) corresponding to the line of sight from each virtual camera.

以上説明した各実施形態について、その特徴点または従来技術で開発されてきたモーションとの相違点を整理すると次のとおりである。
・環境や他のユーザ(フレンド)との関係に反応する要素を含んでいる点。
・配信者と視聴者のような非対称な関係において、視聴者の応援によって反応が変わる要素を含んでいる点。
・汎用の音楽でもMIDIファイルや音声信号処理、ビデオの録画からでも広く利用可能な要素を含んでいる点。
・ユーザ自身の個性でUGC化する要素を基に、演奏を収録した動画の扱い(音楽著作権の処理やモーションデータの差分補完や再利用)を明確にする可能性を含んでいる点。
・作成したUGCを再販する、人気になると視聴に応じてインセンティブが入る点。
・スキルオブジェクトの移転(具体的にはバーチャルトレーナーとしてコラボする)によって、特定の人気スキルを持ったユーザとのコミュニケーション利用が強化できる点。
・同様に対戦ゲームによるスキルの剥奪や協力ゲームによる複製などにより、既存のゲームとの整合もよい点。
The features of each of the embodiments described above or the differences from motions developed in the prior art are summarized as follows.
- Contains elements that react to the environment and relationships with other users (friends).
・In an asymmetrical relationship between broadcasters and viewers, there is an element in which the reaction changes depending on the support of the viewers.
・Contains elements that can be widely used in general-purpose music, such as MIDI files, audio signal processing, and video recording.
- It includes the possibility of clarifying the handling of videos containing performances (music copyright processing, differential complementation and reuse of motion data) based on the elements of UGC based on the user's own individuality.
- You can resell the UGC you create, and if it becomes popular, you will receive incentives depending on the number of views.
・By transferring skill objects (specifically, collaborating as a virtual trainer), communication usage with users with specific popular skills can be strengthened.
・Similarly, it is also good to be consistent with existing games by removing skills in competitive games and duplicating them in cooperative games.

以上、各実施形態について詳述したが、特定の実施形態に限定されるものではなく、特許請求の範囲に記載された範囲内において、種々の変形及び変更が可能である。また、前述した実施形態の構成要素の全部又は複数を組み合わせることも可能である。 Although each embodiment has been described in detail above, it is not limited to a specific embodiment, and various modifications and changes can be made within the scope of the claims. It is also possible to combine all or a plurality of the components of the embodiments described above.

例えば、上述した実施形態では、所定スキル、所定の発動条件、及び所定オブジェクトの3つの要素は、所定スキルに所定の発動条件が対応付けられ、かつ、所定オブジェクトに所定の発動条件が関連する関係である。従って、等価的には、共通の所定の発動条件を介して所定スキルに所定オブジェクトが対応付けられているということもできる。すなわち、所定スキルに所定オブジェクトが対応付けられ、かつ、所定オブジェクトに所定の発動条件が関連する関係であるということもできる。この場合、オブジェクト情報記憶部140に、オブジェクトIDに紐づけて、一又は複数のスキルIDが対応付けられて記憶されていてもよい。この場合、所定スキルが対応付けられているアバターに関して、特定の所定オブジェクトに関連する所定の発動条件が満たされる場合、特定の所定オブジェクトに対応付けられている所定スキルに基づく動作が実現されてよい。例えば、サッカーボール(所定オブジェクト)に、リフティングやシュート、ドリブル等の各種所定スキルが対応付けられている場合に、所定スキルとしてリフティングが対応付けられているアバターが、サッカーボールに対して所定距離内に位置すると、サッカーボールに関連する所定の発動条件が当該アバターに対して満たされることになる。従って、この場合、当該アバターは、リフティング(所定スキル)に基づく動作を行うことができる。また、所定スキルとしてリフティング及びシュートが対応付けられているアバターが、サッカーボールに対して所定距離内に位置すると、サッカーボールに関連する所定の発動条件が当該アバターに対して満たされることになる。従って、この場合、当該アバターは、リフティング又はシュートのうちの選択した方の所定スキルに基づく動作を行うことができる。 For example, in the embodiment described above, the three elements of the predetermined skill, the predetermined activation condition, and the predetermined object are the relationships in which the predetermined skill is associated with the predetermined activation condition, and the predetermined object is associated with the predetermined activation condition. It is. Therefore, equivalently, it can be said that a predetermined object is associated with a predetermined skill via a common predetermined activation condition. That is, it can also be said that a predetermined skill is associated with a predetermined object, and the predetermined object is associated with a predetermined activation condition. In this case, one or more skill IDs may be stored in the object information storage unit 140 in association with the object ID. In this case, when a predetermined activation condition related to a specific predetermined object is satisfied regarding the avatar to which the predetermined skill is associated, an action based on the predetermined skill associated with the specific predetermined object may be realized. . For example, if a soccer ball (a predetermined object) is associated with various predetermined skills such as lifting, shooting, and dribbling, an avatar to which lifting is associated as a predetermined skill is within a predetermined distance from the soccer ball. If the avatar is located at , the predetermined activation condition related to the soccer ball is satisfied for the avatar. Therefore, in this case, the avatar can perform an action based on lifting (predetermined skill). Further, when an avatar to which lifting and shooting are associated as predetermined skills is located within a predetermined distance from a soccer ball, a predetermined activation condition related to the soccer ball is satisfied for the avatar. Therefore, in this case, the avatar can perform an action based on the selected predetermined skill of lifting or shooting.

また、上記した実施形態に加え、コラボレーションによってスキルオブジェクトの複製や移転も実装可能である。例えば、サッカーのリフティングを行うアバターを近距離で観察し続ける、一定時間の会話を行う、ミニゲームをプレイする、協調プレイのゲームで一定のタスクを達成する、対戦プレイのゲームで相手に勝利する、といった行動により前述のスキルオブジェクトを合理的に複製したり、移転したり、剥奪したりすることができる。音楽イベントでのコンテスト(エアギターコンテストで優勝したものしか使えないスキル)、格闘ゲームの必殺技など、適用できる事例が多く設定できる。 In addition to the embodiments described above, it is also possible to implement duplication and transfer of skill objects through collaboration. For example, you can continue to observe an avatar lifting a soccer ball at close range, have a conversation for a certain amount of time, play a mini-game, accomplish a certain task in a cooperative play game, or defeat your opponent in a competitive play game. Through actions such as , the aforementioned skill objects can be rationally duplicated, transferred, or taken away. Many applicable examples can be set, such as contests at music events (skills that can only be used by those who win the air guitar contest) and special moves in fighting games.

1 仮想現実生成システム
3 ネットワーク
10 サーバ装置
11 サーバ通信部
12 サーバ記憶部
13 サーバ制御部
20、20A、20B 端末装置
21 端末通信部
22 端末記憶部
23 表示部
24 入力部
25 端末制御部
30A,30B スタジオユニット
140 オブジェクト情報記憶部
142 スキル関連データ記憶部
144 ユーザ情報記憶部
146 アバター情報記憶部
150 ユーザ入力取得部
152 アバター処理部
1521 アバター動作処理部
1522 描画処理部
154 発動条件判定部
156 視野変化処理部
1 Virtual reality generation system 3 Network 10 Server device 11 Server communication section 12 Server storage section 13 Server control section 20, 20A, 20B Terminal device 21 Terminal communication section 22 Terminal storage section 23 Display section 24 Input section 25 Terminal control section 30A, 30B Studio unit 140 Object information storage section 142 Skill-related data storage section 144 User information storage section 146 Avatar information storage section 150 User input acquisition section 152 Avatar processing section 1521 Avatar movement processing section 1522 Drawing processing section 154 Activation condition determination section 156 Visual field change processing Department

Claims (21)

仮想空間においてアバターの動作を処理するアバター処理部と、
アバターの動作に関するスキルであって、アバターに対応付け可能な所定スキルを記憶する第1記憶部と、
前記所定スキルに対応付けられている発動条件を記憶する第2記憶部と、
一の対象アバターに前記所定スキルが対応付けられている場合に、前記発動条件の成否を判定する判定部とを備え、
前記発動条件は、前記仮想空間における所定オブジェクトと関連し、
前記アバター処理部は、前記発動条件が満たされた場合に、前記対象アバターに前記所定スキルに基づく動作を行わせる、情報処理システム。
an avatar processing unit that processes avatar movements in virtual space;
a first storage unit that stores predetermined skills related to the avatar's actions and that can be associated with the avatar;
a second storage unit that stores activation conditions associated with the predetermined skill;
a determination unit that determines whether the activation condition is met when the predetermined skill is associated with one target avatar;
The activation condition is related to a predetermined object in the virtual space,
The avatar processing unit is an information processing system that causes the target avatar to perform an action based on the predetermined skill when the activation condition is satisfied.
前記発動条件は、前記所定オブジェクトと前記対象アバターとの間の位置関係に関連する、請求項1に記載の情報処理システム。 The information processing system according to claim 1, wherein the activation condition is related to a positional relationship between the predetermined object and the target avatar. 前記発動条件は、前記所定オブジェクトと前記対象アバターの所定部位との間の位置関係が所定関係になった場合に満たされる、請求項2に記載の情報処理システム。 The information processing system according to claim 2, wherein the activation condition is satisfied when a positional relationship between the predetermined object and a predetermined part of the target avatar becomes a predetermined relationship. 前記所定オブジェクトは、アバターが装着可能な所定アイテムを含み、
前記発動条件は、前記対象アバターが前記所定アイテムを装着した場合に満たされる、請求項1に記載の情報処理システム。
The predetermined object includes a predetermined item that can be worn by the avatar,
The information processing system according to claim 1, wherein the activation condition is satisfied when the target avatar wears the predetermined item.
前記第1記憶部は、複数種類の前記所定スキルを記憶し、
前記第2記憶部は、一の前記所定スキルに1つ以上の前記発動条件が対応付けられる態様で、複数種類の前記発動条件を記憶する、請求項1に記載の情報処理システム。
The first storage unit stores a plurality of types of the predetermined skills,
The information processing system according to claim 1, wherein the second storage unit stores a plurality of types of the activation conditions in such a manner that one or more of the activation conditions are associated with one of the predetermined skills.
前記対象アバターに対応付けられているユーザ入力を取得する入力取得部を更に備え、
前記アバター処理部は、複数の前記所定スキルに対応付けられている一の共通の前記発動条件が満たされた場合に、前記一の共通の発動条件に係る複数の前記所定スキルのうちの、前記ユーザ入力に基づき選択した1つ以上の前記所定スキルに基づく動作を前記対象アバターに行わせる、請求項5に記載の情報処理システム。
further comprising an input acquisition unit that acquires a user input associated with the target avatar,
The avatar processing unit is configured to perform one of the plurality of predetermined skills related to the one common activation condition when one common activation condition associated with the plurality of predetermined skills is satisfied. The information processing system according to claim 5, wherein the target avatar is caused to perform an action based on one or more of the predetermined skills selected based on user input.
複数種類の前記発動条件のうちの少なくとも2つは、一の前記所定スキルに対応付けられ、かつ、前記発動条件のそれぞれに関連する前記所定オブジェクトが互いに異なる、請求項5に記載の情報処理システム。 The information processing system according to claim 5, wherein at least two of the plurality of types of the activation conditions are associated with one of the predetermined skills, and the predetermined objects associated with each of the activation conditions are different from each other. . 動作描画用の所定データを前記所定スキルに対応付けて記憶する第3記憶部を更に備え、
前記アバター処理部は、前記所定スキルに基づく動作を行う前記対象アバターを描画する描画処理部を含み、
前記描画処理部は、前記所定データに基づいて、前記所定オブジェクト及び前記対象アバターを描画する、請求項1に記載の情報処理システム。
further comprising a third storage unit that stores predetermined data for action drawing in association with the predetermined skill;
The avatar processing unit includes a drawing processing unit that draws the target avatar that performs an action based on the predetermined skill,
The information processing system according to claim 1, wherein the drawing processing unit draws the predetermined object and the target avatar based on the predetermined data.
前記対象アバターに対応付けられているユーザ入力を取得する入力取得部を更に備え、
前記描画処理部は、前記対象アバターの各可動部のうちの、一部である所定部位を前記所定データに基づいて描画するとともに、他の可動部のうちの少なくとも一部を、前記ユーザ入力に基づいて描画する、請求項8に記載の情報処理システム。
further comprising an input acquisition unit that acquires a user input associated with the target avatar,
The drawing processing unit draws a predetermined part of each movable part of the target avatar based on the predetermined data, and also draws at least a part of the other movable parts in response to the user input. The information processing system according to claim 8, wherein the information processing system performs drawing based on the information processing system.
前記描画処理部は、前記所定部位と前記所定オブジェクトとが連動する態様で、描画する、請求項9に記載の情報処理システム。 The information processing system according to claim 9, wherein the drawing processing unit draws the predetermined part and the predetermined object in an interlocking manner. 前記描画処理部は、前記対象アバターの各可動部のうちの、前記所定部位とは異なる部位を、前記所定部位の動きに連動する態様で描画する、請求項10に記載の情報処理システム。 The information processing system according to claim 10, wherein the drawing processing unit draws a part of each movable part of the target avatar that is different from the predetermined part in a manner linked to movement of the predetermined part. 前記描画処理部は、前記所定スキルに基づく動作中、少なくとも一部の所定期間、前記ユーザ入力に基づく前記所定部位の描画が可能となる、請求項9に記載の情報処理システム。 The information processing system according to claim 9, wherein the drawing processing unit is capable of drawing the predetermined region based on the user input for at least a part of the predetermined period during the operation based on the predetermined skill. アバターに対応付けられているユーザ又はアバター自身の個性に関連した個性情報を記憶する第4記憶部を更に備え、
前記描画処理部は、前記所定スキルに基づく動作中、前記所定データと前記対象アバターに係る前記個性情報とに基づいて、前記対象アバターを描画する、請求項8に記載の情報処理システム。
further comprising a fourth storage unit that stores personality information related to the personality of the user associated with the avatar or the avatar itself;
The information processing system according to claim 8, wherein the drawing processing unit draws the target avatar based on the predetermined data and the personality information related to the target avatar during an operation based on the predetermined skill.
前記所定データは、アニメーションデータを含む、請求項8から13のうちのいずれか1項に記載の情報処理システム。 The information processing system according to claim 8, wherein the predetermined data includes animation data. 前記所定データは、前記対象アバターを含む複数のアバター間で共用されるデータを含む、請求項8から13のうちのいずれか1項に記載の情報処理システム。 The information processing system according to any one of claims 8 to 13, wherein the predetermined data includes data shared among a plurality of avatars including the target avatar. 前記第1記憶部は、複数種類の前記所定スキルを記憶し、
前記第3記憶部は、一の前記所定スキルに1つ以上の前記所定データが対応付けられる態様で、複数種類の前記所定データを記憶する、請求項8に記載の情報処理システム。
The first storage unit stores a plurality of types of the predetermined skills,
The information processing system according to claim 8, wherein the third storage unit stores a plurality of types of the predetermined data in such a manner that one or more of the predetermined data are associated with one of the predetermined skills.
前記対象アバターが前記所定スキルに基づく動作を行う場合に、前記対象アバターの位置情報に基づいて、前記対象アバターの周辺に位置する他のアバターの視野を変化させる視野変化処理部を更に備える、請求項1に記載の情報処理システム。 The method further comprises a visual field change processing unit that changes the visual field of other avatars located around the target avatar based on position information of the target avatar when the target avatar performs an action based on the predetermined skill. The information processing system according to item 1. 前記視野変化処理部は、前記他のアバターの視野内に前記対象アバターが入るように、前記他のアバターの視野を変化させる、請求項17に記載の情報処理システム。 The information processing system according to claim 17, wherein the visual field change processing unit changes the visual field of the other avatar so that the target avatar is within the visual field of the other avatar. 前記対象アバターが行う前記所定スキルに基づく動作に関連した所定動作を、前記対象アバターの周辺に位置する他のアバターが行う場合に、前記対象アバターの視野に前記他のアバターが入るように、前記対象アバターの視野を変化させる視野変化処理部を更に備える、請求項1に記載の情報処理システム。 When another avatar located around the target avatar performs a predetermined action related to the action based on the predetermined skill performed by the target avatar, the other avatar enters the field of view of the target avatar. The information processing system according to claim 1, further comprising a visual field change processing unit that changes the visual field of the target avatar. コンピュータにより情報の読み取り可能な記憶媒体であって、
仮想空間においてアバターの動作を処理するアバター処理と、
判定処理とを、
コンピュータに実行させるプログラムが記憶され、
前記判定処理は、
仮想空間におけるアバターの動作に関する所定スキルが、対象アバターに対応付けられているか否かを判定し、
前記対象アバターに前記所定スキルが対応付けられている場合に、前記所定スキルに対応付けられている発動条件であって仮想空間における所定オブジェクトと関連する発動条件について、その成否を判定することを含み、
前記アバター処理は、
前記発動条件が満たされた場合に、前記対象アバターに前記所定スキルに基づく動作を行わせることを含む、コンピュータにより情報の読み取り可能な記憶媒体。
A computer-readable storage medium for storing information,
avatar processing that processes avatar movements in virtual space;
Judgment processing and
The program that the computer executes is stored,
The determination process is
Determining whether a predetermined skill regarding the behavior of the avatar in the virtual space is associated with the target avatar;
In the case where the predetermined skill is associated with the target avatar, determining the success or failure of an activation condition associated with the predetermined skill and associated with a predetermined object in the virtual space. ,
The avatar processing includes:
A computer-readable storage medium for storing information, the storage medium comprising causing the target avatar to perform an action based on the predetermined skill when the activation condition is satisfied.
仮想空間においてアバターの動作を処理するアバター処理を実行し、
判定処理を実行することを含み、
前記判定処理は、
仮想空間におけるアバターの動作に関する所定スキルが、対象アバターに対応付けられているか否かを判定し、
前記対象アバターに前記所定スキルが対応付けられている場合に、前記所定スキルに対応付けられている発動条件であって仮想空間における所定オブジェクトと関連する発動条件について、その成否を判定することを含み、
前記アバター処理は、
前記発動条件が満たされた場合に、前記対象アバターに前記所定スキルに基づく動作を行わせることを含む、コンピュータにより実行される情報処理方法。
Execute avatar processing to process avatar movements in virtual space,
including performing a determination process;
The determination process is
Determining whether a predetermined skill related to the avatar's movement in the virtual space is associated with the target avatar;
When the predetermined skill is associated with the target avatar, the method includes determining whether or not an activation condition associated with the predetermined skill and associated with a predetermined object in the virtual space is successful. ,
The avatar processing includes:
An information processing method executed by a computer, including causing the target avatar to perform an action based on the predetermined skill when the activation condition is satisfied.
JP2022200899A 2022-08-02 2022-12-16 Information processing system, information processing method, and storage medium Pending JP2024021028A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US18/216,615 US20240042323A1 (en) 2022-08-02 2023-06-30 Information processing system, method for processing information, and non-transitory computer-readable information storage medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US202263370118P 2022-08-02 2022-08-02
US63/370,118 2022-08-02

Publications (1)

Publication Number Publication Date
JP2024021028A true JP2024021028A (en) 2024-02-15

Family

ID=89854286

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022200899A Pending JP2024021028A (en) 2022-08-02 2022-12-16 Information processing system, information processing method, and storage medium

Country Status (1)

Country Link
JP (1) JP2024021028A (en)

Similar Documents

Publication Publication Date Title
Collins Playing with sound: a theory of interacting with sound and music in video games
JP6809830B2 (en) Programs and electronics
Tobin Tango and the Scandal of Homosocial Desire 1
JP7445798B2 (en) Game system, game provision method and program
JP7174800B2 (en) Game system, game providing method and program
Wirman On productivity and game fandom
Tanenbaum et al. Nonverbal Communication in Virtual Worlds
JP2018075260A (en) Game system and program
JP7355483B2 (en) Game systems and programs
JP6905826B2 (en) Programs, game machines, and server devices
US11478704B2 (en) In-game visualization of spectator feedback
CN114253393A (en) Information processing apparatus, terminal, method, and computer-readable recording medium
Molina Celebrity avatars: A technical approach to creating digital avatars for social marketing strategies
JP2024021028A (en) Information processing system, information processing method, and storage medium
US20240042323A1 (en) Information processing system, method for processing information, and non-transitory computer-readable information storage medium
JP7051993B2 (en) Programs and electronic devices
JP6752465B1 (en) Computer programs and game systems
JP7461108B2 (en) Information processing program, server, information processing system, and information processing device
Peña Pérez Negrón et al. Cutting-Edge Technology for Video Games
Nitsche et al. Moving digital puppets
JP7155227B2 (en) Program, electronic device and control method
LaPensée et al. Timetraveller™: first nations nonverbal communication in second life
US20220261874A1 (en) Non-transitory computer readable medium storing event provision program and event provision system
WO2022113329A1 (en) Method, computer-readable medium, computer system, and information processing device
van Rooij " I Don't Dance Now, I Make Money Moves": Female Representation in Contemporary Commercialized American Hip Hop Music Videos

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240305

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240426