JP7368770B1 - Information processing system, information processing device and program - Google Patents

Information processing system, information processing device and program Download PDF

Info

Publication number
JP7368770B1
JP7368770B1 JP2022066639A JP2022066639A JP7368770B1 JP 7368770 B1 JP7368770 B1 JP 7368770B1 JP 2022066639 A JP2022066639 A JP 2022066639A JP 2022066639 A JP2022066639 A JP 2022066639A JP 7368770 B1 JP7368770 B1 JP 7368770B1
Authority
JP
Japan
Prior art keywords
avatar
content
situation
user
game
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022066639A
Other languages
Japanese (ja)
Other versions
JP2023159900A (en
Inventor
敦史 丸山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Capcom Co Ltd
Original Assignee
Capcom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Capcom Co Ltd filed Critical Capcom Co Ltd
Priority to JP2022066639A priority Critical patent/JP7368770B1/en
Priority to JP2023149205A priority patent/JP2024016017A/en
Application granted granted Critical
Publication of JP7368770B1 publication Critical patent/JP7368770B1/en
Publication of JP2023159900A publication Critical patent/JP2023159900A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Information Transfer Between Computers (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】仮想空間においてアバターに対してコンテンツを提示する情報処理システム、情報処理装置及びプログラムを提供する。【解決手段】ゲームシステムシステム1において、情報処理装置2の制御部23は、ゲームシステムにログインしたゲーム装置3のユーザの指示に応じて、そのユーザがプレイするゲームに関するゲーム処理を実行するゲーム処理部と、ユーザに提示されるコンテンツを記憶するコンテンツ記憶部と、ユーザに対応するアバターに関する状況に応じて、そのユーザに対するコンテンツの提示を行うことを決定する提示決定部と、所定の時点におけるアバターの状況を特定する状況特定部と、アバターに関する履歴を蓄積する履歴蓄積部と、アバターが所定の時間帯に所定の行動をとることを予定することを定めた予定情報を取得する予定取得部と、提示決定部によって決定されたコンテンツをユーザに提示する提示部として機能する提示制御部と、を有する。【選択図】図1The present invention provides an information processing system, an information processing device, and a program that present content to an avatar in a virtual space. In a game system system 1, a control unit 23 of an information processing device 2 performs a game process that executes a game process related to a game played by the user in response to an instruction from a user of a game device 3 who has logged into the game system. a content storage unit that stores content to be presented to a user; a presentation determination unit that determines to present content to a user according to a situation regarding the avatar corresponding to the user; and an avatar at a predetermined time. a situation identification unit that identifies the situation of the avatar, a history accumulation unit that accumulates history regarding the avatar, and a schedule acquisition unit that acquires schedule information that specifies that the avatar is scheduled to take a predetermined action in a predetermined time period. , a presentation control section that functions as a presentation section that presents the content determined by the presentation determination section to the user. [Selection diagram] Figure 1

Description

本開示は、情報処理システム、情報処理装置およびプログラムに関する。 The present disclosure relates to an information processing system, an information processing device, and a program.

特許文献1には、仮想空間内のキャラクタに対するユーザの移動操作の入力履歴データと移動軌跡データに基づいて、広告等が表示された看板の表示位置および表示方向を変更して仮想空間内に表示する技術が開示されている。 Patent Document 1 discloses that the display position and display direction of a signboard displaying an advertisement etc. are changed and displayed in the virtual space based on input history data and movement trajectory data of a user's movement operation for a character in the virtual space. A technique for doing so has been disclosed.

特開2003-248844号公報JP2003-248844A

メタバースのような仮想空間の利用は今後さらに増えると考えられる。 The use of virtual spaces such as the metaverse is expected to increase further in the future.

本開示では上記事情に鑑み、仮想空間においてアバターに対してコンテンツを提示することとした。 In view of the above circumstances, in the present disclosure, content is presented to an avatar in a virtual space.

(1)本開示の一態様によれば、情報処理システムが提供される。この情報処理システムにおける表示ステップでは、ユーザに対応するアバターと、アバターに対応する視点から見た仮想空間とを表示させる。決定ステップでは、ユーザに対応するアバターに関する状況が提示条件を満たす場合に、ユーザに対するコンテンツの提示を行うことを決定する。状況は、所定の時点においてアバターが仮想空間で何をしようしている時間なのかによって特定される。提示ステップでは、仮想空間において、決定されたコンテンツを、状況の開始から終了までの期間の一部を少なくとも含んで提示する。 (1) According to one aspect of the present disclosure, an information processing system is provided. In the display step in this information processing system, an avatar corresponding to the user and a virtual space viewed from a viewpoint corresponding to the avatar are displayed. In the determining step, it is determined to present the content to the user when the situation regarding the avatar corresponding to the user satisfies the presentation condition. The situation is specified by what the avatar is doing in the virtual space at a given time. In the presentation step, the determined content is presented in the virtual space, including at least a part of the period from the start to the end of the situation.

このような態様によれば、仮想空間においてアバターに対してコンテンツを提示することができる。 According to this aspect, content can be presented to the avatar in the virtual space.

本実施形態に係るゲームシステム1のハードウェア構成を示すブロック図である。FIG. 1 is a block diagram showing the hardware configuration of a game system 1 according to the present embodiment. 各装置の制御部の機能構成を示す図である。FIG. 3 is a diagram showing the functional configuration of a control section of each device. 情報処理の流れを示すフローチャートである。3 is a flowchart showing the flow of information processing. 予定情報の一例である。This is an example of schedule information. 履歴蓄積部205に蓄積される行動履歴の一例である。This is an example of action history accumulated in the history accumulation unit 205. コンテンツテーブルの一例である。This is an example of a content table. 仮想空間を表す地図の一例である。This is an example of a map representing virtual space. 仮想空間において提示されるコンテンツの一例である。This is an example of content presented in virtual space. 仮想空間において提示されるコンテンツの一例である。This is an example of content presented in virtual space. 仮想空間において提示されるコンテンツの一例である。This is an example of content presented in virtual space. コンテンツの提示実績の一例である。This is an example of content presentation results. 仮想空間において提示されるコンテンツの一例である。This is an example of content presented in virtual space. 提示されたコンテンツの一例である。This is an example of presented content. 仮想空間において提示されるコンテンツの一例である。This is an example of content presented in virtual space. 仮想空間において提示されるコンテンツの一例である。This is an example of content presented in virtual space. 仮想空間において提示されるアバターの一例である。This is an example of an avatar presented in virtual space.

[実施形態]
以下、図面を用いて本開示の実施形態について説明する。以下に示す実施形態中で示した各種特徴事項は、互いに組み合わせ可能である。
[Embodiment]
Embodiments of the present disclosure will be described below with reference to the drawings. Various features shown in the embodiments described below can be combined with each other.

ところで、本実施形態に登場するソフトウェアを実現するためのプログラムは、コンピュータが読み取り可能な非一時的な記録媒体(Non-Transitory Computer-Readable Medium)として提供されてもよいし、外部のサーバからダウンロード可能に提供されてもよいし、外部のコンピュータで当該プログラムを起動させてクライアント端末でその機能を実現(いわゆるクラウドコンピューティング)するように提供されてもよい。 By the way, the program for implementing the software appearing in this embodiment may be provided as a non-transitory computer-readable recording medium, or may be downloaded from an external server. The program may be provided in a manner that allows the program to be started on an external computer and the function thereof is realized on the client terminal (so-called cloud computing).

また、本実施形態において「部」とは、例えば、広義の回路によって実施されるハードウェア資源と、これらのハードウェア資源によって具体的に実現されうるソフトウェアの情報処理とを合わせたものも含みうる。また、本実施形態においては様々な情報を取り扱うが、これら情報は、例えば電圧・電流を表す信号値の物理的な値、0または1で構成される2進数のビット集合体としての信号値の高低、または量子的な重ね合わせ(いわゆる量子ビット)によって表され、広義の回路上で通信・演算が実行されうる。 Furthermore, in this embodiment, the term "unit" may include, for example, a combination of hardware resources implemented by circuits in a broad sense and software information processing that can be concretely implemented by these hardware resources. . In addition, various types of information are handled in this embodiment, and these information include, for example, the physical value of a signal value representing voltage and current, and the signal value as a binary bit collection consisting of 0 or 1. It is expressed by high and low levels or quantum superposition (so-called quantum bits), and communication and calculations can be performed on circuits in a broad sense.

また、広義の回路とは、回路(Circuit)、回路類(Circuitry)、プロセッサ(Processor)、およびメモリ(Memory)等を少なくとも適当に組み合わせることによって実現される回路である。すなわち、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)、プログラマブル論理デバイス(例えば、単純プログラマブル論理デバイス(Simple Programmable Logic Device:SPLD)、複合プログラマブル論理デバイス(Complex Programmable Logic Device:CPLD)、およびフィールドプログラマブルゲートアレイ(Field Programmable Gate Array:FPGA))等を含むものである。 Further, a circuit in a broad sense is a circuit realized by at least appropriately combining a circuit, a circuit, a processor, a memory, and the like. That is, application specific integrated circuits (ASIC), programmable logic devices (for example, simple programmable logic devices (SPLD), complex programmable logic devices (COMPLEX), etc. Programmable Logic Device (CPLD), and field This includes a field programmable gate array (FPGA) and the like.

1.ゲームの説明
図1は、本実施形態に係るゲームシステム1のハードウェア構成を示すブロック図である。図1に示すゲームシステム1では、ゲーム管理装置2、複数のゲーム装置3が通信ネットワーク11を介して互いに通信可能に接続され、ゲーム装置3においてゲームが実行される。ゲームシステム1において接続される各装置は、いずれも情報処理装置であり、ゲームシステム1は、それらの情報処理装置を備える情報処理システムである。
1. Game Description FIG. 1 is a block diagram showing the hardware configuration of a game system 1 according to the present embodiment. In the game system 1 shown in FIG. 1, a game management device 2 and a plurality of game devices 3 are communicably connected to each other via a communication network 11, and a game is executed on the game devices 3. Each device connected in the game system 1 is an information processing device, and the game system 1 is an information processing system including these information processing devices.

本実施形態に係るゲームは、ゲームシステム1にて実行されるオンラインのゲームである。このゲームでは、ゲーム装置3のユーザは、1または複数のプレイヤキャラクタを仮想ゲーム空間で活動させたり、プレイヤキャラクタを、ノンプレイヤキャラクタ(NPC)である敵キャラクタと対戦させたりする。また、キャラクタは、オブジェクトの一例である。 The game according to this embodiment is an online game executed by the game system 1. In this game, the user of the game device 3 causes one or more player characters to act in a virtual game space, and causes the player character to compete against an enemy character that is a non-player character (NPC). Further, a character is an example of an object.

上記のようなゲームは、プレイステーション(登録商標)などの家庭用ゲーム機、ニンテンドースイッチ(登録商標)などの携帯用ゲーム機、もしくは、パーソナルコンピュータ、スマートフォン、タブレット端末などの電子機器であるゲーム装置3を用いて実行される。 The above games can be played on home game consoles such as PlayStation (registered trademark), portable game consoles such as Nintendo Switch (registered trademark), or game devices 3 that are electronic devices such as personal computers, smartphones, and tablet terminals. It is executed using

2.ゲームシステム1の概要
図1に示されるように、ゲームシステム1は、ゲーム管理装置2および複数のゲーム装置3にて構成される。ゲーム管理装置2は、ゲームプログラムおよびゲームデータを記憶しており、ゲーム装置3の(下記のアカウント情報ごとの)ゲームデータの管理を行う。ゲーム管理装置2は、例えばサーバにより構成される。複数のゲーム装置3それぞれは、互いに同じ構成を有する。なお、本実施形態において、システムとは、1つまたはそれ以上の装置または構成要素からなるものである。したがって、例えば後述のゲーム管理装置2やゲーム装置3単体であってもゲームシステム1の一例となりうる。
2. Overview of Game System 1 As shown in FIG. 1, the game system 1 includes a game management device 2 and a plurality of game devices 3. The game management device 2 stores game programs and game data, and manages the game data of the game device 3 (for each account information described below). The game management device 2 is configured by, for example, a server. Each of the plurality of game devices 3 has the same configuration. Note that in this embodiment, the system is composed of one or more devices or components. Therefore, for example, even a single game management device 2 or game device 3, which will be described later, can be an example of the game system 1.

ゲーム装置3は、ユーザの操作に基づいて所定のゲームを実行する。そのために、ゲーム装置3は、通信ネットワーク11を介して、ゲーム管理装置2からゲームプログラムおよびゲームデータを受信(具体的にはダウンロードおよびインストール)する。各ユーザには、ゲーム装置3に対応づけて、識別情報およびパスワードを含むアカウント情報が、ユーザごとに割り当てられている。このアカウント情報は、ログイン時、ゲーム装置3からゲーム管理装置2に送信され、ゲーム管理装置2におけるユーザ認証に利用される。 The game device 3 executes a predetermined game based on a user's operation. For this purpose, the game device 3 receives (specifically downloads and installs) the game program and game data from the game management device 2 via the communication network 11. Account information including identification information and a password is assigned to each user in association with the game device 3. This account information is transmitted from the game device 3 to the game management device 2 at the time of login, and is used for user authentication in the game management device 2.

ユーザ認証を経て、ゲーム管理装置2とゲーム装置3との相互通信が可能となる。ログイン後、ゲーム装置3は、ゲーム進行に必要なデータ(ゲーム進行状況に関するデータ)をゲーム管理装置2から受信すると、ユーザの操作に基づいてゲーム画像や音声をディスプレイ4aおよびスピーカ4bに出力しながら、ゲームを進行させる。 After user authentication, mutual communication between the game management device 2 and the game device 3 becomes possible. After logging in, the game device 3 receives data necessary for the game progress (data related to the game progress status) from the game management device 2, and then outputs game images and sounds to the display 4a and speaker 4b based on the user's operations. , advance the game.

2.1 ハードウェア構成
以下、図1を参照して、ゲームシステム1の各ハードウェア構成について説明する。
2.1 Hardware Configuration Hereinafter, each hardware configuration of the game system 1 will be explained with reference to FIG.

<ゲーム管理装置2>
図1に示されるように、ゲーム管理装置2は、通信部21、記憶部22および制御部23を有する。通信部21および記憶部22は、通信バス20を介して制御部23と電気的に接続されている。
<Game management device 2>
As shown in FIG. 1, the game management device 2 includes a communication section 21, a storage section 22, and a control section 23. The communication unit 21 and the storage unit 22 are electrically connected to the control unit 23 via the communication bus 20.

通信部21は、インターネットおよびLANなどの通信ネットワーク11を介して各ゲーム装置3と通信可能に接続される、いわゆるネットワークインターフェースである。ゲーム管理装置2が通信部21を介して受信する主な情報としては、ゲームプログラムのダウンロード要求情報、ユーザの操作に応じたガチャの抽選要求、クエスト実行要求、オートプレイの実行/終了の要求、アカウント情報、ゲームデータなどが挙げられる。ゲーム管理装置2が通信部21を介して送信する主な情報としては、ゲームプログラムをゲーム装置3が受信したことを確認するための情報、ガチャにて得られたゲーム媒体に関する情報などが挙げられる。 The communication unit 21 is a so-called network interface that is communicably connected to each game device 3 via the communication network 11 such as the Internet and a LAN. The main information that the game management device 2 receives via the communication unit 21 includes game program download request information, gacha lottery request in response to user operations, quest execution request, autoplay execution/termination request, Examples include account information and game data. The main information that the game management device 2 transmits via the communication unit 21 includes information for confirming that the game device 3 has received the game program, information regarding game media obtained through gacha, etc. .

記憶部22は、HDD(Hard Disk Drive)、RAM(Random Access Memory)、ROM(Read Only Memory)およびSSD(Solid State Drive)などで構成される。記憶部22には、本実施形態に係るゲームプログラムの一部を含む各種プログラムやゲームに関する各種データなどが記憶されている。 The storage unit 22 includes a HDD (Hard Disk Drive), a RAM (Random Access Memory), a ROM (Read Only Memory), an SSD (Solid State Drive), and the like. The storage unit 22 stores various programs including a part of the game program according to the present embodiment, various data related to games, and the like.

具体的には例えば、記憶部22は、ユーザDBや抽選リストなどを記憶している。ユーザDBには、ゲームをプレイするユーザの識別番号ごとに、ユーザ名、ユーザランク、ユーザが操作するプレイヤキャラクタに関するステータス等の情報、仮想ゲーム空間内にて使用可能な消費媒体の額、パラメータに関する情報などが、対応付けられて記憶されている。抽選リストは、一般にガチャと呼ばれる抽選処理に用いるものであって、選択対象となるゲーム媒体に関する情報を複数含む。抽選リストには、ゲーム媒体に関する情報(名称、能力パラメータ、レアリティ、レベルなど)と、抽選による選択割合とが、対応づけられている。また能力パラメータとは、例えば、ゲーム媒体がプレイヤキャラクタの場合、戦力、HP、攻撃力、防御力、賢さ、または速さなどを含む。 Specifically, for example, the storage unit 22 stores a user DB, a lottery list, and the like. The user DB contains information such as the user name, user rank, and status regarding the player character operated by the user, the amount of consumption media that can be used in the virtual game space, and parameters for each identification number of the user who plays the game. Information etc. are stored in association with each other. The lottery list is used for a lottery process generally called gacha, and includes a plurality of pieces of information regarding game media to be selected. In the lottery list, information regarding the game medium (name, ability parameters, rarity, level, etc.) is associated with selection ratios based on the lottery. Further, the ability parameters include, for example, when the game medium is a player character, military strength, HP, attack power, defense power, intelligence, or speed.

制御部23は、CPUおよび半導体メモリを含むマイクロコンピュータで構成され、自装置であるゲーム管理装置2の動作を制御する。特に、制御部23は、記憶部22に記憶された所定のプログラムを読み出すことによって、自装置であるゲーム管理装置2に係る種々の機能を実現する。すなわち、記憶部22に記憶されているソフトウェアによる情報処理が、ハードウェアの一例である制御部23によって具体的に実現されることで、後述の各機能部が実行されうる。なお、制御部23は単一であることに限定されず、機能ごとに複数の制御部23を有するように実施してもよい。またそれらの組合せであってもよい。 The control unit 23 is composed of a microcomputer including a CPU and a semiconductor memory, and controls the operation of the game management device 2, which is its own device. In particular, the control section 23 realizes various functions related to the game management device 2, which is its own device, by reading out a predetermined program stored in the storage section 22. That is, information processing by software stored in the storage unit 22 is specifically implemented by the control unit 23, which is an example of hardware, so that each functional unit described below can be executed. Note that the control section 23 is not limited to a single control section, and may be implemented so as to have a plurality of control sections 23 for each function. It may also be a combination thereof.

制御部23によって実行される情報処理として、例えば、課金の決済処理、ユーザアカウントの認証処理、ガチャの抽選選択処理などが挙げられる。課金の決済処理は、例えばゲーム中のパラメータを所定量回復するために必要な課金の要求に基づいて実行される。ユーザアカウントの認証処理は、例えばゲーム装置3から受信したユーザの識別情報を用いて実行される。ガチャの抽選選択処理は、ガチャの抽選要求に伴って、抽選リストの中から、ゲーム媒体ごとの選択確率に基づいて1以上のゲーム媒体を抽選により選択する処理である。ガチャの抽選選択処理によれば、選択したゲーム媒体に関する情報と、抽選要求の送信元となる操作を行ったユーザの識別情報とが、ユーザDBにて関連付けられ、これにより、当該ユーザには、自身でガチャを引いた結果当選したゲーム媒体が付与される。 Examples of the information processing executed by the control unit 23 include billing settlement processing, user account authentication processing, gacha lottery selection processing, and the like. The billing settlement process is executed, for example, based on a billing request necessary to recover a predetermined amount of parameters during the game. The user account authentication process is executed using user identification information received from the game device 3, for example. The gacha lottery selection process is a process in which, in response to a gacha lottery request, one or more game media are selected by lottery from a lottery list based on the selection probability for each game medium. According to the gacha lottery selection process, the information regarding the selected game medium and the identification information of the user who performed the operation to send the lottery request are associated in the user DB, so that the user can: You will receive the winning game content as a result of drawing the gacha yourself.

ここで、上記をさらに補足すると、「ゲーム媒体」とは、ゲームに関する要素を表した電子データであって、プレイヤキャラクタとして使用するキャラクタの名称、プレイヤキャラクタが仮想ゲーム空間内にて使用するアイテム(武器、防具、道具)などが含まれる。ユーザは、ゲーム媒体を、課金による直接購入やクエストクリアの他、ガチャと呼ばれる抽選方法によって入手することができる。入手したゲーム媒体は、そのゲーム媒体を所有することとなったユーザの識別情報と対応づけて、ユーザDBに記憶され管理される。さらに、「ガチャ」とは、ゲーム管理装置2にて、抽選リストの中から、所定の選択割合に基づき任意のゲーム媒体を抽選により選択する方法である。選択された任意のゲーム媒体は、ユーザのゲーム装置3に付与される。「ガチャで選択したゲーム媒体を、ユーザに付与する/ユーザが所有する」とは、「抽選処理で選択されたゲーム媒体を、ユーザを示す識別情報と関連づける/関連づけられている」ことと同義である。 To further supplement the above, "game media" is electronic data representing elements related to the game, including the name of the character used as the player character, and the items used by the player character in the virtual game space. Includes weapons, armor, tools, etc. Users can obtain game media through a lottery method called gacha, in addition to direct purchase through payment and quest clearing. The obtained game content is stored and managed in the user DB in association with the identification information of the user who owns the game content. Furthermore, "gacha" is a method in which the game management device 2 selects an arbitrary game medium from a lottery list based on a predetermined selection ratio. The selected arbitrary game content is provided to the user's game device 3. "The game content selected in the gacha is given to the user/owned by the user" is synonymous with "the game content selected in the lottery process is/is associated with identification information indicating the user". be.

<ゲーム装置3>
ゲーム装置3には、ディスプレイ4a、スピーカ4bおよび入力デバイス4cが外部接続または内蔵される。また、ゲーム装置3は、通信部31、記憶部32、制御部33、グラフィック処理部34a、オーディオ処理部34bおよび操作部34cを有する。通信部31、記憶部32、グラフィック処理部34a、オーディオ処理部34bおよび操作部34cは、通信バス30を介して制御部33と電気的に接続されている。
<Game device 3>
A display 4a, a speaker 4b, and an input device 4c are externally connected or built into the game device 3. The game device 3 also includes a communication section 31, a storage section 32, a control section 33, a graphics processing section 34a, an audio processing section 34b, and an operation section 34c. The communication section 31, the storage section 32, the graphic processing section 34a, the audio processing section 34b, and the operation section 34c are electrically connected to the control section 33 via the communication bus 30.

通信部31は、ゲーム装置3とゲーム管理装置2との間で各種データを送受信するために、通信ネットワーク11に通信可能に接続される、いわゆるネットワークインターフェースである。ゲーム装置3が通信部31を介して受信する主な情報としては、アカウント情報、新たなゲームデータのダウンロード要求情報、ガチャ実行要求、クエスト実行要求などが挙げられる。ゲーム装置3が通信部31を介して送信する主な情報としては、ダウンロード要求情報に応じてゲーム管理装置2から送られてきた新たなゲームデータ、抽選処理により選択されたゲーム媒体に関する情報などが挙げられる。 The communication unit 31 is a so-called network interface that is communicably connected to the communication network 11 in order to transmit and receive various data between the game device 3 and the game management device 2. The main information that the game device 3 receives via the communication unit 31 includes account information, new game data download request information, gacha execution request, quest execution request, and the like. The main information that the game device 3 transmits via the communication unit 31 includes new game data sent from the game management device 2 in response to download request information, information regarding the game content selected in the lottery process, etc. Can be mentioned.

記憶部32は、HDD、SSD、RAMおよびROMなどで構成される。記憶部32には、ゲーム管理装置2からダウンロードしたゲームデータ、ゲームプログラムの一部を含む各種プログラム、自装置であるゲーム装置3のアカウント情報、ユーザ情報などが格納されている。なお、ユーザ情報は、ゲーム管理装置2の記憶部22で記憶するユーザDBの少なくとも一部の情報である。ユーザDBでユーザ情報のマスタを管理し、ゲーム装置3の記憶部32は、このマスタの少なくとも一部の情報がゲーム管理装置2から配信され、これを記憶する。 The storage unit 32 includes an HDD, SSD, RAM, ROM, and the like. The storage unit 32 stores game data downloaded from the game management device 2, various programs including a part of the game program, account information of the game device 3, which is the own device, user information, etc. Note that the user information is at least part of information in the user DB stored in the storage unit 22 of the game management device 2. The user DB manages a master of user information, and the storage unit 32 of the game device 3 receives at least part of the information of this master from the game management device 2 and stores it.

制御部33は、CPUおよび半導体メモリを含むマイクロコンピュータで構成され、自装置であるゲーム装置3の動作を制御する。特に、制御部33は、記憶部32に記憶された所定のプログラムを読み出すことによって、自装置であるゲーム装置3に係る種々の機能を実現する。すなわち、記憶部32に記憶されているソフトウェアによる情報処理が、ハードウェアの一例である制御部33によって具体的に実現されることで、後述の各機能部が実行されうる。なお、制御部33は単一であることに限定されず、機能ごとに複数の制御部33を有するように実施してもよい。またそれらの組合せであってもよい。 The control unit 33 is composed of a microcomputer including a CPU and a semiconductor memory, and controls the operation of the game device 3, which is its own device. In particular, the control section 33 realizes various functions related to the game device 3, which is the own device, by reading out a predetermined program stored in the storage section 32. That is, information processing by software stored in the storage unit 32 is specifically implemented by the control unit 33, which is an example of hardware, so that each functional unit described below can be executed. Note that the control section 33 is not limited to a single control section, and may be implemented so as to have a plurality of control sections 33 for each function. It may also be a combination thereof.

特に、制御部33は、自装置であるゲーム装置3のユーザによる入力デバイス4cを介した入力に従って、ゲームを実行するように構成される。具体的には、制御部33は、ゲームデータに含まれる仮想ゲーム空間オブジェクトおよびテクスチャなどのデータを記憶部32から読み出すか、またはゲーム管理装置2から受信したデータを用いて、2次元または3次元のゲーム画像情報を生成する。ゲーム画像情報がグラフィック処理部34aによって処理されることにより、ディスプレイ4aには処理後のゲーム画像が逐次表示される。換言すると、制御部33は、ゲームの実行にあたり、自装置であるゲーム装置3のユーザの操作などに応じてディスプレイ4aの表示制御およびスピーカ4bの音声出力制御を行うように構成される。 In particular, the control unit 33 is configured to execute the game in accordance with input by the user of the game device 3, which is its own device, via the input device 4c. Specifically, the control unit 33 reads data such as virtual game space objects and textures included in the game data from the storage unit 32, or uses data received from the game management device 2 to create two-dimensional or three-dimensional Generates game image information. As the game image information is processed by the graphic processing unit 34a, the processed game images are sequentially displayed on the display 4a. In other words, the control unit 33 is configured to perform display control on the display 4a and audio output control on the speaker 4b in response to operations by the user of the game device 3, which is the own device, when executing the game.

グラフィック処理部34aは、制御部33から出力されるゲーム画像情報に従って、キャラクタおよび仮想ゲーム空間に関する各種オブジェクトを含むゲーム画像を、動画形式で描画する。グラフィック処理部34aは、例えば液晶型であるディスプレイ4aと接続されており、動画形式に描画されたゲーム画像は、ゲーム画面としてディスプレイ4a上に表示される。オーディオ処理部34bは、スピーカ4bと接続され、制御部33の指示に従ってゲーム音声を再生および合成すると、これをスピーカ4bから出力させる。操作部34cは、入力デバイス4cと接続され、操作入力に関するデータを入力デバイス4cとの間で送受信する。ユーザは、入力デバイス4cを介して、ゲーム装置3に操作信号を入力する。なお、入力デバイス4cは、ディスプレイ4aと一体化されたタッチパネル、外付けのゲームパッド、マウスやキーボード等の総称である。 The graphic processing unit 34a draws a game image including characters and various objects related to the virtual game space in a moving image format according to the game image information output from the control unit 33. The graphic processing unit 34a is connected to, for example, a liquid crystal display 4a, and a game image drawn in a moving image format is displayed on the display 4a as a game screen. The audio processing section 34b is connected to the speaker 4b, and when the game sound is reproduced and synthesized according to instructions from the control section 33, it is output from the speaker 4b. The operation unit 34c is connected to the input device 4c, and transmits and receives data related to operation inputs to and from the input device 4c. The user inputs an operation signal to the game device 3 via the input device 4c. Note that the input device 4c is a general term for a touch panel integrated with the display 4a, an external game pad, a mouse, a keyboard, and the like.

2.2 機能構成
本節では、本実施形態の機能構成について説明する。前述の通り、各装置の記憶部に記憶されているソフトウェアによる情報処理がハードウェアの一例である制御部によって具体的に実現されることで、制御部に含まれる各機能部が実行されうる。
2.2 Functional Configuration This section describes the functional configuration of this embodiment. As described above, the information processing by the software stored in the storage section of each device is specifically implemented by the control section, which is an example of hardware, so that each functional section included in the control section can be executed.

図2は、各装置の制御部の機能構成を示す図である。ゲーム管理装置2の制御部23は、ゲーム処理部201と、コンテンツ記憶部202と、提示決定部203と、状況特定部204と、履歴蓄積部205と、予定取得部206と、提示制御部207とを備える。ゲーム装置3は、ゲーム処理部301と、操作受付部302とを備える。 FIG. 2 is a diagram showing the functional configuration of the control section of each device. The control unit 23 of the game management device 2 includes a game processing unit 201, a content storage unit 202, a presentation determination unit 203, a situation identification unit 204, a history accumulation unit 205, a schedule acquisition unit 206, and a presentation control unit 207. Equipped with. The game device 3 includes a game processing section 301 and an operation reception section 302.

ゲーム管理装置2のゲーム処理部201は、ゲームシステム1にログインしたユーザの指示に応じて、そのユーザがプレイするゲームに関するゲーム処理を実行する。ゲーム処理部201は、本実施形態では、仮想空間においてユーザに対応するアバターが日常の生活を送るゲームのゲーム処理を実行する。仮想空間とは、コンピュータネットワーク上に構築された仮想的な空間であり、例えば、複数のユーザが参加して同じ空間で同時にゲームを楽しむ場として利用される。本実施形態では、仮想空間において、現実世界と同じ時間が流れている、すなわち、月、日、曜日、時刻が現実世界と同じになっているものとする。 The game processing unit 201 of the game management device 2 executes game processing related to the game played by the user in response to instructions from the user who has logged into the game system 1. In this embodiment, the game processing unit 201 executes game processing of a game in which an avatar corresponding to a user lives a daily life in a virtual space. A virtual space is a virtual space built on a computer network, and is used, for example, as a place where multiple users can participate and simultaneously enjoy games in the same space. In this embodiment, it is assumed that the same time passes in the virtual space as in the real world, that is, the month, day, day of the week, and time are the same as in the real world.

アバターとは、上述したプレイヤキャラクタの一種であり、特に、仮想空間においてユーザの分身として行動するプレイヤキャラクタのことである。アバターには、ゲーム開始時から提供されるものや、途中で購入またはガチャによって取得するものが含まれる。アバターは、人間の姿であることが多いが、動物や無生物を擬人化したものが用いられる場合もある。ユーザに対応するアバターとは、ユーザが自分で操作するものとして設定したアバターのことである。 An avatar is a type of player character described above, and in particular, a player character that acts as a user's alter ego in a virtual space. Avatars include those that are provided from the start of the game and those that are purchased or obtained through gacha during the game. The avatar is often a human figure, but an anthropomorphic animal or inanimate object may also be used. The avatar corresponding to the user is an avatar set by the user to be operated by the user.

ゲーム処理部201は、例えば、ユーザに対応するアバターと、アバターに対応する視点から見た仮想空間とを表示させる表示部として機能する。アバターに対応する視点とは、アバター自身の視点(いわゆる一人称視点)またはアバターの周囲に設定される視点(いわゆる三人称視点)のことである。本実施形態では、三人称視点が用いられる場合を説明する。なお、ゲーム処理部201は、アバターおよび仮想空間の画像を表示する処理とともに、音(自然音、効果音および音声等)を出す処理をゲーム処理として行ってもよい。 The game processing unit 201 functions, for example, as a display unit that displays an avatar corresponding to the user and a virtual space seen from a viewpoint corresponding to the avatar. The viewpoint corresponding to the avatar is the viewpoint of the avatar itself (so-called first-person viewpoint) or the viewpoint set around the avatar (so-called third-person viewpoint). In this embodiment, a case will be described in which a third-person viewpoint is used. Note that the game processing unit 201 may perform a process of displaying an avatar and an image of a virtual space as well as a process of producing sounds (natural sounds, sound effects, voices, etc.) as game processing.

コンテンツ記憶部202は、ユーザに提示されるコンテンツを記憶する。コンテンツとは、アバターを操作するユーザに見てもらうために用意された情報であり、文字列、画像(静止画・動画)および音のうちの1以上を含むデータによって表される。コンテンツ記憶部202は、本実施形態では、企業等によって用意された広告をコンテンツとして記憶する。広告とは、企業等が提供する製品やサービスを消費者に認知させて購買意欲を高めるための情報である。 Content storage unit 202 stores content presented to the user. Content is information prepared for viewing by a user who operates an avatar, and is represented by data including one or more of a character string, an image (still image/video), and sound. In this embodiment, the content storage unit 202 stores advertisements prepared by companies and the like as content. Advertisements are information intended to make consumers aware of products and services provided by companies, etc., and to increase their desire to purchase them.

提示決定部203は、ユーザに対応するアバターに関する状況(以下「アバターの状況」と言う)に応じて、そのユーザに対するコンテンツの提示を行うことを決定する決定部として機能する。アバターの状況とは、例えば、アバターの行動および仮想空間におけるアバターの周囲の環境等によって示される状況である。アバターの行動とは、出勤、休憩および退勤等である。また、周囲の環境とは、仮想空間内の天候、交通機関の運行状況および他のアバターの存在等である。提示決定部203は、アバターの状況が提示条件を満たす場合に、提示を決定する。提示条件については後ほど詳しく説明する。 The presentation determining unit 203 functions as a determining unit that determines to present content to a user according to a situation regarding an avatar corresponding to the user (hereinafter referred to as “avatar situation”). The avatar's situation is, for example, a situation indicated by the avatar's actions, the environment around the avatar in the virtual space, and the like. The avatar's actions include going to work, taking a break, and leaving work. Further, the surrounding environment includes the weather in the virtual space, the operation status of transportation facilities, the presence of other avatars, and the like. The presentation determining unit 203 determines presentation when the situation of the avatar satisfies the presentation conditions. The presentation conditions will be explained in detail later.

状況特定部204は、所定の時点におけるアバターの状況を特定する。所定の時点とは、例えば、所定の時間間隔で訪れるタイミングである。この時間間隔を例えば1秒毎に定めた場合、状況特定部204は、アバターの状況を1秒毎に繰り返し特定する。状況特定部204は、所定の時点においてアバターが仮想空間で何をしようしている時間なのかによってそのアバターの状況を特定する。状況の特定方法については後ほど詳しく説明する。 The situation identifying unit 204 identifies the situation of the avatar at a predetermined time. The predetermined time points are, for example, timings that occur at predetermined time intervals. If this time interval is set, for example, to every second, the situation specifying unit 204 repeatedly specifies the situation of the avatar every second. The situation identification unit 204 identifies the situation of the avatar based on what the avatar is doing in the virtual space at a predetermined time. The method for identifying the situation will be explained in detail later.

履歴蓄積部205は、アバターに関する履歴を蓄積する。履歴蓄積部205は、例えば、ゲーム内でアバターが行った行動の履歴を蓄積する。行動の履歴とは、行動の内容(出勤、休憩および退勤等)および行動を行った期間(開始時刻および終了時刻)とを対応付けた情報である。なお、行動の履歴は、より細かい動作(移動、停止、座る、立つ等)の履歴またはユーザが行った操作(移動操作等)の履歴によって表すことも可能なので、履歴蓄積部205は、それらの動作の履歴または操作の履歴を行動の履歴として蓄積してもよい。 The history accumulation unit 205 accumulates history regarding avatars. The history accumulation unit 205 accumulates, for example, a history of actions performed by the avatar within the game. The behavior history is information that associates the content of the behavior (attending to work, taking a break, leaving work, etc.) and the period during which the behavior was performed (start time and end time). Note that the behavior history can also be represented by the history of more detailed actions (moving, stopping, sitting, standing, etc.) or the history of operations performed by the user (moving operations, etc.), so the history storage unit 205 A history of actions or a history of operations may be accumulated as a history of actions.

予定取得部206は、アバターが所定の時間帯に所定の行動をとることを予定することを定めた予定情報を取得する。本実施形態におけるゲームでは、アバターが日常の生活を送るため、現実世界と同様に、将来の予定を示すスケジュール情報が利用されているものとする。予定取得部206は、例えば、このスケジュール情報を予定情報として取得する。 The schedule acquisition unit 206 acquires schedule information that specifies that the avatar is scheduled to take a predetermined action in a predetermined time period. In the game of this embodiment, it is assumed that schedule information indicating future schedules is used in order for the avatar to lead a daily life, similar to the real world. The schedule acquisition unit 206 acquires this schedule information as schedule information, for example.

提示制御部207は、提示決定部203によって決定されたコンテンツをユーザに提示する提示部として機能する。提示制御部207は、仮想空間において、状況特定部204により特定された状況においてコンテンツをユーザに提示する。提示制御部207は、例えば、コンテンツを示す画像データ、音データおよび動画データ等を含む提示データを生成してゲーム装置3に送信する処理を、コンテンツをユーザに提示する処理として実行する。 The presentation control unit 207 functions as a presentation unit that presents the content determined by the presentation determination unit 203 to the user. The presentation control unit 207 presents the content to the user in the situation specified by the situation identification unit 204 in the virtual space. The presentation control unit 207 executes, for example, a process of generating presentation data including image data, sound data, video data, etc. indicating the content and transmitting the generated data to the game device 3 as a process of presenting the content to the user.

ゲーム装置3のゲーム処理部301は、ゲーム管理装置2のゲーム処理部201と協働して、ゲームに関する処理を実行する。操作受付部302は、ユーザによる操作を受け付ける。ユーザによる操作は、主としてゲームをプレイする際に行われる操作であり、ゲーム内のアバターの動き(移動等)と、仮想空間の見え方(視点の位置および向き)とを指示する操作である。 The game processing unit 301 of the game device 3 cooperates with the game processing unit 201 of the game management device 2 to execute processing related to the game. The operation accepting unit 302 accepts operations by the user. The operations performed by the user are mainly operations performed when playing the game, and are operations for instructing the movement (movement, etc.) of the avatar in the game and the way the virtual space is viewed (position and orientation of the viewpoint).

3.ゲームシステム1の動作の流れ
本節では、前述したゲームシステム1の動作の流れについて説明する。好ましい態様の一例として、ユーザがキャラクタを操作し、アイテム等を取得させながらクエストを進行させるゲームを例に挙げて説明する。
3. Flow of Operation of Game System 1 In this section, the flow of operation of the game system 1 described above will be explained. As an example of a preferred embodiment, a game will be described in which a user operates a character and progresses through a quest while acquiring items and the like.

3.1 情報処理の概要
以下、図3を参照して、ゲームシステム1によって実行される情報処理の流れを概説する。
3.1 Overview of Information Processing The flow of information processing executed by the game system 1 will be outlined below with reference to FIG.

図3は、情報処理の流れを示すフローチャートである。まず、ゲーム装置3が、A11において、操作受付部302により、ユーザによるログイン操作を受け付ける。操作受付部302は、ログイン情報(例えばユーザIDおよびパスワード等)をゲーム管理装置2に送信する。ゲーム管理装置2は、A12において、ゲーム処理部201により、ゲームのユーザ認証を行う。次に、ゲーム管理装置2は、A13において、予定取得部206により、認証したユーザに対応するアバターの予定情報を取得する。 FIG. 3 is a flowchart showing the flow of information processing. First, at A11, the game device 3 receives a login operation by the user through the operation reception unit 302. The operation reception unit 302 transmits login information (for example, user ID and password) to the game management device 2. In A12, the game management device 2 uses the game processing unit 201 to perform game user authentication. Next, in A13, the game management device 2 uses the schedule acquisition unit 206 to acquire schedule information of the avatar corresponding to the authenticated user.

ゲーム装置3は、A21において、操作受付部302により、ログインしたユーザによるゲームの操作を受け付ける。次に、ゲーム管理装置2およびゲーム装置3が、A22において、ゲーム処理部201およびゲーム処理部301が協働して、ゲーム処理を実行する。より具体的には、ゲーム処理部201は、ゲームの進行により移り変わる仮想空間、アバターおよび音等を示すゲームデータを生成してゲーム装置3に送信する。ゲーム装置3は、ゲーム処理部301により、受信したゲームデータが示すゲーム画面を表示し、同じく受信したゲームデータが示す音を出力する。 In A21, the game device 3 receives a game operation by the logged-in user through the operation reception unit 302. Next, in A22, the game management device 2 and the game device 3 execute game processing in cooperation with the game processing section 201 and the game processing section 301. More specifically, the game processing unit 201 generates game data indicating a virtual space, an avatar, sounds, etc. that change as the game progresses, and transmits the generated game data to the game device 3. The game device 3 uses the game processing unit 301 to display a game screen indicated by the received game data, and outputs a sound indicated by the received game data.

ゲーム処理が実行されると、ゲーム管理装置2は、A23において、状況特定部204により、現時点におけるアバターの状況を特定する。状況特定部204は、例えば、A13において取得された予定情報が示す予定に基づいて、現時点の状況を特定する。また、状況特定部204は、履歴蓄積部205に蓄積されているアバターに関する履歴に基づいて、現時点の状況を特定する。状況の特定方法の詳細は後ほど別図を参照しながら説明する。 When the game process is executed, in A23, the game management device 2 uses the situation specifying unit 204 to specify the current situation of the avatar. The situation identifying unit 204 identifies the current situation, for example, based on the schedule indicated by the schedule information acquired in A13. Further, the situation identification unit 204 identifies the current situation based on the history regarding the avatar stored in the history storage unit 205. The details of how to identify the situation will be explained later with reference to another diagram.

ゲーム管理装置2は、A24において、提示決定部203により、A23において特定された状況が、コンテンツの提示条件を満たすか否かを判断する。A24において状況が提示条件を満たさないと判断された場合、ゲーム管理装置2は、A22に戻ってゲーム処理を実行する。ゲーム管理装置2は、A22からA24までの処理を、例えば、所定の時間間隔(例えば1秒毎)で繰り返し行う。この場合、提示条件を満たす状況になったらすぐにその提示条件が満たされることになる。 In A24, the game management device 2 uses the presentation determining unit 203 to determine whether the situation specified in A23 satisfies the content presentation condition. If it is determined in A24 that the situation does not satisfy the presentation conditions, the game management device 2 returns to A22 and executes the game process. The game management device 2 repeatedly performs the processes from A22 to A24, for example, at predetermined time intervals (for example, every second). In this case, the presentation condition will be satisfied as soon as the situation becomes such that the presentation condition is satisfied.

なお、ゲーム管理装置2は、A23の処理とA24の処理を行う時間間隔を異ならせてもよい。例えば、A23の処理は1秒毎に行うが、A24の処理は1分毎に行うという具合である。この場合、提示条件を満たす状況になってもすぐにその提示条件が満たされると判断されず、しばらくしてからその提示条件が満たされることになる。また、ゲーム管理装置2は、A23において新たな状況が特定されてから所定の時間が経過したときにA24の処理を行ってもよい。この場合、提示条件を満たす状況になってから所定の時間が経過したときにその提示条件が満たされることになる。このように、A24の処理は、提示条件を満たす状況において、コンテンツを提示したいタイミングで行われればよい。 Note that the game management device 2 may perform the processing in A23 and the processing in A24 at different time intervals. For example, the process A23 is performed every second, but the process A24 is performed every minute. In this case, even if the presentation condition is satisfied, it is not immediately determined that the presentation condition is satisfied, but the presentation condition is satisfied after a while. Further, the game management device 2 may perform the process of A24 when a predetermined time has elapsed since the new situation was identified in A23. In this case, the presentation condition will be satisfied when a predetermined period of time has elapsed since the situation where the presentation condition was met. In this way, the process A24 may be performed at a timing when the content is desired to be presented in a situation where the presentation conditions are satisfied.

A24において状況が提示条件を満たすと判断された場合、ゲーム管理装置2は、A31において、提示制御部207により、アバターに対応するユーザに提示するコンテンツを読み出す。次に、ゲーム管理装置2は、A32において、提示制御部207により、ユーザにコンテンツを提示する態様を決定する。コンテンツの提示態様とは、例えば、コンテンツを示す画像のデザイン、サイズ、色、表示時間、音の大きさ、音色、放音時間等のことである。提示態様の決定方法については後ほど詳しく説明する。 If it is determined in A24 that the situation satisfies the presentation conditions, the game management device 2 causes the presentation control unit 207 to read out the content to be presented to the user corresponding to the avatar in A31. Next, in A32, the game management device 2 uses the presentation control unit 207 to determine the manner in which the content is presented to the user. The content presentation mode includes, for example, the design, size, color, display time, sound volume, tone color, sound emission time, etc. of an image showing the content. The method for determining the presentation mode will be explained in detail later.

続いて、ゲーム管理装置2は、A33において、提示制御部207により、上記のとおり決定された態様でコンテンツを提示するための提示データを生成し、ゲーム装置3に送信する。ゲーム装置3は、A34において、受信した提示データが示すコンテンツを、その提示データが示す態様で提示する提示処理を実行する。ゲーム管理装置2は、A35において、履歴蓄積部205により、アバターに関する履歴を蓄積する。履歴蓄積部205は、例えば、A23において特定された状況が示すアバターの行動と、現在時刻とを対応付けた情報を行動履歴として蓄積する。 Subsequently, in A33, the game management device 2 generates, by the presentation control unit 207, presentation data for presenting the content in the manner determined as described above, and transmits it to the game device 3. In A34, the game device 3 executes a presentation process of presenting the content indicated by the received presentation data in the manner indicated by the presentation data. In A35, the game management device 2 stores the history regarding the avatar using the history storage unit 205. The history accumulation unit 205 accumulates, as an action history, information that associates the avatar's action indicated by the situation identified in A23 with the current time, for example.

ゲーム装置3においては、A34においてコンテンツの提示処理を実行したあとも、ユーザによる操作が継続される場合がある。その場合、ゲーム装置3は、A41において、操作受付部302により、ユーザの操作を受け付ける。次に、ゲーム管理装置2およびゲーム装置3が、A42において、ゲーム処理部201およびゲーム処理部301が協働して、ゲーム処理を実行する。ゲーム装置3においては、A41およびA42の処理が繰り返し行われる。 In the game device 3, the user may continue to operate even after the content presentation process is executed in A34. In that case, the game device 3 receives the user's operation using the operation accepting unit 302 at A41. Next, in A42, the game management device 2 and the game device 3 execute game processing in cooperation with the game processing section 201 and the game processing section 301. In the game device 3, the processes of A41 and A42 are repeatedly performed.

ゲーム管理装置2は、A42のゲーム処理の後、A43において、提示決定部203により、コンテンツの提示を終了させる提示終了条件が満たされたか否かを判断する。提示終了条件は、コンテンツ毎に定められており、例えば、コンテンツを示す動画の再生時間が経過した場合、コンテンツの提示領域がアバターの視界から外れた場合、ユーザがコンテンツの提示を停止させる操作を行った場合、または、コンテンツを開始したときのアバターの状況が終了した場合等において満たされる。 After the game processing in A42, the game management device 2 determines in A43 whether the presentation end condition for ending the presentation of the content is satisfied or not. Presentation termination conditions are determined for each content.For example, if the playback time of a video showing the content has elapsed, or if the content presentation area is out of the avatar's field of view, the user may perform an operation to stop the content presentation. This is satisfied when the content is completed, or when the avatar's situation at the time the content was started ends.

例えば、アバターが出勤する状況において提示条件が満たされてコンテンツが提示された場合に、コンテンツを示す動画の再生時間の経過が提示終了条件として用いられたとする。その場合、動画の再生時間が経過する前に会社に到着してアバターが出勤する状況が終了することがある。この場合、提示制御部207は、コンテンツの提示を開始した時点でのアバターの状況が終了してもコンテンツの提示を継続すればよい。このように、コンテンツは、アバターの状況の開始から終了までの期間の一部を少なくとも含んで提示されていればよい。 For example, suppose that when the presentation condition is satisfied and content is presented in a situation where the avatar goes to work, the elapse of the playback time of the video showing the content is used as the presentation end condition. In this case, the situation where the avatar arrives at the office and goes to work may end before the playback time of the video has elapsed. In this case, the presentation control unit 207 may continue presenting the content even if the situation of the avatar at the time the presentation of the content is started ends. In this way, the content only needs to be presented including at least part of the period from the start to the end of the avatar's situation.

ゲーム管理装置2は、提示終了条件が満たされたと判断するまでA42およびA43の処理を繰り返し実行する。ゲーム管理装置2は、A43において、提示終了条件が満たされたと判断した場合、コンテンツの提示を終了するよう指示する終了指示データをゲーム装置3に送信する。ゲーム装置3は、A44において、ゲーム処理部301により、コンテンツの提示処理を終了する。また、ゲーム管理装置2は、提示終了条件が満たされたと判断した場合、A45において、コンテンツ記憶部202により、コンテンツ履歴を記録する。コンテンツ履歴とは、コンテンツの提示予定および提示実績等を示す情報である。以降は、ユーザがログインした状態でゲームを継続する限り、A21以降の処理が繰り返し行われる。 The game management device 2 repeatedly executes the processes of A42 and A43 until it determines that the presentation end condition is satisfied. If the game management device 2 determines that the presentation end condition is satisfied in A43, it transmits end instruction data to the game device 3 instructing it to end the presentation of the content. In the game device 3, the game processing unit 301 ends the content presentation process in A44. Further, when the game management device 2 determines that the presentation end condition is satisfied, the content storage unit 202 records the content history in A45. The content history is information indicating the content presentation schedule, presentation results, and the like. Thereafter, as long as the user continues to play the game while logged in, the processes from A21 onwards are repeated.

以上をまとめると、本実施形態に係るゲームシステム1は、次の各構成要素、すなわち、表示部(ゲーム処理部201)、決定部(提示決定部203)および提示部(提示制御部207)を備える。表示部は、ユーザに対応するアバターと、アバターに対応する視点から見た仮想空間とを表示させる。決定部は、ユーザに対応するアバターに関する状況が提示条件を満たす場合に、ユーザに対するコンテンツの提示を行うことを決定する。状況は、所定の時点においてアバターが仮想空間で何をしようしている時間なのかによって特定される。提示部は、仮想空間において、決定されたコンテンツを、状況の開始から終了までの期間の一部を少なくとも含んで提示する。 To summarize the above, the game system 1 according to the present embodiment includes the following components: a display section (game processing section 201), a decision section (presentation decision section 203), and a presentation section (presentation control section 207). Be prepared. The display unit displays an avatar corresponding to the user and a virtual space seen from a viewpoint corresponding to the avatar. The determining unit determines to present the content to the user when the situation regarding the avatar corresponding to the user satisfies the presentation condition. The situation is specified by what the avatar is doing in the virtual space at a given time. The presentation unit presents the determined content including at least a part of the period from the start to the end of the situation in the virtual space.

このような態様によれば、仮想空間においてアバターに対してコンテンツを提示することができる。特に、アバターが仮想空間において置かれた状況を満たすユーザに対して広告を提示することが可能になるので、街角広告のような特定の時間に特定の空間的位置に広告を提示するものよりも、当該広告をより適切なユーザに対して提示し得る。 According to this aspect, content can be presented to the avatar in the virtual space. In particular, since it becomes possible to present advertisements to users who meet the situation in which the avatar is placed in virtual space, it is possible to present advertisements to users who meet the situation in which the avatar is placed in virtual space, so it is better than street corner advertisements, which present advertisements at a particular spatial location at a particular time. , the advertisement can be presented to more appropriate users.

3.2 情報処理の詳細
次に、上記概説された情報処理の詳細部分を説明する。まず、図3に示すA23においてアバターの状況を特定する方法のうち、アバターの予定を示す予定情報を用いる方法について説明する。
3.2 Details of Information Processing Next, details of the information processing outlined above will be explained. First, among the methods for specifying the avatar's situation at A23 shown in FIG. 3, a method using schedule information indicating the avatar's schedule will be described.

図4は、予定情報の一例である。図4の例では、「予定」、「開始時刻」、「終了時刻」、「関連場所」および「移動手段」を示す予定情報C1が示されている。「予定」は、アバターの予定そのものを示す情報である。「開始時刻」および「終了時刻」は、予定の期間が開始される時刻および終了する時刻である。「関連場所」は、予定に関連する場所を示す情報である。「移動手段」は、予定に関して行われる移動の手段である。移動が軽微な予定の場合は移動手段がブランクとなっている。 FIG. 4 is an example of schedule information. In the example of FIG. 4, schedule information C1 indicating "schedule", "start time", "end time", "related location", and "transportation means" is shown. "Schedule" is information indicating the avatar's schedule itself. The "start time" and "end time" are the times when the scheduled period starts and ends. “Related location” is information indicating a location related to the schedule. "Transportation means" is a means of movement performed regarding a schedule. If the travel plan is minor, the means of transportation is left blank.

図4の例では、開始時刻t11から終了時刻t12までの期間T10において「乗車駅」から「電車」で「降車駅」まで移動して「出勤」するという移動自体を表す予定C11と、開始時刻t21から終了時刻t22までの期間T20において、「職場」にて「業務」を行うという予定C12とが示されている。また、開始時刻t31から終了時刻t32までの期間T30において「食堂」において「休憩」するという予定C13と、開始時刻t41から終了時刻t42までの期間T40において「客先住所」に「車」で移動して「客先訪問」するという移動先での滞在を表す予定C14とが示されている。なお、期間T40には、移動の期間が含まれていても含まれていなくてもよいが、本実施形態では、含まれていないものとする。 In the example of FIG. 4, a schedule C11 representing the movement itself of moving from the "boarding station" to the "disembarking station" by "train" and "going to work" during the period T10 from the start time t11 to the end time t12, and the start time In a period T20 from t21 to end time t22, a schedule C12 is shown in which "business" is to be performed at the "workplace". In addition, there is a plan C13 to take a "break" at the "dining room" during the period T30 from start time t31 to end time t32, and a "car" to the "customer's address" during period T40 from start time t41 to end time t42. A schedule C14 indicating a stay at the destination of "visiting a customer" is shown. Note that the period T40 may or may not include a period of movement, but in this embodiment, it is assumed that it does not.

予定情報C1は、例えば、ユーザU1に対応するアバターV1の予定を示す情報であり、図3に示すA13において予定取得部206により取得されたとする。予定情報を用いた状況の特定方法には、予約情報および現在時刻から状況を特定する第1方法と、予定情報が示す予定、現在時刻および現在位置から状況を特定する第2方法と、予定情報が示す予定から推測される予定から状況を特定する第3方法とがある。 The schedule information C1 is, for example, information indicating the schedule of the avatar V1 corresponding to the user U1, and is assumed to be acquired by the schedule acquisition unit 206 at A13 shown in FIG. Methods for identifying the situation using schedule information include a first method of identifying the situation from reservation information and the current time, a second method of identifying the situation from the schedule, current time, and current location indicated by the schedule information, and a second method that identifies the situation from the schedule indicated by the schedule information, the current time, and the current location. There is a third method of specifying the situation from the schedule inferred from the schedule indicated by .

第1方法を用いる場合を説明する。状況特定部204は、例えば、現在時刻が期間T10に含まれている場合、アバターV1が乗車駅から電車で降車駅まで移動して職場に出勤している状況であると特定する。また、状況特定部204は、現在時刻が期間T20に含まれる場合、アバターV1が職場で業務を行っている状況であると特定する。また、状況特定部204は、現在時刻が期間T30に含まれる場合、アバターV1が食堂で休憩を行っている状況であると特定する。また、状況特定部204は、現在時刻が期間T40に含まれる場合、アバターV1が客先に車で訪問している状況であると特定する。 The case of using the first method will be explained. For example, if the current time is included in the period T10, the situation specifying unit 204 specifies that the avatar V1 is traveling from the boarding station to the disembarking station by train and going to work. Furthermore, if the current time is included in the period T20, the situation identifying unit 204 identifies that the avatar V1 is working at the workplace. Furthermore, if the current time is included in the period T30, the situation identifying unit 204 identifies that the avatar V1 is taking a break at the cafeteria. Further, if the current time is included in the period T40, the situation identifying unit 204 identifies that the avatar V1 is visiting a customer by car.

第2方法を用いる場合を説明する。状況特定部204は、例えば、現在時刻が期間T10に含まれており、且つ、アバターV1が仮想空間内の車道にいる場合は、予定情報が示す移動手段にかかわらず、車で出勤している状況と特定する。また、状況特定部204は、同じように現在位置が駅または線路領域である場合は、電車で出勤している状況と特定する。また、状況特定部204は、現在位置が歩道である場合は、徒歩で出勤している状況と特定する。 The case of using the second method will be explained. For example, if the current time is included in the period T10 and the avatar V1 is on a roadway in the virtual space, the situation identifying unit 204 determines that the avatar V1 is going to work by car regardless of the means of transportation indicated by the schedule information. Identify the situation. Similarly, if the current position is in a station or a railway area, the situation identifying unit 204 identifies the situation as a person going to work by train. Furthermore, if the current position is on the sidewalk, the situation identifying unit 204 identifies the situation as a person walking to work.

また、状況特定部204は、現在時刻が期間T10に含まれているが現在位置がまだ自宅である場合は在宅という状況を特定し、現在位置が自宅の外の位置になった場合に出勤している状況と特定する。この場合、状況特定部204は、期間T10が終了しても、現在位置がまだ職場でない場合は、引き続き出勤している状況と特定し、現在位置が職場になった時点で、職場で業務を行っている状況であると特定する。このように、第2方法では、状況特定部204は、予定とは時間や移動手段が異なっていても、現在時刻および現在位置に基づいて現在の状況を正確に特定する。 Further, the situation identification unit 204 identifies the situation of being at home when the current time is included in the period T10 but the current location is still at home, and identifies the situation of being at home when the current location is outside the home. Identify the situation in which you are In this case, even after period T10 ends, if the current location is not yet at the workplace, the situation identifying unit 204 identifies the situation as continuing to work, and when the current location becomes the workplace, the situation identifying unit 204 determines that the current location is still at work. Identify the situation in which you are doing so. In this manner, in the second method, the situation identifying unit 204 accurately identifies the current situation based on the current time and current location even if the time or means of transportation is different from the scheduled one.

第3方法を用いる場合を説明する。状況特定部204は、例えば、予定C13は食堂(職場に隣接しているものとする)で行われ、予定C14は客先で行われることから、予定C13および予定C14の間に職場から客先までの移動が予定されていると判断する。状況特定部204は、予定C14の移動手段として「車」が示されているので、職場から客先までの車での移動に要する時間を、地図サービス等を用いて算出する。 The case of using the third method will be explained. For example, the situation identification unit 204 determines whether the schedule C13 will be held at the cafeteria (which is adjacent to the workplace) and the schedule C14 will be held at the customer's site. It is determined that there is a planned move to . Since "car" is indicated as the means of transportation in schedule C14, the situation identification unit 204 calculates the time required to travel by car from the workplace to the customer's place using a map service or the like.

状況特定部204は、予定C14の開始時刻から算出した移動時間だけ遡った時刻から移動時間が経過するまでの期間を移動期間の予定と推測し、推測した予定を予定情報とみなして第1方法または第2方法を用いてアバターV1の状況を特定する。また、状況特定部204は、予定C14の終了時刻の後は、例えば、終了時刻がまだ早ければ職場に戻る場合の移動期間の予定を推定し、終了時刻が例えば17時を過ぎていてい遅い場合にはアバターV1の自宅を移動先として、上記と同様に移動期間の予定を推定する。 The situation identification unit 204 estimates that the period from the time when the travel time calculated from the start time of the schedule C14 has passed until the travel time has elapsed is the schedule of the travel period, and regards the estimated schedule as schedule information and uses the first method. Alternatively, the situation of the avatar V1 is specified using the second method. Further, after the end time of the schedule C14, if the end time is still early, the situation identifying unit 204 estimates the schedule for the travel period when returning to the workplace, and if the end time is late, for example, after 5 p.m. Then, the schedule for the travel period is estimated in the same manner as above, with the home of the avatar V1 as the travel destination.

以上のとおり、状況特定部204は、アバターが所定の時間帯に所定の行動をとることを予定することを定めた予定情報に基づいてそのアバターの状況を特定する。 As described above, the situation identifying unit 204 identifies the situation of the avatar based on the schedule information that specifies that the avatar is scheduled to take a predetermined action in a predetermined time period.

次に、図3に示すA23においてアバターの状況を特定する方法のうち、アバターの行動履歴を用いる方法について説明する。
図5は、履歴蓄積部205に蓄積される行動履歴の一例である。図5の例では、「動作」、「開始時刻」、「終了時刻」、「関連場所」および「行動の種類」を示す行動履歴C2が示されている。「動作」は、アバターの動作を示す情報である。「開始時刻」および「終了時刻」は、動作が開始された時刻および終了した時刻である。「関連場所」は、動作に関連する場所を示す情報である。「行動の種類」は、動作、時刻および関連場所から特定される行動の種類である。
Next, among the methods of identifying the avatar's situation at A23 shown in FIG. 3, a method using the avatar's action history will be described.
FIG. 5 is an example of action history accumulated in the history accumulation unit 205. In the example of FIG. 5, an action history C2 indicating "action", "start time", "end time", "related location", and "type of action" is shown. "Movement" is information indicating the motion of the avatar. The "start time" and "end time" are the time when the operation started and the time when it ended. “Related location” is information indicating a location related to the action. The "type of behavior" is the type of behavior specified from the behavior, time, and related location.

行動履歴C2は、上述したアバターV1の行動の履歴を示すものとする。行動履歴C2には、動作履歴C21、C22、C23、C24およびC25等が含まれている。動作履歴C21は、アバターV1が自宅から駅まで徒歩で移動した動作の履歴である。動作履歴C22は、アバターV1が電車に乗り込んでから、電車経路に沿って移動して(移動中は立っているか座っているだけ)、電車から降りるまでの動作の履歴である。動作履歴C23は、アバターV1が駅から職場まで徒歩で移動する動作の履歴である。 The behavior history C2 indicates the behavior history of the avatar V1 described above. The action history C2 includes action histories C21, C22, C23, C24, C25, and the like. The action history C21 is a history of the actions of the avatar V1 when he moved from his home to the station on foot. The action history C22 is a history of the actions of the avatar V1 from boarding the train to moving along the train route (while moving, just standing or sitting) until getting off the train. The action history C23 is a history of the action of the avatar V1 moving from the station to the workplace on foot.

動作履歴C24は、アバターV1が職場に滞在している間に行った動作(業務を進めるための動作等)の履歴である。動作履歴C25は、アバターV1が食堂に滞在している間に行った動作(例えば他のアバターと会話する動作等)の履歴である。これらの動作履歴は、ユーザU1の操作に基づいてゲーム処理部201によって実行されたアバターV1の動作の履歴が履歴蓄積部205に蓄積されたものである。 The action history C24 is a history of actions performed by the avatar V1 while staying at the workplace (actions for proceeding with work, etc.). The action history C25 is a history of actions performed by the avatar V1 while staying at the restaurant (for example, actions of talking with other avatars, etc.). These motion histories are the histories of the motions of the avatar V1 executed by the game processing section 201 based on the operations of the user U1, which are accumulated in the history accumulation section 205.

履歴蓄積部205は、動作、時刻および関連場所の関係に応じて行動の種類を特定し、特定した行動の種類を記憶する。履歴蓄積部205は、例えば、動作履歴のうち、午前中に自宅から職場まで移動する動作履歴(図5の例ではC21、C22およびC23)に「出勤」という行動の種類を対応付けて記憶する。また、履歴蓄積部205は、例えば、一定期間よりも長い時間職場に滞在する動作履歴(図5の例ではC24)に「業務」という行動の種類を対応付けて記憶する。また、履歴蓄積部205は、例えば、一定期間よりも短い時間食堂に滞在する動作履歴(図5の例ではC25)に「休憩」という行動の種類を対応付けて記憶する。なお、ここで述べた動作、時刻および関連場所の関係は一例であり、それとは異なる関係が用いられてもよい。 The history storage unit 205 identifies the type of behavior according to the relationship between the motion, time, and related location, and stores the identified type of behavior. For example, the history storage unit 205 associates and stores the action type "going to work" with the action history of moving from home to work in the morning (in the example of FIG. 5, C21, C22, and C23) among the action histories. . Further, the history storage unit 205 stores, for example, an action history of staying at the workplace for a longer time than a certain period (C24 in the example of FIG. 5) in association with the action type "work". Further, the history storage unit 205 stores, for example, the action history of staying at the cafeteria for a shorter time than a certain period (C25 in the example of FIG. 5) in association with the action type "rest". Note that the relationships among the operations, times, and related locations described here are merely examples, and other relationships may be used.

履歴蓄積部205は、こうしてアバターV1の行動履歴を蓄積していく。蓄積された行動履歴は、毎週の同じ時間帯に行われる行動を示すようになる。例えば、平日の朝7時から9時の期間には出勤が行われ、9時から12時の期間には業務が行われ、12時から13時の期間には休憩が行われるという具合である。状況特定部204は、このように習慣化された行動履歴がある場合に、習慣化された行動を予定された行動とみなして、予定情報を用いる場合と同様の方法でアバターV1の状況を特定する。以上のとおり、状況特定部204は、アバターが所定の時間帯に所定の行動を行ったことに基づいてそのアバターの状況を特定する。 The history accumulation unit 205 thus accumulates the action history of the avatar V1. The accumulated action history will show actions performed at the same time every week. For example, on weekdays, employees go to work from 7 a.m. to 9 a.m., work takes place from 9 a.m. to 12 p.m., and they take a break from 12 p.m. to 1 p.m. . When there is a behavior history that has become a habit in this way, the situation identifying unit 204 regards the habitual behavior as a scheduled behavior and identifies the situation of the avatar V1 in the same manner as when using schedule information. do. As described above, the situation identifying unit 204 identifies the situation of the avatar based on the fact that the avatar has performed a predetermined action in a predetermined time period.

続いて、図3に示すA24においてアバターの状況がコンテンツの提示条件を満たすか否かを判断する方法を説明する。提示決定部203は、例えば、コンテンツテーブルを用いて提示条件についての判断を行う。
図6は、コンテンツテーブルの一例である。図6の例では、「ユーザ属性」、「アバターの状況」、「コンテンツオーナー」、「提示態様」、「コンテンツデータ」および「提示条件」を対応付けたコンテンツテーブルC3が示されている。
Next, a method for determining whether the avatar's situation satisfies the content presentation conditions at A24 shown in FIG. 3 will be described. The presentation determining unit 203 uses, for example, a content table to determine presentation conditions.
FIG. 6 is an example of a content table. In the example of FIG. 6, a content table C3 is shown that associates "user attributes", "avatar status", "content owner", "presentation mode", "content data", and "presentation conditions".

「ユーザ属性」とは、アバターに対応するユーザの属性である。コンテンツテーブルC3には、例えば、興味を持つコンテンツが共通しやすいグループに共通する属性がユーザ属性として示される。図6の例では、「30代男性」、「30代女性」というように、年代と性別の組み合わせがユーザ属性として示されている。 "User attribute" is the attribute of the user corresponding to the avatar. In the content table C3, for example, attributes that are common to groups that are likely to have the same interesting content are shown as user attributes. In the example of FIG. 6, combinations of age and gender are shown as user attributes, such as "male in his 30s" and "female in her 30s."

「アバターの状況」は、「時間枠」および「領域属性」によって表されている。「時間枠」は、ユーザに対してコンテンツを提示することが予定された時間の枠のことであり、固定された時間帯ではなく、ユーザが特定の状況にある期間のことを表している。図6の例では、「出勤」、「休憩」、「退勤」等が時間枠として示されている。 The "avatar situation" is represented by a "time frame" and "area attribute." A "time frame" is a time frame in which content is scheduled to be presented to a user, and is not a fixed time slot, but rather a period in which the user is in a specific situation. In the example of FIG. 6, "work", "break", "clock out", etc. are shown as time frames.

仮想空間には、属性が異なる複数の領域が存在する。「領域属性」はそれらの領域の属性のことであり、図6の例では、「屋外」および「屋内」が示されている。なお、領域属性には、他にも、自動車内、電車内、建物内、船内、飛行機内、路上、公園、屋上、水上、街中および郊外等が含まれる。「領域属性」は、時間枠に示された状況において、仮想空間内でアバターが所在する領域の領域属性を示している。例えば「出勤」の場合、徒歩等により「屋外」を移動する状況と、駅および電車等の「屋内」を移動する状況とが示されている。 A plurality of areas with different attributes exist in the virtual space. "Area attributes" are attributes of those regions, and in the example of FIG. 6, "outdoors" and "indoors" are shown. Note that area attributes also include inside a car, inside a train, inside a building, inside a ship, inside an airplane, on the street, in a park, on a rooftop, on the water, in the city, in the suburbs, and the like. "Area attribute" indicates the area attribute of the area where the avatar is located in the virtual space in the situation indicated in the time frame. For example, in the case of "going to work", a situation in which the user moves "outdoors" such as on foot, and a situation in which the user moves "indoors" such as at a station or on a train are shown.

「コンテンツオーナー」は、コンテンツを用意した企業等を示す。図6の例では、「屋外」および「屋内」の「出勤」というアバターの状況に対して「A社」がコンテンツを用意している。また、「屋内」の「休憩」に対して「B社」がコンテンツを用意し、「屋内」の「退勤」に対して「C社」がコンテンツを用意している。 “Content owner” indicates a company etc. that prepared the content. In the example of FIG. 6, "Company A" has prepared content for the avatar situations of "outdoor" and "indoor" and "work". Further, "Company B" prepares content for "break" in "indoors", and "Company C" prepares content for "clocking out" in "indoors".

「提示態様」は、コンテンツを提示する際の態様を示す。図6の例では、A社が用意したコンテンツが、「屋外」の「出勤」の場合は「2D建物オブジェクト投影」という態様で提示され、「屋内」の「出勤」の場合は「3Dキャラオブジェクト」という態様で提示されることが示されている。「2D建物オブジェクト投影」は、2次元的(平面的)デザインのコンテンツを仮想空間内の建物に投影する態様である。「3Dキャラオブジェクト」は、3次元的(立体的)デザインのコンテンツを仮想空間内のキャラクタが関与して提示する態様である。 “Presentation mode” indicates the mode when presenting the content. In the example of FIG. 6, the content prepared by Company A is presented in the form of a ``2D building object projection'' when the message is ``outdoor'' and ``going to work,'' and when the content is ``going to work'' which is ``indoor,'' it is presented in the form of a ``3D character object projection.'' ”. “2D building object projection” is a mode of projecting two-dimensional (planar) design content onto a building in virtual space. A "3D character object" is a mode in which content with a three-dimensional (stereoscopic) design is presented with the participation of a character in a virtual space.

キャラクタとは、ユーザが操作するアバターまたはゲーム処理部201により制御されるNPC(Non Player Character)のことである。キャラクタが関与する態様とは、例えば、キャラクタの表面にコンテンツが表示されたり、キャラクタがコンテンツの音を出力したり、コンテンツが示された看板をキャラクタが掲げたりする態様である。なお、ここで示す提示態様は一例であり、デザインの変化、色の変化、大きさの変化、動きの変化、音の変化等を伴う様々な演出を狙った態様が採用されうる。 The character refers to an avatar operated by a user or an NPC (Non Player Character) controlled by the game processing unit 201. The mode in which the character is involved is, for example, a mode in which content is displayed on the surface of the character, a character outputs the sound of the content, or a character holds up a signboard showing the content. Note that the presentation mode shown here is an example, and modes aiming at various effects involving changes in design, color, size, movement, sound, etc. may be adopted.

「コンテンツデータ」は、「コンテンツオーナー」が用意したコンテンツを「提示態様」に示される態様で提示するためのデータであり、図6の例では、「コンテンツEa1」、「コンテンツEa2」、「コンテンツEb1」および「コンテンツEc1」等のデータ名で示されている。「コンテンツデータ」は、具体的には、コンテンツを示す画像データ、動画データ、音データおよびパラメータデータ等である。パラメータデータは、コンテンツを提示する際の画像の大きさや動く方向、音の大きさ等を設定するパラメータを示すデータである。 "Content data" is data for presenting content prepared by a "content owner" in the manner shown in "presentation mode", and in the example of FIG. 6, "content Ea1", "content Ea2", "content Eb1" and "Content Ec1". Specifically, "content data" includes image data, video data, sound data, parameter data, etc. that indicate content. Parameter data is data indicating parameters for setting the size of an image, the direction of movement, the volume of sound, etc. when presenting content.

「提示条件」は、コンテンツを提示するための条件であり、コンテンツ毎に定められている。本実施形態では、ユーザU1の属性と、状況特定部204により特定されたアバターV1の状況との組み合わせが、コンテンツテーブルに示されているユーザ属性とアバターの状況との組み合わせに一致している場合に、その組み合わせに対応付けられているコンテンツの提示条件が満たされる。提示決定部203は、特定された状況が提示条件を満たすコンテンツを、ユーザに提示するコンテンツとして決定する。 "Presentation conditions" are conditions for presenting content, and are defined for each content. In this embodiment, when the combination of the user U1's attributes and the avatar V1's situation specified by the situation specifying unit 204 matches the combination of the user attributes and the avatar's situation shown in the content table Then, the presentation condition of the content associated with that combination is satisfied. The presentation determining unit 203 determines content whose identified situation satisfies the presentation conditions as content to be presented to the user.

例えば、ユーザU1が30代男性であり、アバターV1の状況が屋外を徒歩等で移動しながら出勤している状況である場合、A社が提供するコンテンツEa1の提示条件Fa1が満たされる。また、ユーザU1が30代男性であり、アバターV1の状況が屋内を電車等で移動しながら出勤している状況である場合、A社が提供するコンテンツEa2の提示条件Fa2が満たされる。また、ユーザU1が30代男性であり、アバターV1の状況が屋内で休憩をしている状況である場合、B社が提供するコンテンツEb1の提示条件Fb1が満たされる。また、ユーザU1が30代男性であり、アバターV1の状況が屋内を電車等で移動しながら退勤している状況である場合、C社が提供するコンテンツEc1の提示条件Fc1が満たされる。 For example, if the user U1 is a man in his 30s and the avatar V1 is in a situation where he goes to work while moving outdoors on foot or the like, the presentation condition Fa1 of the content Ea1 provided by Company A is satisfied. Further, if the user U1 is a man in his 30s and the avatar V1 is in a situation where he is going to work while moving indoors on a train or the like, the presentation condition Fa2 of the content Ea2 provided by Company A is satisfied. Furthermore, if the user U1 is a man in his 30s and the avatar V1 is taking a break indoors, the presentation condition Fb1 of the content Eb1 provided by Company B is satisfied. Further, if the user U1 is a man in his 30s and the avatar V1 is in a situation where he is leaving work while moving indoors on a train or the like, the presentation condition Fc1 of the content Ec1 provided by Company C is satisfied.

提示制御部207は、コンテンツテーブルを用いて、提示条件を満たしたコンテンツを提示する態様を決定する。提示制御部207は、例えば、コンテンツEa1の提示条件が満たされた場合、コンテンツEa1に対応付けられている「2D オブジェクト投影」という態様を、コンテンツを提示する態様として決定する。「2D オブジェクト投影」は、仮想空間内の平面を有するオブジェクトに2次元的(平面的)に表されたコンテンツを投影する方法である。 The presentation control unit 207 uses the content table to determine the manner in which content that satisfies the presentation conditions is presented. For example, when the presentation condition of the content Ea1 is satisfied, the presentation control unit 207 determines the mode of "2D object projection" associated with the content Ea1 as the mode of presenting the content. “2D object projection” is a method of projecting two-dimensional (planar) content onto an object having a plane in a virtual space.

また、提示制御部207は、コンテンツEa2の提示条件が満たされた場合、コンテンツEa2に対応付けられている「3D キャラクタオブジェクト」という態様を、コンテンツを提示する態様として決定する。「3D キャラクタオブジェクト」は、仮想空間内のキャラクタ(アバターを含む)オブジェクトが関わる領域に3次元的(立体的)に表されたコンテンツを投影する方法である。このように、提示制御部207は、仮想空間においてアバターが所在する領域の属性に応じた態様でコンテンツを提示する。 Further, when the presentation condition of content Ea2 is satisfied, the presentation control unit 207 determines the mode of "3D character object" associated with content Ea2 as the mode of presenting the content. "3D character object" is a method of projecting content expressed three-dimensionally (stereoscopically) onto an area related to a character (including an avatar) object in a virtual space. In this way, the presentation control unit 207 presents content in a manner that corresponds to the attribute of the area where the avatar is located in the virtual space.

図7は、仮想空間を表す地図の一例である。図7の例では、アバターV1の自宅と職場を含む地図M1が示されている。アバターV1は、職場まで徒歩で移動する通勤経路H1と、途中で電車を利用する通勤経路H2とのいずれかで通勤を行っているも
のとする。アバターV1は、通勤経路H1を利用して出勤した場合、ずっと屋外を移動することになるので、図6に示すコンテンツEa1の提示条件Fa1を満たし続けることになる。提示制御部207は、例えば、決められた時間間隔(1分毎等)でアバターV1の状況が提示条件を満たすか否かを判断し、満たすと判断した場合にコンテンツEa1をユーザU1に提示する。
FIG. 7 is an example of a map representing virtual space. In the example of FIG. 7, a map M1 including the home and workplace of the avatar V1 is shown. It is assumed that the avatar V1 commutes along either a commuting route H1 in which he walks to his workplace, or a commuting route H2 in which he uses a train en route. When the avatar V1 goes to work using the commuting route H1, the avatar V1 moves outdoors all the time, and therefore continues to satisfy the presentation condition Fa1 of the content Ea1 shown in FIG. 6. For example, the presentation control unit 207 determines whether the situation of the avatar V1 satisfies the presentation conditions at predetermined time intervals (every minute, etc.), and presents the content Ea1 to the user U1 when it is determined that the situation of the avatar V1 satisfies the presentation conditions. .

図8は、仮想空間において提示されるコンテンツの一例である。図8の例では、ゲーム処理部201が、アバターV1に対応する視点から見た視界に入る仮想空間として、屋外での通勤経路H1を示す仮想空間G1を表示している。提示制御部207は、仮想空間G1において、通勤経路H1に近接するオブジェクトO1の平面部分に、2次元的に表されたコンテンツEa1を表示させている。提示制御部207は、このようにオブジェクトに平面的な画像を投影する態様でコンテンツEa1を表示させることにより、そのコンテンツEa1をユーザU1に提示する。 FIG. 8 is an example of content presented in virtual space. In the example of FIG. 8, the game processing unit 201 displays a virtual space G1 indicating an outdoor commuting route H1 as a virtual space within the field of view seen from a viewpoint corresponding to the avatar V1. The presentation control unit 207 causes a two-dimensionally represented content Ea1 to be displayed on a plane portion of an object O1 that is close to the commuting route H1 in the virtual space G1. The presentation control unit 207 presents the content Ea1 to the user U1 by displaying the content Ea1 in such a manner that a planar image is projected onto the object.

なお、コンテンツEa1の提示態様は図8に示すものに限らない。例えば、通勤経路H1沿いに建っている建物にプロジェクションマッピングのような態様でコンテンツEa1を表示させてもよい。また、周囲のアバターまたは新たに登場したキャラクタ等が表示されたコンテンツを盛り上げるような演出(いわゆるフラッシュモブのような演出)を行う態様でコンテンツEa1が提示されてもよい。また、これらに限らず、上述しまたは以降で述べる様々な態様を採用してもよい。 Note that the presentation mode of content Ea1 is not limited to that shown in FIG. 8. For example, the content Ea1 may be displayed on a building along the commuting route H1 in a manner such as projection mapping. Further, the content Ea1 may be presented in such a manner that surrounding avatars or newly appeared characters enliven the displayed content (a so-called flash mob-like performance). Furthermore, the present invention is not limited to these, and various aspects described above or hereinafter may be adopted.

アバターV1が通勤経路H2を利用して出勤した場合、出勤中の期間は、徒歩等で屋外を移動する期間と、電車に乗って屋内を移動する期間とに分けられる。屋外の移動中は、図8に示すような態様でコンテンツEa1が表示される。屋内の移動中は、提示制御部207は、アバターV1の状況が提示条件Fa2を満たすので、コンテンツEa2をユーザU1に提示する。 When the avatar V1 goes to work using the commuting route H2, the period during which the avatar is going to work is divided into a period of walking outdoors and a period of moving indoors on a train. While moving outdoors, content Ea1 is displayed in a manner as shown in FIG. While moving indoors, the presentation control unit 207 presents the content Ea2 to the user U1 because the situation of the avatar V1 satisfies the presentation condition Fa2.

図9は、仮想空間において提示されるコンテンツの一例である。図9の例では、ゲーム処理部201が、アバターV1に対応する視点から見た視界に入る仮想空間として、電車の内部を示す仮想空間G2を表示している。ゲーム処理部201は、図9(a)に示すように、仮想空間G2において、アバターV1と、ユーザU1とは別のユーザに対応するアバターV2およびV3を表示させている。 FIG. 9 is an example of content presented in virtual space. In the example of FIG. 9, the game processing unit 201 displays a virtual space G2 showing the inside of the train as a virtual space that can be seen from the viewpoint corresponding to the avatar V1. As shown in FIG. 9A, the game processing unit 201 displays an avatar V1 and avatars V2 and V3 corresponding to users different from the user U1 in the virtual space G2.

ここで、提示制御部207は、提示条件Fa2が満たされたと判断すると、まず、コンテンツEa2を表示させる領域に他のアバターが重なって表示されているか否かを判断する。図9の例では、アバターV2およびV3がコンテンツEa2の表示領域に重なって表示されているものとする。その場合、提示制御部207は、ゲーム処理部201にアバターの切り替えを指示する。ゲーム処理部201は、この指示がされると、アバターV2およびV3の表示を終了させ、それと入れ替わりに、図9(b)に示すように、アバターV2-2およびV3-2を表示させる。 Here, when the presentation control unit 207 determines that the presentation condition Fa2 is satisfied, it first determines whether another avatar is displayed in an overlapping manner in the area where the content Ea2 is displayed. In the example of FIG. 9, it is assumed that avatars V2 and V3 are displayed overlapping the display area of content Ea2. In that case, the presentation control unit 207 instructs the game processing unit 201 to switch avatars. When this instruction is given, the game processing unit 201 ends the display of avatars V2 and V3, and displays avatars V2-2 and V3-2 in their place, as shown in FIG. 9(b).

アバターV2-2およびV3-2は、コンテンツの提示のために表示されるキャラクタオブジェクトであり、提示制御部207により制御されて動作するNPC(ノンプレイヤーキャラクター)であるため、アバターV2およびV3に対応するユーザの操作では動作しない。 Avatars V2-2 and V3-2 are character objects displayed to present content, and are NPCs (non-player characters) that operate under the control of the presentation control unit 207, so they correspond to avatars V2 and V3. It does not work if the user does the following.

提示制御部207は、例えば、3次元的に表されたコンテンツEa2を示すオブジェクトO2を表示させ、ゲーム処理部201に、アバターV2-2およびV3-2がオブジェクトO2を掲げる姿となるように表示を指示する。提示制御部207は、このようにキャラクタオブジェクト(アバターV2-2およびV3-2)を利用する態様でコンテンツEa2をユーザU1に提示する。 For example, the presentation control unit 207 causes the object O2 representing the three-dimensionally represented content Ea2 to be displayed, and causes the game processing unit 201 to display the object O2 so that the avatars V2-2 and V3-2 are holding up the object O2. instruct. The presentation control unit 207 thus presents the content Ea2 to the user U1 in a manner that utilizes the character objects (avatars V2-2 and V3-2).

提示制御部207は、上記アバターの切り替えおよびコンテンツEa2の提示を、ユーザU1のゲーム装置3でのみで行う。つまり、ゲーム処理部201は、他のユーザのゲーム装置3においては、引き続きアバターV2およびV3を表示させ、それぞれ対応するユーザの操作に応じて動作させる。 The presentation control unit 207 switches the avatar and presents the content Ea2 only on the game device 3 of the user U1. That is, the game processing unit 201 continues to display the avatars V2 and V3 on the game devices 3 of other users, and causes them to operate in accordance with the operations of the respective users.

以上のとおり、ゲーム処理部201は、或るアバター(図9の例ではアバターV1)の視界においてそのアバターに提示されたコンテンツ(同じくコンテンツEa2)と他のアバター(同じくアバターV2およびV3)とが重なって見える場合、その視界では他のアバターをコンテンツの提示用のアバター(同じくアバターV2-2およびV3-2)に置き換えて表示する。そして、提示制御部207は、表示された提示用のアバターを用いてコンテンツを提示する。 As described above, the game processing unit 201 determines whether the content (also content Ea2) presented to a certain avatar (also avatar V1 in the example of FIG. 9) and other avatars (also avatars V2 and V3) are different from each other in the field of view. If they overlap, the other avatars are replaced with content presentation avatars (also avatars V2-2 and V3-2) in that field of view. The presentation control unit 207 then presents the content using the displayed presentation avatar.

なお、コンテンツEa2の提示態様は図9に示すものに限らない。例えば、アバターV2-2およびV3-2に持たせたオブジェクトではなく、アバターV2-2およびV3-2のスキンの表面を表示面と捉えてコンテンツEa2を表示させる態様であってもよい。また、アバターV2-2およびV3-2が元のアバターの姿ではなくマスコットの姿に変化する態様であってもよい。また、元々表示されていたアバターとは別に新たなアバターまたはマスコット等が現れてコンテンツEa2を提示する態様であってもよい。また、コンテンツEa2を画像ではなくキャラクタオブジェクトが音声で説明する態様であってもよい。また、これらに限らず、上述しまたは以降で述べる様々な態様を採用してもよい。 Note that the presentation mode of the content Ea2 is not limited to that shown in FIG. 9. For example, the content Ea2 may be displayed using the surfaces of the skins of the avatars V2-2 and V3-2 as display surfaces, rather than the objects held by the avatars V2-2 and V3-2. Furthermore, the avatars V2-2 and V3-2 may change into mascot forms instead of their original avatar forms. Alternatively, a new avatar, mascot, or the like may appear in addition to the originally displayed avatar to present the content Ea2. Alternatively, the content Ea2 may be explained by a character object using audio instead of an image. Furthermore, the present invention is not limited to these, and various aspects described above or hereinafter may be employed.

アバターV1が職場に到着し、昼休みの休憩に入ると、提示条件Fb1が満たされる。その場合、提示制御部207は、提示条件Fb1に対応付けられたコンテンツEb1をユーザU1に提示する。
図10は、仮想空間において提示されるコンテンツの一例である。図10の例では、ゲーム処理部201が、アバターV1に対応する視点から見た視界に入る仮想空間として、職場を示す仮想空間G3を表示している。ゲーム処理部201は、図10(a)に示すように、仮想空間G3において、アバターV1の他に、ユーザU1とは別のユーザに対応するアバターV4およびV5を表示させている。
When the avatar V1 arrives at the workplace and takes a lunch break, the presentation condition Fb1 is satisfied. In that case, the presentation control unit 207 presents the content Eb1 associated with the presentation condition Fb1 to the user U1.
FIG. 10 is an example of content presented in virtual space. In the example of FIG. 10, the game processing unit 201 displays a virtual space G3 representing a workplace as a virtual space that is visible from a viewpoint corresponding to the avatar V1. As shown in FIG. 10A, the game processing unit 201 displays avatars V4 and V5 corresponding to users different from the user U1 in addition to the avatar V1 in the virtual space G3.

ここで、提示制御部207は、提示条件Fb1が満たされたと判断すると、まず、ゲーム処理部201に、アバターV4およびV5の表示を終了させ、それと入れ替わりに、図10(b)に示すように、NPCであるアバターV4-2およびV5-2を表示させるよう指示する。アバターV4-2およびV5-2は、図9に示すアバターV2-2およびV3-2と同様に、コンテンツの提示のために表示されるキャラクタオブジェクトである。また、提示制御部207は、さらに、新たなNPCであるキャラクタW1を仮想空間G3に表示させるようゲーム処理部201に指示する。 Here, when the presentation control unit 207 determines that the presentation condition Fb1 is satisfied, the presentation control unit 207 first causes the game processing unit 201 to finish displaying the avatars V4 and V5, and instead displays the avatars V4 and V5 as shown in FIG. 10(b). , instructs to display avatars V4-2 and V5-2, which are NPCs. Avatars V4-2 and V5-2, like avatars V2-2 and V3-2 shown in FIG. 9, are character objects displayed for presenting content. Furthermore, the presentation control unit 207 further instructs the game processing unit 201 to display the character W1, which is a new NPC, in the virtual space G3.

提示制御部207は、ユーザU1のゲーム装置3においては、例えば、アバターV4-2およびV5-2のスキンをエアロビ用に変更する。そして、提示制御部207は、キャラクタW1からエアロビを勧めるセリフを示す吹き出し画像をコンテンツEb1として表示させる。提示制御部207は、このようにキャラクタオブジェクト(アバターV4-2、V5-2およびキャラクタW1)を利用する態様でコンテンツEb1を表示させることで、そのコンテンツEb1をユーザU1に提示する。 In the game device 3 of the user U1, the presentation control unit 207 changes the skins of the avatars V4-2 and V5-2 to those for aerobics, for example. Then, the presentation control unit 207 displays a balloon image showing a line from the character W1 recommending aerobics as the content Eb1. The presentation control unit 207 presents the content Eb1 to the user U1 by displaying the content Eb1 in such a manner that the character objects (avatars V4-2, V5-2, and character W1) are used.

なお、図10の例では、提示制御部207は、ゲーム処理部201に指示してアバターV1のスキンもエアロビ用に変更させている。ユーザU1のゲーム装置3においては、アバターV4-2およびV5-2についてはコンテンツEb1を提示するため提示制御部207が動作を制御するが、アバターV1については、ゲーム処理部201が引き続き動作を制御し、ユーザU1が操作できるようにしている。 In the example of FIG. 10, the presentation control unit 207 instructs the game processing unit 201 to also change the skin of the avatar V1 to one for aerobics. In the game device 3 of the user U1, the presentation control unit 207 controls the operation of the avatars V4-2 and V5-2 in order to present the content Eb1, but the game processing unit 201 continues to control the operation of the avatar V1. and allows user U1 to operate it.

なお、コンテンツEb1の提示態様は図10に示すものに限らない。例えば、仮想空間G3に存在するモニターを表すオブジェクトにコンテンツを示す動画を表示させる態様であってもよい。また、アバターのスキンだけでなく、仮想空間G3に表示されている部屋の雰囲気(明るさ、模様、色合い等)を変化させる態様であってもよい。また、これらに限らず、上述しまたは以降で述べる様々な態様を採用してもよい。 Note that the presentation mode of the content Eb1 is not limited to that shown in FIG. 10. For example, a mode may be adopted in which a moving image showing the content is displayed on an object representing a monitor existing in the virtual space G3. Further, in addition to changing the skin of the avatar, the atmosphere (brightness, pattern, color tone, etc.) of the room displayed in the virtual space G3 may be changed. Furthermore, the present invention is not limited to these, and various aspects described above or hereinafter may be employed.

A45において記録されるコンテンツの提示実績を説明する。
図11は、コンテンツの提示実績の一例である。図11の例では、「時刻」、「予定」、「提示予定コンテンツ」、「行動履歴」および「提示実績」を示すコンテンツ履歴C4が示されている。コンテンツ履歴C4は、例えば、アバターV1に対応するユーザU1に提示されたコンテンツに関する履歴である。コンテンツ記憶部202は、「時刻」に示される各時刻において、「予定」として予定情報または習慣化された行動履歴を記憶する。
The presentation results of the content recorded in A45 will be explained.
FIG. 11 is an example of content presentation results. In the example of FIG. 11, a content history C4 indicating "time", "schedule", "scheduled presentation content", "behavior history", and "presentation results" is shown. The content history C4 is, for example, a history regarding content presented to the user U1 corresponding to the avatar V1. The content storage unit 202 stores schedule information or habitual behavior history as a "schedule" at each time indicated by "time".

また、コンテンツ記憶部202は、「提示予定広告」として、アバターV1が予定どおりの行動をした場合に提示される予定のコンテンツを記憶する。また、コンテンツ記憶部202は、「行動履歴」として、図5に示す行動履歴を記憶する。また、コンテンツ記憶部202は、「提示実績」として、提示制御部207により実際に提示されたコンテンツと、提示時刻とを対応付けて記憶する。このようにコンテンツ履歴C4が記憶されることで、例えば、コンテンツの提示状況を分析することができる。 Further, the content storage unit 202 stores content that is scheduled to be presented when the avatar V1 behaves as planned, as a "presentation schedule advertisement." Further, the content storage unit 202 stores the behavior history shown in FIG. 5 as the "behavior history". Further, the content storage unit 202 stores, as a “presentation record”, the content actually presented by the presentation control unit 207 and the presentation time in association with each other. By storing the content history C4 in this manner, it is possible, for example, to analyze the presentation status of the content.

[その他]
実施形態で述べたように、仮想空間には、属性が異なる複数の領域が存在する。それら複数の領域は、仮想空間におけるアバターの目的地までの経路に沿って存在するという領域属性を有していてもよい。そして、コンテンツは、順番が定められた複数のサブコンテンツを有するとする。その場合に、提示制御部207は、アバターが経路に沿って移動した場合に複数のサブコンテンツを順番で提示してもよい。
[others]
As described in the embodiment, a plurality of areas with different attributes exist in the virtual space. The plurality of regions may have a region attribute of existing along the route to the avatar's destination in the virtual space. It is assumed that the content has a plurality of sub-contents in a predetermined order. In that case, the presentation control unit 207 may present a plurality of sub-contents in order when the avatar moves along the route.

図12は、仮想空間において提示されるコンテンツの一例である。図12の例では、図7に示す地図M1に、アバターV1の自宅から職場までの通勤経路H1と、通勤経路H1に沿って存在するという領域属性を有する経路領域H11、H12、H13、H14およびH15(以下区別しない場合は「経路領域H10と言う」とが示されている。通勤経路H1に沿って自宅から職場まで移動すると、アバターV1は、経路領域H11、H12、H13、H14、H15の順番に各経路領域H10を通過することになる。 FIG. 12 is an example of content presented in virtual space. In the example of FIG. 12, the map M1 shown in FIG. 7 includes a commuting route H1 from the home to the workplace of the avatar V1, and route areas H11, H12, H13, H14 and H15 (hereinafter referred to as "route area H10" if not distinguished).When traveling from home to work along commuting route H1, avatar V1 moves to route areas H11, H12, H13, H14, and H15. It will pass through each route area H10 in turn.

経路領域H11、H12、H13、H14、H15には、コンテンツテーブルにおいて、サブコンテンツEh11、Eh12、Eh13、Eh14およびEh15(以下区別しない場合は「サブコンテンツEh10と言う」がそれぞれ対応付けられているものとする。これにより、サブコンテンツEh10は、対応する経路領域H10と同様に符号に含まれる数字(11、12、・・・)のとおり順番が定められることになる。 Path areas H11, H12, H13, H14, and H15 are associated with subcontents Eh11, Eh12, Eh13, Eh14, and Eh15 (hereinafter referred to as "subcontent Eh10" if not distinguished) in the content table, respectively. As a result, the order of the sub-content Eh10 is determined according to the numbers (11, 12, . . . ) included in the codes, similarly to the corresponding route area H10.

提示制御部207は、アバターV1が通勤経路H1に沿って通勤する状況である場合、現在位置が含まれる経路領域H10に対応付けられたサブコンテンツEh10をユーザU1に提示する。これにより、提示制御部207は、アバターV1が通勤経路H1に沿って移動した場合に複数のサブコンテンツEh10を順番で提示することになる。 When the avatar V1 is commuting along the commuting route H1, the presentation control unit 207 presents the sub-content Eh10 associated with the route area H10 including the current position to the user U1. Thereby, the presentation control unit 207 presents the plurality of sub-contents Eh10 in order when the avatar V1 moves along the commuting route H1.

アバターの状況には、上記のとおり、出勤、業務、休憩および退勤等のように複数の種類がある。提示制御部207は、提示条件を満たした状況の種類に応じた態様でコンテンツを提示してもよい。この場合、提示制御部207は、図6に示すようなコンテンツテーブルにおいてアバターの状況の種類に対応付けられた態様でコンテンツを提示すればよい。 As mentioned above, there are multiple types of avatar situations, such as attendance, work, break, and leaving work. The presentation control unit 207 may present the content in a manner according to the type of situation that satisfies the presentation condition. In this case, the presentation control unit 207 may present the content in a manner that is associated with the type of situation of the avatar in a content table as shown in FIG.

図13は、提示されたコンテンツの一例である。図13の例では、図13(a)にアバターV1の自宅から職場までの出勤経路H1-1(出勤時の通勤経路H1)と、図13(b)にアバターV1の職場から自宅までの退勤経路H1-2(退勤時の通勤経路H1)とが示されている。提示制御部207は、出勤経路H1-1を利用して出勤した場合に提示条件を満たし、コンテンツEa1を図13(a)に示すように白抜きの文字列を用いる態様で提示する。 FIG. 13 is an example of the presented content. In the example of FIG. 13, FIG. 13(a) shows avatar V1's commuting route H1-1 from home to work (commuting route H1 when going to work), and FIG. 13(b) shows avatar V1's leaving work route from work to home. A route H1-2 (commuting route H1 when leaving work) is shown. The presentation control unit 207 satisfies the presentation condition when the user goes to work using the work route H1-1, and presents the content Ea1 in a manner using an outline character string as shown in FIG. 13(a).

また、提示制御部207は、退勤経路H1-2を利用して出勤した場合に提示条件を満たし、コンテンツEa1を図13(b)に示すように黒文字の文字列を用いる態様で提示する。図13の例では、同じ通勤経路H1を利用する場合でも、状況の種類が「出勤」と「退勤」のいずれであるかによって、異なる態様でコンテンツを提示する。なお、図13の例では、文字の色と背景を異ならせる態様であったが、これらに限らず、上述しまたは以降で述べる様々な態様を採用してもよい。 Further, the presentation control unit 207 satisfies the presentation condition when the user goes to work using the leaving route H1-2, and presents the content Ea1 in a manner using black character strings as shown in FIG. 13(b). In the example of FIG. 13, even when the same commuting route H1 is used, content is presented in different ways depending on whether the type of situation is "going to work" or "leaving work." In the example of FIG. 13, the color of the characters and the background are different, but the present invention is not limited to this, and various embodiments described above or below may be adopted.

提示制御部207は、2以上のアバターの視界に仮想空間における共通の領域(以下「共通領域」と言う)が存在する場合、2以上のアバターのうち状況が提示条件を満たすアバターのみにその共通領域においてコンテンツを提示してもよい。 When a common area in the virtual space (hereinafter referred to as a "common area") exists in the field of view of two or more avatars, the presentation control unit 207 controls the presentation control unit 207 to display the common area only for those avatars whose situations satisfy the presentation conditions among the two or more avatars. Content may be presented in the area.

図14は、仮想空間において提示されるコンテンツの一例である。ゲーム処理部201は、図14(a)に示すように、アバターV1の視点から見た仮想空間G5を表示させ、図14(b)に示すように、図14(a)と同時刻においてアバターV2(ユーザU2に対応するアバター)の視点から見た仮想空間G5を表示させている。仮想空間G5には、アバターV1の視界およびアバターV2の視界に共通している共通領域G51が含まれている。 FIG. 14 is an example of content presented in virtual space. As shown in FIG. 14(a), the game processing unit 201 displays the virtual space G5 seen from the viewpoint of the avatar V1, and as shown in FIG. 14(b), the avatar A virtual space G5 viewed from the viewpoint of V2 (avatar corresponding to user U2) is displayed. The virtual space G5 includes a common area G51 that is common to the field of view of the avatar V1 and the field of view of the avatar V2.

図14の例において、アバターV1の状況は提示条件を満たし、アバターV2の状況は提示条件を満たさないものとする。その場合、提示制御部207は、アバターV1の視界の共通領域G51には、コンテンツEa3を表示させ、アバターV2の視界の共通領域G51には、コンテンツEa3を表示させない。つまり、アバターV1に対応するユーザU1のゲーム装置3には、コンテンツEa3が表示されており、アバターV2に対応するユーザU2のゲーム装置3には、コンテンツEa3が表示されていない。 In the example of FIG. 14, it is assumed that the situation of avatar V1 satisfies the presentation condition, and the situation of avatar V2 does not satisfy the presentation condition. In that case, the presentation control unit 207 causes the content Ea3 to be displayed in the common area G51 of the field of view of the avatar V1, and does not display the content Ea3 in the common area G51 of the field of view of the avatar V2. That is, the content Ea3 is displayed on the game device 3 of the user U1 corresponding to the avatar V1, and the content Ea3 is not displayed on the game device 3 of the user U2 corresponding to the avatar V2.

ゲーム処理部201は、状況が提示条件を満たすアバターの視界に他のユーザのアバターが存在する場合、状況が提示条件を満たすアバターは表示し、状況が提示条件を満たさないアバターは表示しないようにしてもよい。 If an avatar of another user exists in the field of view of an avatar whose situation satisfies the presentation conditions, the game processing unit 201 displays the avatar whose situation satisfies the presentation conditions, and prevents the display of avatars whose situations do not satisfy the presentation conditions. It's okay.

図15は、仮想空間において提示されるコンテンツの一例である。ゲーム処理部201は、図15(a)に示すように、アバターV2の視点から見た仮想空間G6と、アバターV1、V2、V3およびV4とを表示させている。図15(a)のあと、アバターV2の状況が提示条件を満たすと、提示制御部207は、図15(b)に示すように、コンテンツEa3を表示させる。このとき、アバターV4の状況は、提示条件を満たし、アバターV1およびV3の状況は、提示条件を満たさなかったとする。すると、ゲーム処理部201は、図15(b)に示すように、仮想空間G6に、アバターV2およびV4を表示させ、アバターV1およびV3を表示させないようにする。 FIG. 15 is an example of content presented in virtual space. As shown in FIG. 15(a), the game processing unit 201 displays a virtual space G6 seen from the viewpoint of the avatar V2, and the avatars V1, V2, V3, and V4. After FIG. 15(a), when the situation of avatar V2 satisfies the presentation conditions, the presentation control unit 207 displays content Ea3 as shown in FIG. 15(b). At this time, it is assumed that the situation of avatar V4 satisfies the presentation condition, and the situations of avatars V1 and V3 do not satisfy the presentation condition. Then, the game processing unit 201 displays the avatars V2 and V4 in the virtual space G6, and does not display the avatars V1 and V3, as shown in FIG. 15(b).

なお、コンテンツEa3が見えているアバターV2およびV4と、見えていないアバターV1およびV3とを、区別可能に表示させるようにしてもよい。例えば、見えていないアバターV1およびV3は透過率を高くするように表示したり、見えているアバターV2およびV4に所定の目印画像を付与したりしてもよい。これにより、ユーザはコンテンツEa3が見えているアバターを認識できるので、そのアバターのユーザが共通の提示条件を満たしていることや、コンテンツEa3という共通の話題を有するユーザであることを認識し得るので、仮想空間におけるユーザ間のコミュニケーションを促進し得る。 Note that the avatars V2 and V4 in which the content Ea3 is visible and the avatars V1 and V3 in which the content Ea3 is not visible may be displayed in a distinguishable manner. For example, the invisible avatars V1 and V3 may be displayed with high transmittance, or the visible avatars V2 and V4 may be given a predetermined landmark image. As a result, the user can recognize the avatar that can see content Ea3, and can recognize that the user of that avatar satisfies a common presentation condition and that the user has a common topic called content Ea3. , which can facilitate communication between users in a virtual space.

以上の表示は、アバターV2に対応するユーザU2のゲーム装置3におけるものである。また、アバターV4に対応するユーザU4のゲーム装置3にもコンテンツが表示される。これに対し、アバターV1に対応するユーザU1のゲーム装置3およびアバターV3に対応するユーザU3のゲーム装置3においては、アバターV1およびV3の状況が提示条件を満たしていないので、例えば後述する図16(b)に示すように、コンテンツが表示されていない仮想空間G6が表示されることになる。 The above display is on the game device 3 of the user U2 corresponding to the avatar V2. The content is also displayed on the game device 3 of the user U4 corresponding to the avatar V4. On the other hand, in the game device 3 of the user U1 corresponding to the avatar V1 and the game device 3 of the user U3 corresponding to the avatar V3, the situations of the avatars V1 and V3 do not satisfy the presentation conditions. As shown in (b), a virtual space G6 in which no content is displayed is displayed.

ゲーム処理部201は、状況が提示条件を満たさないアバターの視界に他のユーザのアバターが存在する場合、状況が提示条件を満たさないアバターは表示し、状況が提示条件を満たすアバターは表示しないようにしてもよい。 If an avatar of another user exists in the field of view of an avatar whose situation does not satisfy the presentation conditions, the game processing unit 201 displays the avatar whose situation does not satisfy the presentation conditions, and does not display the avatar whose situation satisfies the presentation conditions. You can also do this.

図16は、仮想空間において提示されるアバターの一例である。ゲーム処理部201は、図16(a)に示すように、アバターV3の視点から見た仮想空間G6と、アバターV1、V2、V3およびV4とを表示させている。ここで、図16(a)のあと、図15の例のように、アバターV2、V4の状況は提示条件を満たしたが、アバターV1、V3の状況は提示条件を満たさなかったとする。 FIG. 16 is an example of an avatar presented in virtual space. As shown in FIG. 16(a), the game processing unit 201 displays a virtual space G6 seen from the viewpoint of the avatar V3, and the avatars V1, V2, V3, and V4. Here, it is assumed that after FIG. 16A, as in the example of FIG. 15, the situations of avatars V2 and V4 satisfy the presentation condition, but the situations of avatars V1 and V3 do not satisfy the presentation condition.

この場合、提示制御部207は、アバターV2、V4に対応するユーザU1のゲーム装置3において、図15(b)に示すように、仮想空間G6にコンテンツEa3を表示させる。一方、提示制御部207は、アバターV1、V3に対応するユーザU1、U3のゲーム装置3においては、図16(b)に示すように、仮想空間G6にコンテンツを表示させず、また、アバターV1およびV3のみを表示させ、アバターV2およびV4を表示させないようにする。これにより、見えているユーザのアバターV2、V4がコンテンツEa3を見て何らかのリアクションをとった場合に、コンテンツEa3が見えていないユーザは彼らが何に対して反応したのかと怪訝に感じることを防止し得る。なお、 コンテンツEa3が見えているアバターV2およびV4と、見えていないアバターV1およびV3とを、前述のように区別可能に表示させるようにしてもよい。 In this case, the presentation control unit 207 causes the content Ea3 to be displayed in the virtual space G6 on the game device 3 of the user U1 corresponding to the avatars V2 and V4, as shown in FIG. 15(b). On the other hand, the presentation control unit 207 does not display the content in the virtual space G6 on the game devices 3 of the users U1 and U3 corresponding to the avatars V1 and V3, as shown in FIG. and V3 are displayed, and avatars V2 and V4 are not displayed. This prevents users who cannot see content Ea3 from feeling suspicious about what they were reacting to when the visible user's avatars V2 and V4 see content Ea3 and make some kind of reaction. It is possible. Note that the avatars V2 and V4 in which the content Ea3 is visible and the avatars V1 and V3 in which the content Ea3 is not visible may be displayed in a distinguishable manner as described above.

なお、提示制御部207は、ある程度近くにコンテンツの提示対象となるアバターが複数いる場合、それらのアバターに対応するユーザのゲーム装置3におけるコンテンツの表示タイミングを合わせるように調整してもよい。そうすることで、見知らぬ人同士でもコンテンツをネタに会話が促進されるので、表示タイミングがバラバラな場合に比べて、同じコンテンツを見ている人同士でコミュニケーションを取りやすくすることができる。 Note that, when there are a plurality of avatars to which content is to be presented somewhat nearby, the presentation control unit 207 may adjust the display timing of the content on the game device 3 of the user corresponding to those avatars to match. By doing so, even strangers can use the content as a topic for conversation, making it easier for people who are viewing the same content to communicate with each other, compared to when the content is displayed at different times.

図1に示す全体構成は一例であり、これに限られない。例えば、ゲーム管理装置2は、2台以上の装置に分散されてもよいし、クラウドコンピューティングシステムに代替されてもよい。また、図2に示す機能構成も一例であり、これに限られない。例えば、ゲーム管理装置2の機能が2台以上の装置に分散して実現されてもよい。また、2つの機能を1つの機能に統合してもよいし、1つの機能を2以上の機能に分解してもよい。要するに、ゲームシステム1の全体で図2に示す各機能に相当する機能が実現されていれば、どのような構成が採用されてもよい。 The overall configuration shown in FIG. 1 is an example, and the present invention is not limited to this. For example, the game management device 2 may be distributed over two or more devices, or may be replaced by a cloud computing system. Moreover, the functional configuration shown in FIG. 2 is also an example, and is not limited to this. For example, the functions of the game management device 2 may be realized by being distributed among two or more devices. Furthermore, two functions may be integrated into one function, or one function may be decomposed into two or more functions. In short, any configuration may be adopted as long as the game system 1 as a whole implements functions corresponding to the functions shown in FIG. 2 .

上述した実施形態の態様は、情報処理装置であってもよい。その情報処理装置は、ゲームシステム1のような情報処理システムの各部を備える。ここで言う情報処理システムは、ゲーム用のシステムに限らず、業務用のシステムであってもよいし、それら以外の仮想空間を利用するアプリを提供するシステム等であってもよい。また、上述した実施形態の態様は、情報処理方法であってもよい。その情報処理方法は、同様の情報処理システムの各部を備える。また、上述した実施形態の態様は、プログラムであってもよい。そのプログラムは、コンピュータに、情報処理システムの各ステップを実行させる。 The aspect of the embodiment described above may be an information processing apparatus. The information processing device includes each part of an information processing system such as the game system 1. The information processing system referred to here is not limited to a system for games, but may be a system for business use, or a system that provides applications that use virtual spaces other than those. Moreover, the aspect of the embodiment described above may be an information processing method. The information processing method includes each part of a similar information processing system. Moreover, the aspect of the embodiment described above may be a program. The program causes the computer to execute each step of the information processing system.

<付記>
さらに、次に記載の各態様で提供されてもよい。
<Additional notes>
Furthermore, each aspect described below may be provided.

(2)(1)に記載の情報処理システムにおいて、前記状況は、前記アバターが所定の時間帯に所定の行動を行ったことに基づいて特定される、もの。 (2) In the information processing system according to (1), the situation is specified based on the avatar performing a predetermined action in a predetermined time period.

このような態様によれば、時間帯を限定することで状況をより正確に判断することができる。 According to such an aspect, the situation can be judged more accurately by limiting the time period.

(3)(1)に記載の情報処理システムにおいて、前記状況は、前記アバターが所定の時間帯に所定の行動をとることを予定することを定めた予定情報に基づいて特定される、もの。 (3) In the information processing system according to (1), the situation is specified based on schedule information that specifies that the avatar is scheduled to take a predetermined action in a predetermined time period.

(4)(1)または(2)に記載の情報処理システムにおいて、前記仮想空間には、属性が異なる複数の領域が存在し、前記提示ステップでは、前記仮想空間において前記アバターが所在する領域の属性に応じた態様で前記コンテンツを提示する、もの。 (4) In the information processing system according to (1) or (2), the virtual space includes a plurality of areas with different attributes, and in the presenting step, the area where the avatar is located in the virtual space is Something that presents the content in a manner according to its attributes.

このような態様によれば、仮想空間内の領域と相性の良い方法でコンテンツを提示することができる。 According to this aspect, content can be presented in a manner that is compatible with the area in the virtual space.

(5)(4)に記載の情報処理システムにおいて、前記複数の領域は、前記仮想空間における前記アバターの目的地までの経路に沿って存在するという属性を有し、前記コンテンツは、順番が定められた複数のサブコンテンツを有し、前記提示ステップでは、前記アバターが前記経路に沿って移動した場合に前記複数のサブコンテンツを前記順番で提示する、もの。 (5) In the information processing system according to (4), the plurality of areas have an attribute of existing along a route to the destination of the avatar in the virtual space, and the content is arranged in a predetermined order. wherein the presenting step presents the plurality of sub-contents in the order when the avatar moves along the route.

このような態様によれば、アバターが目的地に到達しやすいようにすることができる。 According to this aspect, it is possible for the avatar to easily reach the destination.

(6)(1)~(5)の何れか1つに記載の情報処理システムにおいて、前記状況には、複数の種類があり、前記提示ステップでは、前記提示条件を満たした前記状況の種類に応じた態様で前記コンテンツを提示する、もの。 (6) In the information processing system according to any one of (1) to (5), there are a plurality of types of the situation, and in the presentation step, the type of the situation that satisfies the presentation condition is selected. that presents the content in a corresponding manner.

このような態様によれば、アバターの状況と相性の良い方法でコンテンツを提示することができる。 According to this aspect, content can be presented in a manner that is compatible with the situation of the avatar.

(7)(1)~(6)の何れか1つに記載の情報処理システムにおいて、前記提示ステップでは、2以上のアバターの視界に前記仮想空間における共通の領域が存在する場合、前記2以上のアバターのうち前記状況が前記提示条件を満たすアバターのみに前記領域において前記コンテンツを提示する、もの。 (7) In the information processing system according to any one of (1) to (6), in the presenting step, if a common area in the virtual space exists in the field of view of two or more avatars, the two or more avatars The content is presented in the area only to avatars whose situation satisfies the presentation conditions among the avatars.

このような態様によれば、同じ領域でも必要なユーザにのみコンテンツを提示することができる。 According to such an aspect, content can be presented only to necessary users even in the same area.

(8)(7)に記載の情報処理システムにおいて、前記表示ステップでは、前記状況が前記提示条件を満たすアバターの視界に他のユーザのアバターが存在する場合、前記状況が前記提示条件を満たすアバターは表示し、前記状況が前記提示条件を満たさないアバターは表示しない、もの。 (8) In the information processing system according to (7), in the displaying step, if an avatar of another user exists in the field of view of an avatar whose situation satisfies the presentation condition, an avatar whose situation satisfies the presentation condition is displayed, and avatars whose situations do not satisfy the presentation conditions are not displayed.

このような態様によれば、コンテンツを話題にしたコミュニケーションを容易に行うことができる。 According to this aspect, it is possible to easily communicate using content as a topic.

(9)(6)または(8)に記載の情報処理システムにおいて、前記表示ステップでは、前記状況が前記提示条件を満たさないアバターの視界に他のユーザのアバターが存在する場合、前記状況が前記提示条件を満たさないアバターは表示し、前記状況が前記提示条件を満たすアバターは表示しない、もの。 (9) In the information processing system according to (6) or (8), in the displaying step, if an avatar of another user exists in the field of view of an avatar in which the situation does not satisfy the presentation condition, the situation is Avatars that do not satisfy the presentation conditions are displayed, and avatars whose situations satisfy the presentation conditions are not displayed.

このような態様によれば、自分に提示されていないコンテンツを話題にされないようにすることができる。 According to this aspect, content that has not been presented to the user can be prevented from being talked about.

(10)(1)~(9)の何れか1つに記載の情報処理システムにおいて、前記表示ステップでは、或るアバターの視界において当該アバターに提示された前記コンテンツと他のアバターとが重なって見える場合、当該視界では当該他のアバターを当該コンテンツの提示用のアバターに置き換えて表示し、前記提示ステップでは、前記提示用のアバターを用いて前記コンテンツを提示する、もの。 (10) In the information processing system according to any one of (1) to (9), in the displaying step, the content presented to a certain avatar and another avatar overlap in the field of view of the avatar. If the content is visible, the other avatar is replaced with an avatar for presentation of the content in the field of view, and in the presentation step, the content is presented using the avatar for presentation.

このような態様によれば、周囲のアバターを減らすことなくコンテンツを提示することができる。 According to this aspect, content can be presented without reducing the number of surrounding avatars.

(11)情報処理装置であって、(1)~(10)の何れか1つに記載の情報処理システムの各ステップを実行するように構成される、もの。 (11) An information processing device configured to execute each step of the information processing system described in any one of (1) to (10).

(12)プログラムであって、コンピュータに、(1)~(10)の何れか1つに記載の情報処理システムの各ステップを実行させる、もの。
もちろん、この限りではない。
また、上述した実施形態および変形例を任意に組み合わせて実施するようにしてもよい。
(12) A program that causes a computer to execute each step of the information processing system described in any one of (1) to (10).
Of course, this is not the case.
Furthermore, the embodiments and modifications described above may be implemented in any combination.

最後に、本開示に係る種々の実施形態を説明したが、これらは、例として提示したものであり、開示の範囲を限定することは意図していない。新規な実施形態は、その他の様々な形態で実施されることが可能であり、開示の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。実施形態やその変形は、開示の範囲や要旨に含まれると共に、特許請求の範囲に記載された開示とその均等の範囲に含まれるものである。 Finally, although various embodiments according to the present disclosure have been described, these are presented as examples and are not intended to limit the scope of the disclosure. The new embodiments can be implemented in various other forms, and various omissions, substitutions, and changes can be made without departing from the gist of the disclosure. The embodiments and their modifications are included within the scope and gist of the disclosure, as well as within the scope of the disclosure described in the claims and its equivalents.

1 :ゲームシステム
2 :ゲーム管理装置
3 :ゲーム装置
23 :制御部
33 :制御部
201 :ゲーム処理部
202 :コンテンツ記憶部
203 :提示決定部
204 :状況特定部
205 :履歴蓄積部
206 :予定取得部
207 :提示制御部
301 :ゲーム処理部
302 :操作受付部
1: Game system 2: Game management device 3: Game device 23: Control section 33: Control section 201: Game processing section 202: Content storage section 203: Presentation determining section 204: Situation identification section 205: History accumulation section 206: Schedule acquisition Section 207: Presentation control section 301: Game processing section 302: Operation reception section

Claims (9)

プロセッサを備える情報処理システムであって、
前記プロセッサが、
表示ステップでは、ユーザに対応するアバターと、前記アバターに対応する視点から見た仮想空間とを表示させ、
決定ステップでは、前記ユーザに対応するアバターに関する状況が提示条件を満たす場合に、前記ユーザに対するコンテンツの提示を行うことを決定し、ここで、前記状況は、所定の時点において前記アバターが前記仮想空間で何をしようしている時間なのかによって特定され、さらに、前記状況は、前記アバターが所定の時間帯に所定の行動を行ったことに基づいて特定され、
提示ステップでは、前記仮想空間において、決定された前記コンテンツを、前記状況の開始から終了までの期間の一部を少なくとも含んで提示する、情報処理システム
An information processing system comprising a processor ,
The processor,
In the display step, an avatar corresponding to the user and a virtual space viewed from a viewpoint corresponding to the avatar are displayed;
In the determining step, it is determined to present the content to the user when a situation regarding the avatar corresponding to the user satisfies the presentation condition, and here, the situation is such that the avatar is in the virtual space at a predetermined point in time. The situation is identified based on what the avatar is doing at the time, and the situation is further identified based on the fact that the avatar has performed a predetermined action during a predetermined time period,
In the presenting step, the information processing system presents the determined content in the virtual space, including at least a part of the period from the start to the end of the situation.
プロセッサを備える情報処理システムであって、
前記プロセッサが、
表示ステップでは、ユーザに対応するアバターと、前記アバターに対応する視点から見た仮想空間とを表示させ、
決定ステップでは、前記ユーザに対応するアバターに関する状況が提示条件を満たす場合に、前記ユーザに対するコンテンツの提示を行うことを決定し、ここで、前記状況は、所定の時点において前記アバターが前記仮想空間で何をしようしている時間なのかによって特定され、前記状況には、複数の種類があり、
提示ステップでは、前記仮想空間において、決定された前記コンテンツを、前記状況の開始から終了までの期間の一部を少なくとも含んで提示し、前記提示条件を満たした前記状況の種類に応じた態様で前記コンテンツを提示する、
情報処理システム
An information processing system comprising a processor ,
The processor,
In the display step, an avatar corresponding to the user and a virtual space viewed from a viewpoint corresponding to the avatar are displayed;
In the determining step, it is determined to present the content to the user when a situation regarding the avatar corresponding to the user satisfies the presentation condition, and here, the situation is such that the avatar is in the virtual space at a predetermined point in time. There are multiple types of situations, depending on what you are doing at the time.
In the presenting step, the determined content is presented in the virtual space including at least a part of the period from the start to the end of the situation, and in a manner according to the type of the situation that satisfies the presentation condition. presenting said content;
Information processing system .
プロセッサを備える情報処理システムであって、
前記プロセッサが、
表示ステップでは、ユーザに対応するアバターと、前記アバターに対応する視点から見た仮想空間とを表示させ、
決定ステップでは、前記ユーザに対応するアバターに関する状況が提示条件を満たす場合に、前記ユーザに対するコンテンツの提示を行うことを決定し、ここで、前記状況は、所定の時点において前記アバターが前記仮想空間で何をしようしている時間なのかによって特定され、
提示ステップでは、前記仮想空間において、決定された前記コンテンツを、前記状況の開始から終了までの期間の一部を少なくとも含んで提示し、
2以上のアバターの視界に前記仮想空間における共通の領域が存在する場合、前記2以上のアバターのうち前記状況が前記提示条件を満たすアバターのみに前記領域において前記コンテンツを提示する、
情報処理システム
An information processing system comprising a processor ,
The processor,
In the display step, an avatar corresponding to the user and a virtual space viewed from a viewpoint corresponding to the avatar are displayed;
In the determining step, it is determined to present the content to the user when a situation regarding the avatar corresponding to the user satisfies the presentation condition, and here, the situation is such that the avatar is in the virtual space at a predetermined point in time. It is determined by what you are doing at the time,
In the presenting step, the determined content is presented in the virtual space including at least a part of the period from the start to the end of the situation;
If a common area in the virtual space exists in the field of view of two or more avatars, presenting the content in the area to only those avatars whose situation satisfies the presentation condition among the two or more avatars;
Information processing system .
請求項に記載の情報処理システムにおいて、
前記表示ステップでは、前記状況が前記提示条件を満たすアバターの視界に他のユーザのアバターが存在する場合、前記状況が前記提示条件を満たすアバターは表示し、前記状況が前記提示条件を満たさないアバターは表示しない、情報処理システム
The information processing system according to claim 3 ,
In the displaying step, if another user's avatar exists within the field of view of the avatar whose situation satisfies the presentation condition, the avatar whose situation satisfies the presentation condition is displayed, and the avatar whose situation does not satisfy the presentation condition is displayed. Information processing system that does not display.
請求項に記載の情報処理システムにおいて、
前記表示ステップでは、前記状況が前記提示条件を満たさないアバターの視界に他のユーザのアバターが存在する場合、前記状況が前記提示条件を満たさないアバターは表示し、前記状況が前記提示条件を満たすアバターは表示しない、情報処理システム
The information processing system according to claim 2 ,
In the display step, if another user's avatar exists in the field of view of the avatar whose situation does not satisfy the presentation condition, the avatar whose situation does not satisfy the presentation condition is displayed, and the situation satisfies the presentation condition. An information processing system that does not display avatars.
プロセッサを備える情報処理システムであって、
前記プロセッサが、
表示ステップでは、ユーザに対応するアバターと、前記アバターに対応する視点から見た仮想空間とを表示させ、
決定ステップでは、前記ユーザに対応するアバターに関する状況が提示条件を満たす場合に、前記ユーザに対するコンテンツの提示を行うことを決定し、ここで、前記状況は、所定の時点において前記アバターが前記仮想空間で何をしようしている時間なのかによって特定され、
提示ステップでは、前記仮想空間において、決定された前記コンテンツを、前記状況の開始から終了までの期間の一部を少なくとも含んで提示し、
前記表示ステップでは、或るアバターの視界において当該アバターに提示された前記コンテンツと他のアバターとが重なって見える場合、当該視界では当該他のアバターを当該コンテンツの提示用のアバターに置き換えて表示し、
前記提示ステップでは、前記提示用のアバターを用いて前記コンテンツを提示する、
情報処理システム
An information processing system comprising a processor ,
The processor,
In the display step, an avatar corresponding to the user and a virtual space viewed from a viewpoint corresponding to the avatar are displayed;
In the determining step, it is determined to present the content to the user when a situation regarding the avatar corresponding to the user satisfies the presentation condition, and here, the situation is such that the avatar is in the virtual space at a predetermined point in time. It is determined by what you are doing at the time,
In the presenting step, the determined content is presented in the virtual space including at least a part of the period from the start to the end of the situation;
In the displaying step, if the content presented to a certain avatar and another avatar appear to overlap in the field of view of a certain avatar, the other avatar is displayed in place of the avatar for presenting the content in the field of view. ,
In the presentation step, the content is presented using the presentation avatar.
Information processing system .
プロセッサを備える情報処理システムであって、
前記プロセッサが、
表示ステップでは、ユーザに対応するアバターと、前記アバターに対応する視点から見た仮想空間とを表示させ、前記仮想空間には複数のユーザのそれぞれに対応する複数のアバターが存在し、
決定ステップでは、前記複数のアバターの中に前記ユーザに対応するアバターに関する状況が提示条件を満たすアバターが存在する場合に、当該アバターに対応するユーザに対するコンテンツの提示を行うことを決定し、ここで、前記状況は、所定の時点において前記アバターが前記仮想空間で何をしようしている時間なのかによって特定され、
提示ステップでは、前記仮想空間において、決定された前記コンテンツを、前記状況の開始から終了までの期間の一部を少なくとも含んで提示する、情報処理システム
前記提示ステップでは、情報処理システム
An information processing system comprising a processor ,
The processor,
In the displaying step, an avatar corresponding to the user and a virtual space viewed from a viewpoint corresponding to the avatar are displayed, and a plurality of avatars corresponding to each of the plurality of users exist in the virtual space,
In the determining step, if there is an avatar among the plurality of avatars whose situation regarding the avatar corresponding to the user satisfies the presentation condition, it is determined to present the content to the user corresponding to the avatar ; , the situation is specified by what the avatar is doing in the virtual space at a predetermined time,
In the presenting step, the information processing system presents the determined content in the virtual space, including at least a part of the period from the start to the end of the situation.
In the presenting step, the information processing system .
情報処理装置であって、
請求項1~請求項の何れか1つに記載の情報処理システムの各ステップを実行するように構成される、情報処理装置
An information processing device,
An information processing device configured to execute each step of the information processing system according to any one of claims 1 to 7 .
プログラムであって、
コンピュータに、請求項1~請求項の何れか1つに記載の情報処理システムの各ステップを実行させる、プログラム
A program,
A program that causes a computer to execute each step of the information processing system according to any one of claims 1 to 7 .
JP2022066639A 2022-04-13 2022-04-13 Information processing system, information processing device and program Active JP7368770B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022066639A JP7368770B1 (en) 2022-04-13 2022-04-13 Information processing system, information processing device and program
JP2023149205A JP2024016017A (en) 2022-04-13 2023-09-14 Information processing system, information processing device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022066639A JP7368770B1 (en) 2022-04-13 2022-04-13 Information processing system, information processing device and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023149205A Division JP2024016017A (en) 2022-04-13 2023-09-14 Information processing system, information processing device and program

Publications (2)

Publication Number Publication Date
JP7368770B1 true JP7368770B1 (en) 2023-10-25
JP2023159900A JP2023159900A (en) 2023-11-02

Family

ID=88418608

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2022066639A Active JP7368770B1 (en) 2022-04-13 2022-04-13 Information processing system, information processing device and program
JP2023149205A Pending JP2024016017A (en) 2022-04-13 2023-09-14 Information processing system, information processing device and program

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023149205A Pending JP2024016017A (en) 2022-04-13 2023-09-14 Information processing system, information processing device and program

Country Status (1)

Country Link
JP (2) JP7368770B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7466038B1 (en) 2023-05-30 2024-04-11 Kddi株式会社 Information processing device and information processing method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013164911A1 (en) 2012-05-02 2013-11-07 株式会社電通 Information distribution system
WO2020257881A1 (en) 2019-06-28 2020-12-30 Frameplay Corp User specific advertising in a virtual environment
WO2021246403A1 (en) 2020-06-01 2021-12-09 株式会社電通 Advertisement display system
JP2022050837A (en) 2020-09-18 2022-03-31 株式会社アイシン Advertisement information providing system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013164911A1 (en) 2012-05-02 2013-11-07 株式会社電通 Information distribution system
WO2020257881A1 (en) 2019-06-28 2020-12-30 Frameplay Corp User specific advertising in a virtual environment
WO2021246403A1 (en) 2020-06-01 2021-12-09 株式会社電通 Advertisement display system
JP2022050837A (en) 2020-09-18 2022-03-31 株式会社アイシン Advertisement information providing system

Also Published As

Publication number Publication date
JP2024016017A (en) 2024-02-06
JP2023159900A (en) 2023-11-02

Similar Documents

Publication Publication Date Title
JP5987060B2 (en) GAME SYSTEM, GAME DEVICE, CONTROL METHOD, PROGRAM, AND RECORDING MEDIUM
TWI564062B (en) Remote control of a first user&#39;s gameplay by a second user
JP6576245B2 (en) Information processing apparatus, control method, and program
JP2020044136A (en) Viewing program, distribution program, method for executing viewing program, method for executing distribution program, information processing device, and information processing system
JP2015523886A (en) Dynamic allocation of drawing resources in cloud game systems
CN103886009A (en) Automatic generation of suggested mini-games for cloud-gaming based on recorded gameplay
JP2018028789A (en) Server, information transmission method, and program thereof
JP2023159344A (en) In-game location based game play companion application
CN111641842A (en) Method and device for realizing collective activity in live broadcast room, storage medium and electronic equipment
CN115175751A (en) Driving virtual influencers based on predicted game activity and audience characteristics
JP2024016017A (en) Information processing system, information processing device and program
CN111641876A (en) Virtual activity scene interaction method, device, medium and electronic equipment in live broadcast room
JP6688378B1 (en) Content distribution system, distribution device, reception device, and program
JP6727515B2 (en) Game system and computer program used therefor
JP6829364B2 (en) Game system and computer programs used for it
JP7245890B1 (en) Information processing system, information processing method, information processing program
JP7043558B1 (en) Computer programs, methods, and server equipment
JP7094404B2 (en) Viewing program, distribution program, how to execute the viewing program, how to execute the distribution program, information processing device, and information processing system
JP2023075879A (en) Information processing system, information processing method and information processing program
JP6775060B2 (en) Game system and game program
JP6768112B2 (en) Game system and game program
JP7343814B1 (en) Information processing device, program and information processing method
WO2022113327A1 (en) Method, computer-readable medium, computer system, and information processing device
WO2022137340A1 (en) Information processing method, computer-readable medium, and information processing device
JP6923726B1 (en) Methods, computer-readable media, and information processing equipment

Legal Events

Date Code Title Description
A625 Written request for application examination (by other person)

Free format text: JAPANESE INTERMEDIATE CODE: A625

Effective date: 20220715

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230808

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230828

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230912

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230925

R150 Certificate of patent or registration of utility model

Ref document number: 7368770

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150