JP7333529B1 - Terminal device control program, terminal device, terminal device control method, server device control program, server device, and server device control method - Google Patents

Terminal device control program, terminal device, terminal device control method, server device control program, server device, and server device control method Download PDF

Info

Publication number
JP7333529B1
JP7333529B1 JP2022042722A JP2022042722A JP7333529B1 JP 7333529 B1 JP7333529 B1 JP 7333529B1 JP 2022042722 A JP2022042722 A JP 2022042722A JP 2022042722 A JP2022042722 A JP 2022042722A JP 7333529 B1 JP7333529 B1 JP 7333529B1
Authority
JP
Japan
Prior art keywords
user
terminal device
image
information
displaying
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022042722A
Other languages
Japanese (ja)
Other versions
JP2023136814A (en
Inventor
素貴 内田
啓吾 増住
大起 早田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GREE Inc
Original Assignee
GREE Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GREE Inc filed Critical GREE Inc
Priority to JP2022042722A priority Critical patent/JP7333529B1/en
Priority to US18/090,492 priority patent/US20230298294A1/en
Priority to JP2023126118A priority patent/JP2023138621A/en
Application granted granted Critical
Publication of JP7333529B1 publication Critical patent/JP7333529B1/en
Publication of JP2023136814A publication Critical patent/JP2023136814A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】他ユーザとのコミュニケーションを継続しようとするユーザの意欲を向上させることを可能とする。【解決手段】端末装置の制御プログラムは、第1ユーザの端末装置に、第1ユーザを示す第1オブジェクトを含む第1画像と、第2ユーザを示す第2オブジェクトを含む第2画像とを少なくとも表示し、第1画像の表示に関する情報を第2ユーザの端末装置に送信し、第1ユーザの第1音声を取得した場合、第1音声を第2ユーザの端末装置に送信し、第1ユーザの動作又は第1音声に応じて変化する第1オブジェクトを含む第1画像を表示し、第2ユーザの第2音声を受信した場合、第2音声を出力し、第2ユーザの動作又は第2音声に応じて変化する第2オブジェクトを含む第2画像を表示し、第1ユーザによる指示又は第2ユーザによる指示に応じて、少なくとも一部が変更された第1画像又は少なくとも一部が変更された第2画像を表示すること、を実行させる。【選択図】図3An object of the present invention is to improve a user's desire to continue communicating with other users. A control program for a terminal device sends at least a first image including a first object representing a first user and a second image including a second object representing a second user to a first user's terminal device. If the first user's first voice is acquired, the first user's first voice is transmitted to the second user's terminal device, and information regarding the display of the first image is transmitted to the second user's terminal device. displays a first image including a first object that changes according to the action of the second user or the first sound, and when the second sound of the second user is received, outputs the second sound and displays the first image that changes according to the action of the second user or the second sound. Displaying a second image including a second object that changes in response to audio, and displaying a first image that is at least partially changed or at least partially changed in response to an instruction by the first user or an instruction by the second user. displaying the second image. [Selection diagram] Figure 3

Description

本明細書で開示された実施形態は、端末装置の制御プログラム、端末装置、端末装置の制御方法、サーバ装置の制御プログラム、サーバ装置、及びサーバ装置の制御方法に関する。 The embodiments disclosed in this specification relate to a terminal device control program, a terminal device, a terminal device control method, a server device control program, a server device, and a server device control method.

従来から、複数のユーザがそれぞれPC(Personal Computer)等の端末装置を用いて各ユーザ自身を示す画像及び/又は各ユーザの音声等の各種情報を互いに他ユーザの端末装置に送信することでコミュニケーションを実現する情報システムが知られている。例えば、特許文献1には、各ユーザが、仮想空間内でユーザの分身として行動するアバター等のキャラクタオブジェクトを用いて、他ユーザのキャラクタオブジェクトとの音声チャットを行う情報システムの技術が開示されている。 Conventionally, a plurality of users use terminal devices such as PCs (Personal Computers) to communicate with each other by transmitting various information such as an image representing each user and/or each user's voice to the terminal devices of other users. There is known an information system that realizes For example, Patent Literature 1 discloses information system technology in which each user uses a character object such as an avatar that acts as the user's alter ego in a virtual space to have a voice chat with another user's character object. there is

特開2009-199198号公報JP 2009-199198 A

しかしながら、従来の情報システムでは、ユーザが他ユーザとのコミュニケーションを行っている時にユーザの端末装置からの出力に多様性がないため、ユーザが他ユーザとのコミュニケーションに飽きてしまうという問題が生じていた。 However, in the conventional information system, since there is no variety in the output from the user's terminal device while the user is communicating with other users, there is a problem that the user gets tired of communicating with other users. Ta.

開示された端末装置の制御プログラム、端末装置、端末装置の制御方法、サーバ装置の制御プログラム、サーバ装置、及びサーバ装置の制御方法は、他ユーザとのコミュニケーションを継続しようとするユーザの意欲を向上させることを可能とする。 The disclosed terminal device control program, terminal device, terminal device control method, server device control program, server device, and server device control method improve motivation of users to continue communication with other users. make it possible to

端末装置の制御プログラムは、第1ユーザの端末装置の制御プログラムであって、第1ユーザの端末装置に、第1ユーザを示す第1オブジェクトを含む第1画像と、第1ユーザとは異なる第2ユーザを示す第2オブジェクトを含む第2画像とを少なくとも表示し、第1画像の表示に関する情報を第2ユーザの端末装置に送信し、第1ユーザの第1音声を取得した場合、第1音声を第2ユーザの端末装置に送信し、第1ユーザの動作又は第1音声に応じて変化する第1オブジェクトを含む第1画像を表示し、第2ユーザの第2音声を受信した場合、第2音声を出力し、第2ユーザの動作又は第2音声に応じて変化する第2オブジェクトを含む第2画像を表示し、第1ユーザによる指示又は第2ユーザによる指示に応じて、少なくとも一部が変更された第1画像又は少なくとも一部が変更された第2画像を表示すること、を実行させる。 The control program for the terminal device is a control program for the terminal device of the first user, and is configured to display a first image including a first object representing the first user and a first object different from the first user on the terminal device of the first user. When at least a second image including a second object representing two users is displayed, information regarding the display of the first image is transmitted to the terminal device of the second user, and a first voice of the first user is obtained, the first When the voice is transmitted to the second user's terminal device, the first image including the first object that changes according to the first user's action or the first voice is displayed, and the second user's second voice is received, outputting a second sound, displaying a second image including a second object that changes according to the second user's motion or the second sound, and responding to an instruction by the first user or an instruction by the second user, at least one displaying the partially modified first image or the at least partially modified second image.

また、端末装置の制御プログラムにおいて、少なくとも一部が変更された第1画像の表示において、第1ユーザの端末装置に、第1ユーザに関連付けられた一又は複数の第1候補オブジェクトの中から第1ユーザによる指示に応じて選択された第1候補オブジェクトに基づいて、一部が変更された第1オブジェクトを含む第1画像を表示すること、を実行させることが好ましい。 Further, in the control program of the terminal device, in the display of the first image whose at least part has been changed, the terminal device of the first user displays the first candidate object among the one or more first candidate objects associated with the first user. Displaying a first image including the partially changed first object based on the first candidate object selected according to an instruction by one user is preferably performed.

また、端末装置の制御プログラムにおいて、第1オブジェクトは仮想空間内に配置される立体オブジェクトであり、第1オブジェクトを含む第1画像の表示において、第1ユーザの端末装置に、仮想空間内の所定の視点から見た仮想空間を示す画像を第1画像として表示すること、を実行させ、第1ユーザの端末装置に、仮想空間内において自動的に移動する所定の視点から見た仮想空間を示す画像を第1画像として表示すること、を実行させることが好ましい。 Further, in the control program of the terminal device, the first object is a three-dimensional object arranged in the virtual space, and in displaying the first image including the first object, the first user's terminal device receives a predetermined image in the virtual space. displaying, as a first image, an image showing the virtual space seen from the viewpoint of the first user, and showing the virtual space seen from the predetermined viewpoint that automatically moves in the virtual space on the terminal device of the first user. displaying the image as the first image.

また、端末装置の制御プログラムにおいて、所定の視点は、第1オブジェクトの変更された一部に近づくように移動制御されることが好ましい。 Further, it is preferable that the control program of the terminal device controls the movement of the predetermined viewpoint so as to approach the changed part of the first object.

また、端末装置の制御プログラムにおいて、所定の視点は、所定の視点からの視線方向を第1オブジェクトに向く方向に合わせながら第1オブジェクトの周囲を移動するように移動制御されることが好ましい。 Also, in the control program of the terminal device, it is preferable that the predetermined viewpoint is controlled to move around the first object while matching the line-of-sight direction from the predetermined viewpoint to the direction facing the first object.

また、端末装置の制御プログラムにおいて、少なくとも一部が変更された第1画像の表示において、第1ユーザの端末装置に、一又は複数の第2候補オブジェクトを含む選択グループの中から第2ユーザによる指示に応じて選択された第2候補オブジェクトに対応する第3オブジェクトを含む第1画像を表示すること、を実行させることが好ましい。 In addition, in the control program of the terminal device, in the display of the first image whose at least part has been changed, the second user from among the selection group including one or more second candidate objects is displayed on the terminal device of the first user Displaying a first image including a third object corresponding to the second candidate object selected in accordance with the instruction is preferably performed.

また、端末装置の制御プログラムにおいて、所定の条件が満たされた場合、選択グループに特定の第2候補オブジェクトが含まれることが好ましい。 Further, it is preferable that the selected group includes a specific second candidate object when a predetermined condition is satisfied in the control program of the terminal device.

また、端末装置の制御プログラムにおいて、所定の条件は、第1画像の表示時間及び/又は第2画像の表示時間に関する条件を含むことが好ましい。 Moreover, in the control program of the terminal device, it is preferable that the predetermined conditions include conditions regarding the display time of the first image and/or the display time of the second image.

また、端末装置の制御プログラムにおいて、第1ユーザの端末装置に、一又は複数の第2候補オブジェクトを含む選択グループの中から第1ユーザによる指示に応じて選択された第2候補オブジェクトに基づいて、選択された第2候補オブジェクトに対応する第3オブジェクトを含む第2画像を表示するとともに、当該第3オブジェクトの表示に関する情報を第2ユーザの端末装置に送信すること、を実行させ、所定の条件は、第1ユーザ及び/又は第2ユーザによる第2候補オブジェクトの選択回数に関する条件を含むことが好ましい。 Further, in the control program of the terminal device, based on the second candidate object selected from the selection group including one or more second candidate objects in response to the instruction by the first user, the terminal device of the first user , displaying a second image including a third object corresponding to the selected second candidate object, and transmitting information regarding the display of the third object to the terminal device of the second user; The conditions preferably include conditions regarding the number of times the second candidate object is selected by the first user and/or the second user.

また、端末装置の制御プログラムにおいて、第1画像と第2画像との表示において、第1ユーザの端末装置に、複数の第2ユーザのそれぞれを示す複数の第2画像を表示すること、を実行させ、第1ユーザの端末装置に、第2ユーザによる指示に応じて選択された第2候補オブジェクトに基づいて、選択された第2候補オブジェクトに対応する第3オブジェクトを含む、第1画像及び複数の第2ユーザのそれぞれを示す複数の第2画像を表示すること、を実行させることが好ましい。 Further, in the control program of the terminal device, in the display of the first image and the second image, displaying a plurality of second images respectively representing the plurality of second users on the terminal device of the first user. a first image and a plurality of displaying a plurality of second images representing each of the second users.

また、端末装置の制御プログラムにおいて、第1ユーザによって第3オブジェクトの選択指示が可能であり、第1ユーザの端末装置に、第1ユーザによる第3オブジェクトの選択指示に応じて、一部が変更された第1オブジェクトを含む第1画像を表示すること、を実行させることが好ましい。 In addition, in the control program of the terminal device, the first user can instruct the selection of the third object, and the terminal device of the first user can partially change the object according to the first user's selection instruction of the third object. displaying a first image including the rendered first object.

また、端末装置の制御プログラムにおいて、少なくとも一部が変更された第1画像の表示において、第1ユーザの端末装置に、第1ユーザ及び/又は第2ユーザによってプレイされるゲームの進行を示す画像を、第1画像の少なくとも一部に替えて表示すること、を実行させることが好ましい。 Further, in the control program of the terminal device, an image showing progress of the game played by the first user and/or the second user is displayed on the terminal device of the first user in the display of the first image at least partially changed. is preferably displayed in place of at least part of the first image.

また、端末装置の制御プログラムにおいて、第1ユーザの端末装置に、第2ユーザによる指示に応じて選択された第2候補オブジェクトがゲームに対応する場合、第1ユーザ及び/又は第2ユーザによってプレイされるゲームの進行を示す画像を、第2画像の少なくとも一部に替えて表示すること、を実行させることが好ましい。 Further, in the control program of the terminal device, when the second candidate object selected in response to the instruction by the second user corresponds to the game, the first user and/or the second user play the game on the terminal device of the first user. It is preferable to display an image showing the progress of the game being played instead of at least part of the second image.

サーバ装置の制御プログラムは、第1ユーザの端末装置及び第1ユーザとは異なる第2ユーザの端末装置のそれぞれと通信可能なサーバ装置の制御プログラムであって、第1ユーザを示す第1オブジェクトを含む第1画像の表示に関する情報を、第1ユーザの端末装置から受信し、第2ユーザを示す第2オブジェクトを含む第2画像の表示に関する情報を、第2ユーザの端末装置から受信し、第1画像を少なくとも表示するための情報を、少なくとも第2ユーザの端末装置に送信し、第2画像を少なくとも表示するための情報を、少なくとも第1ユーザの端末装置に送信し第1ユーザの第1音声を受信した場合、第1音声を第2ユーザの端末装置に送信し、第1ユーザの動作又は第1音声に応じて変化する第1オブジェクトを含む第1画像を表示するための情報を、少なくとも第2ユーザの端末装置に送信し、第2ユーザの第2音声を受信した場合、第2音声を第1ユーザの端末装置に送信し、第2ユーザの動作又は第2音声に応じて変化する第2オブジェクトを含む第2画像を表示するための情報を、少なくとも第1ユーザの端末装置に送信し、第1ユーザによる指示に応じて、少なくとも一部が変更された第1画像を表示するための情報を、少なくとも第2ユーザの端末装置に送信し、第2ユーザによる指示に応じて、少なくとも一部が変更された第2画像を表示するための情報を、少なくとも第1ユーザの端末装置に送信すること、を実行させる。 A control program for a server device is a control program for a server device capable of communicating with each of a terminal device of a first user and a terminal device of a second user different from the first user, wherein a first object indicating the first user is receiving, from a first user's terminal device, information relating to display of a first image including a Information for displaying at least one image is transmitted to at least the terminal device of the second user, information for displaying at least the second image is transmitted to at least the terminal device of the first user When the voice is received, the first voice is transmitted to the second user's terminal device, and the information for displaying the first image including the first object that changes according to the first user's action or the first voice, Transmit to at least the second user's terminal device, and when receiving the second user's second voice, transmit the second voice to the first user's terminal device, and change according to the second user's action or the second voice information for displaying a second image including a second object to be displayed is transmitted to at least the first user's terminal device, and the first image, at least partially changed, is displayed in accordance with an instruction from the first user to at least the terminal device of the second user, and information for displaying the second image of which at least a part has been changed according to an instruction from the second user is transmitted to at least the terminal device of the first user send to, and have it run.

端末装置は、第1ユーザの端末装置であって、第1ユーザを示す第1オブジェクトを含む第1画像と、第1ユーザとは異なる第2ユーザを示す第2オブジェクトを含む第2画像とを少なくとも表示し、第1画像の表示に関する情報を第2ユーザの端末装置に送信し、第1ユーザの第1音声を取得した場合、第1音声を第2ユーザの端末装置に送信し、第1ユーザの動作又は第1音声に応じて変化する第1オブジェクトを含む第1画像を表示し、第2ユーザの第2音声を受信した場合、第2音声を出力し、第2ユーザの動作又は第2音声に応じて変化する第2オブジェクトを含む第2画像を表示し、第1ユーザによる指示又は第2ユーザによる指示に応じて、少なくとも一部が変更された第1画像又は少なくとも一部が変更された第2画像を表示する、処理部を備える。 The terminal device is a terminal device of a first user and displays a first image including a first object representing the first user and a second image including a second object representing a second user different from the first user. at least display and transmit information about display of the first image to the terminal device of the second user; if the first voice of the first user is acquired, transmit the first voice to the terminal device of the second user; displaying a first image including a first object that changes according to a user's motion or a first voice; outputting a second voice when a second user's second voice is received; 2 Displaying a second image including a second object that changes according to voice, and changing at least a portion of the first image or at least a portion of the first image according to an instruction from the first user or an instruction from the second user a processing unit for displaying the generated second image.

サーバ装置は、第1ユーザの端末装置及び第1ユーザとは異なる第2ユーザの端末装置のそれぞれと通信可能なサーバ装置であって、第1ユーザを示す第1オブジェクトを含む第1画像の表示に関する情報を、第1ユーザの端末装置から受信し、第2ユーザを示す第2オブジェクトを含む第2画像の表示に関する情報を、第2ユーザの端末装置から受信し、第1画像を少なくとも表示するための情報を、少なくとも第2ユーザの端末装置に送信し、第2画像を少なくとも表示するための情報を、少なくとも第1ユーザの端末装置に送信し、第1ユーザの第1音声を受信した場合、第1音声を第2ユーザの端末装置に送信し、第1ユーザの動作又は第1音声に応じて変化する第1オブジェクトを含む第1画像を表示するための情報を、少なくとも第2ユーザの端末装置に送信し、第2ユーザの第2音声を受信した場合、第2音声を第1ユーザの端末装置に送信し、第2ユーザの動作又は第2音声に応じて変化する第2オブジェクトを含む第2画像を表示するための情報を、少なくとも第1ユーザの端末装置に送信し、第1ユーザによる指示に応じて、少なくとも一部が変更された第1画像を表示するための情報を、少なくとも第2ユーザの端末装置に送信し、第2ユーザによる指示に応じて、少なくとも一部が変更された第2画像を表示するための情報を、少なくとも第1ユーザの端末装置に送信する、処理部を備える。 The server device is capable of communicating with the terminal device of the first user and the terminal device of a second user different from the first user, and displays a first image including a first object representing the first user. receiving information about display of a second image including a second object representing the second user from a terminal device of the first user; receiving information about displaying a second image including a second object representing the second user from a terminal device of the second user; information for displaying the second image is transmitted to at least the terminal device of the second user, information for displaying the second image is transmitted to at least the terminal device of the first user, and the first voice of the first user is received , transmitting the first sound to a second user's terminal device, and transmitting information for displaying a first image including a first object that changes according to the first user's action or the first sound to at least the second user's terminal device When the second voice of the second user is received by transmitting the second voice to the terminal device, the second voice is transmitted to the terminal device of the first user, and the second object that changes according to the second user's action or the second voice transmitting information for displaying a second image including, to at least a first user's terminal device, information for displaying the first image at least partially changed in accordance with an instruction from the first user; A process of transmitting to at least a terminal device of a second user, and transmitting to at least a terminal device of a first user information for displaying a second image that is at least partially changed according to an instruction from the second user. have a department.

端末装置の制御方法は、第1ユーザの端末装置の制御方法であって、第1ユーザの端末装置が、第1ユーザを示す第1オブジェクトを含む第1画像と、第1ユーザとは異なる第2ユーザを示す第2オブジェクトを含む第2画像とを少なくとも表示し、第1画像の表示に関する情報を第2ユーザの端末装置に送信し、第1ユーザの第1音声を取得した場合、第1音声を第2ユーザの端末装置に送信し、第1ユーザの動作又は第1音声に応じて変化する第1オブジェクトを含む第1画像を表示し、第2ユーザの第2音声を受信した場合、第2音声を出力し、第2ユーザの動作又は第2音声に応じて変化する第2オブジェクトを含む第2画像を表示し、第1ユーザによる指示又は第2ユーザによる指示に応じて、少なくとも一部が変更された第1画像又は少なくとも一部が変更された第2画像を表示すること、を含む。 A method for controlling a terminal device is a method for controlling a terminal device of a first user, wherein the terminal device of the first user controls a first image including a first object representing the first user and a first object different from the first user. When at least a second image including a second object representing two users is displayed, information regarding the display of the first image is transmitted to the terminal device of the second user, and a first voice of the first user is obtained, the first When the voice is transmitted to the second user's terminal device, the first image including the first object that changes according to the first user's action or the first voice is displayed, and the second user's second voice is received, outputting a second sound, displaying a second image including a second object that changes according to the second user's motion or the second sound, and responding to an instruction by the first user or an instruction by the second user, at least one displaying the partially modified first image or the at least partially modified second image.

サーバ装置の制御方法は、第1ユーザの端末装置及び第1ユーザとは異なる第2ユーザの端末装置のそれぞれと通信可能なサーバ装置の制御方法であって、第1ユーザを示す第1オブジェクトを含む第1画像の表示に関する情報を、第1ユーザの端末装置から受信し、第2ユーザを示す第2オブジェクトを含む第2画像の表示に関する情報を、第2ユーザの端末装置から受信し、第1画像を少なくとも表示するための情報を、少なくとも第2ユーザの端末装置に送信し、第2画像を少なくとも表示するための情報を、少なくとも第1ユーザの端末装置に送信し、第1ユーザの第1音声を受信した場合、第1音声を第2ユーザの端末装置に送信し、第1ユーザの動作又は第1音声に応じて変化する第1オブジェクトを含む第1画像を表示するための情報を、少なくとも第2ユーザの端末装置に送信し、第2ユーザの第2音声を受信した場合、第2音声を第1ユーザの端末装置に送信し、第2ユーザの動作又は第2音声に応じて変化する第2オブジェクトを含む第2画像を表示するための情報を、少なくとも第1ユーザの端末装置に送信し、第1ユーザによる指示に応じて、少なくとも一部が変更された第1画像を表示するための情報を、少なくとも第2ユーザの端末装置に送信し、第2ユーザによる指示に応じて、少なくとも一部が変更された第2画像を表示するための情報を、少なくとも第1ユーザの端末装置に送信すること、を含む。 A method of controlling a server device is a method of controlling a server device capable of communicating with each of a terminal device of a first user and a terminal device of a second user different from the first user, wherein a first object indicating the first user is receiving, from a first user's terminal device, information relating to display of a first image including a transmitting information for displaying at least one image to at least a terminal device of a second user; transmitting information for displaying at least a second image to at least a terminal device of the first user; When the first sound is received, the first sound is transmitted to the second user's terminal device, and information for displaying the first image including the first object that changes according to the first user's action or the first sound is displayed. , at least to the second user's terminal device, and upon receiving the second user's second voice, transmit the second voice to the first user's terminal device, and according to the second user's action or the second voice Information for displaying a second image including a changing second object is transmitted to at least the first user's terminal device, and the first image, at least partially changed, is displayed according to an instruction from the first user. to at least the terminal device of the second user, and information for displaying the at least partially changed second image in accordance with an instruction from the second user is transmitted to at least the terminal device of the first user transmitting to the device.

端末装置の制御プログラム、端末装置、端末装置の制御方法、サーバ装置の制御プログラム、サーバ装置、及びサーバ装置の制御方法によって、他ユーザとのコミュニケーションを継続しようとするユーザの意欲を向上させることが可能となる。 The control program for the terminal device, the terminal device, the control method for the terminal device, the control program for the server device, the server device, and the control method for the server device can improve the motivation of the user to continue communication with other users. It becomes possible.

情報システムの概要の一例を説明するための模式図である。1 is a schematic diagram for explaining an example of an outline of an information system; FIG. 情報システムの概略構成の一例を示す図である。It is a figure which shows an example of schematic structure of an information system. 端末装置の概略構成の一例を示す図である。It is a figure which shows an example of schematic structure of a terminal device. 各種テーブルのデータ構造の一例を示す図である。It is a figure which shows an example of the data structure of various tables. サーバ装置の概略構成の一例を示す図である。It is a figure which shows an example of schematic structure of a server apparatus. 端末装置の表示装置に表示される画面の一例を示す図である。It is a figure which shows an example of the screen displayed on the display apparatus of a terminal device. 端末装置の表示装置に表示される画面の一例を示す図である。It is a figure which shows an example of the screen displayed on the display apparatus of a terminal device. 端末装置の表示装置に表示される画面の一例を示す図である。It is a figure which shows an example of the screen displayed on the display apparatus of a terminal device. 端末装置の表示装置に表示される画面の一例を示す図である。It is a figure which shows an example of the screen displayed on the display apparatus of a terminal device. 端末装置の表示装置に表示される画面の一例を示す図である。It is a figure which shows an example of the screen displayed on the display apparatus of a terminal device. 端末装置の表示装置に表示される画面の一例を示す図である。It is a figure which shows an example of the screen displayed on the display apparatus of a terminal device. 端末装置の表示装置に表示される画面の一例を示す図である。It is a figure which shows an example of the screen displayed on the display apparatus of a terminal device. 端末装置の表示装置に表示される画面の一例を示す図である。It is a figure which shows an example of the screen displayed on the display apparatus of a terminal device. 端末装置の表示装置に表示される画面の一例を示す図である。It is a figure which shows an example of the screen displayed on the display apparatus of a terminal device. 端末装置の表示装置に表示される画面の一例を示す図である。It is a figure which shows an example of the screen displayed on the display apparatus of a terminal device. 情報システムの動作シーケンスの一例を示す図である。It is a figure which shows an example of the operation sequence of an information system. 端末装置の表示装置に表示される画面の一例を示す図である。It is a figure which shows an example of the screen displayed on the display apparatus of a terminal device. 仮想空間内を説明するための模式図である。FIG. 4 is a schematic diagram for explaining the inside of a virtual space;

以下、図面を参照しつつ、本発明の様々な実施形態について説明する。ただし、本発明の技術的範囲はそれらの実施形態に限定されず、特許請求の範囲に記載された発明とその均等物に及ぶ点に留意されたい。 Various embodiments of the present invention will now be described with reference to the drawings. However, it should be noted that the technical scope of the present invention is not limited to those embodiments, but extends to the invention described in the claims and equivalents thereof.

(情報システムの概要)
図1は、情報システムの概要の一例を説明するための模式図である。情報システムは、複数のユーザのそれぞれが操作する端末装置とサーバ装置とを備える。例えば、端末装置は、ユーザが所有する多機能携帯電話(所謂「スマートフォン」)等の情報処理装置である。例えば、サーバ装置は、通信ネットワークを介して端末装置間のコミュニケーションサービスを提供するためのコンピュータである。
(Overview of information system)
FIG. 1 is a schematic diagram for explaining an example of an outline of an information system. An information system includes a terminal device and a server device operated by each of a plurality of users. For example, the terminal device is an information processing device such as a multifunctional mobile phone (so-called "smartphone") owned by the user. For example, a server device is a computer for providing communication services between terminal devices via a communication network.

端末装置は、アプリケーションプログラム等の制御プログラムを記憶し、ユーザからの開始操作に応じて制御プログラムをメモリにロードし、ロードした制御プログラムに含まれる命令の実行によりコミュニケーションサービスを開始する。コミュニケーションサービスが開始されると、端末装置は、制御プログラムに含まれる命令を実行することにより複数の機能を実現する。 A terminal device stores a control program such as an application program, loads the control program into a memory in response to a user's start operation, and starts a communication service by executing instructions included in the loaded control program. When the communication service is started, the terminal device implements multiple functions by executing instructions contained in the control program.

例えば、ユーザの端末装置は、ユーザによって入力された各種の入力データに基づくモーションデータを含むキャラクタ動画データを含む出力情報を生成する生成機能を実現する。例えば、入力データは、ユーザの端末装置に備えられた撮像装置によって所定のサンプリング時間間隔ごとに取得された複数の撮像データであり、この場合、各撮像データにはユーザが写されている。キャラクタ動画データは、ユーザを示すキャラクタオブジェクトを含むユーザ出力画像の表示に関する情報の一例である。コミュニケーションサービス中において、出力情報は所定時間ごとに生成される。 For example, the terminal device of the user implements a generating function of generating output information including character moving image data including motion data based on various input data input by the user. For example, the input data is a plurality of pieces of imaging data acquired at predetermined sampling time intervals by an imaging device provided in the user's terminal device, and in this case, each piece of imaging data shows the user. Character moving image data is an example of information regarding display of a user output image including a character object representing a user. During communication services, output information is generated at predetermined intervals.

また、例えば、ユーザの端末装置は、キャラクタ動画データに基づいてユーザ出力画像を表示し、生成された出力情報をサーバ装置経由で他ユーザの端末装置に送信するため、当該出力情報をサーバ装置に所定時間ごとに送信する出力機能を実現する。また、例えば、ユーザの端末装置は、サーバ装置から所定時間ごとに送信された他ユーザの出力情報に基づいて、他ユーザを示すキャラクタオブジェクトを含む他ユーザ出力画像を表示する機能を実現する。 Further, for example, the terminal device of the user displays the user output image based on the character moving image data, and transmits the generated output information to the terminal devices of other users via the server device. It realizes an output function that transmits at predetermined time intervals. Also, for example, the terminal device of the user realizes a function of displaying other user's output image including a character object representing the other user based on the other user's output information transmitted from the server device at predetermined time intervals.

コミュニケーションサービスが開始されると、図1(a)に示されるように、ユーザの端末装置によって、例えば、ユーザ出力画像(1)と他ユーザ出力画像(2)とが表示される。コミュニケーションサービスが開始されたときに、他ユーザがコミュニケーションサービスに参加していない場合、ユーザの端末装置によって、ユーザ出力画像(1)のみが表示される。コミュニケーションサービスが開始されたときに、ユーザがコミュニケーションサービスに参加していない場合、他ユーザの端末装置では、他ユーザ出力画像(2)のみが表示される。 When the communication service is started, for example, a user output image (1) and another user output image (2) are displayed by the user's terminal device, as shown in FIG. 1(a). If no other user participates in the communication service when the communication service is started, only the user output image (1) is displayed by the user's terminal device. If the user is not participating in the communication service when the communication service is started, only the other user's output image (2) is displayed on the other user's terminal device.

ユーザ出力画像(1)は、キャラクタ動画データに含まれるユーザのモーションデータに応じて動作するユーザのキャラクタオブジェクトを含む。また、他ユーザ出力画像(2)は、受信された他ユーザの出力情報に含まれる他ユーザのモーションデータに応じて動作する他ユーザのキャラクタオブジェクトを含む。このように、ユーザの端末装置は、ユーザの動作に応じて変化するユーザのキャラクタオブジェクトを含むユーザ出力画像(1)を表示し、他ユーザの動作に応じて変化する他ユーザのキャラクタオブジェクトを含む他ユーザ出力画像(2)を表示する。 User output image (1) includes a user character object that moves in accordance with user motion data included in character moving image data. Further, the other user's output image (2) includes the other user's character object that moves according to the other user's motion data included in the received other user's output information. In this way, the user's terminal device displays the user output image (1) including the user's character object that changes according to the user's motion, and includes the other user's character object that changes according to the other user's motion. Other user output image (2) is displayed.

ユーザの端末装置及び他ユーザの端末装置はともにマイクを備えるため、ユーザの端末装置はユーザによって発せられた音声を取得し、他ユーザの端末装置は他ユーザによって発せられた音声を取得する。そして、ユーザの端末装置は、取得したユーザの音声データを出力情報に含め、ユーザの音声データを含む出力情報をサーバ装置経由で他ユーザの端末装置に送信するため、当該出力情報をサーバ装置に送信する。また、ユーザの端末装置は、他ユーザの端末装置によってサーバ装置に送信された他ユーザの音声データを含む出力情報を、サーバ装置から受信する。 Since both the user's terminal device and the other user's terminal device have a microphone, the user's terminal device acquires the voice uttered by the user, and the other user's terminal device acquires the voice uttered by the other user. Then, the terminal device of the user includes the acquired voice data of the user in the output information, and transmits the output information including the voice data of the user to the terminal device of the other user via the server device. Send. In addition, the terminal device of the user receives output information including voice data of the other user transmitted to the server device by the terminal device of the other user from the server device.

例えば、ユーザによって音声が発生される時、キャラクタ動画データに含まれるユーザのモーションデータには、ユーザの唇の動きを示すフェイスモーションデータが含まれる。この場合、ユーザの端末装置において、ユーザが発生している音声と略同期するように唇が動作するユーザのキャラクタオブジェクトを含むユーザ出力画像(1)が表示されることになる。ユーザの端末装置によって受信された他ユーザの出力情報に、他ユーザのモーションデータとともに他ユーザの音声データが含まれる場合がある。この場合、ユーザの端末装置において、他ユーザの音声が出力されるとともに、他ユーザの音声と略同期するように唇が動作する他ユーザのキャラクタオブジェクトを含む他ユーザ出力画像(2)が表示されることになる。 For example, when the user makes a sound, the user's motion data included in the character moving image data includes face motion data indicating the movement of the user's lips. In this case, the user's terminal device displays the user output image (1) including the user's character object whose lips move so as to substantially synchronize with the voice generated by the user. The other user's output information received by the user's terminal device may include the other user's voice data together with the other user's motion data. In this case, on the terminal device of the user, the other user's voice is output, and the other user's output image (2) including the other user's character object whose lips move so as to substantially synchronize with the other user's voice is displayed. will be

上述した機能の他に、ユーザの端末装置は、ユーザによる指示に応じてユーザ出力画像(1)の少なくとも一部を変更し、変更されたユーザ出力画像(1)を表示する機能を実現する。また、ユーザの端末装置は、ユーザによる指示に応じて他ユーザ出力画像(2)の少なくとも一部を変更し、変更された他ユーザ出力画像(2)を表示する機能を実現してもよい。 In addition to the functions described above, the terminal device of the user changes at least a part of the user output image (1) according to instructions from the user, and realizes the function of displaying the changed user output image (1). In addition, the terminal device of the user may change at least a part of the other user's output image (2) according to an instruction from the user, and realize a function of displaying the changed other user's output image (2).

例えば、ユーザの端末装置は、ユーザによる変更指示に応じて、ユーザのキャラクタオブジェクトの少なくとも一部を変化させ、これにより、ユーザ出力画像(1)の少なくとも一部を変更する。図1(b)に示されるように、例えば、ユーザの端末装置は、ユーザによる変更指示に応じて、ユーザのキャラクタオブジェクトの一部(頭部に装着されているアイテム「帽子」)を変化させる(アイテム「帽子」がアイテム「リボン」に変更される)。例えば、ユーザによる変更指示は、所定の操作オブジェクト(ボタンオブジェクト等)をユーザが選択する選択操作によって入力される。また、ユーザによる変更指示は、それぞれが互いに異なるアイテムに対応する複数の候補オブジェクトの内の一の候補オブジェクトをユーザが選択する選択操作によって入力されてもよい。この場合、ユーザ出力画像(1)に含まれるユーザのキャラクタオブジェクトのアイテムが、ユーザによって選択された一の候補オブジェクトに対応するアイテムに変更される。または、ユーザによって選択された一の候補オブジェクトに対応するアイテムが追加された、ユーザのキャラクタオブジェクトを含むユーザ出力画像(1)が表示されてもよい。 For example, the user's terminal device changes at least part of the user's character object in accordance with the user's change instruction, thereby changing at least part of the user output image (1). As shown in FIG. 1B, for example, the user's terminal device changes a part of the user's character object (the item "hat" worn on the head) in accordance with the user's change instruction. (The item "Hat" is changed to the item "Ribbon"). For example, a user's change instruction is input by a selection operation in which the user selects a predetermined operation object (such as a button object). Alternatively, the change instruction by the user may be input by a selection operation in which the user selects one of a plurality of candidate objects each corresponding to a different item. In this case, the item of the user's character object included in the user output image (1) is changed to an item corresponding to one candidate object selected by the user. Alternatively, a user output image (1) including the user's character object to which an item corresponding to one candidate object selected by the user has been added may be displayed.

また、例えば、ユーザの端末装置は、ユーザによる追加指示に応じて、他ユーザ出力画像(2)に追加オブジェクトを含ませ、これにより、他ユーザ出力画像(2)の少なくとも一部を変更する。例えば、図1(c)に示されるように、ユーザの端末装置は、ユーザによる追加指示に応じて、他ユーザのキャラクタオブジェクトの周囲に配置されるように、又は、他ユーザのキャラクタの少なくとも一部に重畳するように、追加オブジェクトを他ユーザ出力画像(2)に含ませる。ユーザによる追加指示は、例えば、所定の操作オブジェクト(ボタンオブジェクト等)をユーザが選択する選択操作によって入力される。また、ユーザによる追加指示は、それぞれが互いに異なる追加オブジェクトに対応する複数の候補オブジェクトの内の一の候補オブジェクトをユーザが選択する選択操作によって入力されてもよい。この場合、ユーザによって選択された一の候補オブジェクトに対応する追加オブジェクトが含まれる他ユーザ出力画像(2)が表示される。 Further, for example, the terminal device of the user includes an additional object in the other user's output image (2) in response to the user's additional instruction, thereby changing at least a part of the other user's output image (2). For example, as shown in FIG. 1(c), the user's terminal device is placed around the other user's character object or at least one of the other user's characters in response to an additional instruction from the user. The additional object is included in the other user output image (2) so as to be superimposed on the part. The user's additional instruction is input by, for example, a selection operation in which the user selects a predetermined operation object (such as a button object). Further, the user's additional instruction may be input by a selection operation in which the user selects one of a plurality of candidate objects each corresponding to a different additional object. In this case, another user output image (2) including an additional object corresponding to one candidate object selected by the user is displayed.

また、ユーザの端末装置は、他ユーザによる指示に応じてユーザ出力画像(1)の少なくとも一部を変更し、変更されたユーザ出力画像(1)を表示する機能を実現してもよい。例えば、この機能では、ユーザの端末装置は、他ユーザによる追加指示に応じて、ユーザのキャラクタオブジェクトの周囲に配置されるように、又は、ユーザのキャラクタの少なくとも一部に重畳するように、追加オブジェクトをユーザ出力画像(1)に含ませる。また、ユーザの端末装置は、他ユーザによる指示に応じて他ユーザ出力画像(2)の少なくとも一部を変更し、変更された他ユーザ出力画像(2)を表示する機能を実現してもよい。例えば、この機能では、ユーザの端末装置は、他ユーザによる変更指示に応じて、他ユーザのキャラクタオブジェクトの一部を変化させ、変化した他ユーザのキャラクタオブジェクトを含む他ユーザ出力画像(2)を表示する。 Also, the terminal device of the user may change at least a part of the user output image (1) according to an instruction from another user, and realize a function of displaying the changed user output image (1). For example, in this function, the user's terminal device is arranged to surround the user's character object or superimpose on at least a part of the user's character in response to an additional instruction from another user. Include the object in the user output image (1). Further, the terminal device of the user may change at least part of the other-user output image (2) according to an instruction from the other user, and realize a function of displaying the changed other-user output image (2). . For example, in this function, the terminal device of the user changes a part of the other user's character object in response to a change instruction from the other user, and outputs the other user's output image (2) including the changed character object of the other user. indicate.

なお、ユーザの端末装置は、ユーザによる指示又は他ユーザによる指示に応じて、ユーザの端末装置による出力を変更してもよい。例えば、ユーザの端末装置は、ユーザによる指示又は他ユーザによる指示に応じて、ユーザの音声又は他ユーザの音声の音質を、所定期間だけ変更してもよい。また、ユーザの端末装置は、ユーザによる指示又は他ユーザによる指示に応じて、ユーザの端末装置の振動部を所定期間だけ動作させてもよい。 Note that the terminal device of the user may change the output of the terminal device of the user according to instructions from the user or instructions from other users. For example, the terminal device of the user may change the sound quality of the user's voice or the other user's voice for a predetermined period in accordance with the user's instruction or the other user's instruction. Also, the user's terminal device may operate the vibrating section of the user's terminal device for a predetermined period of time in response to an instruction from the user or an instruction from another user.

以上、図1を参照しつつ説明したとおり、端末装置の制御プログラム、端末装置、端末装置の制御方法、サーバ装置の制御プログラム、サーバ装置、及びサーバ装置の制御方法では、ユーザによる指示又は他ユーザによる指示に応じて、少なくとも一部が変更されたユーザ出力画像又は少なくとも一部が変更された他ユーザ出力画像が表示される。このように、端末装置の制御プログラム、端末装置、端末装置の制御方法、サーバ装置の制御プログラム、サーバ装置、及びサーバ装置の制御方法によって、コミュニケーションサービス中に、端末装置からの出力がユーザ又は他ユーザによって変更されるようにすることで、コミュニケーションに対するユーザの継続使用の意欲を向上させることが可能となる。 As described above with reference to FIG. 1, in the control program for the terminal device, the terminal device, the control method for the terminal device, the control program for the server device, the server device, and the control method for the server device, the user's instruction or another user's At least a part of the changed user output image or at least a part of the changed other user output image is displayed according to the instruction by . In this way, the control program for the terminal device, the terminal device, the control method for the terminal device, the control program for the server device, the server device, and the control method for the server device enable the output from the terminal device to be used by the user or others during communication services. By allowing the user to change it, it is possible to increase the user's willingness to continue using the communication.

図1に示される例において、ユーザ及び他ユーザは、コミュニケーションサービスを利用可能な複数のユーザのうち、所定のコミュニケーショングループに所属するユーザである。所定のコミュニケーショングループは、ユーザ及び他ユーザのいずれかによって作成されたグループ等である。図1に示される例では、2人のユーザのキャラクタオブジェクトが表示されるが、所定のコミュニケーショングループに所属する3人以上のユーザのキャラクタオブジェクトが表示され、3人以上のユーザがコミュニケーションできるように構成されてもよい。 In the example shown in FIG. 1, the user and other users are users belonging to a predetermined communication group among a plurality of users who can use the communication service. A predetermined communication group is a group or the like created by either a user or another user. In the example shown in FIG. 1, character objects of two users are displayed, but character objects of three or more users belonging to a predetermined communication group are displayed so that three or more users can communicate. may be configured.

また、図1に示される例において、ユーザ及び他ユーザは、所定の関係を有しているユーザでもよい。例えば、ユーザと所定の関係を有する他ユーザは、ユーザの相互フォロワーである。なお、ユーザが他ユーザをフォローし且つ他ユーザもユーザをフォローしている(ユーザと他ユーザが相互フォローしている)場合、ユーザと他ユーザは相互フォロワーとなる。また、ユーザと所定の関係を有する他ユーザは、ユーザの相互フォロワーである所定ユーザと相互フォローの関係にある他ユーザでもよい。また、ユーザと所定の関係を有する他ユーザは、ユーザとフレンド関係にある他ユーザでもよく、または、ユーザの端末装置に特定情報(電話番号、メールアドレス、所定のID(identification)等)が記憶されている他のユーザでもよい。また、ユーザの端末装置が、ユーザのキャラクタオブジェクトを含むユーザ出力画像を、一又は複数の他ユーザの端末装置にサーバ装置を介して配信する機能を有する場合、ユーザと所定の関係を有する他ユーザは、ユーザが配信したユーザ出力画像を視聴した他ユーザである。この場合、所定の関係を有しているユーザ及び他ユーザが、図1に示されるようなコミュニケーションを行う場合、ユーザ及び他ユーザによって構成される所定のコミュニケーショングループが、ユーザ若しくは他ユーザの端末装置又はサーバ装置によって一時的に作成されてもよい。 Also, in the example shown in FIG. 1, the user and other users may be users having a predetermined relationship. For example, other users who have a predetermined relationship with the user are mutual followers of the user. Note that when a user follows another user and the other user also follows the user (the user and the other user follow each other), the user and the other user become mutual followers. Further, the other user having a predetermined relationship with the user may be another user who is in a mutual following relationship with the predetermined user who is a mutual follower of the user. In addition, other users having a predetermined relationship with the user may be other users who have a friend relationship with the user, or specific information (telephone number, e-mail address, predetermined ID (identification), etc.) is stored in the user's terminal device. It may be another user who is In addition, when the user's terminal device has a function of distributing the user output image including the user's character object to one or more other user's terminal devices via the server device, the other user who has a predetermined relationship with the user is another user who viewed the user output image distributed by the user. In this case, when a user and other users having a predetermined relationship communicate as shown in FIG. Alternatively, it may be temporarily created by the server device.

なお、上述した図1の説明は、本発明の内容への理解を深めるための説明にすぎない。本発明は、具体的には、次に説明する各実施形態において実施され、且つ、本発明の原則を実質的に超えずに、さまざまな変形例によって実施されてもよい。このような変形例はすべて、本発明および本明細書の開示範囲に含まれる。 Note that the above description of FIG. 1 is merely a description for deepening the understanding of the content of the present invention. The present invention is embodied in particular in each of the embodiments described below, and may be embodied in various modifications without substantially departing from the principles of the invention. All such variations are included within the scope of the present invention and the disclosure herein.

(情報システム1)
図2は、情報システム1の概略構成の一例を示す図である。情報システム1は、複数のユーザのそれぞれが操作する端末装置2と、サーバ装置3とを備える。端末装置2及びサーバ装置3は、例えば、基地局4と移動体通信網5とゲートウェイ6とインターネット7等の通信ネットワークとを介して相互に接続される。端末装置2及びサーバ装置3間では、ハイパーテキスト転送プロトコル(Hypertext Transfer Protocol,HTTP)等の通信プロトコルに基づいて通信が行われる。また、端末装置2及びサーバ装置3間において、最初にHTTP通信によりコネクションが確立され、その後は、HTTP通信よりも小コスト(通信負荷及び処理負荷が少ない)の双方向通信が行われるWebSocketに基づいて通信が行われてもよい。なお、端末装置2及びサーバ装置3間の通信方式は、上述の方式に限定されず、本実施形態を実現できるものであれば、端末装置2及びサーバ装置3間においてどのような通信方式の技術が用いられてもよい。
(Information system 1)
FIG. 2 is a diagram showing an example of a schematic configuration of the information system 1. As shown in FIG. The information system 1 includes a terminal device 2 operated by each of a plurality of users, and a server device 3 . The terminal device 2 and the server device 3 are interconnected via a base station 4, a mobile communication network 5, a gateway 6, and a communication network such as the Internet 7, for example. Communication is performed between the terminal device 2 and the server device 3 based on a communication protocol such as the Hypertext Transfer Protocol (HTTP). Based on WebSocket, a connection is first established between the terminal device 2 and the server device 3 by HTTP communication, and then two-way communication is performed at a lower cost (less communication load and processing load) than HTTP communication. communication may take place. The communication method between the terminal device 2 and the server device 3 is not limited to the above-described method. may be used.

端末装置2は、スマートフォン等の情報処理装置である。端末装置2は、携帯電話機、ノートPC、タブレット端末、タブレットPC、ヘッドマウントディスプレイ(Head Mounted Display,HMD)、電子書籍リーダー、又はウェアラブルコンピュータ等でもよい。端末装置2は、携帯ゲーム機、又はゲーム用コンソール等でもよい。端末装置2は、ユーザ及び他ユーザのキャラクタオブジェクトの表示出力、並びに、ユーザ及び他ユーザの音声の出力が可能であれば、どのような情報処理装置でもよい。 The terminal device 2 is an information processing device such as a smart phone. The terminal device 2 may be a mobile phone, a notebook PC, a tablet terminal, a tablet PC, a head mounted display (HMD), an electronic book reader, a wearable computer, or the like. The terminal device 2 may be a portable game machine, a game console, or the like. The terminal device 2 may be any information processing device as long as it can display the character objects of the user and other users and output the voices of the user and other users.

図2に示される例では、1台のサーバ装置3が情報システム1の構成要素として図示されているが、サーバ装置3は複数の物理的に別体のサーバ装置3の集合であってもよい。この場合、複数のサーバ装置3のそれぞれは、同一の機能を有するものでもよく、1台のサーバ装置3の機能を分散して有するものでもよい。 In the example shown in FIG. 2, one server device 3 is illustrated as a component of the information system 1, but the server device 3 may be a set of a plurality of physically separate server devices 3. . In this case, each of the plurality of server devices 3 may have the same function, or may have the functions of one server device 3 in a distributed manner.

(端末装置2)
図3は、端末装置2の概略構成の一例を示す図である。端末装置2は、基地局4と移動体通信網5とゲートウェイ6とインターネット7等の通信ネットワークとを介してサーバ装置3に接続し、サーバ装置3と通信を行う。端末装置2は、ユーザによって入力された各種データ(撮像データ等)に従ってモーションデータを含むキャラクタ動画データを生成し、生成したキャラクタ動画データ及び/又はユーザの音声データを含む出力情報をサーバ装置3に送信する。また、端末装置2は、サーバ装置3から送信された他ユーザの出力情報を受信し、受信した出力情報に基づいて他ユーザのキャラクタオブジェクトを表示し、及び/又は、他ユーザの音声を出力する。このような機能を実現するため、端末装置2は、端末通信I/F21と、端末記憶装置22と、表示装置23と、入力装置24と、撮像装置25と、マイク26と、端末処理装置27とを備える。
(Terminal device 2)
FIG. 3 is a diagram showing an example of a schematic configuration of the terminal device 2. As shown in FIG. Terminal device 2 connects to server device 3 via base station 4 , mobile communication network 5 , gateway 6 , and a communication network such as the Internet 7 to communicate with server device 3 . The terminal device 2 generates character moving image data including motion data according to various data (imaging data, etc.) input by the user, and outputs output information including the generated character moving image data and/or user voice data to the server device 3. Send. In addition, the terminal device 2 receives the output information of the other user transmitted from the server device 3, displays the character object of the other user based on the received output information, and/or outputs the voice of the other user. . In order to realize such functions, the terminal device 2 includes a terminal communication I/F 21, a terminal storage device 22, a display device 23, an input device 24, an imaging device 25, a microphone 26, and a terminal processing device 27. and

端末通信I/F21は、ハードウェア、ファームウェア、又はTCP/IP(Transmission Control Protocol / Internet Protocol)ドライバやPPP(Point-to-Point Protocol)ドライバ等の通信用ソフトウェア又はこれらの組み合わせとして実装される。端末装置2は、端末通信I/F21を介して、サーバ装置3等の他の装置にデータを送信し且つ他の装置からデータを受信することができる。 The terminal communication I/F 21 is implemented as hardware, firmware, communication software such as a TCP/IP (Transmission Control Protocol/Internet Protocol) driver or PPP (Point-to-Point Protocol) driver, or a combination thereof. The terminal device 2 can transmit data to and receive data from other devices such as the server device 3 via the terminal communication I/F 21 .

端末記憶装置22は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)等の半導体メモリ装置である。端末記憶装置22は、端末処理装置27における処理に用いられるオペレーティングシステムプログラム、ドライバプログラム、制御プログラム及びデータ等を記憶する。端末記憶装置22に記憶されるドライバプログラムは、表示装置23を制御する出力デバイスドライバプログラム、及び、入力装置24を制御する入力デバイスドライバプログラム等である。端末記憶装置22に記憶される制御プログラムは、例えば、コミュニケーションサービスに関する各種機能を実現するためのアプリケーションプログラムである。なお、制御プログラムは、サーバ装置3又はその他の装置から送信されたものでもよい。 The terminal storage device 22 is, for example, a semiconductor memory device such as ROM (Read Only Memory) or RAM (Random Access Memory). The terminal storage device 22 stores an operating system program, a driver program, a control program, data, and the like used for processing in the terminal processing device 27 . The driver programs stored in the terminal storage device 22 include an output device driver program that controls the display device 23, an input device driver program that controls the input device 24, and the like. The control programs stored in the terminal storage device 22 are, for example, application programs for realizing various functions related to communication services. Note that the control program may be transmitted from the server device 3 or another device.

端末記憶装置22は、データとして、端末装置2を操作するユーザを一意に識別するための識別情報(例えば、ユーザID(identification))等を記憶する。また、端末記憶装置22は、データとして、背景データ及びモデルデータ等を記憶する。また、端末記憶装置22は、データとして、ユーザテーブルT1、オブジェクトテーブルT2、及びグループテーブルT3を記憶する。また、端末記憶装置22は、所定の処理に係るデータを一時的に記憶してもよい。 The terminal storage device 22 stores, as data, identification information (eg, user ID (identification)) for uniquely identifying a user who operates the terminal device 2 . The terminal storage device 22 also stores background data, model data, and the like as data. The terminal storage device 22 also stores a user table T1, an object table T2, and a group table T3 as data. In addition, the terminal storage device 22 may temporarily store data related to predetermined processing.

背景データは、ユーザ出力画像において、ユーザのキャラクタオブジェクトが存在する仮想空間を構築するためのアセットデータである。背景データは、仮想空間の背景を描画するためのデータ、ユーザ出力画像に含まれる各種物体を描画するためのデータ、及びこれら以外のユーザ出力画像に表示される各種背景オブジェクトを描画するためのデータが含まれる。背景データには、仮想空間における各種背景オブジェクトの位置を示すオブジェクト位置情報を含んでもよい。 The background data is asset data for constructing a virtual space in which the user's character object exists in the user output image. The background data includes data for drawing the background of the virtual space, data for drawing various objects included in the user output image, and data for drawing various background objects displayed in the user output image other than these. is included. The background data may include object position information indicating positions of various background objects in the virtual space.

表示装置23は、液晶ディスプレイである。なお、表示装置23は、有機EL(Electro-Luminescence)ディスプレイ等でもよい。表示装置23は、端末処理装置27から供給された、動画像データに応じた動画像及び/又は静止画像データに応じた静止画像等を表示画面に表示する。また、表示装置23は、端末装置2の構成要素でなくてもよく、この場合、表示装置23は、サーバ装置3と通信可能なHMDのディスプレイ、有線又は無線を介して端末装置2と通信可能な、プロジェクションマッピング(Projection Mapping)用の映写装置、網膜投影型の投影装置等でもよい。 The display device 23 is a liquid crystal display. The display device 23 may be an organic EL (Electro-Luminescence) display or the like. The display device 23 displays, on a display screen, a moving image corresponding to the moving image data and/or a still image corresponding to the still image data supplied from the terminal processing device 27 . In addition, the display device 23 may not be a component of the terminal device 2. In this case, the display device 23 may be an HMD display capable of communicating with the server device 3, or may communicate with the terminal device 2 via a wired or wireless connection. Alternatively, a projector for projection mapping, a retinal projection type projector, or the like may be used.

入力装置24は、タッチパネル等のポインティングデバイスである。入力装置24がタッチパネルである場合、入力装置24は、ユーザのタップ、ダブルタップ、ドラッグ等の各種タッチ操作を検出することができる。タッチパネルは、静電容量式の近接センサを備え、ユーザの非接触操作を検出可能に構成されてもよい。なお、入力装置24は、入力キー等でもよい。ユーザは、入力装置24を用いて、文字、数字及び記号、若しくは、表示装置23の表示画面上の位置等を入力することができる。入力装置24は、ユーザにより操作されると、その操作に対応する信号を発生する。そして、入力装置24は、発生した信号を、ユーザの指示として、端末処理装置27に供給する。 The input device 24 is a pointing device such as a touch panel. When the input device 24 is a touch panel, the input device 24 can detect various touch operations such as tapping, double tapping, and dragging by the user. The touch panel may include a capacitive proximity sensor and be configured to detect a user's non-contact operation. The input device 24 may be an input key or the like. The user can use the input device 24 to input characters, numbers and symbols, positions on the display screen of the display device 23, and the like. The input device 24 generates a signal corresponding to the operation when operated by the user. The input device 24 then supplies the generated signal to the terminal processing device 27 as a user's instruction.

撮像装置25は、結像光学系、撮像素子及び画像処理部等を有するカメラである。結像光学系は、例えば光学レンズであり、被写体からの光束を撮像素子の撮像面上に結像させる。撮像素子は、CCD(Charge Coupled Device)又はCMOS(Complementary Metal Oxide Semiconductor)等であり、撮像面上に結像した被写体像の画像を出力する。画像処理部は、連続して撮像素子によって生成された画像から、所定期間毎に所定のファイル形式の動画像データを作成して撮像データとして出力する。または、画像処理部は、撮像素子によって生成された画像から所定のファイル形式の静止画像データを作成して撮像データとして出力する。 The imaging device 25 is a camera having an imaging optical system, an imaging element, an image processing section, and the like. The imaging optical system is, for example, an optical lens, and forms an image of the light flux from the subject on the imaging surface of the imaging element. The imaging device is a CCD (Charge Coupled Device), a CMOS (Complementary Metal Oxide Semiconductor), or the like, and outputs an image of a subject image formed on an imaging plane. The image processing unit creates moving image data in a predetermined file format for each predetermined period from images continuously generated by the imaging device, and outputs the moving image data as captured image data. Alternatively, the image processing unit creates still image data in a predetermined file format from the image generated by the imaging device, and outputs the still image data as imaging data.

マイク26は、ユーザによって発せられた音声を取得し、音声データに変換するように構成された集音装置である。マイク26は、ユーザの音声入力を取得することができるように構成され、マイク26により取得されたユーザの音声入力を音声データに変換し、音声データを端末処理装置27に出力する。 The microphone 26 is a sound collecting device configured to acquire voice uttered by the user and convert it into voice data. The microphone 26 is configured to be able to acquire user's voice input, converts the user's voice input acquired by the microphone 26 into voice data, and outputs the voice data to the terminal processing device 27 .

端末処理装置27は、端末記憶装置22に記憶されているオペレーティングシステムプログラム、ドライバプログラム及び制御プログラムをメモリにロードし、ロードしたプログラムに含まれる命令を実行するプロセッサである。端末処理装置27は、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、DSP(Digital Signal Processor)、GPU(Graphics Processing Unit)等の電子回路、又は各種電子回路の組み合わせである。端末処理装置27は、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array)、MCU(Micro Controller Unit)等の集積回路により実現されてもよい。図3においては、端末処理装置27が単一の構成要素として図示されているが、端末処理装置27は複数の物理的に別体のプロセッサの集合であってもよい。 The terminal processing device 27 is a processor that loads an operating system program, a driver program and a control program stored in the terminal storage device 22 into memory and executes instructions contained in the loaded programs. The terminal processing device 27 is, for example, an electronic circuit such as a CPU (Central Processing Unit), MPU (Micro Processing Unit), DSP (Digital Signal Processor), GPU (Graphics Processing Unit), or a combination of various electronic circuits. The terminal processing device 27 may be implemented by an integrated circuit such as an ASIC (Application Specific Integrated Circuit), a PLD (Programmable Logic Device), an FPGA (Field Programmable Gate Array), or an MCU (Micro Controller Unit). Although terminal processor 27 is illustrated as a single component in FIG. 3, terminal processor 27 may be a collection of multiple physically separate processors.

端末処理装置27は、制御プログラムに含まれる各種命令を実行することにより、生成部271、送信部272、受信部273、表示処理部274、及び音声出力部275として機能する。生成部271、送信部272、受信部273、表示処理部274、及び音声出力部275の機能については後述する。 The terminal processing device 27 functions as a generation unit 271, a transmission unit 272, a reception unit 273, a display processing unit 274, and an audio output unit 275 by executing various commands included in the control program. Functions of the generation unit 271, the transmission unit 272, the reception unit 273, the display processing unit 274, and the audio output unit 275 will be described later.

(各種テーブル)
図4は、端末記憶装置22に記憶されるユーザテーブルT1、オブジェクトテーブルT2、及びグループテーブルT3のデータ構造の一例を示す図である。なお、ユーザテーブルT1、オブジェクトテーブルT2、及びグループテーブルT3のうちの少なくとも一つのテーブルは、サーバ装置3のサーバ記憶装置32に記憶されてもよい。この場合、端末装置2は、所定のタイミングで、サーバ記憶装置32に記憶されている最新のテーブルを受信して端末記憶装置22に記憶してもよい。
(Various tables)
FIG. 4 is a diagram showing an example of the data structure of the user table T1, object table T2, and group table T3 stored in the terminal storage device 22. As shown in FIG. At least one of the user table T1, object table T2, and group table T3 may be stored in the server storage device 32 of the server device 3. FIG. In this case, the terminal device 2 may receive the latest table stored in the server storage device 32 and store it in the terminal storage device 22 at a predetermined timing.

(ユーザテーブルT1)
図4(a)は、コミュニケーションサービスに参加するユーザを管理するユーザテーブルT1のデータ構造の一例である。ユーザテーブルT1では、各ユーザについて、ユーザID、ユーザの名称、ユーザのキャラクタオブジェクト、ユーザの保有オブジェクト、及び使用オブジェクト等が、互いに関連付けて記憶されている。ユーザテーブルT1において、ユーザのユーザIDに関連付けて、ユーザの保有コイン(ユーザが保有している仮想的な貨幣価値の「コイン」の総量を示す情報)及び/又はユーザポイント等が記憶されてもよい。ユーザIDは、各ユーザを一意に識別するための識別データの一例である。名称は、各ユーザの名称を示すデータの一例である。
(User table T1)
FIG. 4(a) is an example of the data structure of a user table T1 that manages users participating in the communication service. In the user table T1, for each user, the user ID, user name, user's character object, user's owned object, used object, and the like are stored in association with each other. In the user table T1, the user's owned coins (information indicating the total amount of "coins" of virtual monetary value owned by the user) and/or user points etc. are stored in association with the user's user ID. good. A user ID is an example of identification data for uniquely identifying each user. The name is an example of data indicating the name of each user.

例えば、キャラクタオブジェクトは、キャラクタオブジェクトのアニメーションを生成するためのモデルデータを識別するためのモデルIDである。モデルデータは、モデルIDに関連付けられて端末記憶装置22に記憶される。モデルデータは、3次元のアニメーションを生成するための3次元モデルデータであってもよいし、2次元のモデルデータを生成するための2次元モデルデータであってもよい。モデルデータは、例えば、キャラクタオブジェクトの顔及び顔以外の部分の骨格を示すリグデータ(所謂「スケルトンデータ」)と、キャラクタオブジェクトの表面の形状や質感を示す表面データとを含む。モデルデータには、互いに異なる複数のモデルデータが含まれてもよい。複数のモデルデータのそれぞれは、互いに異なるリグデータを有してもよく、又は、同じリグデータを有してもよい。複数のモデルデータのそれぞれは、互いに異なる表面データを有してもよく、又は、同じ表面データを有してもよい。 For example, a character object is a model ID for identifying model data for generating animation of the character object. The model data is stored in the terminal storage device 22 in association with the model ID. The model data may be three-dimensional model data for generating three-dimensional animation, or two-dimensional model data for generating two-dimensional model data. The model data includes, for example, rig data (so-called “skeleton data”) indicating the skeleton of the character object's face and parts other than the face, and surface data indicating the surface shape and texture of the character object. The model data may include a plurality of different model data. Each of the plurality of model data may have rig data different from each other, or may have the same rig data. Each of the plurality of model data may have surface data different from each other, or may have the same surface data.

保有オブジェクトは、各ユーザが保有しているオブジェクトを示すオブジェクトIDである。保有オブジェクトは、キャラクタオブジェクトの特定の部位に関連付けることが可能な装着オブジェクト、及び、ユーザ出力画像内においてユーザのキャラクタオブジェクトの背面に配置される壁紙オブジェクト等である。装着オブジェクト及び壁紙オブジェクトの詳細は後述する。保有オブジェクトは、ユーザの操作によって、ユーザの端末装置2又はサーバ装置3によって実行された抽選ゲームによって選択されたオブジェクトである。また、保有オブジェクトは、情報システム1における購入機能において、ユーザが仮想的な貨幣価値の「コイン」を消費することで、ユーザが保有することになったオブジェクトでもよい。 A owned object is an object ID indicating an object owned by each user. Possessed objects are wearable objects that can be associated with specific parts of the character object, wallpaper objects that are placed behind the user's character object in the user output image, and the like. Details of the wearing object and the wallpaper object will be described later. A owned object is an object selected by a user's operation in a lottery game executed by the user's terminal device 2 or server device 3 . The owned object may also be an object owned by the user as a result of the user consuming "coins" of virtual monetary value in the purchase function of the information system 1 .

使用オブジェクトは、ユーザの端末装置2において表示中のユーザ出力画像において使用されているオブジェクトを示すオブジェクトIDである。例えば、コミュニケーションサービス中に、ユーザの変更指示が入力された場合、表示中のユーザ出力画像に含まれるユーザのキャラクタオブジェクトに、ユーザの保有オブジェクトとして保有している装着オブジェクトが装着される。この場合、ユーザのキャラクタオブジェクトに装着された装着オブジェクトのオブジェクトIDが、使用オブジェクトとしてユーザIDに関連付けてユーザテーブルT1に記憶される。また、例えば、コミュニケーションサービス中に、ユーザの変更指示が入力された場合、表示中のユーザ出力画像においてユーザのキャラクタオブジェクトの背面に、ユーザの保有オブジェクトとして保有している壁紙オブジェクトが配置される。この場合、ユーザ出力画像に配置された壁紙オブジェクトのオブジェクトIDが、使用オブジェクトとしてユーザIDに関連付けてユーザテーブルT1に記憶される。 The used object is an object ID indicating an object used in the user output image being displayed on the terminal device 2 of the user. For example, when a user's change instruction is input during a communication service, the user's character object included in the user output image being displayed is equipped with the wearable object held as the user's owned object. In this case, the object ID of the wearable object worn by the user's character object is stored in the user table T1 in association with the user ID as the used object. Also, for example, when a user's change instruction is input during a communication service, a wallpaper object owned by the user as a owned object is arranged behind the user's character object in the user output image being displayed. In this case, the object ID of the wallpaper object arranged in the user output image is stored in the user table T1 in association with the user ID as the used object.

(オブジェクトテーブルT2)
図4(b)は、追加オブジェクトとして選択されるオブジェクトを管理するオブジェクトテーブルT2のデータ構造の一例である。追加オブジェクトは、例えば、ユーザが他ユーザに贈るギフトオブジェクトである。オブジェクトテーブルT2では、各追加オブジェクトについて、オブジェクトID、名称、画像情報、希少度及び配置箇所等が、互いに関連付けて記憶されている。
(Object table T2)
FIG. 4B is an example of the data structure of an object table T2 that manages objects selected as additional objects. An additional object is, for example, a gift object given by a user to another user. In the object table T2, the object ID, name, image information, rarity level, arrangement location, etc. of each additional object are stored in association with each other.

オブジェクトIDは、各追加オブジェクトを一意に識別するための識別データの一例である。画像情報は、各追加オブジェクトに対応する一又は複数の静止画像である。画像情報は、各追加オブジェクトに対応する1種類以上の動画像でもよい。希少度は、各追加オブジェクトの希少度合いを示す情報である。配置箇所は、各追加オブジェクトの画像情報が表示される箇所を示す情報である。なお、キャラクタオブジェクトの表示位置及び表示範囲が定められている場合、当該キャラクタオブジェクトに対する相対的な位置を示す情報が配置箇所として記憶されてもよい。 The object ID is an example of identification data for uniquely identifying each additional object. The image information is one or more still images corresponding to each additional object. The image information may be one or more moving images corresponding to each additional object. The rarity level is information indicating the rarity level of each additional object. The placement location is information indicating the location where the image information of each additional object is displayed. Note that when the display position and display range of the character object are determined, information indicating the position relative to the character object may be stored as the placement location.

追加オブジェクトは、複数の種類(カテゴリ)に分類される。例えば、追加オブジェクトには、エフェクトギフトとして使用されるエフェクトオブジェクトと、通常ギフトとして使用される通常オブジェクトと、装着ギフトとして使用される装着オブジェクトと、メッセージギフトとして使用されるメッセージオブジェクトと、が含まれる。追加オブジェクトに、ユーザ出力画像内のキャラクタオブジェクトの背面に配置される壁紙オブジェクトが含まれてもよい。なお、追加オブジェクトの種類(カテゴリ)を示す情報が、追加オブジェクトのオブジェクトIDに関連付けてオブジェクトテーブルT2に記憶されてもよい。以下、追加オブジェクトの種類に応じて、画像情報及び配置箇所について説明する。 Additional objects are classified into multiple types (categories). For example, additional objects include effect objects used as effect gifts, normal objects used as normal gifts, attachment objects used as attachment gifts, and message objects used as message gifts. . Additional objects may include wallpaper objects that are placed behind character objects in the user output image. Information indicating the type (category) of the additional object may be stored in the object table T2 in association with the object ID of the additional object. Image information and placement locations will be described below according to the types of additional objects.

エフェクトオブジェクトは、ユーザ出力画像及び/又は他ユーザ出力画像の全体の印象に影響を与えるオブジェクトである。エフェクトオブジェクトは、例えば、紙吹雪を模したオブジェクトである。エフェクトオブジェクトが紙吹雪を模したオブジェクトである場合、画像情報として、複数の紙を示す画像が記憶される。 An effect object is an object that affects the overall impression of a user output image and/or other user output images. The effect object is, for example, an object that imitates confetti. When the effect object is an object resembling confetti, an image representing a plurality of sheets of paper is stored as the image information.

エフェクトオブジェクトの配置箇所として「空間」を示す情報が記憶される。例えば、紙吹雪を模したオブジェクトは、ユーザ出力画像及び/又は他ユーザ出力画像の全体に表示される。なお、エフェクトオブジェクトは、ユーザの指示に応じて、ユーザ出力画像及び他ユーザ出力画像を含む画面(後述するコミュニケーション画面)全体に表示されてもよい。また、エフェクトオブジェクトは、ユーザ出力画像及び他ユーザ出力画像のうち、ユーザによって選択された出力画像内にのみ表示されてもよい。また、エフェクトオブジェクトは、ユーザ出力画像及び/又は他ユーザ出力画像に含まれるキャラクタオブジェクトと重複するように表示されてもよい。エフェクトオブジェクトは、後述する装着オブジェクトと異なり、キャラクタの特定の部位に関連付けられずに表示される。このように、情報システム1の端末装置2は、ユーザの指示に応じてエフェクトオブジェクトを表示することで、当該エフェクトオブジェクトが表示される前に比べて、ユーザ出力画像及び/又は他ユーザ出力画像の全体の印象を変えることができる。 Information indicating "space" is stored as the arrangement location of the effect object. For example, an object resembling confetti is displayed over the user output image and/or the other user output image. Note that the effect object may be displayed on the entire screen (communication screen, which will be described later) including the user output image and the other user output image according to the user's instruction. Also, the effect object may be displayed only in the output image selected by the user, out of the user output image and the other user output image. Also, the effect object may be displayed so as to overlap the character object included in the user output image and/or other user output images. Effect objects are displayed without being associated with specific parts of the character, unlike wearable objects, which will be described later. In this way, the terminal device 2 of the information system 1 displays the effect object in accordance with the user's instruction, so that the user output image and/or other user output images are displayed more than before the effect object is displayed. It can change the overall impression.

通常オブジェクトは、例えば、ぬいぐるみ、花束、アクセサリ、又はギフトやプレゼントに適した物品を模したオブジェクトである。通常オブジェクトの配置箇所として「空間」を示す情報が記憶される。例えば、通常オブジェクトには、所定の移動ルートに関する情報が関連付けられており、ユーザ出力画像又は他ユーザ出力画像内を所定の移動ルートに沿って移動する通常オブジェクトが表示される。「通常オブジェクト」の配置箇所として記憶される「空間」を示す情報は、複数の種類に分類されてもよい。複数の種類の「空間」は、例えば、「中央の空間」(ユーザ出力画像又は他ユーザ出力画像を左右に3分割した場合の画像中央の領域)、「左の空間」(ユーザ出力画像又は他ユーザ出力画像を左右に3分割した場合の画像左側の領域)、及び「右の空間」(ユーザ出力画像又は他ユーザ出力画像を左右に3分割した場合の画像右側の領域)である。また、複数の種類の「空間」は、「中央の空間」(ユーザ出力画像又は他ユーザ出力画像を上下に3分割した場合の画像中央の領域)、「上の空間」(ユーザ出力画像又は他ユーザ出力画像を上下に3分割した場合の画像上側の領域)、及び「下の空間」(ユーザ出力画像又は他ユーザ出力画像を上下に3分割した場合の画像下側の領域)でもよい。この場合、通常オブジェクトに関連付けられた移動ルートは、当該通常オブジェクトの配置箇所として関連付けられた種類の「空間」内に設定される。例えば、通常オブジェクトに、「右の空間」を示す情報が記憶された場合、当該通常オブジェクトに、ユーザ出力画像又は他ユーザ出力画像を左右に3分割した場合の画像右側の領域内を移動する移動ルートに関する情報が関連付けられる。また、通常オブジェクトは、ユーザ出力画像又は他ユーザ出力画像内の通常オブジェクトごとに設定された位置又は自動的にランダムに決定された位置から、所定の移動ルールに沿って移動する通常オブジェクトが表示されてもよい。所定の移動ルールは、例えば、通常オブジェクトが自由落下しているような移動となるように設定された移動ルールである。なお、通常オブジェクトは、キャラクタオブジェクトと重複するように表示されてもよい。この場合、通常オブジェクトは、後述する装着オブジェクトと異なり、キャラクタオブジェクトの特定の部位に関連付けられずに表示される。また、通常オブジェクトは、キャラクタオブジェクトに接したタイミングで跳ね返るような移動を行うように表示されてもよい。 A typical object is, for example, an object that resembles a stuffed animal, a bouquet of flowers, an accessory, or an item suitable for a gift or present. Information indicating "space" is stored as the placement location of the normal object. For example, the normal object is associated with information about a predetermined moving route, and the normal object moving along the predetermined moving route within the user output image or other user output image is displayed. The information indicating the "space" stored as the placement location of the "normal object" may be classified into a plurality of types. A plurality of types of "space" are, for example, "central space" (region in the center of an image when a user output image or other user output image is divided into left and right), "left space" (user output image or other left-hand side area of the image when the user output image is divided into left and right thirds), and "right space" (right-side area of the image when the user output image or another user's output image is divided into left and right thirds). In addition, the multiple types of "space" include "central space" (the area in the center of the image when the user output image or other user output image is divided vertically into three), "upper space" (user output image or other The upper area of the image when the user output image is vertically divided into three) and the "lower space" (the area of the lower side of the image when the user output image or another user's output image is vertically divided into three). In this case, the movement route associated with the normal object is set within the type of "space" associated as the location of the normal object. For example, when information indicating the "right space" is stored in the normal object, the normal object moves within the area on the right side of the image when the user output image or other user output image is divided into left and right into three. Information about the route is associated. In addition, the normal object is displayed as a normal object that moves according to a predetermined movement rule from a position set for each normal object in the user output image or another user output image or a position automatically and randomly determined. may The predetermined movement rule is, for example, a movement rule that is set so that the object moves as if it were in free fall. Note that the normal object may be displayed so as to overlap with the character object. In this case, the normal object is displayed without being associated with a specific part of the character object, unlike the wearable object which will be described later. Also, the normal object may be displayed so as to bounce back at the timing of contact with the character object.

通常オブジェクトがキャラクタオブジェクトと重複して表示される場合、例えば、通常オブジェクトは、キャラクタオブジェクトの「『顔』を含む『頭部』以外の部分」と重複するように表示されてもよい。この場合、通常オブジェクトは、キャラクタオブジェクトの「頭部」とは重複しないように表示される。また、通常オブジェクトは、キャラクタオブジェクトの「『顔』を含む『上半身』以外の部分」と重複するように表示されてもよい。この場合、通常オブジェクトは、キャラクタオブジェクトの「上半身」とは重複しないように表示される。 When the normal object is displayed overlapping with the character object, for example, the normal object may be displayed so as to overlap "a portion other than the 'head' including the 'face'" of the character object. In this case, the normal object is displayed so as not to overlap the "head" of the character object. Also, the normal object may be displayed so as to overlap with "a portion other than the 'upper body' including the 'face'" of the character object. In this case, the normal object is displayed so as not to overlap the "upper body" of the character object.

装着オブジェクトは、キャラクタオブジェクトの特定の部位(装着箇所)に関連付けてユーザ出力画像又は他ユーザ出力画像に表示されるオブジェクトである。例えば、特定の部位は、キャラクタオブジェクトの頭部における、頭部の前方左側、前方右側、後方左側、後方右側、中央前側、中央後側、左目、右目、左耳、右耳、及び髪全体等である。また、特定の部位は、親指、薬指、手首、肘、肩、二の腕、手全体、腕全体等でもよい。 A wearable object is an object that is displayed in a user output image or another user output image in association with a specific part (wearing location) of a character object. For example, the specific parts include the front left side, front right side, rear left side, rear right side, center front side, center rear side, left eye, right eye, left ear, right ear, and the entire hair of the head of the character object. is. Also, the specific part may be the thumb, ring finger, wrist, elbow, shoulder, upper arm, whole hand, whole arm, or the like.

キャラクタオブジェクトの特定の部位に関連付けられた装着オブジェクトは、キャラクタオブジェクトの特定の部位に接するようにユーザ出力画像又は他ユーザ出力画像に表示される。また、キャラクタオブジェクトの特定の部位に関連付けられた装着オブジェクトは、キャラクタオブジェクトの特定の部位の一部又は全部を覆うようにユーザ出力画像又は他ユーザ出力画像に表示されてもよい。特定の部位は、3次元座標空間における位置を示す3次元位置情報で特定されてもよく、また、3次元座標空間の位置情報に関連付けられてもよい。 The wearable object associated with the specific part of the character object is displayed in the user output image or other user output image so as to be in contact with the specific part of the character object. Also, the wearable object associated with the specific part of the character object may be displayed in the user output image or other user output image so as to cover part or all of the specific part of the character object. The specific part may be identified by three-dimensional position information indicating the position in the three-dimensional coordinate space, or may be associated with position information in the three-dimensional coordinate space.

装着オブジェクトの画像情報は、例えば、キャラクタオブジェクトに装着されるアクセサリ(カチューシャ、ネックレス又はイヤリング等)、衣服(Tシャツ又はワンピース等)、コスチューム、及び、これら以外のキャラクタオブジェクトが装着可能なもの、を模した画像情報である。 The image information of the wearable object includes, for example, accessories to be worn by the character object (headband, necklace, earrings, etc.), clothes (T-shirt, dress, etc.), costumes, and other items that can be worn by the character object. This is simulated image information.

装着オブジェクトの配置箇所として、装着オブジェクトがキャラクタオブジェクトのどの部位に関連付けられるかを示す装着部位を示す情報が記憶される。例えば、装着オブジェクトが「カチューシャ」である場合、装着オブジェクトの配置箇所として、キャラクタオブジェクトの「頭部」を示す情報が記憶される。また、装着オブジェクトが「Tシャツ」である場合、装着オブジェクトの配置箇所として、キャラクタオブジェクトの「胴部」を示す情報が記憶される。 As the place where the wearable object is placed, information indicating the place where the wearable object is associated with which part of the character object is stored. For example, when the wearable object is a "headband", information indicating the "head" of the character object is stored as the placement location of the wearable object. Further, when the wearable object is a "T-shirt", information indicating the "torso" of the character object is stored as the placement location of the wearable object.

装着オブジェクトの配置箇所として、3次元座標空間における複数の装着部位を示す情報が記憶されてもよい。例えば、装着オブジェクトが「カチューシャ」である場合、装着オブジェクトの配置箇所として、キャラクタオブジェクトの「頭部後方左側」及び「頭部後方右側」の2つの部位を示す情報が記憶されてもよい。これにより、「カチューシャ」を模した装着オブジェクトは、キャラクタオブジェクトの「頭部後方左側」及び「頭部後方右側」の両方に装着されるように表示される。 Information indicating a plurality of attachment sites in the three-dimensional coordinate space may be stored as the placement locations of the attachment object. For example, when the wearable object is a "headband", information indicating two parts of the character object, "left rear head" and "right rear head", may be stored as placement locations of the wearable object. As a result, the wearable object imitating the "headband" is displayed so as to be worn on both the "rear left side of the head" and the "rear right side of the head" of the character object.

キャラクタオブジェクトに装着箇所が共通する複数種類の装着オブジェクトが装着される場合、当該複数種類の装着オブジェクトは時間を隔ててキャラクタオブジェクトに装着される。これにより、装着部位が共通する複数種類の装着オブジェクトは、キャラクタオブジェクトに同時に装着されない。例えば、「カチューシャ」を示す装着オブジェクト及び「帽子」を示す装着オブジェクトの装着箇所として、ともに「頭部」が記憶される場合、「カチューシャ」を示す装着オブジェクト及び「帽子」を示す装着オブジェクトは、同時にキャラクタオブジェクトの頭部に表示されない。 When a character object is equipped with a plurality of types of mountable objects having a common mounting position, the plurality of types of mountable objects are mounted on the character object at intervals of time. As a result, a plurality of types of wearable objects having a common wearable part are not worn on the character object at the same time. For example, when "head" is stored as the mounting location of the mountable object indicating "headband" and the mountable object indicating "cap", the mountable object indicating "headband" and the mountable object indicating "cap" are At the same time, it is not displayed on the head of the character object.

オブジェクトテーブルT2において、追加オブジェクトの種類に応じた表示時間が、当該追加オブジェクトのオブジェクトIDに関連付けて記憶されてもよい。例えば、装着オブジェクトの表示時間は、エフェクトオブジェクトの表示時間及び通常オブジェクトの表示時間よりも長い時間が記憶されてもよい。例えば、装着オブジェクトの表示時間として「60秒」が記憶された場合、エフェクトオブジェクトの表示時間として「5秒」が記憶され、通常オブジェクトの表示時間として「10秒」が記憶されてもよい。 In the object table T2, the display time corresponding to the type of additional object may be stored in association with the object ID of the additional object. For example, the display time of the wearable object may be longer than the display time of the effect object and the display time of the normal object. For example, when "60 seconds" is stored as the display time of the wearable object, "5 seconds" may be stored as the display time of the effect object, and "10 seconds" may be stored as the display time of the normal object.

(グループテーブルT3)
図4(c)は、ユーザが属するグループ(フレンド関係のユーザのグループ、相互フォロワーである他ユーザとのグループ、ユーザ又は他ユーザによって任意に作成されたグループ等)を管理するグループテーブルT3のデータ構造の一例である。グループテーブルT3は、ユーザごとに個別に設けられ、図4(c)に示されるグループテーブルT3は、当該グループテーブルT3を記憶する端末装置2を操作するユーザのグループテーブルT3である。
(Group table T3)
FIG. 4(c) shows data of a group table T3 for managing groups to which users belong (friend-related user groups, mutual follower groups with other users, groups arbitrarily created by users or other users, etc.). It is an example of structure. The group table T3 is individually provided for each user, and the group table T3 shown in FIG. 4(c) is the group table T3 of the user who operates the terminal device 2 storing the group table T3.

グループテーブルT3では、各グループについて、グループのグループID、グループの名称、グループに所属する所属ユーザ等が、互いに関連付けて記憶されている。グループIDは、各グループを一意に識別するための識別データの一例である。名称は、各グループの名称を示すデータの一例である。所属ユーザは、グループに所属する各ユーザのユーザIDである。 In the group table T3, for each group, the group ID of the group, the name of the group, the users belonging to the group, etc. are stored in association with each other. A group ID is an example of identification data for uniquely identifying each group. The name is an example of data indicating the name of each group. The belonging user is the user ID of each user belonging to the group.

図3に戻り、生成部271、送信部272、受信部273、表示処理部274、音声出力部275の機能について説明する。 Returning to FIG. 3, functions of the generation unit 271, the transmission unit 272, the reception unit 273, the display processing unit 274, and the audio output unit 275 will be described.

(生成部271)
生成部271は、撮像装置25によって連続的に出力された撮像データを、撮像装置25から取得する。例えば、ユーザによって把持された端末装置2の撮像装置25は、表示装置23の表示画面を眺めるユーザの顔が撮影方向となるように、端末装置2に設けられる。撮像装置25は、撮影方向のユーザの顔を連続的に撮像し、ユーザの顔の撮像データを取得し、端末処理装置27の生成部271に出力する。撮像装置25は、ユーザの顔以外の部位、例えば、頭部、腕部、手部(指部を含む)、胸部、胴部、脚部、又はこれら以外の部位を撮像して撮像データを取得しても良い。また、撮像装置25は、人物の顔の奥行きを検出可能な3Dカメラであってもよい。
(Generating unit 271)
The generation unit 271 acquires the imaging data continuously output by the imaging device 25 from the imaging device 25 . For example, the imaging device 25 of the terminal device 2 held by the user is provided in the terminal device 2 so that the face of the user looking at the display screen of the display device 23 faces the shooting direction. The imaging device 25 continuously captures images of the user's face in the shooting direction, acquires captured data of the user's face, and outputs the captured data to the generation unit 271 of the terminal processing device 27 . The imaging device 25 acquires imaging data by imaging parts other than the user's face, such as the head, arms, hands (including fingers), chest, body, legs, or parts other than these. You can Also, the imaging device 25 may be a 3D camera capable of detecting the depth of a person's face.

生成部271は、連続的に取得した撮像データに基づいて、ユーザの顔の動きのデジタル表現であるフェイスモーションデータを、時間の経過に伴って随時生成する。フェイスモーションデータは、所定のサンプリング時間間隔ごとに生成されてもよい。このように、生成部271によって生成されたフェイスモーションデータは、ユーザの顔の動き(表情の変化)を時系列的にデジタル表現することができる。 The generation unit 271 generates face motion data, which is a digital representation of the movement of the user's face, from time to time based on the continuously acquired imaging data. Face motion data may be generated at predetermined sampling time intervals. In this way, the face motion data generated by the generation unit 271 can digitally represent the movement of the user's face (change in facial expression) in chronological order.

生成部271は、ユーザの各部位(頭部、腕部、手部(指部を含む)、胸部、胴部、脚部、又はこれら以外の部位)の位置及び向きのデジタル表現であるボディモーションデータを、フェイスモーションデータとともに、又は、フェイスモーションデータとは別に、生成してもよい。 The generation unit 271 generates a body motion that is a digital representation of the position and orientation of each part of the user (head, arms, hands (including fingers), chest, torso, legs, or other parts). The data may be generated along with the face motion data or separately from the face motion data.

ボディモーションデータは、ユーザに装着された公知のモーションセンサからの検出情報に基づいて生成されてもよい。この場合、端末装置2の端末通信I/F21は、ユーザに装着されたモーションセンサからの検出情報を無線通信で取得するための所定の通信回路を有する。そして、生成部271は、端末通信I/F21によって取得された検出情報に基づいてボディモーションデータを生成する。ボディモーションデータは、所定のサンプリング時間間隔ごとに生成されてもよい。このように、生成部271によって生成されたボディモーションデータは、ユーザの体の動きを時系列的にデジタル表現することができる。 Body motion data may be generated based on detection information from known motion sensors worn by the user. In this case, the terminal communication I/F 21 of the terminal device 2 has a predetermined communication circuit for wirelessly acquiring detection information from the motion sensor worn by the user. The generator 271 then generates body motion data based on the detection information acquired by the terminal communication I/F 21 . Body motion data may be generated at predetermined sampling time intervals. In this way, the body motion data generated by the generation unit 271 can digitally represent the motion of the user's body in chronological order.

ユーザに装着されたモーションセンサからの検出情報に基づくボディモーションデータの生成は、例えば、撮影スタジオで行われてもよい。この場合、撮影スタジオには、ベースステーションと、トラッキングセンサと、ディスプレイと、が備えられてもよい。ベースステーションは、例えば、多軸レーザーエミッターである。ユーザに装着されるモーションセンサは、例えば、HTC CORPORATIONから提供されているVive Trackerでもよく、また、ベースステーションは、例えば、HTC CORPORATIONから提供されているベースステーションでもよい。 Generation of body motion data based on detection information from motion sensors worn by the user may be performed, for example, in a photography studio. In this case, the photography studio may be equipped with a base station, a tracking sensor, and a display. A base station is, for example, a multi-axis laser emitter. The motion sensor worn by the user may be, for example, a Vive Tracker provided by HTC CORPORATION, and the base station may be, for example, a base station provided by HTC CORPORATION.

また、撮影スタジオに隣接した別室に、サポーターコンピュータが設置されていてもよい。撮影スタジオのディスプレイは、サポーターコンピュータから受信した情報を表示するように構成されてもよい。サーバ装置3は、サポーターコンピュータが設置されている部屋と同じ部屋に設置されてもよい。サポーターコンピュータが設置されている部屋と撮影スタジオとはガラス窓によって隔てられていてもよい。この場合、サポーターコンピュータのオペレータは、ユーザを視認できる。サポーターコンピュータは、サポーターの操作に応じて、撮影スタジオに備えられた各種装置の設定を変更することができるように構成されてもよい。サポーターコンピュータは、例えば、ベースステーションによる走査インターバルの設定、トラッキングセンサの設定、及びこれら以外の各種機器の各種設定の変更を行うことができる。オペレータは、サポーターコンピュータにメッセージを入力し、当該入力されたメッセージが撮影スタジオのディスプレイに表示されてもよい。 Also, a supporter computer may be installed in a separate room adjacent to the photography studio. A display in the photography studio may be configured to display information received from the supporter computer. The server device 3 may be installed in the same room as the room where the supporter computer is installed. The room in which the supporter computer is installed and the photography studio may be separated by a glass window. In this case, the operator of the supporter computer can visually recognize the user. The supporter computer may be configured to be able to change the settings of various devices provided in the photography studio according to the operation of the supporter. The supporter computer can, for example, set the scanning interval by the base station, set the tracking sensor, and change various settings of various devices other than these. The operator may enter a message into the supporter computer, and the entered message may be displayed on the display of the photography studio.

生成部271は、随時生成したフェイスモーションデータ及び/又はボディモーションデータを含むキャラクタ動画データを生成し、生成したキャラクタ動画データを、表示処理部274に出力する。以下、フェイスモーションデータ及びボディモーションデータを、モーションデータと総称する場合がある。また、生成部271は、生成したキャラクタ動画データと、端末記憶装置22に記憶されたユーザIDとを含む出力情報を生成し、生成した出力情報を送信部272に出力する。なお、生成部271は、マイク26から出力されたユーザの音声データを取得した場合、生成したキャラクタ動画データと、取得した音声データと、端末記憶装置22に記憶されたユーザIDとを含む出力情報を生成し、生成した出力情報を送信部272に出力する。 The generation unit 271 generates character moving image data including face motion data and/or body motion data generated as needed, and outputs the generated character moving image data to the display processing unit 274 . Hereinafter, face motion data and body motion data may be collectively referred to as motion data. The generation unit 271 also generates output information including the generated character moving image data and the user ID stored in the terminal storage device 22 , and outputs the generated output information to the transmission unit 272 . Note that when the generating unit 271 acquires the user's voice data output from the microphone 26, the output information includes the generated character video data, the acquired voice data, and the user ID stored in the terminal storage device 22. and outputs the generated output information to the transmission unit 272 .

生成部271は、ユーザがプレイするゲームのゲーム画面を示すゲーム画像データを、ゲーム進行中に随時生成し、生成したゲーム画像データと、端末記憶装置22に記憶されたユーザIDとを含む出力情報を生成し、生成した出力情報を送信部272に出力する。なお、出力情報には、生成したゲーム画像データとともに、生成したキャラクタ動画データ及び/又は取得した音声データが含まれてもよい。 The generation unit 271 generates game image data showing a game screen of a game played by the user at any time during the progress of the game, and output information including the generated game image data and the user ID stored in the terminal storage device 22. and outputs the generated output information to the transmission unit 272 . The output information may include the generated character moving image data and/or the acquired audio data together with the generated game image data.

(送信部272)
送信部272は、生成部271から出力された出力情報を、送信先情報とともに端末通信I/F21を介してサーバ装置3に送信する。送信先情報は、ユーザとのコミュニケーションサービスに参加中の一又は複数の他ユーザのユーザIDを含む。また、出力情報に含まれるユーザIDが送信先情報として用いられてもよい。例えば、サーバ装置3は、ユーザとのコミュニケーションサービスに参加中の一又は複数の他ユーザのユーザIDを記憶しており、出力情報を取得すると、出力情報に含まれるユーザIDのユーザとのコミュニケーションサービスに参加中の一又は複数の他ユーザのユーザIDを特定し、特定されたユーザIDによって示される他ユーザの端末装置2に、受信した出力情報を送信する。
(transmission unit 272)
The transmission unit 272 transmits the output information output from the generation unit 271 to the server device 3 via the terminal communication I/F 21 together with the destination information. The destination information includes user IDs of one or more other users participating in the communication service with the user. Also, the user ID included in the output information may be used as the destination information. For example, the server device 3 stores the user IDs of one or more other users participating in a communication service with the user, and when the output information is acquired, the communication service with the user whose user ID is included in the output information. The user IDs of one or more other users participating in the program are specified, and the received output information is transmitted to the terminal devices 2 of the other users indicated by the specified user IDs.

また、送信部272は、ユーザが入力装置24を操作することによって入力された各種の指示を示す情報を、端末記憶装置22に記憶されたユーザID及び送信先情報とともに端末通信I/F21を介してサーバ装置3に送信する。ユーザによる各種の指示には、例えば、追加指示が含まれる。追加指示は、他ユーザ出力画像に含ませる追加オブジェクトのオブジェクトIDとユーザIDとともに端末通信I/F21を介してサーバ装置3に送信される。 In addition, the transmission unit 272 transmits information indicating various instructions input by the user by operating the input device 24 together with the user ID and destination information stored in the terminal storage device 22 via the terminal communication I/F 21. to the server device 3. Various instructions by the user include, for example, additional instructions. The additional instruction is transmitted to the server device 3 via the terminal communication I/F 21 together with the object ID and user ID of the additional object to be included in the other user's output image.

(受信部273)
受信部273は、サーバ装置3から送信された、他ユーザの出力情報及び他ユーザの各種の指示を示す情報等を、端末通信I/F21を介して受信する。受信部273は、受信した情報を端末処理装置27に出力する。サーバ装置3から送信された他ユーザの出力情報は、他ユーザの端末装置2の生成部271によって生成され且つ他ユーザの端末装置2の送信部272によってサーバ装置3に送信されたものである。他ユーザの出力情報には、他ユーザのキャラクタ動画データと、他ユーザの音声データと、他ユーザのユーザID等が含まれる。他ユーザの出力情報に、他ユーザの音声データが含まれない場合があってもよく、他ユーザの出力情報に、他ユーザのキャラクタ動画データが含まれない場合があってもよい。
(Receiver 273)
The receiving unit 273 receives, via the terminal communication I/F 21 , output information of other users, information indicating various instructions of other users, and the like, which are transmitted from the server device 3 . The receiving section 273 outputs the received information to the terminal processing device 27 . The other user's output information transmitted from the server device 3 is generated by the generation unit 271 of the other user's terminal device 2 and transmitted to the server device 3 by the transmission unit 272 of the other user's terminal device 2 . The other user's output information includes the other user's character moving image data, the other user's voice data, the other user's user ID, and the like. The other user's output information may not include the other user's voice data, and the other user's output information may not include the other user's character moving image data.

(表示処理部274)
表示処理部274は、生成部271によって生成されたモーションデータ(キャラクタ動画データ)に基づいて描画された画像をユーザ出力画像として表示装置23に表示する。また、表示処理部274は、受信部273によって受信された他ユーザの出力情報に含まれるモーションデータ(キャラクタ動画データ)に基づいて描画された画像を他ユーザ出力画像として表示装置23に表示する。以下、モーションデータに基づく画像の描画処理について説明する。ユーザ(端末装置2を操作するユーザ)のモーションデータに基づく画像の描画処理では、端末記憶装置22に記憶されたユーザIDが用いられ、受信部273によって受信された他ユーザの出力情報に含まれるモーションデータに基づく画像の描画処理では、出力情報に含まれるユーザIDが用いられる。
(Display processing unit 274)
The display processing unit 274 displays an image drawn based on the motion data (character moving image data) generated by the generating unit 271 on the display device 23 as a user output image. The display processing unit 274 also displays an image drawn based on the motion data (character moving image data) included in the other user's output information received by the receiving unit 273 on the display device 23 as the other user's output image. An image rendering process based on motion data will be described below. In the image drawing process based on the motion data of the user (the user who operates the terminal device 2), the user ID stored in the terminal storage device 22 is used and included in the other user's output information received by the receiving unit 273. The user ID included in the output information is used in the drawing process of the image based on the motion data.

まず、表示処理部274は、ユーザIDに関連付けられたキャラクタオブジェクトのモデルIDと、使用オブジェクトのオブジェクトIDとをユーザテーブルT1から抽出する。次に、表示処理部274は、抽出したモデルIDに関連付けられたモデルデータと、抽出した使用オブジェクトのオブジェクトIDに関連付けられた画像情報及び配置箇所を端末記憶装置22から読み出す。次に、表示処理部274は、読み出したモデルデータと使用オブジェクトの画像情報及び配置箇所とモーションデータとに基づいて、使用オブジェクトが配置箇所に装着されたキャラクタオブジェクトのアニメーションを生成する。表示処理部274は、モーションデータにフェイスモーションデータが含まれる場合、キャラクタオブジェクトの表情がフェイスモーションデータに基づいて変化するように、キャラクタオブジェクトのアニメーションを生成する。これにより、表示処理部274は、読み出したモデルデータとフェイスモーションデータとに基づいて、ユーザの表情の動きに同期して動くキャラクタオブジェクトのアニメーションを生成することができる。表示処理部274は、モーションデータにフェイスモーションデータ及びボディモーションデータが含まれる場合、読み出したモデルデータとフェイスモーションデータ及びボディモーションデータとに基づいて、ユーザの表情及び体の動きに同期して動くキャラクタオブジェクトのアニメーションを生成する。次に、表示処理部274は、生成したキャラクタオブジェクトのアニメーション(動画像)と、端末記憶装置22に記憶された背景データを用いて生成した背景を示す背景画像と、を含む画像を描画する。なお、表示処理部274は、コミュニケーショングループに予め関連付けて端末記憶装置22に記憶された壁紙オブジェクトを背景画像として用いてもよい。この場合、コミュニケーショングループ全員の背景画像として、同一の壁紙オブジェクトが適用されてもよい。そして、表示処理部274は、描画された画像を示す描画データを出力し、モーションデータに基づく画像の描画処理を終了する。なお、端末記憶装置22に記憶されたユーザIDに関連付けられたキャラクタオブジェクトに基づいて描画された画像が、ユーザのユーザ出力画像である。また、受信された他ユーザの出力情報に含まれるユーザIDに関連付けられたキャラクタオブジェクトに基づいて描画された画像は、当該他ユーザの他ユーザ出力画像である。 First, the display processing unit 274 extracts the model ID of the character object associated with the user ID and the object ID of the used object from the user table T1. Next, the display processing unit 274 reads from the terminal storage device 22 the model data associated with the extracted model ID, and the image information and arrangement location associated with the extracted object ID of the used object. Next, the display processing unit 274 generates an animation of the character object with the use object attached to the placement location based on the read model data, the image information of the use object, the placement location, and the motion data. When the motion data includes face motion data, the display processing unit 274 generates animation of the character object such that the facial expression of the character object changes based on the face motion data. Accordingly, the display processing unit 274 can generate an animation of the character object that moves in synchronization with the movement of the user's facial expression based on the read model data and face motion data. When the motion data includes face motion data and body motion data, the display processing unit 274 moves in synchronization with the user's facial expression and body motion based on the read model data, face motion data, and body motion data. Generate animations for character objects. Next, the display processing unit 274 draws an image including the generated animation (moving image) of the character object and the background image generated using the background data stored in the terminal storage device 22. Note that the display processing unit 274 may use, as the background image, a wallpaper object pre-associated with the communication group and stored in the terminal storage device 22 . In this case, the same wallpaper object may be applied as the background image for all members of the communication group. Then, the display processing unit 274 outputs drawing data representing the drawn image, and ends the image drawing processing based on the motion data. An image drawn based on the character object associated with the user ID stored in the terminal storage device 22 is the user's user output image. Also, an image drawn based on the character object associated with the user ID included in the received output information of the other user is the other user output image of the other user.

また、表示処理部274は、ユーザの変更指示に応じて、ユーザの保有オブジェクトとしてユーザが保有する装着オブジェクトを新たに装着したキャラクタオブジェクトを、表示装置23に表示してもよい。例えば、ユーザによって変更指示された装着オブジェクトが「カチューシャ」である場合、表示処理部274は、当該装着オブジェクト(「カチューシャ」)のオブジェクトIDを、ユーザテーブルT1においてユーザのユーザIDに関連付けられた保有オブジェクトから抽出し、使用オブジェクトとして記憶する。表示処理部274は、使用オブジェクトとして記憶されたオブジェクトIDに関連付けられた画像情報及び配置箇所をオブジェクトテーブルT2から抽出する。次に、表示処理部274は、抽出した画像情報及び配置箇所に基づいて、装着オブジェクト(「カチューシャ」)を頭部(「カチューシャ」のオブジェクトIDに関連付けられた配置箇所)に装着したキャラクタオブジェクトを含むユーザ出力画像を生成する。なお、表示処理部274は、キャラクタオブジェクトの装着部位(配置箇所)の動きに付随して動く装着オブジェクトを装着したキャラクタオブジェクトを含むユーザ出力画像を生成してもよい。 In addition, the display processing unit 274 may display, on the display device 23, a character object newly equipped with a wearable object owned by the user as a user owned object according to the user's change instruction. For example, when the wearable object instructed to be changed by the user is "headband", the display processing unit 274 sets the object ID of the wearable object ("headband") to the holding object associated with the user's user ID in the user table T1. Extract from object and store as used object. The display processing unit 274 extracts the image information associated with the object ID stored as the object to be used and the arrangement location from the object table T2. Next, the display processing unit 274, based on the extracted image information and arrangement location, displays the character object with the wearing object (“Katyusha”) attached to the head (placement location associated with the object ID of “Katyusha”). Generate a user output image containing Note that the display processing unit 274 may generate a user output image including a character object wearing a wearable object that moves along with the movement of the wearable part (arrangement location) of the character object.

また、表示処理部274は、他ユーザからの追加オブジェクトの追加指示に応じて、追加オブジェクトを含むユーザ出力画像を表示する。表示処理部274は、ユーザからの他ユーザ出力画像に追加オブジェクトを表示させる追加指示に応じて、追加オブジェクトを含む他ユーザ出力画像を表示する。 In addition, the display processing unit 274 displays a user output image including an additional object in response to an additional object addition instruction from another user. The display processing unit 274 displays the other user's output image including the additional object in response to an additional instruction from the user to display the additional object in the other user's output image.

表示処理部274は、他ユーザからの追加オブジェクトの追加指示に含まれるオブジェクトIDがいずれかのエフェクトオブジェクトのオブジェクトIDである場合、オブジェクトテーブルT2を参照して、追加指示に含まれるオブジェクトIDに関連付けられたエフェクトオブジェクトの静止画像又は動画像(画像情報)を端末記憶装置22から抽出し、抽出した静止画像又は動画像を含むユーザ出力画像を生成する。例えば、紙吹雪や花火を示すエフェクトオブジェクトの追加指示がなされた場合、表示処理部274は、紙吹雪や花火を模したエフェクトオブジェクト(図示せず)の動画像を含むユーザ出力画像を生成する。表示処理部274は、ユーザからの追加オブジェクトの追加指示に含まれるオブジェクトIDがいずれかのエフェクトオブジェクトのオブジェクトIDである場合、同様に、オブジェクトテーブルT2を参照して、追加指示に含まれるオブジェクトIDに関連付けられたエフェクトオブジェクトの静止画像又は動画像(画像情報)を端末記憶装置22から抽出し、抽出した静止画像又は動画像を含む他ユーザ出力画像を生成する。 If the object ID included in the additional object addition instruction from the other user is the object ID of any effect object, the display processing unit 274 refers to the object table T2 and associates the object ID with the object ID included in the addition instruction. A still image or moving image (image information) of the obtained effect object is extracted from the terminal storage device 22, and a user output image including the extracted still image or moving image is generated. For example, when an instruction to add an effect object representing confetti or fireworks is given, the display processing unit 274 generates a user output image including a moving image of an effect object (not shown) imitating confetti or fireworks. When the object ID included in the addition instruction of the additional object from the user is the object ID of any effect object, the display processing unit 274 similarly refers to the object table T2 to obtain the object ID included in the addition instruction. A still image or moving image (image information) of the effect object associated with is extracted from the terminal storage device 22, and another user's output image including the extracted still image or moving image is generated.

表示処理部274は、他ユーザからの追加オブジェクトの追加指示に含まれるオブジェクトIDが通常オブジェクトのオブジェクトIDである場合、オブジェクトテーブルT2を参照して、通常オブジェクトのオブジェクトIDに関連付けられた、通常オブジェクトの静止画像又は動画像(画像情報)及び配置箇所を抽出する。次に、表示処理部274は、配置箇所によって示される位置に配置した通常オブジェクトの静止画像又は動画像を含むユーザ出力画像を生成する。また、表示処理部274は、ユーザからの追加オブジェクトの追加指示に含まれるオブジェクトIDが通常オブジェクトのオブジェクトIDである場合、同様に、オブジェクトテーブルT2を参照して、通常オブジェクトのオブジェクトIDに関連付けられた、通常オブジェクトの静止画像又は動画像(画像情報)及び配置箇所を抽出し、配置箇所によって示される位置に配置した通常オブジェクトの静止画像又は動画像を含む他ユーザ出力画像を生成する。 When the object ID included in the addition instruction of the additional object from the other user is the object ID of the normal object, the display processing unit 274 refers to the object table T2 to obtain the normal object associated with the object ID of the normal object. Still images or moving images (image information) and locations of arrangement are extracted. Next, the display processing unit 274 generates a user output image including a still image or moving image of the normal object arranged at the position indicated by the arrangement position. Further, when the object ID included in the addition instruction of the additional object from the user is the object ID of the normal object, the display processing unit 274 similarly refers to the object table T2 to refer to the object ID of the normal object. In addition, the still image or moving image (image information) of the normal object and the placement location are extracted, and the other user's output image including the still image or moving image of the normal object placed at the position indicated by the placement location is generated.

表示処理部274は、ユーザ出力画像及び他ユーザ出力画像の表示領域内を移動する通常オブジェクトの動画像を含むユーザ出力画像及び他ユーザ出力画像を生成してもよい。以下、ユーザ出力画像及び他ユーザ出力画像を、出力画像と総称する場合がある。例えば、表示処理部274は、通常オブジェクトは、出力画像の上から下に向かって落下する通常オブジェクトの動画像を含む出力画像を生成してもよい。この場合、通常オブジェクトは、落下開始から出力画像の下端まで落下する間、出力画像の表示領域内に表示され、出力画像の下端に落下した後に出力画像から消滅してもよい。なお、通常オブジェクトの移動ルートは、出力画像の、左から右の方向、右から左の方向、左上から左下の方向、またはこれら以外の方向のルートでもよく、また、直線軌道、円軌道、楕円軌道、螺旋軌道、またはこれら以外の軌道に沿ったルートでもよい。 The display processing unit 274 may generate a user output image and other user output images including a moving image of a normal object that moves within the display area of the user output image and other user output images. User output images and other user output images may be collectively referred to as output images hereinafter. For example, the display processing unit 274 may generate an output image including a moving image of a normal object falling from the top to the bottom of the output image. In this case, the normal object may be displayed within the display area of the output image while falling from the start of falling to the bottom of the output image, and disappear from the output image after falling to the bottom of the output image. It should be noted that the movement route of a normal object may be a left-to-right direction, a right-to-left direction, an upper-left to lower-left direction, or any other route in the output image. It may be a route along a trajectory, a helical trajectory, or some other trajectory.

表示処理部274は、他ユーザからの追加オブジェクトの追加指示に含まれるオブジェクトIDが装着オブジェクトのオブジェクトIDである場合、ユーザ出力画像内に、装着指示に関する通知情報を表示する。表示処理部274は、ユーザからの装着指示に応じて、オブジェクトテーブルT2を参照して、追加指示に含まれるオブジェクトIDに関連付けられた装着オブジェクトの画像情報及び配置箇所を抽出する。次に、表示処理部274は、抽出した画像情報及び配置箇所に基づいて、装着オブジェクトを、配置箇所によって示される装着部位に装着したキャラクタオブジェクトを含むユーザ出力画像を生成する。 When the object ID included in the additional object addition instruction from the other user is the object ID of the wearable object, the display processing unit 274 displays notification information regarding the wear instruction in the user output image. The display processing unit 274 refers to the object table T2 according to the user's mounting instruction, and extracts the image information and the placement location of the mounting object associated with the object ID included in the additional instruction. Next, the display processing unit 274 generates a user output image including the character object wearing the wearing object at the wearing part indicated by the placement position based on the extracted image information and the placement position.

また、表示処理部274は、ユーザの指示に応じて、ユーザがプレイするゲームを開始し、当該ゲームのゲーム画面を表示装置23に表示する。ゲームが開始されると、表示処理部274は、ユーザのゲーム操作によるゲーム進行指示に応じて進行するゲームのゲーム画面を表示装置23に表示し、ゲームの終了条件が満たされると、ゲーム画面の表示を終了する。ゲームの終了条件は、ゲームのルールに応じて予め定められており、例えば、ユーザのゲーム媒体(キャラクタ等)が対戦相手に勝利又は敗北したこと、ユーザのゲーム媒体が所定の目的地に到達したこと、又は、ユーザによって操作されるゲームオブジェクトが所定の状態となる(例えば、複数のコマ(ゲームオブジェクト)がゲームフィールド上の升目に並ぶ)こと等である。 In addition, the display processing unit 274 starts a game played by the user and displays the game screen of the game on the display device 23 according to the user's instruction. When the game is started, the display processing unit 274 displays on the display device 23 the game screen of the game progressing according to the game progress instruction by the user's game operation. End the display. The end condition of the game is predetermined according to the rules of the game. Alternatively, the game object operated by the user is in a predetermined state (for example, a plurality of pieces (game objects) are arranged in a square on the game field).

また、表示処理部274は、サーバ装置3から送信された他ユーザの出力情報に、他ユーザがプレイするゲームのゲーム画像データが含まれる場合、他ユーザがプレイするゲームのゲーム画像を表示装置23に表示する。なお、他ユーザがプレイするゲームのゲーム画像が表示されているときには、当該他ユーザの他ユーザ出力画像は表示されないが、他ユーザがプレイするゲームのゲーム画像と当該他ユーザの他ユーザ出力画像とが同時に表示されてもよい。 Further, when the output information of the other user transmitted from the server device 3 includes the game image data of the game played by the other user, the display processing unit 274 displays the game image of the game played by the other user on the display device 23. to display. Note that when the game image of the game played by the other user is displayed, the other user output image of the other user is not displayed, but the game image of the game played by the other user and the other user output image of the other user are displayed. may be displayed at the same time.

(音声出力部275)
音声出力部275は、他ユーザの出力情報に他ユーザの音声データが含まれる場合、表示処理部274による他ユーザ出力画像の表示とともに、音声データに基づいて生成される他ユーザの音声をスピーカ(図示せず)から音声出力する。これにより、他ユーザ出力画像に含まれる他ユーザのキャラクタオブジェクトの唇の動作中に、他ユーザの音声が出力されるため、ユーザは、音声を発しているような他ユーザのキャラクタオブジェクトを含む他ユーザ出力画像を見ることができる。
(Audio output unit 275)
When the other user's output information includes the other user's voice data, the voice output unit 275 causes the display processing unit 274 to display the other user's output image and output the other user's voice generated based on the voice data to the speaker ( (not shown) for audio output. As a result, the voice of the other user is output while the lips of the character object of the other user included in the output image of the other user are moving. You can see the user output image.

(サーバ装置3)
図5は、サーバ装置3の概略構成の一例を示す図である。複数のユーザのそれぞれの端末装置2にコミュニケーションサービスを提供するサーバ装置3は、一のユーザの端末装置2から送信された出力情報及び各種の指示を示す情報を、一のユーザとは異なる他ユーザの端末装置2に送信する。そのために、サーバ装置3は、サーバ通信I/F31と、サーバ記憶装置32と、サーバ処理装置33とを備える。例えば、一のユーザの端末装置2による情報の送信先の端末装置2は、受信した送信先情報に含まれるユーザIDによって示されるユーザの端末装置2である。
(Server device 3)
FIG. 5 is a diagram showing an example of a schematic configuration of the server device 3. As shown in FIG. A server device 3 that provides a communication service to each terminal device 2 of a plurality of users transmits output information and information indicating various instructions transmitted from the terminal device 2 of one user to another user different from the one user. is transmitted to the terminal device 2 of the For this purpose, the server device 3 includes a server communication I/F 31 , a server storage device 32 and a server processing device 33 . For example, the terminal device 2 to which information is sent from one user's terminal device 2 is the user's terminal device 2 indicated by the user ID included in the received destination information.

サーバ通信I/F31は、ハードウェア、ファームウェア、又はTCP/IPドライバやPPPドライバ等の通信用ソフトウェア又はこれらの組み合わせとして実装される。サーバ装置3は、サーバ通信I/F31を介して、他の装置に情報を送信し且つ他の装置から情報を受信することができる。 The server communication I/F 31 is implemented as hardware, firmware, communication software such as a TCP/IP driver or PPP driver, or a combination thereof. The server device 3 can transmit information to and receive information from other devices via the server communication I/F 31 .

サーバ記憶装置32は、例えば、ROM、RAM等の半導体メモリ装置である。サーバ記憶装置32は、例えば、磁気ディスク、光ディスク、又はデータを記憶可能な前記以外の各種記憶装置でもよい。サーバ記憶装置32は、サーバ処理装置33における処理に用いられるオペレーティングシステムプログラム、ドライバプログラム、アプリケーションプログラム及びデータ等を記憶する。なお、サーバ記憶装置32は、データとして、ユーザテーブルT1、オブジェクトテーブルT2、及びグループテーブルT3を記憶してもよい。 The server storage device 32 is, for example, a semiconductor memory device such as ROM and RAM. The server storage device 32 may be, for example, a magnetic disk, an optical disk, or any other storage device capable of storing data. The server storage device 32 stores an operating system program, a driver program, an application program, data, and the like used for processing in the server processing device 33 . The server storage device 32 may store the user table T1, the object table T2, and the group table T3 as data.

サーバ処理装置33は、サーバ記憶装置32に記憶されているオペレーティングシステムプログラム、ドライバプログラム、及び制御プログラムをメモリにロードし、ロードしたプログラムに含まれる命令を実行するプロセッサである。サーバ処理装置33は、例えば、CPU、MPU、DSP、GPU等の電子回路、又は各種電子回路の組み合わせである。サーバ処理装置33は、ASIC、PLD、FPGA、MCU等の集積回路により実現されてもよい。図5においては、サーバ処理装置33が単一の構成要素として図示されているが、サーバ処理装置33は複数の物理的に別体のプロセッサの集合であってもよい。サーバ処理装置33は、制御プログラムに含まれる各種命令を実行することにより、サーバ受信部331、サーバ送信部332として機能する。 The server processing device 33 is a processor that loads an operating system program, a driver program, and a control program stored in the server storage device 32 into memory and executes instructions contained in the loaded programs. The server processing device 33 is, for example, an electronic circuit such as a CPU, MPU, DSP, or GPU, or a combination of various electronic circuits. The server processing device 33 may be realized by integrated circuits such as ASIC, PLD, FPGA, and MCU. Although server processing unit 33 is illustrated as a single component in FIG. 5, server processing unit 33 may be a collection of a plurality of physically separate processors. The server processor 33 functions as a server receiver 331 and a server transmitter 332 by executing various commands included in the control program.

(サーバ受信部331)
サーバ受信部331は、複数のユーザのうちのいずれかユーザの端末装置2から送信された出力情報及び各種の指示を示す情報等を、サーバ通信I/F31を介して受信する。なお、サーバ受信部331は、端末装置2から送信された出力情報及び各種の指示を示す情報とともに、送信先情報を受信してもよい。
(Server receiving unit 331)
The server reception unit 331 receives, via the server communication I/F 31, output information and information indicating various instructions transmitted from the terminal device 2 of one of the users. The server reception unit 331 may receive destination information together with output information and information indicating various instructions transmitted from the terminal device 2 .

(サーバ送信部332)
サーバ送信部332は、サーバ受信部331によって受信された出力情報及び各種の指示を示す情報を、サーバ通信I/F31を介して、同時に受信した送信先情報に含まれるユーザIDによって示される他ユーザの端末装置2に送信する。また、サーバ送信部332は、サーバ受信部331によって受信された各種の指示を示す情報を、サーバ通信I/F31を介して、情報を送信したユーザによって指定された、1人又は複数の他ユーザの端末装置2に送信してもよい。
(Server transmission unit 332)
The server transmission unit 332 receives the output information and the information indicating various instructions received by the server reception unit 331 via the server communication I/F 31 and transmits the information to another user indicated by the user ID included in the destination information received at the same time. is transmitted to the terminal device 2 of the In addition, the server transmission unit 332 transmits information indicating various instructions received by the server reception unit 331 to one or more other users designated by the user who transmitted the information via the server communication I/F 31. may be transmitted to the terminal device 2 of

(各種画面の例)
以下、図6~図15を参照し、ユーザの端末装置2の表示装置23に表示される各種画面の例について説明する。図6~図15において、同一の符号が付されている複数の構成要素は、互いに等価な機能を有する構成要素である。
(Examples of various screens)
Examples of various screens displayed on the display device 23 of the user's terminal device 2 will be described below with reference to FIGS. 6 to 15. FIG. In FIGS. 6 to 15, a plurality of constituent elements denoted by the same reference numerals are constituent elements having mutually equivalent functions.

図6(a)は、ユーザの端末装置2の表示装置23に表示されるグループ作成画面600の一例を示す図である。グループ作成画面600には、他ユーザ表示領域601、選択オブジェクト602と、作成ボタン603と、が含まれる。例えば、グループ作成画面600は、端末記憶装置22に記憶された制御プログラムの実行に応じて表示されたホーム画面(図示せず)のグループ作成オブジェクト等がユーザの入力装置24の操作によって選択された場合に表示される。 FIG. 6A is a diagram showing an example of a group creation screen 600 displayed on the display device 23 of the user's terminal device 2. FIG. A group creation screen 600 includes an other user display area 601 , a selection object 602 and a create button 603 . For example, on the group creation screen 600, a group creation object or the like of a home screen (not shown) displayed according to execution of a control program stored in the terminal storage device 22 is selected by the user's operation of the input device 24. displayed when

他ユーザ表示領域601には、ユーザと所定の関係を有する他ユーザのそれぞれを示す他ユーザ情報が表示される。図6(a)に示される例では、ユーザの端末装置2の表示処理部274は、他ユーザのキャラクタオブジェクトのサムネイル画像及び他ユーザの名称を他ユーザ情報として表示する。 The other user display area 601 displays other user information indicating each of the other users having a predetermined relationship with the user. In the example shown in FIG. 6A, the display processing unit 274 of the user's terminal device 2 displays the thumbnail image of the character object of the other user and the name of the other user as other user information.

選択オブジェクト602は、各他ユーザ情報によって示される各他ユーザを選択するための操作オブジェクトである。図6(a)に示される例では、ユーザの端末装置2の表示処理部274は、各他ユーザ情報に対応するチェックボックスオブジェクトを選択オブジェクト602として表示する。例えば、ユーザの入力装置24の操作によって選択オブジェクト602が選択されると、選択オブジェクト602が「チェック」マークを含む表示となる。この場合、「チェック」マークを含む表示となっている選択オブジェクト602に対応する他ユーザ情報の他ユーザが選択された状態となる。また、「チェック」マークを含む表示となっている選択オブジェクト602がユーザの入力装置24の操作によって選択されると、選択オブジェクト602が「チェック」マークを含まない表示となる。
この場合、「チェック」マークを含まない表示となっている選択オブジェクト602に対応する他ユーザ情報の他ユーザが選択されていない状態となる。選択オブジェクト602のそれぞれには、対応する他ユーザ情報に係る他ユーザのユーザIDが関連付けられている。
The selection object 602 is an operation object for selecting each other user indicated by each other user information. In the example shown in FIG. 6( a ), the display processing unit 274 of the user's terminal device 2 displays check box objects corresponding to each other user's information as selection objects 602 . For example, when the selection object 602 is selected by the user's operation of the input device 24, the selection object 602 is displayed including a "check" mark. In this case, the other user of the other user information corresponding to the selection object 602 displayed including the "check" mark is selected. Further, when the selection object 602 displayed including the "check" mark is selected by the user's operation of the input device 24, the selection object 602 is displayed without the "check" mark.
In this case, the other user of the other user information corresponding to the selection object 602 displayed without the "check" mark is not selected. Each selection object 602 is associated with the user ID of the other user associated with the corresponding other user information.

作成ボタン603は、ユーザが新たにコミュニケーショングループを作成するためのボタンオブジェクト等である。ユーザによる入力装置24の操作によって作成ボタン603が選択されると、端末装置2を操作するユーザと選択オブジェクト602において選択された状態の他ユーザとを所属ユーザとする新たなグループが作成される。例えば、ユーザの端末装置2の表示処理部274は、端末記憶装置22に記憶されたユーザのユーザIDと、選択オブジェクト602において選択された状態の他ユーザに係る選択オブジェクト602に関連付けられた他ユーザのユーザIDと、を特定する。そして、表示処理部274は、新たに作成したグループIDに、特定されたユーザのユーザID及び他ユーザのユーザIDを所属ユーザとして関連付けてグループテーブルT3に記憶する。この際、表示処理部274は、新たに作成したグループIDに対して、自動的に作成したグループの名称を対応付けてもよく、又は、ユーザによって入力されたグループの名称を対応付けてもよい。 A create button 603 is a button object or the like for the user to create a new communication group. When the create button 603 is selected by the user operating the input device 24, a new group is created to which the user operating the terminal device 2 and the other users selected in the selection object 602 belong. For example, the display processing unit 274 of the user's terminal device 2 stores the user ID of the user stored in the terminal storage device 22 and the other user associated with the selection object 602 related to the other user selected in the selection object 602. and the user ID of Then, the display processing unit 274 associates the user ID of the specified user and the user IDs of other users with the newly created group ID as belonging users, and stores them in the group table T3. At this time, the display processing unit 274 may associate the name of the automatically created group with the newly created group ID, or may associate the name of the group input by the user. .

作成ボタン603の選択に応じて新たなグループが作成されると、表示処理部274は、新たなグループの所属ユーザによる情報交換画面700を表示する。図7(a)は、ユーザの端末装置2の表示装置23に表示される情報交換画面700の一例を示す図である。情報交換画面700には、新たなグループの所属ユーザのそれぞれが入力したテキスト又は画像等の情報を表示する表示領域701と、表示領域701に表示された情報を入力した所属ユーザを示す情報(キャラクタオブジェクトのサムネイル画像等)702と、ユーザが新たな表示領域701に表示させるテキスト又は画像を入力するための入力オブジェクト703と、コミュニケーションサービスを開始するための開始オブジェクト704が含まれる。 When a new group is created in response to selection of the creation button 603, the display processing unit 274 displays an information exchange screen 700 by users belonging to the new group. FIG. 7A shows an example of an information exchange screen 700 displayed on the display device 23 of the terminal device 2 of the user. The information exchange screen 700 includes a display area 701 for displaying information such as text or images input by each of the users belonging to the new group, and information (characters) indicating the belonging users who input the information displayed in the display area 701 . object thumbnail image, etc.) 702, an input object 703 for the user to enter text or an image to be displayed in the new display area 701, and a start object 704 for starting the communication service.

ユーザの端末装置2の送信部272は、情報交換画面700が表示されると、情報交換画面の表示指示を、新たなグループに関する情報及び送信先情報とともに端末通信I/F21を介してサーバ装置3に送信する。新たなグループに関する情報は、新たなグループのグループID、名称、及び所属ユーザのそれぞれのユーザIDである。送信先情報には、新たなグループの所属ユーザのうち端末装置2を操作するユーザを除く他ユーザのそれぞれのユーザIDが含まれる。サーバ装置3のサーバ受信部331は、サーバ通信I/F31を介して、情報交換画面の表示指示、新たなグループに関する情報及び送信先情報を受信する。なお、サーバ受信部331は、受信した送信先情報をサーバ記憶装置32に記憶してもよい。サーバ装置3のサーバ送信部332は、情報交換画面の表示指示及び新たなグループに関する情報を、送信先情報に含まれるユーザIDによって示される他ユーザの端末装置2にサーバ通信I/F31を介して送信する。他ユーザの端末装置2は、サーバ装置3経由でユーザの端末装置2から送信された情報交換画面の表示指示を受信すると、新たなグループの所属ユーザによる情報の交換が可能な情報交換画面700を表示することができる。 When the information exchange screen 700 is displayed, the transmission unit 272 of the user's terminal device 2 transmits the display instruction of the information exchange screen to the server device 3 via the terminal communication I/F 21 together with the information on the new group and the destination information. Send to The information about the new group is the group ID, name, and user IDs of the users belonging to the new group. The destination information includes the user IDs of each of the users belonging to the new group, excluding the user who operates the terminal device 2 . The server receiving unit 331 of the server device 3 receives, via the server communication I/F 31 , the instruction to display the information exchange screen, the information on the new group, and the destination information. Note that the server reception unit 331 may store the received destination information in the server storage device 32 . The server transmission unit 332 of the server device 3 transmits the display instruction of the information exchange screen and the information on the new group to the terminal device 2 of the other user indicated by the user ID included in the destination information via the server communication I/F 31. Send. When receiving the information exchange screen display instruction transmitted from the user's terminal device 2 via the server device 3, the other user's terminal device 2 displays the information exchange screen 700 on which information can be exchanged by users belonging to a new group. can be displayed.

図7(a)に説明を戻す。例えば、いずれかの所属ユーザの操作によって入力オブジェクト703に新たな情報が入力されると、情報を入力したユーザの端末装置2によって表示される情報交換画面700に新たな情報を表示する表示領域701が追加される。また、情報を入力したユーザの端末装置2の送信部272は、情報を入力したユーザ以外の所属ユーザの端末装置2に、サーバ装置3経由で、入力された新たな情報を送信する。これにより、情報を入力したユーザ以外の所属ユーザである他ユーザの端末装置2に表示される情報交換画面700においても、新たな情報を表示する表示領域701が追加される。 Returning to FIG. 7(a). For example, when new information is input to the input object 703 by the operation of one of the affiliated users, the display area 701 displays the new information on the information exchange screen 700 displayed by the terminal device 2 of the user who has input the information. is added. Also, the transmitting unit 272 of the terminal device 2 of the user who has input the information transmits the new input information to the terminal devices 2 of the affiliated users other than the user who has input the information via the server device 3 . As a result, a display area 701 for displaying new information is added to the information exchange screen 700 displayed on the terminal device 2 of another user who belongs to the user other than the user who has input the information.

開始オブジェクト704は、新たなグループの所属ユーザのそれぞれが参加可能なコミュニケーションサービスを開始するためのボタンオブジェクト等である。ユーザによる入力装置24の操作によって開始オブジェクト704が選択されると、情報交換画面700による情報交換が可能なグループをコミュニケーショングループとするコミュニケーションサービスの開始処理が実行される。以下、ユーザによる開始オブジェクト704の選択に応じた開始処理の一例について説明する。 A start object 704 is a button object or the like for starting a communication service in which each user belonging to a new group can participate. When the start object 704 is selected by the user's operation of the input device 24, a communication service start process is executed in which a group capable of exchanging information on the information exchange screen 700 is set as a communication group. An example of start processing in response to selection of the start object 704 by the user will be described below.

まず、ユーザの端末装置2の表示処理部274は、コミュニケーショングループに所属する各ユーザの端末装置2によって表示可能なコミュニケーション画面810(図8(b))を表示する。また、表示処理部274は、コミュニケーショングループのグループIDを、コミュニケーションサービスを開始したグループのグループIDとして端末記憶装置22に記憶する。さらに、表示処理部274は、ユーザのユーザIDをコミュニケーションサービスに参加中のユーザのユーザIDとして端末記憶装置22に記憶する。なお、コミュニケーショングループに所属する他ユーザの全てが未だコミュニケーションサービスに参加していない場合、コミュニケーション画面810においてユーザのユーザ出力情報のみが表示される。 First, the display processing unit 274 of the terminal device 2 of the user displays a communication screen 810 (FIG. 8B) that can be displayed by the terminal device 2 of each user belonging to the communication group. Also, the display processing unit 274 stores the group ID of the communication group in the terminal storage device 22 as the group ID of the group that started the communication service. Further, the display processing unit 274 stores the user's user ID in the terminal storage device 22 as the user ID of the user participating in the communication service. Note that if all other users belonging to the communication group have not yet participated in the communication service, only the user's user output information is displayed on the communication screen 810 .

次に、ユーザの端末装置2の送信部272は、コミュニケーションサービスの開始指示を、端末記憶装置22に記憶されたユーザのユーザID、コミュニケーショングループに関する情報及び/又は送信先情報とともに端末通信I/F21を介してサーバ装置3に送信する。コミュニケーショングループに関する情報は、コミュニケーショングループのグループID、名称、及び所属ユーザのそれぞれのユーザIDである。送信先情報には、コミュニケーショングループの所属ユーザのうち端末装置2を操作するユーザを除く他ユーザのそれぞれのユーザIDが含まれる。なお、サーバ記憶装置32に送信先情報が記憶されている場合、送信先情報が送信されなくてもよい。サーバ装置3のサーバ受信部331は、サーバ通信I/F31を介して、開始指示、ユーザID、コミュニケーショングループに関する情報及び送信先情報を受信する。サーバ装置3のサーバ送信部332は、開始指示、ユーザID及びコミュニケーショングループに関する情報を、送信先情報に含まれるユーザIDによって示される他ユーザの端末装置2にサーバ通信I/F31を介して送信する。 Next, the transmission unit 272 of the user's terminal device 2 transmits the communication service start instruction to the terminal communication I/F 21 together with the user's user ID, communication group information and/or transmission destination information stored in the terminal storage device 22. to the server device 3 via the The information about the communication group is the group ID and name of the communication group, and the user IDs of the users belonging to the communication group. The destination information includes the user IDs of each of the users belonging to the communication group, excluding the user who operates the terminal device 2 . Note that if the destination information is stored in the server storage device 32, the destination information does not have to be transmitted. The server receiving unit 331 of the server device 3 receives the start instruction, the user ID, the information on the communication group, and the destination information via the server communication I/F 31 . The server transmission unit 332 of the server device 3 transmits the start instruction, the user ID, and information about the communication group to the terminal device 2 of the other user indicated by the user ID included in the destination information via the server communication I/F 31. .

他ユーザの端末装置2の受信部237は、サーバ装置3から、ユーザの端末装置2から送信された開始指示、ユーザID及びコミュニケーショングループに関する情報を受信する。受信部237は、コミュニケーショングループに関する情報のうちのグループIDを、コミュニケーションサービスを開始したグループのグループIDとして端末記憶装置22に記憶する。さらに、表示処理部274は、送信されたユーザIDをコミュニケーションサービスに参加中のユーザのユーザIDとして端末記憶装置22に記憶する。他ユーザの端末装置2の表示処理部274は、受信したコミュニケーショングループに関する情報に基づき、通知画面(図示せず)を表示する。表示処理部274は、ユーザによる通知画面内の所定のオブジェクトの選択に応じて、コミュニケーションサービスに参加するためのグループ選択画面710(図7(b))を表示装置23に表示する。以上により、開始処理が終了する。なお、他ユーザの端末装置2の表示処理部274は、通知画面に後述する参加ボタン805を含めてもよい。これにより、グループ選択画面710を表示することなく、他のユーザは、即座にコミュニケーションサービスに参加することが可能となる。 The receiving unit 237 of the other user's terminal device 2 receives from the server device 3 the start instruction, the user ID, and the communication group information transmitted from the user's terminal device 2 . The receiving unit 237 stores the group ID of the information about the communication group in the terminal storage device 22 as the group ID of the group that started the communication service. Furthermore, the display processing unit 274 stores the transmitted user ID in the terminal storage device 22 as the user ID of the user participating in the communication service. The display processing unit 274 of the other user's terminal device 2 displays a notification screen (not shown) based on the received information about the communication group. The display processing unit 274 displays a group selection screen 710 (FIG. 7B) for participating in the communication service on the display device 23 in response to the user's selection of a predetermined object in the notification screen. With the above, the start processing ends. Note that the display processing unit 274 of the other user's terminal device 2 may include a participation button 805, which will be described later, on the notification screen. This allows other users to immediately participate in the communication service without displaying the group selection screen 710 .

開始処理は、ユーザによる入力装置24の操作によってグループ作成画面600の作成ボタン603が選択された場合に実行されてもよい。すなわち、ユーザによる作成ボタン603の選択に応じて、グループ作成画面600において作成された新たなグループをコミュニケーショングループとするコミュニケーションサービスの開始処理が実行されてもよい。この場合、情報交換画面700は表示されない。 The start process may be executed when the creation button 603 of the group creation screen 600 is selected by the user operating the input device 24 . That is, in response to selection of the creation button 603 by the user, a communication service start process may be executed in which a new group created on the group creation screen 600 is set as a communication group. In this case, the information exchange screen 700 is not displayed.

また、開始処理は、グループ作成画面600において作成された新たなグループをコミュニケーショングループとするコミュニケーションサービスの開始処理に限らない。例えば、既に作成されたグループをコミュニケーショングループとするコミュニケーションサービスの開始処理が実行されてもよい。例えば、図6(b)は、いずれかのユーザによって作成されたコミュニケーショングループを選択するためのグループ選択画面610の一例を示す図である。例えば、グループ選択画面610は、端末記憶装置22に記憶された制御プログラムの実行に応じて表示されたホーム画面(図示せず)のグループ選択オブジェクト等がユーザの入力装置24の操作によって選択された場合に表示される。 Further, the start processing is not limited to the start processing of the communication service in which the new group created on the group creation screen 600 is set as the communication group. For example, a communication service start process may be executed in which an already created group is set as a communication group. For example, FIG. 6(b) shows an example of a group selection screen 610 for selecting a communication group created by any user. For example, on the group selection screen 610, a group selection object or the like of a home screen (not shown) displayed according to execution of a control program stored in the terminal storage device 22 is selected by the user's operation of the input device 24. displayed when

ユーザの端末装置2に表示されたグループ選択画面610には、複数のコミュニケーショングループのいずれかを選択するためのグループ表示領域611が含まれる。グループ表示領域611には、既に作成済み且つユーザが所属するコミュニケーショングループのそれぞれを示すグループ情報が表示される。図6(b)に示される例では、ユーザの端末装置2の表示処理部274は、コミュニケーショングループの所属ユーザのそれぞれのサムネイル画像及びグループの名称をグループ情報として表示する。図6(b)に示される例では、所属ユーザのうち他ユーザのそれぞれのサムネイル画像が表示されるが、所属ユーザ全員のそれぞれのサムネイル画像が表示されてもよい。なお、コミュニケーショングループに、ユーザ以外に1人の他ユーザしか含まれていない場合、図6(b)に示されるように、グループの名称ではなく、当該1人の他ユーザの名称が表示されてもよい。 A group selection screen 610 displayed on the user's terminal device 2 includes a group display area 611 for selecting one of a plurality of communication groups. The group display area 611 displays group information indicating each communication group that has already been created and to which the user belongs. In the example shown in FIG. 6B, the display processing unit 274 of the user's terminal device 2 displays the thumbnail image of each user belonging to the communication group and the name of the group as group information. In the example shown in FIG. 6B, thumbnail images of other users among belonging users are displayed, but thumbnail images of all belonging users may be displayed. If the communication group includes only one user other than the user, the name of the other user is displayed instead of the name of the group, as shown in FIG. 6(b). good too.

ユーザによる入力装置24の操作によってグループ表示領域611に含まれる一のグループ情報が選択されると、選択されたグループ情報に対応するコミュニケーショングループの所属ユーザによる情報交換画面700が表示される。情報交換画面700には、コミュニケーショングループの所属ユーザのそれぞれが入力したテキスト又は画像等の情報が含まれる。この場合においても、コミュニケーショングループの所属ユーザのうちの他ユーザの端末装置2には、サーバ装置3経由で、情報交換画面の表示指示、コミュニケーショングループに関する情報が送信され、他ユーザの端末装置2においても情報交換画面700が表示される。 When one group information included in the group display area 611 is selected by the user's operation of the input device 24, an information exchange screen 700 by users belonging to the communication group corresponding to the selected group information is displayed. The information exchange screen 700 includes information such as text or images input by each of the users belonging to the communication group. In this case as well, an instruction to display an information exchange screen and information about the communication group are sent to the terminal devices 2 of other users among the users belonging to the communication group via the server device 3. An information exchange screen 700 is also displayed.

そして、情報交換画面700において、ユーザによって開始オブジェクト704が選択された場合、情報交換画面700において情報交換を行うコミュニケーショングループによるコミュニケーションサービスの開始処理が実行される。開始処理が実行されると、ユーザの端末装置2の表示処理部274は、コミュニケーショングループに所属する各ユーザの端末装置2によって表示可能なコミュニケーション画面810(図8(b))を表示する。また、他ユーザの端末装置2の表示処理部274は、通知画面(図示せず)を表示し、通知画面に対する他のユーザの操作に応じて、コミュニケーションサービスに参加するためのグループ選択画面710(図7(b))を表示装置23に表示する。なお、この場合においても、他ユーザの端末装置2の表示処理部274は、通知画面に後述する参加ボタン805を含めてもよい。 Then, when the start object 704 is selected by the user on the information exchange screen 700, a communication service start process is executed by the communication group that exchanges information on the information exchange screen 700. FIG. When the start process is executed, the display processing unit 274 of the terminal device 2 of the user displays a communication screen 810 (FIG. 8B) that can be displayed by the terminal device 2 of each user belonging to the communication group. In addition, the display processing unit 274 of the other user's terminal device 2 displays a notification screen (not shown), and according to the other user's operation on the notification screen, a group selection screen 710 ( 7(b)) is displayed on the display device 23. FIG. Also in this case, the display processing unit 274 of the other user's terminal device 2 may include a participation button 805, which will be described later, on the notification screen.

なお、この場合においても、開始処理は、ユーザによる入力装置24の操作によってグループ選択画面610において一のグループ情報が選択された場合に実行されてもよい。すなわち、ユーザによる一のグループ情報の選択に応じて、選択されたグループ情報に対応するコミュニケーショングループによるコミュニケーションサービスの開始処理が実行されてもよい。この場合、情報交換画面700は表示されない。 Also in this case, the start process may be executed when one piece of group information is selected on the group selection screen 610 by the user's operation of the input device 24 . That is, in response to selection of one piece of group information by the user, communication service start processing by the communication group corresponding to the selected group information may be executed. In this case, the information exchange screen 700 is not displayed.

次に、既に開始されたコミュニケーションサービスに参加していないユーザの参加方法について説明する。図7(b)は、ユーザの端末装置2の表示装置23に表示されるグループ選択画面710の一例を示す図である。例えば、グループ選択画面710は、表示された通知画面内の所定のオブジェクトの選択に応じて表示される。また、グループ選択画面710は、端末記憶装置22に記憶された制御プログラムの実行に応じて表示されたホーム画面のグループ選択オブジェクト等がユーザの入力装置24の操作によって選択された場合に表示されてもよい。 Next, a method for participating in a user who has not yet participated in a communication service that has already started will be described. FIG. 7B is a diagram showing an example of a group selection screen 710 displayed on the display device 23 of the user's terminal device 2. As shown in FIG. For example, group selection screen 710 is displayed in response to selection of a given object within the displayed notification screen. The group selection screen 710 is displayed when a group selection object or the like of the home screen displayed according to the execution of the control program stored in the terminal storage device 22 is selected by the user's operation of the input device 24. good too.

グループ選択画面710のグループ表示領域711において、コミュニケーションサービスを開始しているコミュニケーショングループを示すグループ情報が、他のグループ情報と判別可能に表示される。図7(b)に示される例では、最も上に表示されているグループ情報が、コミュニケーションサービスを開始しているコミュニケーショングループを示すものである。例えば、コミュニケーショングループの所属ユーザのそれぞれのサムネイル画像に重畳して又は近傍に、コミュニケーションサービスに参加している所属ユーザの数を示す情報が表示される。また、コミュニケーショングループの名称の近傍に、コミュニケーションサービスを示すマーク画像712が表示される。 In the group display area 711 of the group selection screen 710, group information indicating the communication group that has started the communication service is displayed so as to be distinguishable from other group information. In the example shown in FIG. 7B, the group information displayed at the top indicates the communication group that has started the communication service. For example, information indicating the number of belonging users participating in the communication service is displayed superimposed on or adjacent to each thumbnail image of the users belonging to the communication group. Also, a mark image 712 indicating the communication service is displayed near the name of the communication group.

ユーザによる入力装置24の操作によってグループ表示領域711に含まれるグループ情報のうち、コミュニケーションサービスを開始しているコミュニケーショングループを示すグループ情報が選択されると、選択されたグループ情報に対応するコミュニケーショングループの所属ユーザによる情報交換画面800が表示される。 When the user operates the input device 24 to select, from among the group information contained in the group display area 711, the group information indicating the communication group that has started the communication service, the communication group corresponding to the selected group information is displayed. An information exchange screen 800 by affiliated users is displayed.

図8(a)は、ユーザの端末装置2の表示装置23に表示される情報交換画面800の一例を示す図である。情報交換画面800には、コミュニケーションサービスを開始しているコミュニケーショングループの所属ユーザのそれぞれが入力したテキスト又は画像等の情報を表示する表示領域801a~801bと、表示領域801a~801bのそれぞれに表示された情報を入力した所属ユーザを示す情報(キャラクタオブジェクトのサムネイル画像等)802a~802bと、ユーザが新たな表示領域801に表示させるテキスト又は画像を入力するための入力オブジェクト803と、既に開始されているコミュニケーションサービスを示すサービス表示領域804と、既に開始されているコミュニケーションサービスに参加するための参加ボタン805が含まれる。 FIG. 8A is a diagram showing an example of an information exchange screen 800 displayed on the display device 23 of the user's terminal device 2. FIG. On the information exchange screen 800, display areas 801a to 801b for displaying information such as text or images input by each of the users belonging to the communication group that has started the communication service, and display areas 801a to 801b. Information (thumbnail images of character objects, etc.) 802a to 802b indicating belonging users who have input the information, an input object 803 for the user to input text or images to be displayed in a new display area 801, It includes a service display area 804 that shows the communication services that are available, and a participation button 805 for participating in communication services that have already started.

図8(a)に示されるサービス表示領域804には、コミュニケーションサービスに参加している3人のユーザのキャラクタオブジェクトのサムネイル画像が表示される。図8(a)に示される表示領域801bには、コミュニケーションサービスを開始したことを示す情報が表示される。参加ボタン805がユーザによって選択されることによって参加処理が実行される。以下、参加処理の一例について説明する。 In the service display area 804 shown in FIG. 8A, thumbnail images of character objects of three users participating in the communication service are displayed. A display area 801b shown in FIG. 8A displays information indicating that the communication service has started. Participation processing is executed when the participation button 805 is selected by the user. An example of participation processing will be described below.

ユーザによる入力装置24の操作によって参加ボタン805が選択されると、まず、ユーザの端末装置2の表示処理部274は、端末記憶装置22に記憶されたユーザのユーザIDを、サービス表示領域804に関するコミュニケーションサービスに参加中のユーザのユーザIDとして端末記憶装置22に記憶する。次に、表示処理部274は、コミュニケーションサービスに参加中の全てのユーザのユーザ出力画像を含むコミュニケーション画面810(図8(b))を表示する。 When the user selects the participation button 805 by operating the input device 24 , first, the display processing unit 274 of the user's terminal device 2 displays the user's user ID stored in the terminal storage device 22 as a service display area 804 related to the service display area 804 . It is stored in the terminal storage device 22 as the user ID of the user participating in the communication service. Next, the display processing unit 274 displays a communication screen 810 (FIG. 8B) including user output images of all users participating in the communication service.

次に、ユーザの端末装置2の送信部272は、コミュニケーションサービスの参加指示を、端末記憶装置22に記憶されたユーザのユーザID、コミュニケーショングループに関する情報及び/又は送信先情報とともに端末通信I/F21を介してサーバ装置3に送信する。コミュニケーショングループに関する情報は、コミュニケーショングループのグループID、名称、及び所属ユーザのそれぞれのユーザIDである。送信先情報には、コミュニケーショングループの所属ユーザのうち端末装置2を操作するユーザを除く他ユーザのそれぞれのユーザIDが含まれる。サーバ装置3のサーバ受信部331は、サーバ通信I/F31を介して、参加指示、ユーザID、コミュニケーショングループに関する情報及び/又は送信先情報を受信する。サーバ装置3のサーバ送信部332は、参加指示、ユーザID及びコミュニケーショングループに関する情報を、送信先情報に含まれるユーザIDによって示される他ユーザの端末装置2にサーバ通信I/F31を介して送信する。 Next, the transmission unit 272 of the user's terminal device 2 sends the communication service participation instruction to the terminal communication I/F 21 together with the user's user ID, communication group information and/or destination information stored in the terminal storage device 22. to the server device 3 via the The information about the communication group is the group ID of the communication group, the name of the communication group, and the user IDs of the users belonging to the communication group. The destination information includes the user IDs of each of the users belonging to the communication group, excluding the user who operates the terminal device 2 . The server reception unit 331 of the server device 3 receives the participation instruction, the user ID, the communication group information and/or the transmission destination information via the server communication I/F 31 . The server transmission unit 332 of the server device 3 transmits the participation instruction, the user ID, and information about the communication group to the terminal device 2 of the other user indicated by the user ID included in the destination information via the server communication I/F 31. .

他ユーザの端末装置2の受信部237は、サーバ装置3から、ユーザの端末装置2から送信された参加指示、ユーザID及びコミュニケーショングループに関する情報を受信する。受信部237は、受信したユーザIDを、コミュニケーションサービスに参加中のユーザのユーザIDとして端末記憶装置22に記憶する。当該端末装置においてコミュニケーション画面810が表示されている場合、他ユーザの端末装置2の表示処理部274は、コミュニケーションサービスに参加中の全てのユーザのユーザ出力画像を含むコミュニケーション画面810を表示する。以上により、参加処理が終了する。 The receiving unit 237 of the other user's terminal device 2 receives from the server device 3 the participation instruction, the user ID, and the communication group information transmitted from the user's terminal device 2 . The receiving unit 237 stores the received user ID in the terminal storage device 22 as the user ID of the user participating in the communication service. When the communication screen 810 is displayed on the terminal device, the display processing unit 274 of the other user's terminal device 2 displays the communication screen 810 including user output images of all users participating in the communication service. Participation processing is completed by the above.

選択処理は、ユーザによる入力装置24の操作によってグループ選択画面710においてグループ情報が選択された場合に実行されてもよい。すなわち、ユーザによるグループ情報の選択に応じて、グループ情報に対応するコミュニケーショングループが参加可能なコミュニケーションサービスへの参加処理が実行されてもよい。この場合、情報交換画面800は表示されない。 The selection process may be executed when group information is selected on the group selection screen 710 by the user operating the input device 24 . That is, according to the selection of group information by the user, a process of participating in a communication service in which the communication group corresponding to the group information can participate may be executed. In this case, the information exchange screen 800 is not displayed.

コミュニケーションサービスの開始又は参加の実施形態は、上述した例に限らない。例えば、ユーザによる開始オブジェクト704の選択に応じた開始処理とは異なる他の開始処理が実行されてもよい。他の開始処理は、ホーム画面等の所定の画面において、コミュニケーションサービスの開始を指定するための所定の表示オブジェクトがユーザによって選択された場合に実行される。なお、所定の表示オブジェクトは、ユーザのキャラクタオブジェクトのサムネイル画像等が選択された場合に表示されてもよく、また、所定の画面のメニュー項目に含まれていてもよい。他の開始処理は、所定の開始条件が満たされた場合に自動的に実行されてもよい。例えば、所定の開始条件は、現在時刻が予め定められた時刻となったこと、前回のコミュニケーションサービスの終了から所定の時間が経過したこと、ユーザの相互フォロワー数が所定数を超えたこと等である。以下、他の開始処理の一例について説明する。 Embodiments for initiating or joining a communication service are not limited to the examples given above. For example, other initiation processes may be performed that are different from initiation processes in response to user selection of initiation object 704 . Another start process is executed when the user selects a predetermined display object for designating the start of the communication service on a predetermined screen such as the home screen. Note that the predetermined display object may be displayed when a thumbnail image or the like of the user's character object is selected, or may be included in menu items on a predetermined screen. Other initiation processes may be automatically executed when predetermined initiation conditions are met. For example, the predetermined start condition is that the current time reaches a predetermined time, that a predetermined time has passed since the end of the previous communication service, or that the number of mutual followers of the user exceeds a predetermined number. be. An example of another start process will be described below.

まず、ユーザの端末装置2の送信部272は、コミュニケーションサービスの開始指示を、端末記憶装置22に記憶されたユーザのユーザID、及び/又は送信先情報とともに端末通信I/F21を介してサーバ装置3に送信する。また、送信部272は、ユーザのユーザIDをコミュニケーションサービスに参加中のユーザのユーザIDとして端末記憶装置22に記憶する。送信先情報には、ユーザと所定の関係を有する一又は複数の他ユーザのそれぞれのユーザIDが含まれる。例えば、送信先情報には、ユーザの相互フォロワーである一又は複数の他のユーザのユーザIDが含まれてもよい。また、送信先情報には、ユーザの相互フォロワーである一又は複数の他のユーザのユーザIDに替えて又は加えて、ユーザの相互フォロワーである所定ユーザと相互フォローの関係にある他ユーザのユーザIDが含まれてもよい。 First, the transmission unit 272 of the user's terminal device 2 transmits the communication service start instruction to the server device via the terminal communication I/F 21 together with the user's user ID and/or destination information stored in the terminal storage device 22. Send to 3. Also, the transmission unit 272 stores the user ID of the user in the terminal storage device 22 as the user ID of the user participating in the communication service. The destination information includes user IDs of one or more other users who have a predetermined relationship with the user. For example, the destination information may include user IDs of one or more other users who are mutual followers of the user. In addition, instead of or in addition to the user IDs of one or more other users who are mutual followers of the user, the destination information may include other users who have a mutual following relationship with a predetermined user who is a mutual follower of the user. An ID may be included.

サーバ装置3のサーバ受信部331は、サーバ通信I/F31を介して、開始指示、ユーザID及び/又は送信先情報を受信する。サーバ装置3のサーバ送信部332は、開始指示、ユーザID及び送信先情報を、送信先情報に含まれるユーザIDによって示される他ユーザの端末装置2にサーバ通信I/F31を介して送信する。他ユーザの端末装置2の受信部237は、サーバ装置3から、ユーザの端末装置2から送信された開始指示、ユーザID及び送信先情報を受信する。受信部237は、送信されたユーザIDをコミュニケーションサービスに参加中のユーザのユーザIDとして端末記憶装置22に記憶する。他ユーザの端末装置2の表示処理部274は、受信したユーザIDに基づいて通知画面(図示せず)を表示装置23に表示する。通知画面には、受信したユーザIDによって示されるユーザからコミュニケーションサービスの参加を促す情報と参加ボタン等が含まれる。 The server reception unit 331 of the server device 3 receives the start instruction, user ID and/or destination information via the server communication I/F 31 . The server transmission unit 332 of the server device 3 transmits the start instruction, the user ID, and the destination information to the other user's terminal device 2 indicated by the user ID included in the destination information via the server communication I/F 31 . The receiving unit 237 of the other user's terminal device 2 receives from the server device 3 the start instruction, the user ID, and the transmission destination information transmitted from the user's terminal device 2 . The receiving unit 237 stores the transmitted user ID in the terminal storage device 22 as the user ID of the user participating in the communication service. The display processing unit 274 of the other user's terminal device 2 displays a notification screen (not shown) on the display device 23 based on the received user ID. The notification screen includes information for prompting the user indicated by the received user ID to participate in the communication service, a participation button, and the like.

他ユーザによる入力装置24の操作によって通知画面内の参加ボタンが選択されると、他ユーザの端末装置2の表示処理部274は、端末記憶装置22に記憶された他ユーザのユーザIDを、サービス表示領域804に関するコミュニケーションサービスに参加中のユーザのユーザIDとして端末記憶装置22に記憶する。次に、表示処理部274は、コミュニケーションサービスに参加中の全てのユーザのユーザ出力画像を含むコミュニケーション画面810(図8(b))を表示する。 When the participation button in the notification screen is selected by another user's operation of the input device 24, the display processing unit 274 of the other user's terminal device 2 stores the other user's user ID stored in the terminal storage device 22 in the service. This is stored in the terminal storage device 22 as the user ID of the user participating in the communication service related to the display area 804 . Next, the display processing unit 274 displays a communication screen 810 (FIG. 8(b)) including user output images of all users participating in the communication service.

次に、他ユーザの端末装置2の送信部272は、コミュニケーションサービスの参加指示を、端末記憶装置22に記憶された他ユーザのユーザID及び/又は送信先情報とともに端末通信I/F21を介してサーバ装置3に送信する。送信先情報は、先に受信部237により受信された送信先情報に含まれるユーザIDから、送信先情報を送信する端末装置2の他ユーザのユーザIDを送信先情報から削除し、同時に受信部237により受信されたユーザIDを加えたものである。サーバ装置3のサーバ受信部331は、サーバ通信I/F31を介して、参加指示、ユーザID、及び/又は送信先情報を受信する。サーバ装置3のサーバ送信部332は、参加指示、ユーザID、及び送信先情報を、送信先情報に含まれるユーザIDによって示される他ユーザの端末装置2にサーバ通信I/F31を介して送信する。 Next, the transmission unit 272 of the other user's terminal device 2 transmits the communication service participation instruction together with the other user's user ID and/or destination information stored in the terminal storage device 22 via the terminal communication I / F 21 Send to the server device 3 . For the destination information, the user ID of the other user of the terminal device 2 to which the destination information is to be transmitted is deleted from the user ID included in the destination information previously received by the receiving unit 237. , plus the user ID received by H.237. The server reception unit 331 of the server device 3 receives the participation instruction, user ID, and/or transmission destination information via the server communication I/F 31 . The server transmission unit 332 of the server device 3 transmits the participation instruction, the user ID, and the destination information to the other user's terminal device 2 indicated by the user ID included in the destination information via the server communication I/F 31. .

参加指示の送信先のユーザの端末装置2の受信部237は、サーバ装置3から、ユーザの端末装置2から送信された参加指示、ユーザID、及び送信先情報を受信する。受信部237は、受信したユーザIDを、コミュニケーションサービスに参加中のユーザのユーザIDとして端末記憶装置22に記憶する。当該端末装置2においてコミュニケーション画面810が表示されている場合、端末装置2の表示処理部274は、コミュニケーションサービスに参加中の全てのユーザのユーザ出力画像を含むコミュニケーション画面810を表示する。以上により、一連の参加処理が終了する。 The receiving unit 237 of the terminal device 2 of the user to which the participation instruction is transmitted receives from the server device 3 the participation instruction, the user ID, and the transmission destination information transmitted from the user's terminal device 2 . The receiving unit 237 stores the received user ID in the terminal storage device 22 as the user ID of the user participating in the communication service. When the communication screen 810 is displayed on the terminal device 2, the display processing unit 274 of the terminal device 2 displays the communication screen 810 including user output images of all users participating in the communication service. A series of participation processing is completed by the above.

なお、ユーザと所定の関係を有する他ユーザとのコミュニケーションサービスの開始又は参加の実施形態は、上述した例に限らない。例えば、ユーザによってコミュニケーションサービスの開始を指定するための所定の表示オブジェクトがユーザによって選択された場合、一又は複数のユーザの相互フォロワーである他ユーザを示す情報を含む選択画面が表示されてもよい。この場合、ユーザによっていずれかの他ユーザを示す情報が選択されると、選択された他ユーザとのコミュニケーションを開始する開始指示に基づく他の開始処理が実行されてもよい。さらにこの場合、選択された他ユーザとの情報交換画面が表示され、当該情報交換画面内の開始ボタンが選択されることにより、他ユーザとのコミュニケーションを開始する開始指示に基づく他の開始処理が実行されてもよい。 It should be noted that the embodiment of starting or participating in a communication service with other users having a predetermined relationship with the user is not limited to the above examples. For example, when the user selects a predetermined display object for specifying the start of the communication service, a selection screen including information indicating other users who are mutual followers of one or more users may be displayed. . In this case, when information indicating any other user is selected by the user, another start process may be executed based on a start instruction for starting communication with the selected other user. Furthermore, in this case, an information exchange screen with the selected other user is displayed, and by selecting a start button in the information exchange screen, another start process based on a start instruction to start communication with the other user is started. may be performed.

従来の情報システムでは、ユーザの相互フォロワー等のユーザと所定の関係を有する他ユーザとのコミュニケーションの開始及び/又は参加指示を、ユーザが簡易なインターフェースを用いて行うことができなかった。本実施形態において開示される情報システム1では、上述の他の開始処理が実行されることにより、コミュニケーションの開始及び/又は参加指示に係るユーザインタフェースを向上させ、サーバ装置3及び端末装置2間の通信負荷を低減させることが可能となる。 In a conventional information system, a user could not use a simple interface to initiate communication and/or to instruct other users having a predetermined relationship with the user, such as mutual followers of the user. In the information system 1 disclosed in the present embodiment, by executing the above-described other start processing, the user interface related to communication start and/or participation instruction is improved, and the communication between the server device 3 and the terminal device 2 It is possible to reduce the communication load.

図8(b)は、端末装置2の表示装置23に表示されるコミュニケーション画面810の一例を示す図である。コミュニケーション画面810は、端末装置2を操作するユーザを所属ユーザとして含むコミュニケーショングループのコミュニケーション画面である。以下、端末装置2を操作するユーザをユーザAと称し、コミュニケーション画面810に対応するコミュニケーションサービスに参加中の、ユーザA以外のユーザを、ユーザB1、ユーザB2、ユーザB3、・・・と称する。なお、ユーザB1、ユーザB2、ユーザB3、・・・を、ユーザBと総称する場合がある。 FIG. 8B is a diagram showing an example of a communication screen 810 displayed on the display device 23 of the terminal device 2. As shown in FIG. The communication screen 810 is a communication screen of a communication group including the user who operates the terminal device 2 as a belonging user. Hereinafter, the user who operates the terminal device 2 will be referred to as user A, and the users other than user A participating in the communication service corresponding to the communication screen 810 will be referred to as user B1, user B2, user B3, . User B1, user B2, user B3, . . . may be collectively referred to as user B.

コミュニケーション画面810には、ユーザAのキャラクタオブジェクト811aを含むユーザ出力画像812aが少なくとも含まれる。図8(b)に示される例では、ユーザA以外で、コミュニケーションサービスに参加中のユーザが3人(ユーザB1、ユーザB2、ユーザB3)いる。すなわち、ユーザB1、ユーザB2、及びユーザB3のそれぞれのキャラクタオブジェクト811b1、811b2、811b3を含むユーザ出力画像812b1、812b2、812b3がコミュニケーション画面810に含まれる。以下、キャラクタオブジェクト811b1、811b2,811b3を、キャラクタオブジェクト811bと総称し、ユーザ出力画像812b1、812b2、812b3を、ユーザ出力画像812bと総称する場合がある。なお、ユーザBは、ユーザAにとって他ユーザであり、ユーザAの端末装置2に表示されるユーザBのユーザ出力画像812bは、他ユーザ出力画像である。 Communication screen 810 includes at least user output image 812a including user A's character object 811a. In the example shown in FIG. 8B, there are three users (user B1, user B2, and user B3) participating in the communication service other than user A. That is, the communication screen 810 includes user output images 812b1, 812b2, and 812b3 including character objects 811b1, 811b2, and 811b3 of user B1, user B2, and user B3, respectively. Hereinafter, the character objects 811b1, 811b2, and 811b3 may be collectively referred to as the character object 811b, and the user output images 812b1, 812b2, and 812b3 may be collectively referred to as the user output image 812b. Note that the user B is another user for the user A, and the user output image 812b of the user B displayed on the terminal device 2 of the user A is the other user output image.

ユーザA以外で、コミュニケーションサービスに参加中のユーザがいない場合、コミュニケーション画面810にユーザ出力画像812aのみが含まれ、ユーザBがコミュニケーションサービスに参加するたびに、当該ユーザBのユーザ出力画像812bが新たにコミュニケーション画面810に含まれる。コミュニケーションサービスに参加可能なユーザ数に上限はなく、例えば、ユーザA以外に9人のユーザBがコミュニケーションサービスに参加している場合、ユーザAのユーザ出力画像812aとともに、9人のユーザBのそれぞれのユーザ出力画像812b1、812b2,812b3、・・・812b9がコミュニケーション画面810に含まれる。 When there is no user participating in the communication service other than user A, only the user output image 812a is included in the communication screen 810, and each time user B participates in the communication service, the user output image 812b of user B is newly displayed. is included in the communication screen 810. There is no upper limit to the number of users who can participate in the communication service. 812b1, 812b2, 812b3, . . . 812b9 are included in the communication screen 810.

キャラクタオブジェクト811aは、生成部271によって生成されたユーザAのモーションデータと、ユーザテーブルT1のユーザAのユーザIDに関連付けられたキャラクタオブジェクト及び使用オブジェクトとに基づいて、表示処理部274によって生成されたユーザAのキャラクタオブジェクトのアニメーション(動画像)である。なお、生成部271によって生成されたユーザAのモーションデータは、ユーザBの端末装置2に送信される出力情報に含まれるモーションデータと同一である。ユーザAの出力情報には、ユーザAのモーションデータとともにユーザAの音声データが含まれる。生成部271によって生成されたユーザAのモーションデータにユーザAのフェイスモーションデータが含まれる場合、ユーザAの表情の動きに同期して表情が変化するキャラクタオブジェクト811aを含むユーザ出力画像812aが表示される。例えば、ユーザAが音声を発しているときには、唇が動作しているキャラクタオブジェクト811aを含むユーザ出力画像812aが表示される。また、生成部271によって生成されたユーザAのモーションデータにユーザAのボディモーションデータが含まれる場合、ユーザAの体の動きに同期して、対応する部位が動作するキャラクタオブジェクト811aを含むユーザ出力画像812aが表示される。 The character object 811a is generated by the display processing unit 274 based on the motion data of the user A generated by the generation unit 271 and the character object and the use object associated with the user ID of the user A in the user table T1. This is an animation (moving image) of a character object of user A. FIG. The motion data of user A generated by the generation unit 271 is the same as the motion data included in the output information transmitted to the terminal device 2 of user B. FIG. User A's output information includes user A's voice data together with user A's motion data. When user A's face motion data is included in the user A's motion data generated by the generation unit 271, a user output image 812a including a character object 811a whose facial expression changes in synchronization with the facial expression of user A is displayed. be. For example, when user A is speaking, a user output image 812a including a character object 811a with moving lips is displayed. Further, when user A's body motion data is included in the user A's motion data generated by the generation unit 271, the user output including the character object 811a whose corresponding part moves in synchronization with the user A's body motion is generated. Image 812a is displayed.

なお、ユーザAの端末装置2の送信部272は、ユーザAの出力情報を、送信先情報(コミュニケーショングループに含まれる各ユーザB(ユーザB1~ユーザB3)のユーザID)とともに、端末通信I/F21を介してサーバ装置3に送信する。次に、サーバ装置3のサーバ受信部331は、サーバ通信I/F31を介して、ユーザAの端末装置2から送信されたユーザAの出力情報を受信する。次に、サーバ装置3のサーバ送信部332は、受信したユーザB(ユーザB1~ユーザB3)のユーザIDを参照し、サーバ通信I/F31を介して、ユーザAの出力情報をユーザB(ユーザB1~ユーザB3)の端末装置2に送信する。そして、ユーザBの端末装置2の受信部273によって、端末通信I/F21を介して出力情報が受信されると、ユーザBの端末装置2の表示処理部274は、出力情報に含まれるユーザIDによって示されるユーザAのモーションデータに基づくキャラクタオブジェクト811aを含むユーザ出力画像812aを表示する。 Note that the transmission unit 272 of the terminal device 2 of the user A transmits the output information of the user A together with the transmission destination information (the user ID of each user B (user B1 to user B3) included in the communication group) to the terminal communication I/ It is transmitted to the server device 3 via F21. Next, the server receiving unit 331 of the server device 3 receives the output information of the user A transmitted from the terminal device 2 of the user A via the server communication I/F 31 . Next, the server transmission unit 332 of the server device 3 refers to the received user ID of user B (user B1 to user B3), and transmits the output information of user A to user B (user B1 to the terminal device 2 of user B3). When the receiving unit 273 of the terminal device 2 of user B receives the output information via the terminal communication I/F 21, the display processing unit 274 of the terminal device 2 of user B receives the user ID included in the output information. displays a user output image 812a including a character object 811a based on user A's motion data indicated by .

キャラクタオブジェクト811bは、受信部273によって受信されたユーザBの出力情報に含まれるモーションデータと、ユーザテーブルT1のユーザBのユーザIDに関連付けられたキャラクタオブジェクトとに基づいて、表示処理部274によって生成されたユーザBのキャラクタオブジェクトのアニメーション(動画像)である。受信部273によって受信されたユーザBのモーションデータにユーザBのフェイスモーションデータが含まれる場合、ユーザBの表情の動きに同期して表情が変化するキャラクタオブジェクト811bを含むユーザ出力画像812bが表示される。例えば、ユーザBが音声を発した場合では、唇が動作しているキャラクタオブジェクト811bを含むユーザ出力画像812bが表示される。また、生成部271によって生成されたユーザBのモーションデータにユーザBのボディモーションデータが含まれる場合、ユーザBの体の動きに同期して、対応する部位が動作するキャラクタオブジェクト811bを含むユーザ出力画像812bが表示される。受信部273によって受信されたユーザBの出力情報にユーザBの音声データが含まれる場合、表示処理部274によってユーザ出力画像812bが表示されるとともに、音声出力部275によって音声データに基づいて生成されるユーザBの音声が音声出力される。 The character object 811b is generated by the display processing unit 274 based on the motion data included in the output information of the user B received by the receiving unit 273 and the character object associated with the user ID of the user B in the user table T1. 10 is an animation (moving image) of a character object of user B that has been created. When user B's motion data received by the receiving unit 273 includes user B's face motion data, a user output image 812b including a character object 811b whose facial expression changes in synchronization with the movement of user B's facial expression is displayed. be. For example, when user B utters a voice, a user output image 812b including a character object 811b with moving lips is displayed. Further, when user B's body motion data is included in the user B's motion data generated by the generation unit 271, the user output including the character object 811b whose corresponding part moves in synchronization with the user B's body motion is generated. Image 812b is displayed. When user B's output information received by the receiving unit 273 includes user B's voice data, the user output image 812b is displayed by the display processing unit 274, and the user output image 812b is generated by the voice output unit 275 based on the voice data. User B's voice is output as voice.

このように、ユーザ出力画像812a及びユーザ出力画像812bを含むコミュニケーション画面810が表示されることによって、ユーザAは、音声を発しているようなユーザBのキャラクタオブジェクト811bを見ながらユーザBの音声を聞くことができる。また、ユーザAのキャラクタオブジェクト及び音声データは、ユーザBの端末装置2によって出力される。これにより、コミュニケーションサービスに参加しているユーザAとユーザBは、キャラクタオブジェクトを介してコミュニケーションすることが可能となる。 By displaying the communication screen 810 including the user output image 812a and the user output image 812b in this way, the user A can listen to the voice of the user B while looking at the character object 811b of the user B who is uttering a voice. can hear User A's character object and voice data are output by user B's terminal device 2 . As a result, user A and user B participating in the communication service can communicate with each other via character objects.

コミュニケーション画面810には、追加ボタン813及びゲームボタン814が含まれる。図8(b)に示される例では、追加ボタン813及びゲームボタン814は、ユーザ出力画像812aの表示領域内に配置されているが、ユーザ出力画像812aの表示領域外に表示されてもよい。また、追加ボタン813及びゲームボタン814は、所定の表示条件が満たされた場合に、所定時間だけ表示されるように表示処理部274によって表示制御されてもよい。 Communication screen 810 includes an add button 813 and a game button 814 . In the example shown in FIG. 8B, the add button 813 and the game button 814 are arranged within the display area of the user output image 812a, but they may be displayed outside the display area of the user output image 812a. Also, the add button 813 and the game button 814 may be controlled by the display processing unit 274 so as to be displayed for a predetermined period of time when predetermined display conditions are satisfied.

追加ボタン813は、コミュニケーション画面810に含ませる追加オブジェクトを選択するための選択画面1200の表示を指示するためのボタンオブジェクト等のオブジェクト画像である。ユーザAによる入力装置24の操作によって追加ボタン813が選択されると、選択画面1200が表示される。選択画面1200の詳細は後述する。 The add button 813 is an object image such as a button object for instructing display of the selection screen 1200 for selecting an additional object to be included in the communication screen 810 . When the user A operates the input device 24 to select the add button 813, a selection screen 1200 is displayed. Details of the selection screen 1200 will be described later.

ゲームボタン814は、ゲームの開始を指示するためのボタンオブジェクト等のオブジェクト画像である。ユーザAによる入力装置24の操作によってゲームボタン814が選択されると、入力装置24はゲーム開始指示を表示処理部274に入力する。端末処理装置27は、入力装置24から入力されたゲーム開始指示を取得すると、端末記憶装置22に記憶されている制御プログラム(ゲームプログラム)に含まれる各種命令を実行する。これにより、端末処理装置27の表示処理部274は、ゲームを開始し、開始したゲームのゲーム画面を含むゲーム表示オブジェクト1500(図15(a))を表示装置23に表示する機能を実現する。ゲーム画面を含むゲーム表示オブジェクト1500の詳細は後述する。 A game button 814 is an object image such as a button object for instructing the start of a game. When the user A operates the input device 24 to select the game button 814 , the input device 24 inputs a game start instruction to the display processing unit 274 . When the terminal processing device 27 acquires a game start instruction input from the input device 24 , the terminal processing device 27 executes various commands included in the control program (game program) stored in the terminal storage device 22 . Thereby, the display processing unit 274 of the terminal processing device 27 realizes the function of starting the game and displaying the game display object 1500 (FIG. 15(a)) including the game screen of the started game on the display device 23 . Details of the game display object 1500 including the game screen will be described later.

ユーザAは、キャラクタオブジェクト811aに、新たな装着オブジェクトを装着させたい場合、又は、キャラクタオブジェクト811aに装着されている装着オブジェクトを、新たな装着オブジェクトに変更したい場合、キャラクタオブジェクト811aを選択する操作を行う。ユーザAによる入力装置24の操作によってキャラクタオブジェクト811aが選択されると、コミュニケーション画面810の表示が終了し、コミュニケーション画面900(図9(a))が表示される。なお、コミュニケーション画面900の表示は、ユーザAによる入力装置24の操作によってユーザ出力画像812aが選択された場合に実行されてもよい。 When the user A wants to equip the character object 811a with a new attachment object, or wants to change the attachment object attached to the character object 811a to a new attachment object, the user A selects the character object 811a. conduct. When the user A operates the input device 24 to select the character object 811a, the display of the communication screen 810 ends, and the communication screen 900 (FIG. 9A) is displayed. The communication screen 900 may be displayed when the user A operates the input device 24 to select the user output image 812a.

図9(a)は、端末装置2の表示装置23に表示されるコミュニケーション画面900の他の一例を示す図である。コミュニケーション画面900は、コミュニケーション画面810(図8(b))に含まれる、ユーザAによる入力装置24の操作によってキャラクタオブジェクト811a又はユーザ出力画像812aが選択された場合に表示される。 FIG. 9A is a diagram showing another example of the communication screen 900 displayed on the display device 23 of the terminal device 2. FIG. The communication screen 900 is displayed when the character object 811a or the user output image 812a is selected by the user A operating the input device 24 included in the communication screen 810 (FIG. 8B).

コミュニケーション画面900では、ユーザAのキャラクタオブジェクト811aを含むユーザ出力画像812aが全面に表示される。また、ユーザ出力画像812aに重畳して、ユーザB1、ユーザB2、ユーザB3のそれぞれのキャラクタオブジェクト811b1、811b2、811b3を含むユーザ出力画像901が表示される。なお、コミュニケーション画面900において、ユーザ出力画像901が表示されなくてもよい。この場合、ユーザB1、ユーザB2、ユーザB3のそれぞれの音声データが出力されてもよい。 On the communication screen 900, a user output image 812a including the user A's character object 811a is displayed on the entire surface. Also, a user output image 901 including character objects 811b1, 811b2, and 811b3 of user B1, user B2, and user B3 is displayed superimposed on the user output image 812a. Note that the user output image 901 may not be displayed on the communication screen 900 . In this case, the voice data of each of user B1, user B2, and user B3 may be output.

さらに、コミュニケーション画面900には、追加ボタン813及びゲームボタン814とともに、変更ボタン902及び画面終了ボタン903が含まれる。なお、コミュニケーション画面900において、追加ボタン813及びゲームボタン814が含まれなくてもよい。 Further, communication screen 900 includes add button 813 and game button 814 as well as change button 902 and screen exit button 903 . Note that the communication screen 900 may not include the add button 813 and the game button 814 .

変更ボタン902は、選択画面910(図9(b))の表示を指示するためのボタンオブジェクト等のオブジェクト画像である。ユーザAによる入力装置24の操作によって変更ボタン902が選択されると、キャラクタオブジェクト811aに装着させる新たな装着オブジェクトを選択するための選択画面910が表示される。選択画面910の詳細は後述する。 The change button 902 is an object image such as a button object for instructing display of the selection screen 910 (FIG. 9B). When the user A operates the input device 24 to select the change button 902, a selection screen 910 for selecting a new wearable object to be worn by the character object 811a is displayed. Details of the selection screen 910 will be described later.

画面終了ボタン903は、コミュニケーション画面900の表示の終了を指示するためのボタンオブジェクト等のオブジェクト画像である。ユーザAによる入力装置24の操作によって画面終了ボタン903が選択されると、コミュニケーション画面900の表示が終了し、コミュニケーション画面810(図8(b))が表示される。 A screen termination button 903 is an object image such as a button object for instructing termination of display of the communication screen 900 . When the screen end button 903 is selected by user A's operation of the input device 24, the display of the communication screen 900 is terminated and the communication screen 810 (FIG. 8(b)) is displayed.

図9(b)は、端末装置2の表示装置23に表示される選択画面910の一例を示す図である。選択画面910では、コミュニケーション画面900(図9(a))と同様に、ユーザAのキャラクタオブジェクト811aを含むユーザ出力画像812aが全面に表示される。また、選択画面910には、配置候補オブジェクト911、及び画面終了ボタン912が含まれる。 FIG. 9B is a diagram showing an example of a selection screen 910 displayed on the display device 23 of the terminal device 2. As shown in FIG. On the selection screen 910, a user output image 812a including the character object 811a of the user A is displayed on the entire surface, similar to the communication screen 900 (FIG. 9A). The selection screen 910 also includes a placement candidate object 911 and a screen exit button 912 .

オブジェクトテーブルT2に示されるように、各装着オブジェクトが配置される配置箇所は、予め定められた複数の配置箇所のうちのいずれかの配置箇所である。図9(b)に示される例では、複数の配置箇所のそれぞれを示す複数の配置候補オブジェクト911が選択画面910に含まれる。なお、複数の配置候補オブジェクト911は、各装着オブジェクトが属する複数のカテゴリ(種類)に対応するものでもよい。選択画面910に表示される配置候補オブジェクト911の数は、5つに限らない。端末装置2の表示処理部274は、複数の配置候補オブジェクト911を示す画像の一部を選択画面910内に含めることができない場合、配置候補オブジェクト911をスクロール可能に表示してもよい。この場合、ユーザAによるスワイプ操作(例えば、指が画面に接しながら当該指が画面下から上に移動する操作)に応じて、選択画面910に現在表示されていない配置候補オブジェクト911が、選択画面910内にスクロール表示される。 As shown in the object table T2, the placement location where each mounting object is placed is one of a plurality of predetermined placement locations. In the example shown in FIG. 9B, a selection screen 910 includes a plurality of placement candidate objects 911 each indicating a plurality of placement locations. Note that the plurality of placement candidate objects 911 may correspond to a plurality of categories (types) to which each mountable object belongs. The number of placement candidate objects 911 displayed on the selection screen 910 is not limited to five. The display processing unit 274 of the terminal device 2 may display the placement candidate objects 911 in a scrollable manner when part of the image showing the plurality of placement candidate objects 911 cannot be included in the selection screen 910 . In this case, in response to a swipe operation by user A (for example, an operation in which the finger moves from the bottom to the top of the screen while the finger is in contact with the screen), the placement candidate objects 911 that are not currently displayed on the selection screen 910 are displayed on the selection screen. 910 is scrolled.

ユーザAは、まず、キャラクタオブジェクト811aに装着させたい装着オブジェクトの配置箇所を選択する。すなわち、ユーザAによる入力装置24の操作によって複数の配置候補オブジェクト911のいずれかが選択されると、選択された配置候補オブジェクト911に対応する配置候補に関連付けられたユーザAの装着オブジェクトを選択するための選択画面1000が表示される。 First, the user A selects an arrangement position of an attachment object to be attached to the character object 811a. That is, when one of the plurality of placement candidate objects 911 is selected by user A's operation of the input device 24, the wearable object of user A associated with the placement candidate corresponding to the selected placement candidate object 911 is selected. A selection screen 1000 for is displayed.

画面終了ボタン912は、選択画面910の表示の終了を指示するためのボタンオブジェクト等のオブジェクト画像である。ユーザAによる入力装置24の操作によって画面終了ボタン912が選択されると、選択画面910の表示が終了し、コミュニケーション画面810(図8(b))が表示される。 A screen termination button 912 is an object image such as a button object for instructing termination of display of the selection screen 910 . When the screen end button 912 is selected by the user A operating the input device 24, the display of the selection screen 910 is terminated, and the communication screen 810 (FIG. 8B) is displayed.

図10(a)は、端末装置2の表示装置23に表示される選択画面1000の一例を示す図である。選択画面1000では、コミュニケーション画面900(図9(a))と同様に、ユーザAのキャラクタオブジェクト811aを含むユーザ出力画像812aが全面に表示される。また、選択画面1000には、キャラクタオブジェクト811aに装着させる装着オブジェクトの候補となる装着候補オブジェクト1001及び画面終了ボタン1002が含まれる。 FIG. 10A is a diagram showing an example of a selection screen 1000 displayed on the display device 23 of the terminal device 2. FIG. On the selection screen 1000, a user output image 812a including the character object 811a of the user A is displayed on the entire surface, like the communication screen 900 (FIG. 9A). The selection screen 1000 also includes an attachment candidate object 1001 that is a candidate for an attachment object to be attached to the character object 811a, and an end screen button 1002. FIG.

装着候補オブジェクト1001は、選択画面910(図9(b))において選択された配置候補オブジェクト911に対応する配置候補に関連付けられたユーザAの保有オブジェクトのオブジェクトIDに対応する選択オブジェクトである。図10(a)に示される例では、3つの保有オブジェクトのオブジェクトIDのそれぞれに対応する3つの装着候補オブジェクト1001が選択画面1000に含まれる。選択画面1000に表示される装着候補オブジェクト1001の数は、3つに限らない。端末装置2の表示処理部274は、複数の装着候補オブジェクト1001を示す画像の一部を選択画面1000内に含めることができない場合、装着候補オブジェクト1001をスクロール可能に表示してもよい。この場合、ユーザAによるスワイプ操作(例えば、指が画面に接しながら当該指が画面下から上に移動する操作)に応じて、選択画面1000に現在表示されていない装着候補オブジェクト1001が、選択画面1000内にスクロール表示される。 The mounting candidate object 1001 is a selection object corresponding to the object ID of the owned object of user A associated with the placement candidate corresponding to the placement candidate object 911 selected on the selection screen 910 (FIG. 9B). In the example shown in FIG. 10A, the selection screen 1000 includes three mounting candidate objects 1001 respectively corresponding to the object IDs of the three possessed objects. The number of mounting candidate objects 1001 displayed on the selection screen 1000 is not limited to three. The display processing unit 274 of the terminal device 2 may display the mounting candidate objects 1001 in a scrollable manner if part of the image showing the plurality of mounting candidate objects 1001 cannot be included in the selection screen 1000 . In this case, in response to a swipe operation by user A (for example, an operation in which a finger moves from the bottom to the top of the screen while the finger is in contact with the screen), the attachment candidate object 1001 that is not currently displayed on the selection screen 1000 is displayed on the selection screen. 1000 is displayed by scrolling.

ユーザAによる入力装置24の操作によって複数の装着候補オブジェクト1001のいずれかが選択されると、入力装置24は、変更指示を端末処理装置27に入力する。入力装置24は、変更指示とともに、選択された装着候補オブジェクト1001に対応するオブジェクトIDを端末処理装置27に入力する。以下、変更指示に応じた変更処理の一例について説明する。 When user A operates the input device 24 to select one of the plurality of mounting candidate objects 1001 , the input device 24 inputs a change instruction to the terminal processing device 27 . The input device 24 inputs the object ID corresponding to the selected mounting candidate object 1001 to the terminal processing device 27 together with the change instruction. An example of change processing according to a change instruction will be described below.

まず、表示処理部274は、入力装置24から入力された変更指示及びオブジェクトIDを取得すると、取得したオブジェクトIDを使用オブジェクトとしてユーザAのユーザIDに関連付けてユーザテーブルT1に記憶する。なお、ユーザテーブルT1において、取得したオブジェクトIDの装着オブジェクトと同じ装着箇所の他の使用オブジェクトのオブジェクトIDが記憶されている場合、表示処理部274は、当該他の使用オブジェクトのオブジェクトIDをユーザテーブルT1から削除して、取得したオブジェクトIDを使用オブジェクトとしてユーザAのユーザIDに関連付けてユーザテーブルT1に記憶する。表示処理部274は、生成部271によって生成されたユーザAのモーションデータと、ユーザテーブルT1のユーザAのユーザIDに関連付けられたキャラクタオブジェクト及び使用オブジェクトとに基づいて、ユーザAのキャラクタオブジェクト1011aのアニメーション(動画像)を含むユーザ出力画像1012aを生成して、ユーザ出力画像1012aを含む選択画面1010(図10(b))を表示する。これにより、新たな装着オブジェクトを装着したキャラクタオブジェクト1011aを含むユーザ出力画像1012aが表示される。 First, when the display processing unit 274 acquires the change instruction and the object ID input from the input device 24, the acquired object ID is stored in the user table T1 in association with the user ID of the user A as an object to be used. Note that if the user table T1 stores the object ID of another use object at the same mounting position as the mount object of the acquired object ID, the display processing unit 274 stores the object ID of the other use object in the user table T1. The object ID is deleted from T1, and the acquired object ID is stored in the user table T1 in association with the user ID of user A as a used object. The display processing unit 274 displays the character object 1011a of the user A based on the motion data of the user A generated by the generation unit 271 and the character object and the use object associated with the user ID of the user A in the user table T1. A user output image 1012a including animation (moving image) is generated, and a selection screen 1010 (FIG. 10B) including the user output image 1012a is displayed. As a result, a user output image 1012a including the character object 1011a wearing the new wearable object is displayed.

次に、送信部272は、入力装置24から入力された変更指示及びオブジェクトIDを取得すると、変更指示を示す情報を、端末記憶装置22に記憶されたユーザAのユーザID、及び、取得したオブジェクトID、並びに、送信先情報(ユーザB(ユーザB1~ユーザB3)のユーザID)とともに、端末通信I/F21を介してサーバ装置3に送信する。次に、サーバ装置3のサーバ受信部331は、サーバ通信I/F31を介して、変更指示を示す情報とユーザAのユーザIDとオブジェクトIDと送信先情報とを受信する。次に、サーバ装置3のサーバ送信部332は、サーバ通信I/F31を介して、変更指示を示す情報とユーザAのユーザIDとオブジェクトIDとを、ユーザB(ユーザB1~ユーザB3)の端末装置2に送信する。そして、ユーザBの端末装置2の受信部273は、端末通信I/F21を介して、変更指示を示す情報とユーザAのユーザIDとオブジェクトIDとを受信すると、受信したオブジェクトIDを使用オブジェクトとしてユーザAのユーザIDに関連付けてユーザテーブルT1に記憶する。ユーザBの端末装置2の表示処理部274は、受信されたユーザAのモーションデータと、ユーザテーブルT1のユーザAのユーザIDに関連付けられたキャラクタオブジェクト及び使用オブジェクトとに基づいて、ユーザAのキャラクタオブジェクト1011aのアニメーション(動画像)を含むユーザ出力画像1012aを生成して、ユーザ出力画像1012aを含むコミュニケーション画面1110(図11(b))を表示する。これにより、ユーザBの端末装置2においても、新たな装着オブジェクトを装着したキャラクタオブジェクト1011aを含むユーザ出力画像1012aが表示される。以上により、変更処理は終了する。 Next, when the transmission unit 272 acquires the change instruction and the object ID input from the input device 24, the transmission unit 272 transmits information indicating the change instruction to the user ID of the user A stored in the terminal storage device 22 and the acquired object ID. ID and transmission destination information (user ID of user B (user B1 to user B3)) are transmitted to server apparatus 3 via terminal communication I/F 21 . Next, the server receiving unit 331 of the server device 3 receives the information indicating the change instruction, the user A's user ID, the object ID, and the transmission destination information via the server communication I/F 31 . Next, the server transmission unit 332 of the server device 3 transmits the information indicating the change instruction, the user ID of the user A, and the object ID via the server communication I/F 31 to the terminals of the users B (users B1 to B3). Send to device 2. When the receiving unit 273 of the terminal device 2 of the user B receives the information indicating the change instruction, the user ID of the user A, and the object ID via the terminal communication I/F 21, the received object ID is used as the object to be used. It is stored in the user table T1 in association with the user A's user ID. The display processing unit 274 of the terminal device 2 of the user B displays the character of the user A based on the received motion data of the user A and the character object and the use object associated with the user ID of the user A in the user table T1. A user output image 1012a including an animation (moving image) of the object 1011a is generated, and a communication screen 1110 (FIG. 11B) including the user output image 1012a is displayed. As a result, the user output image 1012a including the character object 1011a wearing the new wearable object is displayed on the terminal device 2 of the user B as well. With the above, the change processing ends.

画面終了ボタン1002は、選択画面1000の表示の終了を指示するためのボタンオブジェクト等のオブジェクト画像である。ユーザAによる入力装置24の操作によって画面終了ボタン1002が選択されると、選択画面1000の表示が終了し、コミュニケーション画面810(図8(b))が表示される。なお、ユーザAによる入力装置24の操作によって複数の装着候補オブジェクト1001のいずれかが選択されると、上述した変更処理が実行されて、選択画面1000の表示が終了し、新たな装着オブジェクトを装着したキャラクタオブジェクト1011aを含むユーザ出力画像1012aを含むコミュニケーション画面1110(図11(b))が表示されてもよい。 A screen termination button 1002 is an object image such as a button object for instructing termination of display of the selection screen 1000 . When the screen end button 1002 is selected by user A's operation of the input device 24, the display of the selection screen 1000 is terminated and the communication screen 810 (FIG. 8(b)) is displayed. Note that when one of the plurality of mounting candidate objects 1001 is selected by user A's operation of the input device 24, the change processing described above is executed, the display of the selection screen 1000 ends, and a new mounting object is mounted. A communication screen 1110 (FIG. 11(b)) including a user output image 1012a including a character object 1011a may be displayed.

図10(b)は、端末装置2の表示装置23に表示される選択画面1010の一例を示す図である。選択画面1010では、選択画面1000(図10(a))と同様に、ユーザAのキャラクタオブジェクト1011aを含むユーザ出力画像1012aが全面に表示される。また、選択画面1010には、選択画面1000と同様に、キャラクタオブジェクト1011aに装着させる装着オブジェクトの候補となる装着候補オブジェクト1013及び画面終了ボタン1014が含まれる。 FIG. 10B is a diagram showing an example of a selection screen 1010 displayed on the display device 23 of the terminal device 2. As shown in FIG. On the selection screen 1010, a user output image 1012a including the character object 1011a of the user A is displayed on the entire surface, similarly to the selection screen 1000 (FIG. 10(a)). Further, the selection screen 1010 includes, similarly to the selection screen 1000, an attachment candidate object 1013, which is a candidate for an attachment object to be attached to the character object 1011a, and a screen end button 1014.

キャラクタオブジェクト1011aは、選択画面1000(図10(a))において、変更指示が入力された後のユーザのキャラクタオブジェクトである。装着候補オブジェクト1013は、選択画面1000の装着候補オブジェクト1001と同一の配置位置に関連付けられたユーザAの保有オブジェクトのオブジェクトIDに対応する選択オブジェクトである。キャラクタオブジェクト1011aは、選択画面1000(図10(a))の装着候補オブジェクト1001のうちの一つの装着候補オブジェクト1001に対応する装着オブジェクトが装着されているため、キャラクタオブジェクト1011aに装着されている装着オブジェクトに対応する装着候補オブジェクトは、装着候補オブジェクト1013に含まれていない。なお、キャラクタオブジェクト1011aに装着されている装着オブジェクトに対応する装着候補オブジェクトは、装着候補オブジェクト1013に含まれていてもよい。この場合、装着されている装着オブジェクトに対応する装着候補オブジェクトは、ユーザAによって選択できないようにグレーアウト表示されていてもよい。 The character object 1011a is the character object of the user after the change instruction is input on the selection screen 1000 (FIG. 10(a)). The wearing candidate object 1013 is a selection object corresponding to the object ID of the owned object of the user A associated with the same placement position as the wearing candidate object 1001 on the selection screen 1000 . The character object 1011a is equipped with an equipable object corresponding to one of the equipable candidate objects 1001 on the selection screen 1000 (FIG. 10A). A mounting candidate object corresponding to the object is not included in the mounting candidate object 1013 . Note that the wearing candidate object corresponding to the wearing object attached to the character object 1011 a may be included in the wearing candidate object 1013 . In this case, the wearing candidate object corresponding to the worn object may be grayed out so that the user A cannot select it.

画面終了ボタン1014は、選択画面1010の表示の終了を指示するためのボタンオブジェクト等のオブジェクト画像である。ユーザAによる入力装置24の操作によって画面終了ボタン1014が選択されると、選択画面1010の表示が終了し、新たな装着オブジェクトを装着したキャラクタオブジェクト1011aを含むユーザ出力画像1012aを含むコミュニケーション画面1110(図11(b))が表示される。なお、選択画面1010に決定ボタン(図示せず)が表示されてもよい。ユーザAによる入力装置24の操作によって決定ボタンが選択されると、選択画面1010の表示が終了し、新たな装着オブジェクトを装着したキャラクタオブジェクト1011aを含むユーザ出力画像1012aを含むコミュニケーション画面1110(図11(b))が表示されてもよい。この場合、ユーザAによる入力装置24の操作によって画面終了ボタン1014が選択されると、選択画面1010の表示が終了し、変更処理前のキャラクタオブジェクト811aを含むユーザ出力画像812aを含むコミュニケーション画面810(図8(b))が表示されてもよい。 A screen end button 1014 is an object image such as a button object for instructing to end the display of the selection screen 1010 . When the screen end button 1014 is selected by user A's operation of the input device 24, the display of the selection screen 1010 ends, and a communication screen 1110 ( FIG. 11(b)) is displayed. Note that an OK button (not shown) may be displayed on the selection screen 1010 . When the enter button is selected by user A's operation of the input device 24, the display of the selection screen 1010 ends, and a communication screen 1110 (FIG. 11) including a user output image 1012a including a character object 1011a equipped with a new attachment object is displayed. (b)) may be displayed. In this case, when the screen exit button 1014 is selected by the user A operating the input device 24, the display of the selection screen 1010 is terminated, and the communication screen 810 ( FIG. 8(b)) may be displayed.

ユーザAによる入力装置24の操作によってコミュニケーション画面900の変更ボタン902が選択された場合に表示される画面は選択画面910に限らず、選択画面1100が表示されてもよい。図11(a)は、端末装置2の表示装置23に表示される選択画面1100の一例を示す図である。 The screen displayed when the change button 902 of the communication screen 900 is selected by the user A operating the input device 24 is not limited to the selection screen 910, and the selection screen 1100 may be displayed. FIG. 11A shows an example of a selection screen 1100 displayed on the display device 23 of the terminal device 2. FIG.

図11(a)に示される選択画面1100は、コミュニケーション画面900に重畳して表示される。選択画面1100は、コミュニケーション画面900の表示を終了させた後に表示されてもよい。 A selection screen 1100 shown in FIG. 11A is displayed superimposed on the communication screen 900 . The selection screen 1100 may be displayed after the display of the communication screen 900 is terminated.

選択画面1100には、複数の配置箇所のそれぞれを示す複数の配置候補オブジェクト1101、及び、キャラクタオブジェクト811aに装着させる装着オブジェクトの候補となる装着候補オブジェクト1102が含まれる。ユーザAによる入力装置24の操作によって複数の配置候補オブジェクト1101のいずれかが選択されると、選択された配置候補オブジェクト1101に対応する配置候補に関連付けられたユーザAの保有オブジェクトのオブジェクトIDに対応する装着候補オブジェクト1102が選択画面1100に含まれる。ユーザAによる入力装置24の操作によって複数の装着候補オブジェクト1102のいずれかが選択されると、入力装置24は、変更指示を端末処理装置27に入力し、上述の変更処理が実行され、表示処理部274は、新たな装着オブジェクトを装着したキャラクタオブジェクト1011aを含むユーザ出力画像1012aを含むコミュニケーション画面1110(図11(b))を表示する。 The selection screen 1100 includes a plurality of placement candidate objects 1101 respectively indicating a plurality of placement locations, and mounting candidate objects 1102 that are candidates for mounting objects to be mounted on the character object 811a. When one of the plurality of placement candidate objects 1101 is selected by User A's operation of the input device 24, the object ID of the owned object of User A associated with the placement candidate corresponding to the selected placement candidate object 1101 corresponds to the object ID. The selection screen 1100 includes a mounting candidate object 1102 to be mounted. When one of the plurality of mounting candidate objects 1102 is selected by user A's operation of the input device 24, the input device 24 inputs a change instruction to the terminal processing device 27, the above-described change processing is executed, and display processing is performed. The unit 274 displays a communication screen 1110 (FIG. 11(b)) including a user output image 1012a including a character object 1011a wearing a new wearable object.

図11(b)は、端末装置2の表示装置23に表示されるコミュニケーション画面1110の他の一例を示す図である。コミュニケーション画面1110には、新たな装着オブジェクトを装着したユーザAのキャラクタオブジェクト1011aを含むユーザ出力画像1012aが少なくとも含まれる。 FIG. 11B is a diagram showing another example of the communication screen 1110 displayed on the display device 23 of the terminal device 2. As shown in FIG. The communication screen 1110 includes at least a user output image 1012a including a character object 1011a of user A wearing a new wearable object.

また、コミュニケーション画面1110には、コミュニケーション画面810(図8(b))と同様に、コミュニケーションサービスに参加中のユーザB1、ユーザB2、及びユーザB3のそれぞれのキャラクタオブジェクト811b1、811b2、及び811b3を含むユーザ出力画像812b1、812b2、及び812b3が含まれる。 In addition, the communication screen 1110 includes character objects 811b1, 811b2, and 811b3 of users B1, B2, and B3 who are participating in the communication service, similarly to the communication screen 810 (FIG. 8B). User output images 812b1, 812b2, and 812b3 are included.

なお、コミュニケーションサービスに参加中のユーザBによって入力された変更指示が、ユーザBの端末装置2に入力されると、ユーザBによって入力された変更指示に応じた変更処理が、ユーザBの端末装置2及びユーザAの端末装置2において実行される。これにより、新たな装着オブジェクトが装着されたユーザBのキャラクタオブジェクトを含むユーザ出力画像がユーザBの端末装置2及びユーザAの端末装置2において表示される。 Note that when a change instruction input by user B participating in the communication service is input to user B's terminal device 2, change processing corresponding to the change instruction input by user B is performed on user B's terminal device. 2 and user A's terminal device 2 . As a result, the user output image including the character object of user B equipped with the new wearable object is displayed on user B's terminal device 2 and user A's terminal device 2 .

図8(b)~図11(b)を参照して説明したように、ユーザAによる変更指示に応じて、ユーザAのキャラクタオブジェクトの少なくとも一部が変更され、又は、ユーザBによる変更指示に応じて、ユーザBのキャラクタオブジェクトの少なくとも一部が変更される。これにより、キャラクタオブジェクトを介したコミュニケーション中に、ユーザA及びユーザBが飽きてしまうこと防止し、ユーザAがユーザBとのコミュニケーションを継続しようとするユーザの意欲を向上させることが可能となる。 As described with reference to FIGS. 8B to 11B, at least part of the character object of user A is changed in response to a change instruction by user A, or Accordingly, at least a portion of user B's character object is changed. As a result, users A and B can be prevented from becoming bored during communication via character objects, and user A's willingness to continue communication with user B can be enhanced.

また、従来の情報システムでは、ユーザは、キャラクタオブジェクトを介して他ユーザとのコミュニケーションを開始した後に、キャラクタオブジェクトを含む出力画像を変更しようとするためには、コミュニケーションサービスを中断しなければならなかった。そして、コミュニケーションサービスが中断された後に、キャラクタオブジェクトの外観及び/又はキャラクタオブジェクトを含む出力画像内の背景等の画像を変更するための機能を起動させる必要があった。そして、ユーザは、変更機能を用いてキャラクタオブジェクト及び/又は出力画像を変更した後に、再度コミュニケーションサービスに参加するという煩雑な手続きを行う必要があった。これに対し、本実施形態の情報システム1は、キャラクタオブジェクトを介したコミュニケーションを中断してユーザのキャラクタオブジェクトの再設定を行うことなく、ユーザのキャラクタオブジェクトの変更を可能とする。これにより、本実施形態の情報システム1では、コミュニケーション中にユーザのキャラクタオブジェクトを変更させるためのユーザインタフェースが複雑とならないため、従来の情報システムより、ユーザビリティを向上させることが可能となる。また、本実施形態の情報システム1では、コミュニケーションを中断することなくユーザのキャラクタオブジェクトの変更が可能であるため、サーバ装置3及び端末装置2間の通信回数及び通信量を低減させることができる。このように、本実施形態の情報システム1では、サーバ装置3及び端末装置2間の通信を改善することが可能となる。 In addition, in conventional information systems, after a user has started communicating with another user through a character object, the user must interrupt the communication service in order to change the output image containing the character object. Ta. Then, after the communication service is interrupted, it is necessary to activate a function for changing the appearance of the character object and/or the image such as the background in the output image including the character object. After using the change function to change the character object and/or the output image, the user has to go through a complicated procedure of participating in the communication service again. In contrast, the information system 1 of the present embodiment enables the user's character object to be changed without interrupting communication via the character object and resetting the user's character object. As a result, in the information system 1 of the present embodiment, the user interface for changing the user's character object during communication does not become complicated, so it is possible to improve usability compared to conventional information systems. In addition, in the information system 1 of the present embodiment, the user's character object can be changed without interrupting communication, so the number of communications and the amount of communications between the server device 3 and the terminal device 2 can be reduced. Thus, in the information system 1 of this embodiment, it is possible to improve communication between the server device 3 and the terminal device 2 .

図8(b)に戻り、ユーザAは、少なくとも1人のユーザBのユーザ出力画像812bに追加オブジェクトを含ませることにより、少なくとも1人のユーザBのユーザ出力画像812bを変更したい場合、追加ボタン813を選択する操作を行う。ユーザAによる入力装置24の操作によって追加ボタン813が選択されると、選択画面1200が表示される。 Returning to FIG. 8B, when user A wants to change at least one user B's user output image 812b by including an additional object in at least one user B's user output image 812b, user A clicks the add button 813 is selected. When the user A operates the input device 24 to select the add button 813, a selection screen 1200 is displayed.

図12(a)は、端末装置2の表示装置23に表示される選択画面1200の一例を示す図である。図12(a)に示される選択画面1200は、コミュニケーション画面810に重畳して表示される。選択画面1200は、コミュニケーション画面810の表示を終了させた後に表示されてもよい。 FIG. 12A shows an example of a selection screen 1200 displayed on the display device 23 of the terminal device 2. FIG. A selection screen 1200 shown in FIG. 12A is displayed superimposed on the communication screen 810 . The selection screen 1200 may be displayed after the display of the communication screen 810 is terminated.

図12(a)に示される例では、8種類の追加候補オブジェクトを示す画像及び名称が選択画面1200の表示領域内に含まれる。選択画面1200の表示領域内に含まれる追加候補オブジェクトの数は、8つに限らない。端末装置2の表示処理部274は、複数の追加候補オブジェクトを示す画像の一部を選択画面1200の表示領域内に含めることができない場合、追加候補オブジェクトを示す画像をスクロール可能に表示してもよい。この場合、ユーザAによるスワイプ操作(例えば、指が画面に接しながら当該指が画面右から左に移動する操作)に応じて、選択画面1200の表示領域内に現在含まれていない追加候補オブジェクトを示す画像がスクロールされて、選択画面1200の表示領域内にス出現される。 In the example shown in FIG. 12( a ), the display area of the selection screen 1200 includes images and names indicating eight types of addition candidate objects. The number of additional candidate objects included in the display area of selection screen 1200 is not limited to eight. The display processing unit 274 of the terminal device 2 displays the images showing the additional candidate objects in a scrollable manner when part of the images showing the plurality of additional candidate objects cannot be included in the display area of the selection screen 1200. good. In this case, in response to a swipe operation by user A (for example, an operation in which a finger moves from right to left while being in contact with the screen), an addition candidate object that is not currently included in the display area of the selection screen 1200 is displayed. The displayed image is scrolled and appears within the display area of the selection screen 1200 .

追加候補オブジェクトのそれぞれは追加オブジェクトを示し、追加候補オブジェクトを示す画像は、例えば、ギフトオブジェクトを示すアイコン画像、サムネイル画像等である。なお、選択画面1200において、各追加候補オブジェクトの画像及び/又は名称が、追加オブジェクトの種類(無料ギフト、有料ギフト、アクセサリ、応援グッズ、アピール、バラエティ等)ごとに分類されて表示されてもよい。なお、有料ギフトに属する追加オブジェクトとは、ユーザが仮想的な貨幣価値の「コイン」を消費することにより購入可能な追加オブジェクトである。無料ギフトに属する追加オブジェクトとは、貨幣価値を消費することなく、代わりに配信を視聴することなどで取得できるポイントを消費すること等で入手可能な追加オブジェクトである。なお、追加オブジェクトは、ユーザAが、端末装置2において実行される所定のミッションをプレイして、当該所定のミッションをクリアすることで保有するオブジェクトでもよい。 Each of the additional candidate objects indicates an additional object, and the image indicating the additional candidate object is, for example, an icon image or thumbnail image indicating a gift object. In the selection screen 1200, the image and/or name of each additional candidate object may be classified and displayed according to the type of additional object (free gift, paid gift, accessory, support goods, appeal, variety, etc.). . Note that the additional object belonging to the paid gift is an additional object that can be purchased by the user by consuming "coins" of virtual monetary value. An additional object belonging to a free gift is an additional object that can be obtained by consuming points that can be obtained by watching distribution instead of consuming monetary value. Note that the additional object may be an object owned by the user A by playing a predetermined mission executed on the terminal device 2 and clearing the predetermined mission.

ユーザAによる入力装置24の操作によって、追加候補オブジェクトのいずれかが選択されると、入力装置24は、追加指示を端末処理装置27に入力する。追加候補オブジェクトの選択と前後して、ユーザAによる入力装置24の操作によって、追加オブジェクトを含ませたいユーザBのユーザ出力画像812bのいずれかが選択されると、選択されたユーザ出力画像812bに対応するユーザBのユーザIDが特定される。入力装置24は、追加指示とともに、選択された追加候補オブジェクトに対応するオブジェクトIDと、特定されたユーザIDと、を端末処理装置27に入力する。なお、ユーザBのユーザ出力画像812bのいずれも選択されていない場合、入力装置24は、追加指示とともに、選択された追加候補オブジェクトに対応するオブジェクトIDを端末処理装置27に入力する。この場合、全てのユーザBのユーザ出力画像812bに追加オブジェクトが含まれることになる。なお、追加オブジェクトを含ませたいユーザBのユーザ出力画像812bの選択は、ユーザ出力画像812bに含まれるキャラクタオブジェクト811bの選択であってもよい。また、2人以上のユーザBのユーザ出力画像812b又はキャラクタオブジェクト811bが選択されてもよい。以下、ユーザB1のユーザ出力画像812b1が選択された場合における追加指示に応じた追加処理の一例について説明する。 When user A operates the input device 24 to select one of the additional candidate objects, the input device 24 inputs an additional instruction to the terminal processing device 27 . Before or after the selection of additional candidate objects, when user A operates the input device 24 to select one of the user output images 812b of user B who wants to include an additional object, the selected user output image 812b The corresponding user ID of user B is identified. The input device 24 inputs the object ID corresponding to the selected addition candidate object and the specified user ID to the terminal processing device 27 together with the addition instruction. When none of the user output images 812b of user B is selected, the input device 24 inputs an object ID corresponding to the selected addition candidate object to the terminal processing device 27 together with an addition instruction. In this case, all user B's user output images 812b will include the additional object. The selection of the user output image 812b of the user B who wants to include the additional object may be the selection of the character object 811b included in the user output image 812b. Also, two or more user output images 812b or character objects 811b of user B may be selected. An example of additional processing in response to an additional instruction when the user output image 812b1 of the user B1 is selected will be described below.

まず、表示処理部274は、入力装置24から入力された追加指示及びオブジェクトIDを取得すると、オブジェクトテーブルT2を参照して、取得したオブジェクトIDに関連付けられた追加オブジェクトの静止画像又は動画像(画像情報)を端末記憶装置22から抽出し、抽出した静止画像又は動画像を含むユーザ出力画像を生成する。なお、追加指示とともにユーザB1のユーザIDを取得した場合、抽出した追加オブジェクトの静止画像又は動画像を含むユーザ出力画像は、取得したユーザB1のユーザIDに対応するユーザ出力画像である。なお、追加指示とともにユーザB1~ユーザB3のいずれのユーザIDを取得していない場合、抽出した静止画像又は動画像を含むユーザ出力画像は、全てのユーザ(ユーザAのユーザ出力画像及びユーザB1~ユーザB3)それぞれに対応するユーザ出力画像である。 First, when the display processing unit 274 acquires the additional instruction and the object ID input from the input device 24, the display processing unit 274 refers to the object table T2 to refer to the still image or moving image (image) of the additional object associated with the acquired object ID. information) from the terminal storage device 22 and generate a user output image containing the extracted still or moving image. Note that when the user ID of the user B1 is acquired together with the additional instruction, the user output image including the extracted still image or moving image of the additional object is the user output image corresponding to the acquired user ID of the user B1. Note that if the user IDs of any of the users B1 to B3 have not been obtained along with the additional instruction, the user output images including the extracted still images or moving images are for all users (the user output image of the user A and the user output images of the users B1 to B3). User B3) is a user output image corresponding to each.

次に、送信部272は、入力装置24から入力された追加指示及びオブジェクトIDを取得すると、追加指示を示す情報を、端末記憶装置22に記憶されたユーザAのユーザID、及び、取得したオブジェクトID、並びに送信先情報(ユーザB(ユーザB1~B3)それぞれのユーザID)とともに、端末通信I/F21を介してサーバ装置3に送信する。次に、サーバ装置3のサーバ受信部331は、サーバ通信I/F31を介して、追加指示を示す情報とユーザAのユーザIDとオブジェクトIDとを受信する。次に、サーバ装置3のサーバ送信部332は、サーバ通信I/F31を介して、追加指示を示す情報とユーザAのユーザIDとオブジェクトIDとを、全てのユーザB(ユーザB1~B3)それぞれの端末装置2に送信する。そして、ユーザBの端末装置2の受信部273は、端末通信I/F21を介して、変更指示を示す情報とユーザAのユーザIDとオブジェクトIDとを受信すると、ユーザBの端末装置2の表示処理部274は、オブジェクトテーブルT2を参照して、受信したオブジェクトIDに関連付けられた追加オブジェクトの静止画像又は動画像(画像情報)を端末記憶装置22から抽出し、抽出した追加オブジェクトの静止画像又は動画像を含むユーザ出力画像を生成する。なお、ユーザAの端末装置2の送信部272が、追加指示とともにユーザB1のユーザIDを送信している場合、ユーザB1のユーザIDもサーバ装置3によって送信されている。ユーザBの端末装置2が追加指示とともにユーザB1のユーザIDを受信した場合、ユーザBの端末装置2において表示される追加オブジェクトを含むユーザ出力画像は、受信したユーザB1のユーザIDに対応するユーザ出力画像のみである。ユーザBの端末装置2が追加指示とともにユーザBのユーザIDを取得していない場合、ユーザBの端末装置2において表示される追加オブジェクトを含むユーザ出力画像は、全てのユーザ(ユーザA及びユーザB1~ユーザB3)に対応するユーザ出力画像である。以上により、追加処理は終了する。 Next, when the transmitting unit 272 acquires the additional instruction and the object ID input from the input device 24, the transmission unit 272 transmits information indicating the additional instruction to the user ID of the user A stored in the terminal storage device 22 and the acquired object ID. ID and destination information (each user ID of user B (users B1 to B3)) are transmitted to server device 3 via terminal communication I/F 21 . Next, the server receiving unit 331 of the server device 3 receives the information indicating the addition instruction, the user ID of the user A, and the object ID via the server communication I/F 31 . Next, the server transmission unit 332 of the server device 3 transmits the information indicating the addition instruction, the user ID of the user A, and the object ID to all the users B (users B1 to B3) via the server communication I/F 31. is transmitted to the terminal device 2 of the Then, when the receiving unit 273 of the terminal device 2 of the user B receives the information indicating the change instruction, the user ID of the user A, and the object ID via the terminal communication I/F 21, the terminal device 2 of the user B displays The processing unit 274 refers to the object table T2, extracts a still image or moving image (image information) of the additional object associated with the received object ID from the terminal storage device 22, and extracts the extracted still image or moving image of the additional object. Generating user output images that include moving images. Note that when the transmission unit 272 of the terminal device 2 of the user A transmits the user ID of the user B1 together with the addition instruction, the user ID of the user B1 is also transmitted by the server device 3 . When the terminal device 2 of the user B receives the user ID of the user B1 together with the addition instruction, the user output image including the additional object displayed on the terminal device 2 of the user B is the user output image corresponding to the received user ID of the user B1. Output image only. If user B's terminal device 2 has not acquired user B's user ID together with an additional instruction, the user output image including the additional object displayed on user B's terminal device 2 is available to all users (user A and user B1 to user B3). With the above, the addition process ends.

図12(b)は、ユーザAの追加指示後の端末装置2の表示装置23に表示されるコミュニケーション画面1210の他の一例を示す図である。図12(b)には、追加指示とともにユーザB1のユーザIDが受信された場合における、追加指示後の端末装置2の表示装置23に表示されるコミュニケーション画面1210が示されている。図12(b)に示されるように、追加オブジェクト1211を含むユーザ出力画像は、ユーザB1のユーザIDに対応するユーザ出力画像812b1のみである。 FIG. 12(b) is a diagram showing another example of the communication screen 1210 displayed on the display device 23 of the terminal device 2 after the user A gives the additional instruction. FIG. 12(b) shows a communication screen 1210 displayed on the display device 23 of the terminal device 2 after the addition instruction when the user ID of the user B1 is received together with the addition instruction. As shown in FIG. 12B, the user output image including the additional object 1211 is only the user output image 812b1 corresponding to the user ID of user B1.

図13(a)は、ユーザAの追加指示後の端末装置2の表示装置23に表示されるコミュニケーション画面1300の他の一例を示す図である。図13(a)には、追加指示とともにユーザBのユーザIDが受信されなかった場合における、追加指示後の端末装置2の表示装置23に表示されるコミュニケーション画面1300が示されている。図13(a)に示されるように、追加オブジェクト1301を含むユーザ出力画像は、ユーザAのユーザ出力画像812aと、全てのユーザBのユーザIDに対応するユーザ出力画像812b1~812b3である。ユーザAの追加指示後の追加オブジェクト1301を含むユーザ出力画像は、全てのユーザBのユーザIDのそれぞれに対応するユーザ出力画像812b1~812b3でもよい(ユーザAのユーザ出力画像812aが含まれなくてもよい)。 FIG. 13(a) is a diagram showing another example of the communication screen 1300 displayed on the display device 23 of the terminal device 2 after the user A has given an additional instruction. FIG. 13A shows a communication screen 1300 displayed on the display device 23 of the terminal device 2 after the addition instruction when the user ID of the user B is not received together with the addition instruction. As shown in FIG. 13(a), the user output images including the additional object 1301 are user output image 812a of user A and user output images 812b1 to 812b3 corresponding to all user B user IDs. The user output image including the additional object 1301 after the user A instructed addition may be the user output images 812b1 to 812b3 corresponding to all the user IDs of the user B (the user output image 812a of the user A is not included). can also be used).

図12(a)~図13(a)に示される例では、ユーザによる追加指示に応じて、自動的に追加オブジェクトが一又は複数のユーザのユーザ出力画像に追加されるが、ユーザによる追加指示後に、追加指示を行ったユーザ以外の他ユーザの承諾指示があった場合に、追加オブジェクトが一又は複数のユーザのユーザ出力画像に追加されるように構成されてもよい。 In the examples shown in FIGS. 12(a) to 13(a), an additional object is automatically added to the user output image of one or more users in response to the user's additional instruction. The additional object may be configured to be added to the user output image of one or a plurality of users later when there is an approval instruction from a user other than the user who gave the addition instruction.

図13(b)は、追加指示後の端末装置2の表示装置23に表示されるコミュニケーション画面1310の他の一例を示す図である。図13(b)に示す例では、追加指示は、ユーザB1による端末装置2の入力装置24の操作によって入力される。図13(b)に示される例における追加指示は、装着オブジェクトを示す追加候補オブジェクトのいずれかが選択され、且つ、装着オブジェクトを含ませたいユーザ出力画像としてユーザAのユーザ出力画像812aが選択された場合に、ユーザB1の端末装置2の入力装置24によって入力される。 FIG. 13(b) is a diagram showing another example of the communication screen 1310 displayed on the display device 23 of the terminal device 2 after the addition instruction. In the example shown in FIG. 13B, the additional instruction is input by operating the input device 24 of the terminal device 2 by the user B1. The additional instruction in the example shown in FIG. 13(b) is to select one of the additional candidate objects indicating the mounted object, and to select the user output image 812a of user A as the user output image to include the mounted object. is input by the input device 24 of the terminal device 2 of the user B1.

選択された追加候補オブジェクトに対応する装着オブジェクトのオブジェクトIDとともに追加指示を受信したユーザAの端末装置2は、図13(b)に示されるような追加オブジェクト1311を含むユーザ出力画像612aを表示する。追加オブジェクト1311は、追加指示を行ったユーザB1から追加オブジェクトが贈られたことを示す情報が表示されるものである。追加オブジェクト1311は、ユーザB1~ユーザB3の端末装置2には表示されない。なお、追加オブジェクト1311は、ユーザB1~ユーザB3の端末装置2に表示されてもよい。 The terminal device 2 of the user A who has received the addition instruction together with the object ID of the mountable object corresponding to the selected addition candidate object displays a user output image 612a including the addition object 1311 as shown in FIG. 13(b). . The additional object 1311 displays information indicating that an additional object has been given by the user B1 who has given the additional instruction. The additional object 1311 is not displayed on the terminal devices 2 of the users B1 to B3. Note that the additional object 1311 may be displayed on the terminal devices 2 of the users B1 to B3.

ユーザAよって、追加オブジェクト1311を含むユーザ出力画像812aが表示されたコミュニケーション画面1310に対する所定の操作(例えば、ユーザ出力画像812aに対するタップ操作、所定方向へのスワイプ操作等)がされた場合、ユーザAの端末装置2の入力装置24は、承諾指示を、ユーザB1の端末装置2から送信された装着オブジェクトのオブジェクトIDとともに端末処理装置27に入力する。以下、承諾指示に応じた承諾処理の一例について説明する。 When user A performs a predetermined operation (for example, a tap operation on user output image 812a, a swipe operation in a predetermined direction, etc.) on communication screen 1310 on which user output image 812a including additional object 1311 is displayed, user A The input device 24 of the terminal device 2 inputs the approval instruction to the terminal processing device 27 together with the object ID of the mounted object transmitted from the terminal device 2 of the user B1. An example of acceptance processing in response to an acceptance instruction will be described below.

まず、表示処理部274は、入力装置24から入力された承諾指示及びオブジェクトIDを取得すると、オブジェクトテーブルT2を参照して、取得したオブジェクトIDに関連付けられた追加オブジェクト(装着オブジェクト)を装着したユーザAのキャラクタオブジェクトを含むユーザ出力画像を生成する。そして、表示処理部274は、追加オブジェクト(装着オブジェクト)1401を装着したユーザAのキャラクタオブジェクト811aを含むユーザ出力画像812aを含むコミュニケーション画面1400を表示する。 First, when the display processing unit 274 acquires the acceptance instruction and the object ID input from the input device 24, the display processing unit 274 refers to the object table T2 and displays the information for the user wearing the additional object (wearing object) associated with the acquired object ID. Generate a user output image containing A's character object. Then, the display processing unit 274 displays the communication screen 1400 including the user output image 812a including the character object 811a of the user A wearing the additional object (wearing object) 1401. FIG.

次に、送信部272は、入力装置24から入力された承諾指示及びオブジェクトIDを取得すると、承諾指示を示す情報を、端末記憶装置22に記憶されたユーザAのユーザID、及び、取得したオブジェクトID、並びに、送信先情報(ユーザB(ユーザB1~ユーザB3)のユーザID)とともに、端末通信I/F21を介してサーバ装置3に送信する。次に、サーバ装置3のサーバ受信部331は、サーバ通信I/F31を介して、承諾指示を示す情報とユーザAのユーザIDとオブジェクトIDと送信先情報とを受信する。次に、サーバ装置3のサーバ送信部332は、サーバ通信I/F31を介して、承諾指示を示す情報とユーザAのユーザIDとオブジェクトIDとを、全てのユーザB(ユーザB1~B3)それぞれの端末装置2に送信する。そして、ユーザBの端末装置2の受信部273は、端末通信I/F21を介して、承諾指示を示す情報とユーザAのユーザIDとオブジェクトIDとを受信する。次に、ユーザBの端末装置2の表示処理部274は、オブジェクトテーブルT2を参照して、受信したオブジェクトIDに関連付けられた追加オブジェクト(装着オブジェクト)1401を装着したユーザAのキャラクタオブジェクト811aを含むユーザ出力画像812aを生成する。そして、表示処理部274は、追加オブジェクト(装着オブジェクト)1401を装着したユーザAのキャラクタオブジェクト811aを含むユーザ出力画像812aを含むコミュニケーション画面1400を表示する。以上により、承諾処理は終了する。 Next, when acquiring the consent instruction and the object ID input from the input device 24, the transmission unit 272 transmits information indicating the consent instruction to the user ID of the user A stored in the terminal storage device 22 and the acquired object ID. ID and transmission destination information (user ID of user B (user B1 to user B3)) are transmitted to server apparatus 3 via terminal communication I/F 21 . Next, the server receiving unit 331 of the server device 3 receives the information indicating the acceptance instruction, the user ID of the user A, the object ID, and the destination information via the server communication I/F 31 . Next, the server transmission unit 332 of the server device 3 transmits the information indicating the acceptance instruction, the user ID of the user A, and the object ID to each of the users B (users B1 to B3) via the server communication I/F 31. is transmitted to the terminal device 2 of the Then, the receiving unit 273 of the terminal device 2 of the user B receives the information indicating the acceptance instruction, the user ID of the user A, and the object ID via the terminal communication I/F 21 . Next, the display processing unit 274 of the terminal device 2 of the user B refers to the object table T2 to include the character object 811a of the user A wearing the additional object (wearable object) 1401 associated with the received object ID. A user output image 812a is generated. Then, the display processing unit 274 displays the communication screen 1400 including the user output image 812a including the character object 811a of the user A wearing the additional object (wearing object) 1401. FIG. With the above, the approval process is completed.

なお、ユーザB1による追加指示に係る追加オブジェクト(装着オブジェクト)によって変更されるキャラクタオブジェクトは、ユーザB1以外の全てのユーザ(図13(b)に示す例では、ユーザA,ユーザB2及びユーザB3)のキャラクタオブジェクトでもよい。この場合、ユーザB1以外の全てのユーザの端末装置2において追加オブジェクト1311を含むユーザ出力画像812a、812b2及び812b3が表示される。ユーザA,ユーザB2及びユーザB3による追加オブジェクト1311に係る承諾指示が入力されると、追加オブジェクト(装着オブジェクト)1401を装着したユーザAのキャラクタオブジェクト811aを含むユーザ出力画像812a、追加オブジェクト(装着オブジェクト)1401を装着したユーザB2のキャラクタオブジェクト811b2を含むユーザ出力画像812b2、及び追加オブジェクト(装着オブジェクト)1401を装着したユーザB3のキャラクタオブジェクト811b3を含むユーザ出力画像812b3が表示される。なお、この場合、追加指示をしたユーザB1のキャラクタオブジェクト811b1に追加オブジェクト(装着オブジェクト)1401が装着されてもよい。 Note that the character objects changed by the additional object (wearable object) related to the additional instruction by the user B1 are all users other than the user B1 (user A, user B2, and user B3 in the example shown in FIG. 13B). character object. In this case, user output images 812a, 812b2 and 812b3 including the additional object 1311 are displayed on the terminal devices 2 of all users other than the user B1. When user A, user B2, and user B3 input approval instructions for additional object 1311, user output image 812a including character object 811a of user A wearing additional object (wearing object) 1401, additional object (wearing object) ) 1401 and a user output image 812b3 including a character object 811b3 of the user B3 wearing the additional object (wearing object) 1401 are displayed. In this case, the additional object (wearable object) 1401 may be attached to the character object 811b1 of the user B1 who has given the additional instruction.

図14(a)は、承諾指示後の端末装置2の表示装置23に表示されるコミュニケーション画面1400の他の一例を示す図である。図14(a)に示されるように、コミュニケーション画面1400には、追加オブジェクト(装着オブジェクト)1401が装着されたキャラクタオブジェクト811aを含むユーザ出力画像812aが表示される。 FIG. 14(a) is a diagram showing another example of the communication screen 1400 displayed on the display device 23 of the terminal device 2 after the acceptance instruction. As shown in FIG. 14A, a communication screen 1400 displays a user output image 812a including a character object 811a to which an additional object (wearable object) 1401 is worn.

ユーザのキャラクタオブジェクトに新たに装着オブジェクトが装着された場合、他ユーザが評価できるようにしてもよい。図14(b)は、ユーザB2のキャラクタオブジェクト811b2に新たに装着オブジェクト1411が装着された場合におけるユーザAの端末装置2の表示装置23に表示されるコミュニケーション画面1410の他の一例を示す図である。 When a user's character object is newly equipped with a wearable object, it may be possible for other users to evaluate it. FIG. 14B is a diagram showing another example of the communication screen 1410 displayed on the display device 23 of the terminal device 2 of the user A when the wearable object 1411 is newly worn on the character object 811b2 of the user B2. be.

コミュニケーション画面1410には、追加ボタン813及びゲームボタン814とともに、新たに評価ボタン1412が含まれる。図14(b)に示される例では、評価ボタン1412は、ユーザ出力画像812aの表示領域内に配置されているが、ユーザ出力画像812aの表示領域外に表示されてもよい。また、評価ボタン1412は、ユーザB2のキャラクタオブジェクト811b2に新たに装着オブジェクト1411が装着されてから所定時間(例えば、10秒間)だけ表示されるように表示処理部274によって表示制御されてもよい。 The communication screen 1410 newly includes an evaluation button 1412 along with an add button 813 and a game button 814 . In the example shown in FIG. 14B, the evaluation button 1412 is arranged within the display area of the user output image 812a, but may be displayed outside the display area of the user output image 812a. Also, the evaluation button 1412 may be display-controlled by the display processing unit 274 so as to be displayed for a predetermined time (for example, 10 seconds) after the user B2's character object 811b2 is newly equipped with the wearable object 1411.

評価ボタン1412は、新たに装着オブジェクト1411が装着されたキャラクタオブジェクト811b2に対するユーザAの評価を示す評価データを送信させるための評価指示を入力するためのオブジェクト画像である。ユーザAによる入力装置24の操作によって評価ボタン1412が選択されると、入力装置24は、評価指示を端末処理装置27に入力する。入力装置24は、評価指示とともに、端末記憶装置22に記憶されたユーザAのユーザIDと、新たに装着オブジェクトが装着されたキャラクタオブジェクト811b2に係るユーザB2のユーザIDを端末処理装置27に入力する。以下、評価指示に応じた評価処理の一例について説明する。 The evaluation button 1412 is an object image for inputting an evaluation instruction for transmitting evaluation data indicating the user A's evaluation of the character object 811b2 on which the mountable object 1411 is newly mounted. When the user A operates the input device 24 to select the evaluation button 1412 , the input device 24 inputs an evaluation instruction to the terminal processing device 27 . The input device 24 inputs to the terminal processing device 27 the user ID of the user A stored in the terminal storage device 22 and the user ID of the user B2 related to the character object 811b2 newly equipped with the wearable object, together with the evaluation instruction. . An example of evaluation processing according to an evaluation instruction will be described below.

まず、ユーザAの端末装置2の表示処理部274は、入力装置24から入力された評価指示、ユーザAのユーザID、及びユーザB2のユーザIDを取得すると、新たに装着オブジェクトが装着されたキャラクタオブジェクト811b2に関する肯定的な評価を示す情報を表示する。表示処理部274は、例えば、ユーザB2のユーザIDに関連付けられたユーザB2の名称を抽出して、ユーザB2の名称を褒める文字列を肯定的な評価を示す情報として表示する。また、例えば、表示処理部274は、キャラクタオブジェクト811b2のユーザ出力画像812b2の表示領域内に所定のマーク画像を肯定的な評価を示す情報として表示してもよい。 First, when the display processing unit 274 of the terminal device 2 of the user A acquires the evaluation instruction input from the input device 24, the user ID of the user A, and the user ID of the user B2, the character newly equipped with the wearable object is displayed. Display information indicating a positive evaluation of object 811b2. The display processing unit 274, for example, extracts the name of the user B2 associated with the user ID of the user B2, and displays a character string praising the name of the user B2 as information indicating positive evaluation. Also, for example, the display processing unit 274 may display a predetermined mark image as information indicating a positive evaluation within the display area of the user output image 812b2 of the character object 811b2.

次に、ユーザAの端末装置2の送信部272は、入力装置24から入力された評価指示を示す情報、ユーザAのユーザID、及びユーザB2のユーザIDを取得すると、取得した情報を、送信先情報(ユーザB(ユーザB1~ユーザB3)のユーザID)とともに端末通信I/F21を介してサーバ装置3に送信する。次に、サーバ装置3のサーバ受信部331は、サーバ通信I/F31を介して、評価指示を示す情報とユーザAのユーザIDとユーザB2のユーザIDと送信先情報とを受信する。次に、サーバ装置3のサーバ送信部332は、サーバ通信I/F31を介して、評価指示を示す情報とユーザAのユーザIDとユーザB2のユーザIDとを、ユーザB(ユーザB1~ユーザB3)の端末装置2に送信する。そして、ユーザBの端末装置2の受信部273によって、端末通信I/F21を介して変評価指示を示す情報とユーザAのユーザIDとユーザB2のユーザIDとが受信されると、ユーザBの端末装置2の表示処理部274は、新たに装着オブジェクトが装着されたキャラクタオブジェクト811b2に関する肯定的な評価を示す情報を表示する。表示処理部274は、例えば、ユーザB2のユーザIDに関連付けられたユーザB2の名称を抽出して、ユーザB2の名称を褒める文字列を肯定的な評価を示す情報として表示する。また、例えば、表示処理部274は、キャラクタオブジェクト811b2のユーザ出力画像812b2の表示領域内に所定のマーク画像を肯定的な評価を示す情報として表示してもよい。以上により、評価処理は終了する。 Next, when the transmission unit 272 of the terminal device 2 of the user A acquires the information indicating the evaluation instruction input from the input device 24, the user ID of the user A, and the user ID of the user B2, the transmission unit 272 transmits the acquired information. It is transmitted to the server device 3 via the terminal communication I/F 21 together with destination information (user ID of user B (user B1 to user B3)). Next, the server receiving unit 331 of the server device 3 receives the information indicating the evaluation instruction, the user ID of the user A, the user ID of the user B2, and the destination information via the server communication I/F 31 . Next, the server transmission unit 332 of the server device 3 transmits the information indicating the evaluation instruction, the user ID of the user A, and the user ID of the user B2 to the user B (user B1 to user B3) via the server communication I/F 31. ) to the terminal device 2. Then, when the receiving unit 273 of the terminal device 2 of the user B receives the information indicating the change evaluation instruction, the user ID of the user A, and the user ID of the user B2 via the terminal communication I/F 21, The display processing unit 274 of the terminal device 2 displays information indicating a positive evaluation of the character object 811b2 to which the new wearable object is attached. The display processing unit 274, for example, extracts the name of the user B2 associated with the user ID of the user B2, and displays a character string praising the name of the user B2 as information indicating positive evaluation. Also, for example, the display processing unit 274 may display a predetermined mark image as information indicating a positive evaluation within the display area of the user output image 812b2 of the character object 811b2. With the above, the evaluation process ends.

これにより、ユーザAは、ユーザBのキャラクタオブジェクトに装着オブジェクトが装着された場合に、簡単な操作でリアクションを行うことができ、ユーザBとのコミュニケーションを継続しようとするユーザAの意欲を向上させることが可能となる。また、端末装置2の表示装置23のディスプレイ画面の大きさには限りがあり、多くの情報を表示装置23に表示させると、ユーザが表示された情報の認識することが難しくなるという問題があった。本実施形態におけるユーザAの端末装置2では、ユーザA以外のユーザのキャラクタオブジェクト又はユーザ出力画像が変化した場合に、評価ボタン1412が表示される。そして、ユーザAは、評価ボタン1412を操作することで、変化後のユーザA以外のユーザのキャラクタオブジェクト又はユーザ出力画像に対する評価を入力することができる。このように、本実施形態におけるユーザAの端末装置2は、キャラクタオブジェクト又はユーザ出力画像に対する評価のタイミングに合わせて評価ボタン1412をユーザAに提供することができるため、ユーザビリティを向上させることが可能となる。なお、ユーザAによる評価指示に応じて表示される情報は、肯定的な情報に限らず、否定的な情報でもよい。また、表示される評価ボタン1412は複数種類であってもよい。例えば、肯定的な評価データを送信するための評価ボタン及び否定的な評価データを送信するための評価ボタンの2種類の評価ボタン等が表示されてもよい。 As a result, the user A can react with a simple operation when the wearable object is worn on the character object of the user B, and the willingness of the user A to continue communication with the user B is enhanced. becomes possible. In addition, the display screen size of the display device 23 of the terminal device 2 is limited, and when a large amount of information is displayed on the display device 23, it becomes difficult for the user to recognize the displayed information. Ta. In the terminal device 2 of user A according to the present embodiment, an evaluation button 1412 is displayed when the character object or user output image of a user other than user A changes. By operating the evaluation button 1412, the user A can input an evaluation of the character object or the user output image of a user other than the user A after the change. As described above, the terminal device 2 of the user A according to the present embodiment can provide the evaluation button 1412 to the user A at the timing of evaluating the character object or the user output image, thereby improving usability. becomes. The information displayed in response to the user A's evaluation instruction is not limited to positive information, and may be negative information. Also, the displayed evaluation buttons 1412 may be of a plurality of types. For example, two types of evaluation buttons may be displayed: an evaluation button for transmitting positive evaluation data and an evaluation button for transmitting negative evaluation data.

図8(b)に戻り、ユーザAのユーザ出力画像812aに替えて、又は、ユーザAのユーザ出力画像812aとともに、ユーザAがプレイするゲームの進行を示すゲーム画面を含むゲーム表示オブジェクトが表示されてもよい。ゲーム表示オブジェクトは、所謂フィルターでもよい。例えば、ユーザAによる入力装置24の操作によってゲームボタン814が選択されると、入力装置24は、ゲーム開始指示を端末処理装置27に入力する。なお、選択画面1200において、追加候補オブジェクトとして、ゲームボタン814と同じ機能を有するオブジェクトが含まれてもよい。この場合、ユーザAによる入力装置24の操作によってゲーム開始指示の入力するための追加候補オブジェクトが選択されると、入力装置24は、ゲーム開始指示を端末処理装置27に入力する。 Returning to FIG. 8B, instead of the user output image 812a of the user A, or together with the user output image 812a of the user A, a game display object including a game screen showing the progress of the game played by the user A is displayed. may A game display object may be a so-called filter. For example, when the user A operates the input device 24 to select the game button 814 , the input device 24 inputs a game start instruction to the terminal processing device 27 . In selection screen 1200, an object having the same function as game button 814 may be included as an additional candidate object. In this case, when user A operates the input device 24 to select an additional candidate object for inputting a game start instruction, the input device 24 inputs the game start instruction to the terminal processing device 27 .

まず、表示処理部274は、入力装置24から入力されたゲーム開始指示を取得すると、端末記憶装置22に記憶された制御プログラム(ゲームアプリケーションプログラム等)に含まれる各種命令を実行することで実現されるゲームを開始し、開始したゲームのゲーム画面を含むゲーム表示オブジェクト1500を表示装置23に表示する。図15(a)は、ユーザAによるゲーム開始指示に応じてユーザAの端末装置2の表示装置23に表示されるゲーム画面を含むゲーム表示オブジェクト1500の一例を示す図である。 First, when the display processing unit 274 acquires a game start instruction input from the input device 24, the display processing unit 274 executes various commands included in a control program (game application program, etc.) stored in the terminal storage device 22. A game is started, and a game display object 1500 including a game screen of the started game is displayed on the display device 23 . FIG. 15A is a diagram showing an example of a game display object 1500 including a game screen displayed on the display device 23 of the user A's terminal device 2 in response to a game start instruction from the user A. FIG.

ゲーム表示オブジェクト1500が表示されると、表示処理部274は、ユーザAからの各種入力情報と、制御プログラム(ゲームアプリケーションプログラム等)に含まれる各種命令とに応じて、ゲーム表示オブジェクト1500のゲームを進行させる。そして、表示処理部274は、所定のゲーム終了条件が満たされた場合、ゲーム表示オブジェクト1500のゲームを終了する。 When the game display object 1500 is displayed, the display processing unit 274 displays the game of the game display object 1500 according to various input information from the user A and various commands included in the control program (game application program, etc.). proceed. Then, the display processing unit 274 ends the game of the game display object 1500 when a predetermined game end condition is satisfied.

また、ゲーム表示オブジェクト1500が表示されると、生成部271は、ユーザAがプレイするゲームのゲーム画面を示すゲーム画像データを、ゲーム進行中に随時生成する。次に生成部271は、生成したゲーム画像データと、端末記憶装置22に記憶されたユーザIDとを含む出力情報を生成し、生成した出力情報を送信部272に出力する。 Further, when the game display object 1500 is displayed, the generation unit 271 generates game image data showing the game screen of the game played by the user A as needed during the progress of the game. Next, the generation unit 271 generates output information including the generated game image data and the user ID stored in the terminal storage device 22 and outputs the generated output information to the transmission unit 272 .

次に、ユーザAの端末装置2の送信部272は、ユーザAの出力情報を、送信先情報(ユーザB(ユーザB1~ユーザB3)のユーザID)とともに端末通信I/F21を介してサーバ装置3に送信する。次に、サーバ装置3のサーバ受信部331は、サーバ通信I/F31を介して、ユーザAの端末装置2から送信されたユーザAの出力情報を受信する。次に、サーバ装置3のサーバ送信部332は、サーバ通信I/F31を介して、ユーザAの出力情報をユーザB(ユーザB1~ユーザB3)の端末装置2に送信する。そして、ユーザBの端末装置2の受信部273によって、端末通信I/F21を介して出力情報が受信されると、ユーザBの端末装置2の表示処理部274は、出力情報に含まれるユーザIDによって示されるユーザAのユーザ出力画像812aに替えて、出力情報に含まれるゲーム画像データに基づくゲーム画像を含むゲーム表示オブジェクト1511を表示する(図15(b))。 Next, the transmission unit 272 of the terminal device 2 of the user A transmits the output information of the user A together with the destination information (the user IDs of the users B (users B1 to user B3)) to the server device via the terminal communication I/F 21. Send to 3. Next, the server receiving unit 331 of the server device 3 receives the output information of the user A transmitted from the terminal device 2 of the user A via the server communication I/F 31 . Next, the server transmission unit 332 of the server device 3 transmits the output information of the user A to the terminal devices 2 of the users B (users B1 to B3) via the server communication I/F 31 . When the receiving unit 273 of the terminal device 2 of user B receives the output information via the terminal communication I/F 21, the display processing unit 274 of the terminal device 2 of user B receives the user ID included in the output information. Instead of the user output image 812a of user A indicated by , a game display object 1511 including a game image based on the game image data included in the output information is displayed (FIG. 15(b)).

図15(a)に示される例では、ゲーム表示オブジェクト1500に含まれるゲーム画面のゲームは釣りゲームである。ゲーム表示オブジェクト1500に含まれるゲーム画面には、ゲームオブジェクト1501、標的オブジェクト1502、パラメータカーソル1503、及びパラメータゲージ枠1504が含まれる。 In the example shown in FIG. 15(a), the game on the game screen included in the game display object 1500 is a fishing game. A game screen included in the game display object 1500 includes a game object 1501 , a target object 1502 , a parameter cursor 1503 and a parameter gauge frame 1504 .

ゲームオブジェクト1501は、魚を模したオブジェクト画像であり、ゲーム画面内における予め定められた経路又はランダムに決定された経路を自動的に移動するように、表示処理部274によって表示制御される。なお、端末記憶装置22には、ゲームオブジェクト1501に関連付けられた初期値が記憶されており、表示処理部274は、ゲームの開始時点において、ゲームオブジェクト1501のパラメータ値としてゲームオブジェクト1501に関連付けられた初期値を設定する。 The game object 1501 is an object image imitating a fish, and is display-controlled by the display processing unit 274 so as to automatically move along a predetermined path or a randomly determined path within the game screen. Initial values associated with the game object 1501 are stored in the terminal storage device 22, and the display processing unit 274 sets the parameter values associated with the game object 1501 at the start of the game. Set the initial value.

標的オブジェクト1502は、第1標的オブジェクト1502a、第2標的オブジェクト1502b及び第3標的オブジェクト1502cにより構成される。第1標的オブジェクト1502aは、略円形の形状を有するオブジェクト画像であり、第2標的オブジェクト1502bは、第1標的オブジェクト1502aの周囲を囲む形状を有するオブジェクト画像であり、第3標的オブジェクト1502cは、第2標的オブジェクト1502bの周囲を囲む形状を有するオブジェクト画像である。 The target objects 1502 are composed of a first target object 1502a, a second target object 1502b and a third target object 1502c. A first target object 1502a is an object image having a substantially circular shape, a second target object 1502b is an object image having a shape surrounding the first target object 1502a, and a third target object 1502c is an object image having a shape surrounding the first target object 1502a. 2 is an object image having a shape surrounding a target object 1502b.

入力装置24がタッチパネルである場合、ゲームオブジェクト1501内をユーザAがタップ操作することにより、入力装置24はゲーム入力指示を表示処理部274に入力する。表示処理部274は、入力装置24からゲーム入力指示を取得した時点のゲームオブジェクト1501の所定箇所(例えば、魚の口に対応する箇所)が、第1標的オブジェクト152a、第2標的オブジェクト1502b及び第3標的オブジェクト1502cのいずれかに位置するかを判定する。 If the input device 24 is a touch panel, the input device 24 inputs a game input instruction to the display processing unit 274 when the user A taps the inside of the game object 1501 . The display processing unit 274 determines that a predetermined portion (for example, a portion corresponding to a fish mouth) of the game object 1501 at the time when the game input instruction is acquired from the input device 24 is the first target object 152a, the second target object 1502b, and the third target object 1502b. Determine if it is located on any of the target objects 1502c.

表示処理部274は、ゲームオブジェクト1501の所定箇所が、第1標的オブジェクト1502a、第2標的オブジェクト1502b及び第3標的オブジェクト1502cのいずれかに位置すると判定した場合、ゲームオブジェクト1501のパラメータ値を変化(増大又は減少)させる。 When the display processing unit 274 determines that the predetermined part of the game object 1501 is positioned at any one of the first target object 1502a, the second target object 1502b, and the third target object 1502c, the display processing unit 274 changes the parameter value of the game object 1501 ( increase or decrease).

表示処理部274は、ゲームオブジェクト1501のパラメータ値の変化量を、入力装置24からゲーム入力指示を取得した時点のゲームオブジェクト1501の所定箇所の位置に応じて変更させる。例えば、ゲーム入力指示があった時点のゲームオブジェクト1501の所定箇所が第1標的オブジェクト1502a内に位置する場合、表示処理部274は、ゲームオブジェクト1501のパラメータ値を、第1減少値分だけ減少させる。なお、ゲーム入力指示があった時点のゲームオブジェクト1501の所定箇所が第1標的オブジェクト1502aに位置する場合、表示処理部274は、ゲームオブジェクト1501のパラメータ値を、第1増大値分だけ増大させてもよい。また、ゲーム入力指示があった時点のゲームオブジェクト1501の所定箇所が第1標的オブジェクト1502a外であり且つ第2標的オブジェクト1502b内に位置する場合、表示処理部274は、ゲームオブジェクト1501のパラメータ値を、第1減少値よりも小さい値の第2減少値分だけ減少させる。なお、ゲーム入力指示があった時点のゲームオブジェクト1501の所定箇所が第1標的オブジェクト1502a外、且つ、第2標的オブジェクト1502b内に位置する場合、表示処理部274は、ゲームオブジェクト1501のパラメータ値を、第1増大値よりも小さい値の第2増大値分だけ増大させてもよい。また、ゲーム入力指示があった時点のゲームオブジェクト1501の所定箇所が第2標的オブジェクト1502b外であり且つ第3標的オブジェクト1502c内に位置する場合、表示処理部274は、ゲームオブジェクト1501のパラメータ値を、第2減少値よりも小さい値の第3減少値分だけ減少させる。なお、ゲーム入力指示があった時点のゲームオブジェクト1501の所定箇所が第2標的オブジェクト1502b外であり且つ第3標的オブジェクト1502c内に位置する、表示処理部274は、ゲームオブジェクト1501のパラメータ値を、第2増大値よりも小さい値の第3増大値分だけ増大させてもよい。また、ゲーム入力指示があった時点のゲームオブジェクト1501の所定箇所が標的オブジェクト1502外に位置する場合、表示処理部274は、ゲームオブジェクト1501のパラメータ値を変化させない。 The display processing unit 274 changes the amount of change in the parameter value of the game object 1501 according to the position of the game object 1501 at the predetermined position when the game input instruction is received from the input device 24 . For example, if the predetermined location of the game object 1501 at the time of the game input instruction is located within the first target object 1502a, the display processing unit 274 decreases the parameter value of the game object 1501 by the first decrease value. . Note that if the predetermined location of the game object 1501 at the time of the game input instruction is positioned at the first target object 1502a, the display processing unit 274 increases the parameter value of the game object 1501 by the first increase value. good too. Further, when the predetermined location of the game object 1501 at the time of the game input instruction is outside the first target object 1502a and located inside the second target object 1502b, the display processing unit 274 changes the parameter values of the game object 1501 to , by a second decrement value that is less than the first decrement value. Note that if the predetermined location of the game object 1501 at the time of the game input instruction is located outside the first target object 1502a and inside the second target object 1502b, the display processing unit 274 changes the parameter values of the game object 1501 to , may be increased by a second increase value that is less than the first increase value. In addition, when the predetermined location of the game object 1501 at the time of the game input instruction is outside the second target object 1502b and located inside the third target object 1502c, the display processing unit 274 changes the parameter values of the game object 1501 to , by a third decrement value that is less than the second decrement value. Note that the display processing unit 274, which is located outside the second target object 1502b and inside the third target object 1502c at the time when the game input instruction is given, of the game object 1501, displays the parameter values of the game object 1501 as follows: It may be increased by a third increase value that is smaller than the second increase value. Also, if the predetermined location of the game object 1501 at the time of the game input instruction is located outside the target object 1502 , the display processing unit 274 does not change the parameter values of the game object 1501 .

パラメータカーソル1503は、ゲームオブジェクト1501のパラメータ値を示すカーソルオブジェクトである。表示処理部274は、パラメータゲージ枠1504内における、ゲームオブジェクト1501のパラメータ値に対応する位置に、パラメータカーソル1503を配置する。図13(a)に示される例では、パラメータカーソル1503は、パラメータゲージ枠1504内を左右に移動可能であり、ゲームオブジェクト1501のパラメータ値が大きい程、パラメータゲージ枠1504内の右方向に配置される。 A parameter cursor 1503 is a cursor object that indicates a parameter value of the game object 1501 . The display processing unit 274 places the parameter cursor 1503 at a position corresponding to the parameter value of the game object 1501 within the parameter gauge frame 1504 . In the example shown in FIG. 13A, the parameter cursor 1503 can move left and right within the parameter gauge frame 1504, and the larger the parameter value of the game object 1501, the further rightward it is placed within the parameter gauge frame 1504. be.

表示処理部274は、ゲームオブジェクト1501のパラメータ値が所定値(例えば、「0」(ゼロ))以下となった場合、ユーザAがゲームのクリアに成功したと判定し、当該ゲームを終了する。表示処理部274は、ゲームオブジェクト1501のパラメータ値が所定値(ゲームの開始時点のパラメータ値よりも大きい値)以上となった場合、ユーザAがゲームのクリアに成功したと判定してもよい。表示処理部274は、ゲームが成功するまで当該ゲームを継続させてもよく、また、ゲームの開始から所定のゲーム期間(例えば、30秒)が経過した場合、ユーザAがゲームのクリアに成功していなくても当該ゲームを終了させてもよい。 When the parameter value of the game object 1501 becomes equal to or less than a predetermined value (for example, "0" (zero)), the display processing unit 274 determines that the user A has successfully cleared the game, and terminates the game. The display processing unit 274 may determine that the user A has successfully cleared the game when the parameter value of the game object 1501 reaches or exceeds a predetermined value (a value greater than the parameter value at the start of the game). The display processing unit 274 may continue the game until the game is successful, and when a predetermined game period (for example, 30 seconds) has passed since the start of the game, the user A has successfully cleared the game. You may end the game even if you do not

ゲーム表示オブジェクト1500に含まれるゲーム画面のゲームが終了した場合、ユーザBのいずれかの端末装置2に、ゲーム表示オブジェクトが表示されてもよい。例えば、ユーザAの端末装置2の送信部272は、ゲーム終了を示す情報をサーバ装置3に送信し、サーバ装置3は、ユーザB1の端末装置2にユーザAに係るゲーム終了を示す情報を送信する。ユーザB1の端末装置2の表示処理部274は、受信されたゲーム終了に関する情報を取得すると、端末記憶装置22に記憶された制御プログラム(ゲームアプリケーションプログラム等)に含まれる各種命令を実行することで実現されるゲームを開始し、開始したゲームのゲーム画面を含むゲーム表示オブジェクト1500を表示装置23に表示する。ユーザB1がプレイしたゲームが終了すると、同様に、ユーザB1の端末装置2によってサーバ装置3経由でゲーム終了を示す情報がユーザB2の端末装置2に送信され、ユーザB1の端末装置2の表示処理部274は、ゲーム表示オブジェクト1500を表示する。さらに、ユーザB2がプレイしたゲームが終了すると、同様に、ユーザB2の端末装置2によってサーバ装置3経由でゲーム終了を示す情報がユーザB3の端末装置2に送信され、ユーザB1の端末装置2の表示処理部274は、ゲーム表示オブジェクト1500を表示する。なお、ゲームをプレイしていないユーザの端末装置2には、図13(b)の画面が表示され、他のユーザのプレイ状況を視認することができる。このように、コミュニケーショングループに含まれる各ユーザが順番にゲームを行うことができ、コミュニケーションに対するユーザの継続使用の意欲を向上させることが可能となる。 When the game of the game screen included in the game display object 1500 is finished, the game display object may be displayed on any terminal device 2 of the user B. FIG. For example, the transmission unit 272 of the terminal device 2 of the user A transmits information indicating the end of the game to the server device 3, and the server device 3 transmits information indicating the end of the game related to the user A to the terminal device 2 of the user B1. do. When the display processing unit 274 of the terminal device 2 of the user B1 acquires the received information regarding the end of the game, the display processing unit 274 executes various commands included in the control program (game application program, etc.) stored in the terminal storage device 22. A game to be implemented is started, and a game display object 1500 including a game screen of the started game is displayed on the display device 23 . When the game played by the user B1 ends, the terminal device 2 of the user B1 similarly transmits information indicating the end of the game to the terminal device 2 of the user B1 via the server device 3, and the terminal device 2 of the user B1 performs display processing. Part 274 displays game display object 1500 . Furthermore, when the game played by the user B2 ends, information indicating the end of the game is similarly transmitted from the terminal device 2 of the user B2 to the terminal device 2 of the user B3 via the server device 3. The display processing section 274 displays the game display object 1500 . Note that the terminal device 2 of the user who is not playing the game displays the screen of FIG. In this way, each user included in the communication group can play the game in turn, and it is possible to increase the motivation of the users to continue using the communication.

なお、端末装置2は、ゲームを実行するために、制御プログラムに組み込まれたブラウザ機能を呼び出して、ゲームプログラムを実行してもよい。例えば、端末装置2は、呼び出したブラウザ機能を用いて、サーバ装置3からウェブページ(HTML(Hyper Text Markup Language)等のマークアップ言語によって記述されたドキュメント)を受信する。そして、端末装置2は、受信したウェブページに組み込まれたゲームプログラムを実行する。例えば、マークアップ言語として、HTML5が用いられることにより、端末装置2は、新規なゲームを容易に実行することができる。情報システム1において上述のウェブアプリケーションを採用することにより、ゲームプログラムの製作者は、サーバ装置3が送信するウェブページに新しいゲームプログラムを組み込むだけで新しいゲームをクライアントサイド(端末装置2側)に提供できる。これにより、ゲームプログラムの製作者は、新しいゲームプログラムの製作工数を大幅に抑えることが可能となる。また、クライアントサイドでは、新しいゲームプログラムをダウンロードせずにウェブページを受信するだけで、新しいゲームの提供を受けることができる。これにより、情報システム1において、ゲームプログラムのダウンロードに比べ、通信ネットワークの負荷、通信コスト及び/又は通信時間の低減が可能となり且つユーザのインターフェースの簡素化を実現することが可能となる。 In order to execute the game, the terminal device 2 may call a browser function incorporated in the control program and execute the game program. For example, the terminal device 2 receives a web page (a document written in a markup language such as HTML (Hyper Text Markup Language)) from the server device 3 using the invoked browser function. The terminal device 2 then executes the game program embedded in the received web page. For example, by using HTML5 as the markup language, the terminal device 2 can easily execute a new game. By adopting the above web application in the information system 1, the creator of the game program can provide the client side (terminal device 2 side) with a new game simply by incorporating the new game program into the web page transmitted by the server device 3. can. As a result, the game program creator can greatly reduce the number of man-hours required to create a new game program. Also, on the client side, a new game can be provided simply by receiving a web page without downloading a new game program. As a result, in the information system 1, it is possible to reduce the load on the communication network, the communication cost and/or the communication time compared to downloading the game program, and it is possible to simplify the user interface.

入力装置24によるユーザAのゲーム入力指示は、タップ操作に応じて入力されるものに限らない。例えば、ユーザAによる所定方向へのスワイプ操作に応じて、入力装置24はゲーム入力指示を表示処理部274に入力してもよい。また、ゲーム入力指示は、入力装置24によって入力されるものに限らない。例えば、表示処理部274が、連続的に取得した撮像データに基づいて生成部271によって時間の経過に伴って随時生成されたフェイスモーションデータを取得し、フェイスモーションデータに基づいて、ユーザAが所定の動作をしたと判定した時に、ゲーム入力指示を生成してもよい。所定の動作は、例えば、ユーザAが目をつぶること、ユーザAの顔が所定方向を向くこと、又は、ユーザの手が所定の動作をしたこと等である。フェイスモーションデータに基づいてゲーム入力指示が生成される場合、ユーザAのユーザ出力画像812aとともに、ユーザAがプレイするゲームの進行を示すゲーム画面を含むゲーム表示オブジェクト1500が表示されてもよい。ユーザ出力画像812aとゲーム表示オブジェクト1500との同時表示は、ユーザ出力画像812aとゲーム表示オブジェクト1500とが並んで表示される方式でもよく、また、ユーザ出力画像812aがゲーム表示オブジェクト1500に重畳して表示される方式でもよい。例えば、ユーザ出力画像812aがゲーム表示オブジェクト1500の背景画像として表示されてもよい。これにより、ユーザは、ユーザのキャラクタオブジェクトの動作を確認しながらゲームをプレイすることができ、ゲームの操作性を向上させることが可能となる。また、加速度センサ(図示せず)を有する端末装置2をユーザAが振る動作をすることで、加速度センサによって所定値以上の加速度が測定された場合に、表示処理部274が、ゲーム入力指示を生成してもよい。 The game input instruction by the user A through the input device 24 is not limited to input according to a tap operation. For example, the input device 24 may input a game input instruction to the display processing unit 274 in response to a swipe operation by the user A in a predetermined direction. Also, the game input instruction is not limited to being input by the input device 24 . For example, the display processing unit 274 acquires face motion data generated as needed by the generation unit 271 over time based on continuously acquired imaging data, and based on the face motion data, the user A performs a predetermined A game input instruction may be generated when it is determined that the action of The predetermined motion is, for example, user A closing his/her eyes, user A's face facing a predetermined direction, or user's hand performing a predetermined motion. When game input instructions are generated based on face motion data, a game display object 1500 including a game screen showing progress of a game being played by user A may be displayed along with user output image 812a of user A. Simultaneous display of the user output image 812a and the game display object 1500 may be a method in which the user output image 812a and the game display object 1500 are displayed side by side. The displayed method may be used. For example, user output image 812 a may be displayed as a background image for game display object 1500 . Thereby, the user can play the game while confirming the action of the user's character object, and it is possible to improve the operability of the game. Further, when the user A shakes the terminal device 2 having an acceleration sensor (not shown) and the acceleration sensor measures an acceleration equal to or greater than a predetermined value, the display processing unit 274 issues a game input instruction. may be generated.

ゲーム表示オブジェクト1500に含まれるゲーム画面のゲームは釣りゲーム以外のゲームでもよい。例えば、ユーザAが目をつぶるたびに所定距離移動するユーザAのキャラクタオブジェクトが登場するゲームでもよく、また、ユーザAが目をつぶるたびに所定距離移動するいずれかのユーザBのキャラクタオブジェクトが登場するゲームでもよい。 The game on the game screen included in the game display object 1500 may be a game other than the fishing game. For example, the game may include a character object of user A that moves a predetermined distance each time user A closes his eyes, or a character object of user B that moves a predetermined distance each time user A closes his eyes. It can be a game to play.

また、ゲーム表示オブジェクト1511内のゲーム画像に対してユーザBによる所定のゲーム入力指示が入力できる場合、いずれかのユーザBの操作に応じたゲーム入力指示により、ゲーム表示オブジェクト1511内のゲーム画像に示されるゲームが進行してもよい。なお、ゲーム表示オブジェクト1511内のゲーム画像に対してユーザBによる所定のゲーム入力指示が入力できる場合、ユーザAによるゲーム入力指示ができないように、ユーザAの端末装置2の入力装置24が制御されてもよい。また、ゲーム表示オブジェクト1511内のゲーム画像に対してユーザBによる所定のゲーム入力指示が入力できる場合、ユーザAによるゲーム入力指示と全てのユーザBによるゲーム入力指示とにより、ゲーム表示オブジェクト1511内のゲーム画像に示されるゲームが進行してもよい。図15(b)の画面において、ユーザAによってプレイされるゲーム表示オブジェクト1511だけでなく、ユーザB1、ユーザB2及びユーザB3のそれぞれによってプレイされるゲーム表示オブジェクト1511が表示されてもよい。この場合、各ユーザは、図15(b)の画面において、4つのゲーム表示オブジェクト1511が表示され、各ユーザが、各ユーザに対応するゲーム表示オブジェクト1511のゲームをプレイする。 Further, when the user B can input a predetermined game input instruction to the game image in the game display object 1511, the game image in the game display object 1511 can be changed by a game input instruction according to one of the user B's operations. The game shown may proceed. Note that when the user B can input a predetermined game input instruction to the game image in the game display object 1511, the input device 24 of the terminal device 2 of the user A is controlled so that the user A cannot input the game input instruction. may Further, when the user B can input a predetermined game input instruction to the game image in the game display object 1511, the game input instruction by the user A and the game input instruction by all the users B cause the game image in the game display object 1511 to The game shown in the game image may progress. In the screen of FIG. 15(b), not only the game display object 1511 played by the user A but also the game display objects 1511 played by each of the users B1, B2 and B3 may be displayed. In this case, for each user, four game display objects 1511 are displayed on the screen of FIG. 15(b), and each user plays the game of the game display object 1511 corresponding to each user.

このように、ユーザAは、ユーザBとのコミュニケーション中にゲーム画面を提供することができる。これにより、ユーザA及びユーザBはコミュニケーションを継続しようとする意欲を向上させることが可能となる。 Thus, user A can provide a game screen while communicating with user B. This makes it possible for user A and user B to increase their willingness to continue communication.

(情報システム1の動作シーケンス)
図16は、情報システム1の動作シーケンスの一例を示す図である。この動作シーケンスは、予め端末記憶装置22及びサーバ記憶装置32に記憶されている制御プログラムに基づいて、主に端末処理装置27及びサーバ処理装置33により、端末装置2及びサーバ装置3の各要素と協働して実行される。以下、ユーザAは端末装置2aを操作し、ユーザB1は端末装置2b1を操作し、ユーザB2は端末装置2b2を操作するものとして説明する。なお、ユーザA以外のユーザの端末装置は、ユーザB1及びB2の端末装置2b1~2b2だけに限らず、3人以上のユーザの端末装置2がサーバ装置3に接続されてもよい。
(Operation sequence of information system 1)
FIG. 16 is a diagram showing an example of an operation sequence of the information system 1. As shown in FIG. This operation sequence is executed mainly by the terminal processing device 27 and the server processing device 33 based on the control programs stored in the terminal storage device 22 and the server storage device 32 in advance. performed cooperatively. Hereinafter, it is assumed that the user A operates the terminal device 2a, the user B1 operates the terminal device 2b1, and the user B2 operates the terminal device 2b2. Terminal devices of users other than user A are not limited to the terminal devices 2b1 and 2b2 of users B1 and B2, and terminal devices 2 of three or more users may be connected to the server device 3. FIG.

まず、端末装置2aの送信部272は、撮像装置25によって連続的に出力された撮像データに基づいて生成部271によって生成されたユーザAのモーションデータを含むキャラクタ動画データと、マイク26から出力されたユーザAの音声データと、ユーザAのユーザIDとを含む出力情報を、端末通信I/F21を介してサーバ装置3に送信する(ステップS101)。なお、出力情報は、ユーザがプレイするゲームのゲーム画面を示すゲーム画像データとユーザAのユーザIDを含むものでもよい。また、送信部272の送信処理において送信先情報が含まれてもよい。ステップS101の処理は、配信イベントが終了するまで所定時間間隔ごと(例えば、2秒間隔ごと)に連続して実行されるため、ステップS101~S110に係る処理は、断続的に実行される。 First, the transmission unit 272 of the terminal device 2a outputs the character moving image data including the motion data of the user A generated by the generation unit 271 based on the imaging data continuously output by the imaging device 25, and the The output information including the obtained voice data of user A and the user ID of user A is transmitted to the server device 3 via the terminal communication I/F 21 (step S101). The output information may include game image data showing a game screen of a game played by the user and user A's user ID. Also, the transmission destination information may be included in the transmission processing of the transmission unit 272 . Since the process of step S101 is continuously executed at predetermined time intervals (for example, every two seconds) until the distribution event ends, the processes of steps S101 to S110 are intermittently executed.

次に、サーバ装置3のサーバ送信部332は、端末装置2aから受信した出力情報を、サーバ通信I/F31を介して、端末装置2b1に送信する(ステップS102)とともに、端末装置2b2に送信する(ステップS103)。 Next, the server transmission unit 332 of the server device 3 transmits the output information received from the terminal device 2a to the terminal device 2b1 via the server communication I/F 31 (step S102) and also to the terminal device 2b2. (Step S103).

また、端末装置2b1の送信部272は、ユーザB1のキャラクタ動画データとユーザB1の音声データとユーザB1のユーザIDとを含む出力情報を、端末通信I/F21を介してサーバ装置3に送信する(ステップS104)。次に、サーバ装置3のサーバ送信部332は、端末装置2b1から受信した出力情報を、サーバ通信I/F31を介して、端末装置2aに送信する(ステップS105)とともに、端末装置2b2に送信する。 In addition, the transmission unit 272 of the terminal device 2b1 transmits output information including the character moving image data of the user B1, the voice data of the user B1, and the user ID of the user B1 to the server device 3 via the terminal communication I/F 21. (Step S104). Next, the server transmission unit 332 of the server device 3 transmits the output information received from the terminal device 2b1 to the terminal device 2a via the server communication I/F 31 (step S105) and also to the terminal device 2b2. .

また、端末装置2b2の送信部272は、ユーザB2のキャラクタ動画データとユーザB2の音声データとユーザB2のユーザIDとを含む出力情報を、端末通信I/F21を介してサーバ装置3に送信する(ステップS106)。次に、サーバ装置3のサーバ送信部332は、端末装置2b2から受信した出力情報を、サーバ通信I/F31を介して、端末装置2aに送信する(ステップS107)とともに、端末装置2b1に送信する。 In addition, the transmission unit 272 of the terminal device 2b2 transmits output information including the character moving image data of the user B2, the voice data of the user B2, and the user ID of the user B2 to the server device 3 via the terminal communication I/F 21. (Step S106). Next, the server transmission unit 332 of the server device 3 transmits the output information received from the terminal device 2b2 to the terminal device 2a via the server communication I/F 31 (step S107) and also to the terminal device 2b1. .

端末装置2aの表示処理部274は、ユーザA、ユーザB1、及びユーザB2のそれぞれの出力情報に基づいてユーザAのキャラクタオブジェクトを含むユーザ出力画像、ユーザB1のキャラクタオブジェクトを含むユーザ出力画像、及びユーザB2のキャラクタオブジェクトを含むユーザ出力画像を含むコミュニケーション画面を、端末装置2aの表示装置23に表示出力し、ユーザB1及びユーザB2の音声を出力する(ステップS108)。 The display processing unit 274 of the terminal device 2a generates a user output image including the character object of the user A, a user output image including the character object of the user B1, and A communication screen including a user output image including the character object of user B2 is displayed on the display device 23 of the terminal device 2a, and voices of users B1 and B2 are output (step S108).

ステップS108と同様に、端末装置2b1の表示処理部274は、ユーザA、ユーザB1、及びユーザB2のそれぞれの出力情報に基づいてユーザAのキャラクタオブジェクトを含むユーザ出力画像、ユーザB1のキャラクタオブジェクトを含むユーザ出力画像、及びユーザB2のキャラクタオブジェクトを含むユーザ出力画像を含むコミュニケーション画面を、端末装置2b1の表示装置23に表示出力し、ユーザA及びユーザB2の音声を出力する(ステップS109)。 Similar to step S108, the display processing unit 274 of the terminal device 2b1 displays the user output image including the character object of the user A and the character object of the user B1 based on the output information of each of the user A, the user B1, and the user B2. and the user output image including the character object of the user B2 are displayed on the display device 23 of the terminal device 2b1, and the voices of the user A and the user B2 are output (step S109).

ステップS108と同様に、端末装置2b2の表示処理部274は、ユーザA、ユーザB1、及びユーザB2のそれぞれの出力情報に基づいてユーザAのキャラクタオブジェクトを含むユーザ出力画像、ユーザB1のキャラクタオブジェクトを含むユーザ出力画像、及びユーザB2のキャラクタオブジェクトを含むユーザ出力画像を含むコミュニケーション画面を、端末装置2b2の表示装置23に表示出力し、ユーザA及びユーザB1の音声を出力する(ステップS110)。 Similar to step S108, the display processing unit 274 of the terminal device 2b2 displays the user output image including the character object of the user A and the character object of the user B1 based on the output information of each of the user A, the user B1, and the user B2. and the user output image including the character object of the user B2 are displayed on the display device 23 of the terminal device 2b2, and the voices of the user A and the user B1 are output (step S110).

次に、端末装置2aの送信部272は、ユーザAによる入力装置24の操作に応じて入力された、変更指示、追加指示及び評価指示のいずれかを示す情報を、端末通信I/F21を介してサーバ装置3に送信する(ステップS111)。 Next, the transmission unit 272 of the terminal device 2a transmits information indicating any one of the change instruction, the addition instruction, and the evaluation instruction input according to the operation of the input device 24 by the user A, via the terminal communication I/F 21. is sent to the server device 3 (step S111).

次に、サーバ装置3のサーバ送信部332は、端末装置2aから受信した変更指示、追加指示及び評価指示のいずれかを示す情報を、サーバ通信I/F31を介して、端末装置2b1に送信する(ステップS112)とともに、端末装置2b2に送信する(ステップS113)。 Next, the server transmission unit 332 of the server device 3 transmits information indicating any one of the change instruction, the addition instruction, and the evaluation instruction received from the terminal device 2a to the terminal device 2b1 via the server communication I/F 31. (Step S112) and transmits to the terminal device 2b2 (Step S113).

端末装置2aの表示処理部274は、ユーザAによる入力装置24の操作に応じて入力された、変更指示、追加指示及び評価指示のいずれかに応じて、ユーザAのユーザ出力画像、ユーザB1のユーザ出力画像、及びユーザB2のユーザ出力画像、の少なくとも一部を変更して、端末装置2aの表示装置23に表示出力する(ステップS114)。 The display processing unit 274 of the terminal device 2a displays the user output image of the user A, the user B1 At least a part of the user output image and the user output image of the user B2 is changed and displayed on the display device 23 of the terminal device 2a (step S114).

端末装置2b1の表示処理部274は、ユーザAの端末装置2aから送信された、変更指示、追加指示及び評価指示のいずれかを示す情報に応じて、ユーザAのユーザ出力画像、ユーザB1のユーザ出力画像、及びユーザB2のユーザ出力画像、の少なくとも一部を変更して、端末装置2b1の表示装置23に表示出力する(ステップS115)。 The display processing unit 274 of the terminal device 2b1 displays the user output image of the user A, the user At least a part of the output image and the user output image of the user B2 is changed and displayed on the display device 23 of the terminal device 2b1 (step S115).

端末装置2b2の表示処理部274は、ユーザAの端末装置2aから送信された、変更指示、追加指示及び評価指示のいずれかを示す情報に応じて、ユーザAのユーザ出力画像、ユーザB1のユーザ出力画像、及びユーザB2のユーザ出力画像、の少なくとも一部を変更して、端末装置2b2の表示装置23に表示出力する(ステップS116)。 The display processing unit 274 of the terminal device 2b2 displays the user output image of the user A, the user At least a part of the output image and the user output image of the user B2 is changed and displayed on the display device 23 of the terminal device 2b2 (step S116).

次に、端末装置2b1の送信部272は、ユーザB1による入力装置24の操作に応じて入力された、装着オブジェクトの追加指示を示す情報を、端末通信I/F21を介してサーバ装置3に送信する(ステップS117)。 Next, the transmission unit 272 of the terminal device 2b1 transmits information indicating an instruction to add a wearable object, which is input according to the operation of the input device 24 by the user B1, to the server device 3 via the terminal communication I/F 21. (step S117).

次に、サーバ装置3のサーバ送信部332は、端末装置2b1から受信した装着オブジェクトの追加指示を示す情報を、サーバ通信I/F31を介して、端末装置2aに送信する(ステップS118)。 Next, the server transmission unit 332 of the server device 3 transmits the information indicating the mounting object addition instruction received from the terminal device 2b1 to the terminal device 2a via the server communication I/F 31 (step S118).

端末装置2aの表示処理部274は、ユーザB1の端末装置2aから送信された装着オブジェクトの追加指示を示す情報に応じて表示された追加オブジェクトに対して、ユーザAによって承諾に関する所定の操作がされたか否かを判定する(ステップS119)。 The display processing unit 274 of the terminal device 2a performs a predetermined operation related to acceptance by the user A with respect to the additional object displayed in accordance with the information indicating the instruction to add the mountable object transmitted from the terminal device 2a of the user B1. It is determined whether or not (step S119).

ユーザAによって承諾に関する所定の操作がされなかったと判定された場合(ステップS119-No)、ステップS123は実行されない。ユーザAによって承諾に関する所定の操作がされたと判定された場合(ステップS119-Yes)、端末装置2aの送信部272は、承諾指示を示す情報を、端末通信I/F21を介してサーバ装置3に送信する(ステップS120)。 If it is determined that the user A has not performed the predetermined operation regarding acceptance (step S119-No), step S123 is not executed. If it is determined that the user A has performed a predetermined operation related to consent (step S119-Yes), the transmission unit 272 of the terminal device 2a transmits information indicating the consent instruction to the server device 3 via the terminal communication I/F 21. Send (step S120).

次に、サーバ装置3のサーバ送信部332は、端末装置2aから受信した承諾指示を示す情報を、サーバ通信I/F31を介して、端末装置2b1に送信する(ステップS121)とともに、端末装置2b2に送信する(ステップS122)。なお、承諾指示を示す情報とともに、ステップS117においてユーザB1の端末装置2aから送信された追加指示を示す情報に係る装着オブジェクトを示すオブジェクトIDも送信される。 Next, the server transmission unit 332 of the server device 3 transmits the information indicating the approval instruction received from the terminal device 2a to the terminal device 2b1 via the server communication I/F 31 (step S121), and the terminal device 2b2 (step S122). Along with the information indicating the approval instruction, an object ID indicating the mounting object related to the information indicating the additional instruction transmitted from the terminal device 2a of the user B1 in step S117 is also transmitted.

端末装置2aの表示処理部274は、ステップS117においてユーザB1の端末装置2aから送信された追加指示を示す情報に係る装着オブジェクトを装着した、ユーザAのキャラクタオブジェクトを含むユーザ出力画像を、端末装置2aの表示装置23に表示出力する(ステップS123)。 The display processing unit 274 of the terminal device 2a displays the user output image including the character object of the user A wearing the wearable object related to the information indicating the additional instruction transmitted from the terminal device 2a of the user B1 in step S117. 2a is displayed on the display device 23 (step S123).

端末装置2b1の表示処理部274は、ステップS117においてユーザB1の端末装置2aから送信された追加指示を示す情報に係る装着オブジェクトを装着した、ユーザAのキャラクタオブジェクトを含むユーザ出力画像を、端末装置2b1の表示装置23に表示出力する(ステップS124)。 The display processing unit 274 of the terminal device 2b1 displays the user output image including the character object of the user A wearing the wearable object related to the information indicating the additional instruction transmitted from the terminal device 2a of the user B1 in step S117. 2b1 is displayed on the display device 23 (step S124).

端末装置2b2の表示処理部274は、ステップS117においてユーザB1の端末装置2aから送信された追加指示を示す情報に係る装着オブジェクトを装着した、ユーザAのキャラクタオブジェクトを含むユーザ出力画像を、端末装置2b2の表示装置23に表示出力する(ステップS125)。 The display processing unit 274 of the terminal device 2b2 displays the user output image including the character object of the user A wearing the wearable object related to the information indicating the additional instruction transmitted from the terminal device 2a of the user B1 in step S117. 2b2 is displayed on the display device 23 (step S125).

以上、詳述したとおり、本実施形態の情報システム1では、ユーザAによる指示に応じて、少なくとも一部が変更されたユーザAのユーザ出力画像、及び/又は、少なくとも一部が変更された少なくともの1人のユーザBのユーザ出力画像が表示される。このように、本実施形態の情報システム1によって、コミュニケーションサービス中に、端末装置2からの出力がユーザA又は少なくとも1人のユーザBによって変更されるようにすることで、コミュニケーションに対するユーザの継続使用の意欲を向上させることが可能となる。 As described in detail above, in the information system 1 of the present embodiment, in accordance with an instruction from the user A, the user output image of the user A whose at least part has been changed and/or at least A user output image of one user B is displayed. In this way, the information system 1 of the present embodiment allows the output from the terminal device 2 to be changed by the user A or at least one user B during the communication service, thereby enabling the user's continuous use of communication. It is possible to improve the motivation of

(変形例1)
なお、本発明は、本実施形態に限定されるものではない。例えば、所定の条件が満たされた場合、ユーザAの端末装置2の表示処理部274は、選択画面1200(図12(a))の表示領域内に、新たな追加候補オブジェクトを追加してもよい。また、所定の条件が満たされた場合、ユーザAの端末装置2の表示処理部274は、選択画面1200の表示領域内に含まれる追加候補オブジェクトの少なくとも一部を削除してもよい。
(Modification 1)
In addition, the present invention is not limited to this embodiment. For example, when a predetermined condition is satisfied, the display processing unit 274 of the terminal device 2 of user A adds a new addition candidate object to the display area of the selection screen 1200 (FIG. 12(a)). good. Further, when a predetermined condition is satisfied, the display processing unit 274 of the terminal device 2 of user A may delete at least part of the addition candidate objects included in the display area of the selection screen 1200 .

所定の条件は、ユーザAのキャラクタオブジェクト又はユーザ出力画像がコミュニケーション画面に表示された時間が所定時間を超えたという条件である。また、所定の条件は、ユーザAのキャラクタオブジェクト又はユーザ出力画像がコミュニケーション画面に表示された時間が所定時間を超えていないという条件でもよい。また、所定の条件は、いずれかのユーザBのキャラクタオブジェクト又はユーザ出力画像がコミュニケーション画面に表示された時間が、所定時間を超えたという条件又は所定時間を超えていないという条件でもよい。また、所定の条件は、ユーザA及び全てのユーザBのそれぞれのキャラクタオブジェクト又はユーザ出力画像がコミュニケーション画面に表示された時間の合計が所定時間を超えたという条件又は所定時間を超えていないという条件でもよい。また、所定の条件は、ユーザA及び全てのユーザBのうちの少なくとも2人のキャラクタオブジェクト又はユーザ出力画像がコミュニケーション画面に表示された時間の合計が所定時間を超えたという条件又は所定時間を超えていないという条件でもよい。 The predetermined condition is that the time during which the user A's character object or the user output image is displayed on the communication screen exceeds a predetermined time. Alternatively, the predetermined condition may be that the time during which the user A's character object or the user output image is displayed on the communication screen does not exceed a predetermined time. Further, the predetermined condition may be a condition that the time during which any character object or user output image of user B is displayed on the communication screen exceeds a predetermined time or a condition that the predetermined time has not been exceeded. Further, the predetermined condition is that the total time during which the character objects or user output images of user A and all users B are displayed on the communication screen exceeds a predetermined time or does not exceed a predetermined time. It's okay. In addition, the predetermined condition is that the total time during which the character objects or user output images of at least two of the user A and all the users B are displayed on the communication screen exceeds a predetermined time, or that the predetermined time is exceeded. It is acceptable if the condition is that the

また、所定の条件は、ユーザAによる入力装置24の操作によって、追加候補オブジェクトのいずれかが選択された回数が所定回数を超えたという条件でもよい。また、所定の条件は、ユーザAによる入力装置24の操作によって、追加候補オブジェクトのいずれかが選択された回数が所定回数を超えていないという条件でもよい。また、所定の条件は、いずれかのユーザBによる入力装置24の操作によって、追加候補オブジェクトのいずれかが選択された回数が、所定回数を超えたという条件又は所定の回数を超えていないという条件でもよい。また、所定の条件は、ユーザA及び全てのユーザBのそれぞれによる入力装置24の操作によって、追加候補オブジェクトのいずれかが選択された回数の合計が、所定回数を超えたという条件又は所定の回数を超えていないという条件でもよい。また、所定の条件は、ユーザA及び全てのユーザBのうちの少なくとも2人による入力装置24の操作によって、追加候補オブジェクトのいずれかが選択された回数の合計が、所定回数を超えたという条件又は所定の回数を超えていないという条件でもよい。 Further, the predetermined condition may be a condition that the number of times any of the addition candidate objects is selected by user A's operation of the input device 24 exceeds a predetermined number of times. Further, the predetermined condition may be a condition that the number of times any of the addition candidate objects is selected by user A's operation of the input device 24 does not exceed a predetermined number of times. Further, the predetermined condition is that the number of times any of the addition candidate objects has been selected by any user B operating the input device 24 exceeds a predetermined number of times or does not exceed a predetermined number of times. It's okay. Further, the predetermined condition is that the total number of times that any of the additional candidate objects has been selected by the operation of the input device 24 by each of the user A and all the users B exceeds a predetermined number of times, or the predetermined number of times. It is also possible to provide a condition that the In addition, the predetermined condition is that the total number of times that any of the additional candidate objects has been selected by at least two of the users A and all the users B by operating the input device 24 exceeds a predetermined number of times. Alternatively, the condition may be that the predetermined number of times is not exceeded.

所定の条件が満たされた場合に選択画面1200の表示領域内に追加される新たな追加候補オブジェクトは、例えば、ユーザ出力画像内のキャラクタオブジェクトの背面に配置される特定の壁紙オブジェクト、及び特定の装着オブジェクト等に対応するものでもよい。 New addition candidate objects added to the display area of the selection screen 1200 when a predetermined condition is satisfied are, for example, a specific wallpaper object placed behind the character object in the user output image, and a specific It may correspond to a wearable object or the like.

このように、所定の条件が満たされることで、追加オブジェクトの選択の幅が広がる(又は狭まる)ため、コミュニケーションサービス中のユーザAの操作に応じた出力に多様性を持たせることが可能となる。したがって、ユーザAがユーザBとのコミュニケーションを継続使用する意欲を向上させることが可能となる。 In this way, when a predetermined condition is satisfied, the range of selection of additional objects is widened (or narrowed), so that it is possible to diversify the output according to the operation of the user A during the communication service. . Therefore, it is possible to increase the willingness of user A to continue using communication with user B.

(変形例2)
図14(b)に示されるように、ユーザB2のキャラクタオブジェクト811b2に新たに装着オブジェクト1411が装着された場合、ユーザAは、新たに表示されたコミュニケーション画面1410に含まれた評価ボタン1412を操作できる。ユーザAの端末装置2において、ユーザAが、評価ボタン1412に替えて又は評価ボタン1412とともに、評価ボタン1412の操作以外の操作ができるように構成されてもよい。
(Modification 2)
As shown in FIG. 14B, when a new wearable object 1411 is worn on the character object 811b2 of user B2, user A operates an evaluation button 1412 included in the newly displayed communication screen 1410. can. The user A's terminal device 2 may be configured so that the user A can perform an operation other than the operation of the evaluation button 1412 instead of the evaluation button 1412 or together with the evaluation button 1412 .

例えば、ユーザB2のキャラクタオブジェクト811b2に新たに装着オブジェクト1411が装着された場合、コミュニケーション画面1410に、ユーザAのキャラクタオブジェクト811aに所定の動作を自動的に行わせるための動作ボタンを所定の表示期間(例えば10秒間)含めるようにしてもよい。ユーザAによる入力装置24の操作によって動作ボタンが選択されると、生成部271は、ユーザAのモーションデータの使用を所定の動作期間(例えば5秒間)中止し、予め端末記憶装置22に記憶された所定の動作に関する情報を抽出して、ユーザAのキャラクタオブジェクト611aに所定の動作を所定の動作期間(例えば5秒間)自動的に行わせる。所定の動作は、例えば、拍手をする動作、驚きを示す動作等である。なお、ユーザAによる入力装置24の操作によって動作ボタンが選択されると、生成部271は、ユーザAの一部のモーションデータの使用を中止しなくてもよい。例えば、動作ボタンに応じた動作が、キャラクタオブジェクト611aの腕に関する動作である場合、フェイスモーションデータの使用は継続されてもよい。これにより、情報システム1は、動作ボタンによる画一的な動きに止まらず、キャラクタオブジェクトに対し豊かな表現を行わせることができ、ユーザとのコミュニケーションを継続使用する意欲を向上させることが可能となる。 For example, when a new wearable object 1411 is worn on the character object 811b2 of the user B2, an action button for causing the character object 811a of the user A to automatically perform a predetermined action is displayed on the communication screen 1410 for a predetermined period of time. (for example, 10 seconds) may be included. When an action button is selected by user A's operation of the input device 24, the generation unit 271 suspends the use of the motion data of user A for a predetermined action period (for example, 5 seconds), and stores the motion data in advance in the terminal storage device 22. Information about the predetermined action is extracted, and the character object 611a of the user A is caused to automatically perform the predetermined action for a predetermined action period (for example, 5 seconds). The predetermined action is, for example, a clapping action, a surprise action, or the like. Note that when an action button is selected by user A's operation of the input device 24, the generation unit 271 does not have to stop using part of the motion data of user A. FIG. For example, if the action corresponding to the action button is the action related to the arm of the character object 611a, the face motion data may continue to be used. As a result, the information system 1 can make the character object perform rich expressions in addition to the uniform movement of the action buttons, and can increase the willingness to continue using communication with the user. Become.

また、ユーザAによる複数の所定の操作のそれぞれに、ユーザAのキャラクタオブジェクト811aに自動的に行わせる所定の動作に関する情報が関連付けられて端末記憶装置22に記憶させてもよい。例えば、上方向へのスワイプ操作に関連付けて、ピースサインをする動作に関する情報が端末記憶装置22に記憶され、下方向へのスワイプ操作に関連付けて、飛び跳ねる動作に関する情報が端末記憶装置22に記憶されてもよい。例えば、ユーザAによって上方向へのスワイプ操作が行われたことが入力装置24によって検知されると、生成部271は、ユーザAのモーションデータの使用を所定の動作期間(例えば5秒間)中止し、予め端末記憶装置22に記憶されたピースサインをする動作に関する情報を抽出して、ユーザAのキャラクタオブジェクト811aにピースサインをする動作を所定の動作期間(例えば5秒間)自動的に行わせる。そして、この場合、ユーザB2のキャラクタオブジェクト811b2に新たに装着オブジェクト1411が装着されてから所定の期間(例えば10秒間)、所定の操作に関連付けられた所定の動作に関する情報を変更してもよい。例えば、ユーザB2のキャラクタオブジェクト811b2に新たに装着オブジェクト1411が装着されてから所定の期間(例えば10秒間)、上方向へのスワイプ操作に関連付けて、(ピースサインをする動作に関する情報を変更して)拍手をする動作に関する情報が端末記憶装置22に記憶されてもよい。これにより、ユーザB2のキャラクタオブジェクト811b2に新たに装着オブジェクト1411が装着されてから所定の期間(例えば10秒間)において、ユーザAによって上方向へのスワイプ操作が行われたことが入力装置24によって検知されると、生成部271は、ユーザAのモーションデータの使用を所定の動作期間(例えば5秒間)中止し、予め端末記憶装置22に記憶された拍手をする動作に関する情報を抽出して、ユーザAのキャラクタオブジェクト811aに拍手をする動作を所定の動作期間(例えば5秒間)自動的に行わせる。このように、通常のコミュニケーション中と、他ユーザのキャラクタオブジェクトに新たな装着オブジェクトが装着された時とで、同一操作であっても異なる動作をキャラクタオブジェクトにさせることができ、コミュニケーションサービス中のユーザAの操作に応じた出力に多様性を持たせることが可能となる。したがって、ユーザAがユーザBとのコミュニケーションを継続使用する意欲を向上させることが可能となる。また、情報システム1は、キャラクタオブジェクトに対して所定の操作に対応付けられた所定の動作を行わせることにより、モーションデータを用いる場合よりも端末装置2の処理負荷を低減させ、且つ、端末装置2とサーバ装置3間の通信負荷の増加を防止することが可能となる。 Further, each of a plurality of predetermined operations by the user A may be associated with information regarding predetermined actions to be automatically performed by the character object 811a of the user A and stored in the terminal storage device 22 . For example, in association with the upward swipe operation, the terminal storage device 22 stores information related to the motion of making a peace sign, and in association with the downward swipe operation, information related to the jumping motion is stored in the terminal storage device 22. may For example, when the input device 24 detects that the user A has performed an upward swipe operation, the generation unit 271 stops using the motion data of the user A for a predetermined operation period (for example, 5 seconds). Then, the information on the motion of making the peace sign stored in advance in the terminal storage device 22 is extracted, and the character object 811a of the user A is made to automatically perform the motion of making the peace sign for a predetermined motion period (for example, 5 seconds). In this case, the information about the predetermined action associated with the predetermined operation may be changed for a predetermined period (for example, 10 seconds) after the wearable object 1411 is newly mounted on the character object 811b2 of the user B2. For example, for a predetermined period of time (for example, 10 seconds) after the user B2's character object 811b2 is newly equipped with the wearable object 1411, the user B2 associates the upward swipe operation with (changes information about the motion of making a peace sign). ) Information about the action of clapping may be stored in the terminal storage device 22 . As a result, the input device 24 detects that the upward swipe operation has been performed by the user A within a predetermined period (for example, 10 seconds) after the user B2's character object 811b2 is newly equipped with the wearable object 1411. Then, the generating unit 271 stops using the motion data of the user A for a predetermined motion period (for example, 5 seconds), extracts the information about the clapping motion stored in the terminal storage device 22 in advance, and The character object 811a of A is automatically made to perform an action of clapping for a predetermined action period (for example, 5 seconds). In this way, even if the same operation is performed, the character object can be made to perform different actions during normal communication and when another user's character object is equipped with a new wearable object. It is possible to give diversity to the output according to the operation of A. Therefore, it is possible to increase the willingness of user A to continue using communication with user B. Further, the information system 1 causes the character object to perform a predetermined action associated with a predetermined operation, thereby reducing the processing load of the terminal device 2 compared to the case of using motion data. 2 and the server device 3 can be prevented from increasing.

(変形例3)
表示処理部274は、コミュニケーション画面中に追加させる追加オブジェクトを選択するための選択ボタンを、コミュニケーション画面に含めてもよい。例えば、ユーザAによる入力装置24の操作によって選択ボタンが選択されると、表示処理部274は、端末記憶装置22に記憶された複数の追加オブジェクトを含むグループから、所定の選択方法に基づいて一又は複数の追加オブジェクトを選択する。なお、所定の選択方法は、複数の追加オブジェクトを含むグループからランダムに抽選する方法、複数の追加オブジェクトを含むグループから所定の順番により選択する方法等である。そして、表示処理部274及び送信部272は、選択された追加オブジェクトのオブジェクトIDと追加指示を用いて追加処理を実行する。これにより、ユーザAのキャラクタオブジェクトは、選択された追加オブジェクトに基づいてユーザ出力情報を変更することができる。
(Modification 3)
The display processing unit 274 may include a selection button on the communication screen for selecting an additional object to be added to the communication screen. For example, when the user A operates the input device 24 to select the select button, the display processing unit 274 selects one object from a group including a plurality of additional objects stored in the terminal storage device 22 based on a predetermined selection method. Or select multiple additional objects. The predetermined selection method includes a method of randomly drawing lots from a group including a plurality of additional objects, a method of selecting from a group including a plurality of additional objects in a predetermined order, and the like. Then, the display processing unit 274 and the transmission unit 272 execute addition processing using the object ID of the selected additional object and the addition instruction. Thereby, the user A's character object can change the user output information based on the selected additional object.

なお、この場合、選択された追加オブジェクトと関連がある装着オブジェクトを装着しているキャラクタオブジェクトのユーザBのコミュニケーション画面中に、装着ボタンを含めるようにしてもよい。追加オブジェクトと関連がある装着オブジェクトは、例えば、追加オブジェクトと同一属性の装着オブジェクト、又は、追加オブジェクトと同一色の装着オブジェクト等である。この場合、オブジェクトテーブルT2において、各オブジェクトIDに関連付けて、各オブジェクトの属性を示す情報及び/又は色を示す情報が記憶される。また、ユーザテーブルT1において、各ユーザのユーザIDに関連付けて、各ユーザのキャラクタオブジェクトの属性を示す情報及び/又は色を示す情報が記憶される。属性は、例えばオブジェクトの型(男性又は女性等)である。また、属性は、オブジェクトを取得可能な抽選ゲームの種類でもよい。ユーザBよる入力装置24の操作によって装着ボタンが選択されると、表示処理部274は、選択された追加オブジェクトのオブジェクトIDを特定し、表示処理部274及び送信部272は、選択された追加オブジェクトのオブジェクトIDと追加指示を用いて追加処理を実行する。これにより、ユーザAのユーザ出力画像に含まれる追加オブジェクトに関連がある装着オブジェクトを、ユーザBのキャラクタオブジェクトに装着させることができ、ユーザAがユーザBとのコミュニケーションを継続使用する意欲を向上させることが可能となる。なお、選択された追加オブジェクトと関連がある壁紙オブジェクトを適用しているユーザ出力画像のユーザBのコミュニケーション画面中に、装着ボタンを含めるようにしてもよい。 In this case, an equip button may be included in the communication screen of the user B of the character object wearing the equipable object related to the selected additional object. A mounted object related to the additional object is, for example, a mounted object having the same attributes as the additional object or a mounted object having the same color as the additional object. In this case, in the object table T2, information indicating the attribute and/or information indicating the color of each object is stored in association with each object ID. Also, in the user table T1, information indicating the attribute and/or information indicating the color of each user's character object is stored in association with the user ID of each user. An attribute is, for example, the type of object (such as male or female). Also, the attribute may be the type of lottery game from which the object can be obtained. When the wear button is selected by user B's operation of the input device 24, the display processing unit 274 identifies the object ID of the selected additional object, and the display processing unit 274 and the transmission unit 272 transmit the selected additional object. Addition processing is executed using the object ID and the addition instruction. As a result, the wearable object related to the additional object included in the user output image of the user A can be worn on the character object of the user B, and the motivation of the user A to continue using communication with the user B is increased. becomes possible. It should be noted that the installation button may be included in the communication screen of the user B in the user output image to which the wallpaper object related to the selected additional object is applied.

(変形例4)
追加オブジェクト1311を含むユーザ出力画像812aが表示されたコミュニケーション画面1310に対する所定の操作がユーザAによって行われない場合、追加オブジェクト1311は、ユーザAの端末装置2のコミュニケーション画面1310に表示され続けてもよい。この場合、追加オブジェクト1311はマーク画像に変更されてもよい。これにより、ユーザAは、自身の好みのタイミングで、追加オブジェクト1311に対応する装着オブジェクト等によってユーザキャラクタを変更させることができる。
(Modification 4)
If the user A does not perform a predetermined operation on the communication screen 1310 on which the user output image 812a including the additional object 1311 is displayed, the additional object 1311 continues to be displayed on the communication screen 1310 of the user A's terminal device 2. good. In this case, the additional object 1311 may be changed to a mark image. As a result, the user A can change the user character by using the wearable object or the like corresponding to the additional object 1311 at his or her desired timing.

また、ユーザAによって所定の操作が行われない追加オブジェクト1311の数が所定数を超えた場合、他のユーザB(ユーザB1~B3)のそれぞれの端末装置2に、サーバ装置3を介して、ユーザAによって所定の操作が行われない追加オブジェクト1311に関する情報を送信してもよい。この場合、ユーザB(ユーザB1~B3)のそれぞれの端末装置2において、ユーザAによって所定の操作が行われない追加オブジェクト1311が表示される。そして、ユーザBによって追加オブジェクト1311に対する所定の操作がされた場合、ユーザBの端末装置2の入力装置24が、ユーザAの端末装置2の入力装置24に替わり、承諾指示を、追加オブジェクト1311のオブジェクトIDとともに端末処理装置27に入力する。以降、承諾処理が実行される。これにより、ユーザAが、他のユーザBから贈られた追加オブジェクトに対応する装着オブジェクトを装着しない場合でも、ユーザAとは異なる他のユーザが、追加オブジェクトに対応する装着オブジェクトを装着することが可能となる。 Further, when the number of additional objects 1311 for which a predetermined operation is not performed by user A exceeds a predetermined number, each terminal device 2 of another user B (users B1 to B3), via the server device 3, Information regarding the additional object 1311 for which the user A does not perform a predetermined operation may be transmitted. In this case, the additional object 1311 for which the user A does not perform a predetermined operation is displayed on the terminal device 2 of each user B (users B1 to B3). Then, when the user B performs a predetermined operation on the additional object 1311, the input device 24 of the terminal device 2 of the user B is replaced by the input device 24 of the terminal device 2 of the user A, and the approval instruction is transmitted to the additional object 1311. It is input to the terminal processing device 27 together with the object ID. Thereafter, consent processing is executed. As a result, even if the user A does not wear the wearable object corresponding to the additional object presented by the other user B, another user different from the user A can wear the wearable object corresponding to the additional object. It becomes possible.

(変形例5)
キャラクタオブジェクトが、3次元のアニメーションを生成するための3次元モデルデータに基づいて生成される場合、各ユーザのユーザ出力画像は、ユーザごとに定められた仮想空間内に配置された立体オブジェクト(3次元オブジェクト)であるキャラクタオブジェクトを、当該仮想空間内の所定の視点から見た画像であってもよい。例えば、表示処理部274は、所定の視点の視線方向に2次元スクリーンを配置し、仮想空間内に配置された各種の立体オブジェクトの3次元座標を当該2次元スクリーンに投影し、各種のオブジェクトが投影された2次元スクリーン面の画像をユーザ出力画像として表示する。なお、例えば、ユーザAの端末装置2において表示されるユーザAのユーザ出力画像を表示するための所定の視点の視線方向は、ユーザAのキャラクタオブジェクトに向く方向である。そして、ユーザAの端末装置2において表示されるユーザAのユーザ出力画像を表示するための2次元スクリーンは、所定の視点の移動及び視線方向の回転に応じて、移動及び回転するように制御される。
(Modification 5)
When a character object is generated based on 3D model data for generating a 3D animation, the user output image of each user is a solid object (3 It may be an image of a character object (a dimensional object) viewed from a predetermined viewpoint in the virtual space. For example, the display processing unit 274 arranges a two-dimensional screen in the line-of-sight direction of a predetermined viewpoint, projects three-dimensional coordinates of various three-dimensional objects arranged in the virtual space onto the two-dimensional screen, and displays various objects on the two-dimensional screen. The image of the projected two-dimensional screen surface is displayed as a user output image. Note that, for example, the line-of-sight direction of the predetermined viewpoint for displaying the user output image of the user A displayed on the terminal device 2 of the user A is the direction in which the character object of the user A faces. Then, the two-dimensional screen for displaying the user output image of the user A displayed on the terminal device 2 of the user A is controlled to move and rotate in accordance with the predetermined movement of the viewpoint and rotation of the line-of-sight direction. be.

例えば、ユーザAのキャラクタオブジェクト811aが新たな装着オブジェクトを装着した場合、図11(b)に示されるコミュニケーション画面1110が表示されるが、当該コミュニケーション画面1110の表示の前又は後において、表示処理部274は、所定の視点を自動的に移動させてもよい。 For example, when the character object 811a of the user A wears a new wearable object, the communication screen 1110 shown in FIG. 11B is displayed. 274 may automatically move a given viewpoint.

例えば、ユーザAのキャラクタオブジェクト811aが新たな装着オブジェクトを装着した場合、表示処理部274は、所定の視点をユーザAのキャラクタオブジェクト811aに近づくように移動させてもよい。例えば、表示処理部274は、ユーザAのキャラクタオブジェクト811aが新たな装着オブジェクトを装着したときの所定の視点の位置と新たな装着オブジェクトの位置とを結ぶ経路を算出し、当該経路にそって自動的に移動させる。表示処理部274は、仮想空間内において自動的に移動する所定の視点から見た仮想空間を示す画像をユーザ出力画像として表示する。 For example, when User A's character object 811a wears a new wearable object, the display processing unit 274 may move a predetermined viewpoint closer to User A's character object 811a. For example, the display processing unit 274 calculates a route connecting a position of a predetermined viewpoint when the character object 811a of the user A wears a new wearable object and the position of the new wearable object, and automatically displays a display along the route. to move. The display processing unit 274 displays, as a user output image, an image showing the virtual space viewed from a predetermined viewpoint that automatically moves in the virtual space.

図17(a)は、仮想空間内において自動的に移動する所定の視点から見た仮想空間を示す画像をユーザ出力画像1012aとしたコミュニケーション画面1700の一例を示す図である。図17(a)に示す例では、ユーザAのキャラクタオブジェクト811aの髪型が新たな装着オブジェクトに変更されたため、拡大されたキャラクタオブジェクト1011aの頭部を含むユーザ出力画像1012aが表示される。 FIG. 17A is a diagram showing an example of a communication screen 1700 in which a user output image 1012a is an image showing a virtual space viewed from a predetermined viewpoint that automatically moves in the virtual space. In the example shown in FIG. 17A, since the hairstyle of the character object 811a of the user A has been changed to a new wearable object, a user output image 1012a including the enlarged head of the character object 1011a is displayed.

例えば、表示処理部274は、ユーザAのキャラクタオブジェクト811aが新たな装着オブジェクトを装着したときに、装着後のキャラクタオブジェクト1011aの周囲に経路を設定する。そして、表示処理部274は、所定の視点の視線方向をキャラクタオブジェクト1011aに向く方向に合せながら、所定の視点を当該経路にそって自動的に移動させる。表示処理部274は、仮想空間内において自動的に移動する所定の視点から見た仮想空間を示す画像をユーザ出力画像として表示する。 For example, when the character object 811a of the user A wears a new wearable object, the display processing unit 274 sets a path around the character object 1011a after wearing. Then, the display processing unit 274 automatically moves the predetermined viewpoint along the route while aligning the line-of-sight direction of the predetermined viewpoint with the direction facing the character object 1011a. The display processing unit 274 displays, as a user output image, an image showing the virtual space viewed from a predetermined viewpoint that automatically moves in the virtual space.

図17(b)は、仮想空間内において自動的に移動する所定の視点から見た仮想空間を示す画像をユーザ出力画像1012aとしたコミュニケーション画面1710の他の一例を示す図である。図17(a)に示す例では、ユーザAのキャラクタオブジェクト1011aの周囲を移動している時のユーザ出力画像1012aであり、キャラクタオブジェクト1011aの背面を含むユーザ出力画像1012aが表示される。 FIG. 17B is a diagram showing another example of the communication screen 1710 in which the user output image 1012a is an image showing the virtual space viewed from a predetermined viewpoint that automatically moves in the virtual space. In the example shown in FIG. 17A, the user output image 1012a is displayed when the user A is moving around the character object 1011a, and the user output image 1012a including the back of the character object 1011a is displayed.

また、表示処理部274は、コミュニケーション画面に対するユーザAによる入力装置24の所定の操作に応じて、所定の視点の移動及び/又は所定の視点の視線方向の回転を制御してもよい。また、表示処理部274は、コミュニケーション画面中に、所定の視点を自動的に移動させるための自動移動ボタンを、コミュニケーション画面に含めてもよい。この場合、例えば、ユーザAによる入力装置24の操作によって自動移動ボタンが選択されると、表示処理部274は、予め定められた移動ルールに応じて所定の視点を自動的に移動させてもよい。 Further, the display processing unit 274 may control the movement of a predetermined viewpoint and/or the rotation of the line-of-sight direction of the predetermined viewpoint in accordance with a predetermined operation of the input device 24 by the user A on the communication screen. Further, the display processing unit 274 may include an automatic movement button for automatically moving a predetermined viewpoint in the communication screen. In this case, for example, when the user A operates the input device 24 to select the automatic movement button, the display processing unit 274 may automatically move a predetermined viewpoint according to a predetermined movement rule. .

(変形例6)
キャラクタオブジェクトが、3次元のアニメーションを生成するための3次元モデルデータに基づいて生成される場合、各ユーザのユーザ出力画像は、各ユーザに共通の仮想空間内に配置された立体オブジェクト(3次元オブジェクト)であるキャラクタオブジェクトの所定位置(例えば、キャラクタオブジェクトの目の位置)に配置されたユーザ視点から仮想空間内を見た画像でもよい。なお、ユーザ視点は、ユーザによる操作に応じて及び/又は自動で、キャラクタオブジェクトの所定位置から移動して、キャラクタオブジェクトの後方、上方、又は前方等に位置してもよい。
(Modification 6)
When a character object is generated based on 3D model data for generating a 3D animation, the user output image of each user is a solid object (3D model) arranged in a virtual space common to each user. It may be an image of the inside of the virtual space viewed from the user's point of view placed at a predetermined position (for example, the position of the eyes of the character object) of the character object, which is an object). Note that the user's viewpoint may be moved from a predetermined position of the character object according to an operation by the user and/or automatically, and may be positioned behind, above, or in front of the character object.

各ユーザに共通の仮想空間におけるコミュニケーションサービスの利用方法の一例について説明する。例えば、図18に示すように、表示処理部274は、仮想空間内において、ユーザAのキャラクタオブジェクトCのユーザ視点からの視野範囲内に、仮想のタブレットPC等の装置オブジェクトSを登場させる。この装置オブジェクトSの表示装置部分に、図6~15及び17において説明した各種画面が表示される。この場合、装置オブジェクトSの表示装置部分に表示されるユーザAのユーザ出力画像は、装置オブジェクトSの所定位置に設けられた仮想カメラから仮想空間内を見た2次元画像である。ユーザAの音声データは、端末装置2のマイク26によって取得された音声データである。 An example of how to use a communication service in a virtual space common to each user will be described. For example, as shown in FIG. 18, the display processing unit 274 causes a device object S such as a virtual tablet PC to appear within the field of view of the user A's character object C from the user's viewpoint in the virtual space. Various screens described with reference to FIGS. In this case, the user output image of the user A displayed on the display device portion of the device object S is a two-dimensional image of the inside of the virtual space viewed from a virtual camera provided at a predetermined position of the device object S. FIG. User A's voice data is voice data acquired by the microphone 26 of the terminal device 2 .

端末装置2の送信部272は、ユーザAのユーザ出力画像と、ユーザAの音声データと、ユーザAのユーザIDとを、サーバ装置3を経由して全てのユーザBの端末装置2に送信する。なお、送信部272は、ユーザAのユーザ出力画像に替えて、仮想空間内における仮想カメラの位置及び視線方向、仮想空間内におけるユーザAのキャラクタオブジェクトの位置及びボディの向き、並びに、ユーザAのモーションデータを送信してもよい。また、ユーザAの端末装置2は、各ユーザBの端末装置2から、サーバ装置3を介して、各ユーザBのユーザ出力画像と、各ユーザBの音声データと、各ユーザBのユーザIDとを受信する。そして、ユーザAの端末装置2の表示処理部274は、各ユーザBのユーザ出力画像を装置オブジェクトSの表示装置部分に表示し、各ユーザBの音声データを端末装置2から音声出力する。これにより、仮想の装置オブジェクトSを用いたコミュニケーションサービスを実現することが可能となる。 The transmission unit 272 of the terminal device 2 transmits the user output image of the user A, the voice data of the user A, and the user ID of the user A to all the terminal devices 2 of the user B via the server device 3. . Note that, instead of the user output image of user A, the transmission unit 272 transmits the position and line-of-sight direction of the virtual camera in the virtual space, the position and orientation of the character object of user A in the virtual space, and the direction of the body of user A. Motion data may be transmitted. Further, the terminal device 2 of the user A receives the user output image of each user B, the voice data of each user B, and the user ID of each user B from the terminal device 2 of each user B via the server device 3. to receive Then, the display processing unit 274 of the terminal device 2 of the user A displays the user output image of each user B on the display device portion of the device object S, and outputs the voice data of each user B from the terminal device 2 . As a result, a communication service using the virtual device object S can be realized.

(変形例7)
端末装置2の端末処理装置27により実現される機能の少なくとも一部は、端末装置2の端末処理装置27以外のプロセッサにより実現されてもよい。端末処理装置27により実現される機能の少なくとも一部は、例えば、サーバ装置3のサーバ処理装置33により実現されてもよい。具体的には、生成部271と表示処理部274の機能の一部は、サーバ装置3において実行されてもよい。例えば、端末装置2は、連続的に取得した撮像データと音声データを、端末装置2を操作するユーザのユーザIDとともにサーバ装置3に送信する。そして、サーバ装置3は、生成部271及び表示処理部274の機能を用いて、キャラクタ動画データを生成し、全てのユーザのユーザ出力画像を含むコミュニケーション画面を表示装置23に表示するための表示情報を生成する。そして、サーバ装置3は、表示情報を、音声情報(音声データ)とともに全てのユーザの各端末装置2に送信する。各端末装置2は、サーバ装置3から受信した各情報を出力する(所謂「サーバレンダリング」)。
(Modification 7)
At least part of the functions implemented by the terminal processing device 27 of the terminal device 2 may be implemented by a processor other than the terminal processing device 27 of the terminal device 2 . At least part of the functions implemented by the terminal processing device 27 may be implemented by the server processing device 33 of the server device 3, for example. Specifically, part of the functions of the generation unit 271 and the display processing unit 274 may be executed in the server device 3 . For example, the terminal device 2 transmits the continuously acquired imaging data and audio data to the server device 3 together with the user ID of the user who operates the terminal device 2 . Then, the server device 3 uses the functions of the generation unit 271 and the display processing unit 274 to generate character moving image data, and display information for displaying a communication screen including user output images of all users on the display device 23. to generate The server device 3 then transmits the display information together with the audio information (audio data) to the terminal devices 2 of all users. Each terminal device 2 outputs each information received from the server device 3 (so-called "server rendering").

(変形例8)
端末装置2は、端末装置2に記憶された制御プログラムに含まれる各種命令を実行することにより、コミュニケーション画面等を表示する機能を有するが、端末装置2は、コミュニケーションサービスを実現するために、ウェブアプリケーションに組み込まれたブラウザ機能を呼び出し、このブラウザ機能を用いて、サーバ装置からウェブページ(HTML(Hyper Text Markup Language)等のマークアップ言語によって記述されたドキュメント)を受信し、このウェブページに組み込まれた制御プログラムを実行してもよい(所謂「ブラウザレンダリング」)。例えば、マークアップ言語として、HTML 5が用いられることにより、端末装置2は、新規な情報処理を容易に実行することができる。端末装置においてコミュニケーションサービスを実現させるためにこのようなウェブアプリケーションを採用することにより、プログラムの製作者は、サーバ装置により送信されるウェブページに新しいプログラムを組み込むだけで新しい情報処理をクライアントサイド(端末装置側)に提供することができ、新しいプログラムの製作工数を大幅に抑えることが可能となる。また、クライアントサイドでは、新しい制御プログラムをダウンロードせずにウェブページを受信するだけで、新しいサービスの提供を受けることができ、制御プログラムのダウンロードに比べ、通信ネットワークの負荷、通信コスト及び/又は通信時間の低減が可能となり且つユーザのインターフェースの簡素化を実現することが可能となる。
(Modification 8)
The terminal device 2 has a function of displaying a communication screen or the like by executing various commands included in a control program stored in the terminal device 2. Calls a browser function embedded in an application, uses this browser function to receive a web page (a document written in a markup language such as HTML (Hyper Text Markup Language)) from a server device, and embeds it in this web page may execute a control program (so-called "browser rendering"). For example, by using HTML 5 as the markup language, the terminal device 2 can easily execute new information processing. By adopting such web applications to realize communication services in terminal devices, program creators can implement new information processing on the client side (terminals) simply by embedding new programs in web pages transmitted by server devices. device side), and the number of man-hours for creating a new program can be greatly reduced. In addition, on the client side, new services can be provided simply by receiving a web page without downloading a new control program. Time can be reduced and simplification of the user's interface can be realized.

(変形例9)
ユーザAの端末装置2の生成部271は、撮像データを用いずにフェイスモーションデータを含む出力情報を生成してもよい。例えば、端末装置2の端末記憶装置22には、音声データに対応するフェイスモーションデータを記憶しており、生成部271は、取得したユーザAの音声データに対応するフェイスモーションデータを端末記憶装置22から抽出して、抽出したフェイスモーションデータと、音声データ及びユーザAのユーザIDとを含む出力情報を生成してもよい。また、ユーザAの端末装置2の生成部271は、フェイスモーションデータを含めずに、マイク26から出力されたユーザAの音声データと端末記憶装置22に記憶されたユーザIDとを含む出力情報を生成してもよい。この場合、ユーザBの端末装置2の表示処理部274は、サーバ装置3経由で受信したユーザAの出力情報に含まれるユーザAの音声データに対応するフェイスモーションデータを抽出して、ユーザAのキャラクタオブジェクトのアニメーションを生成してもよい。なお、ユーザの音声データに対応するフェイスモーションデータの生成処理は、公知のリップシンクアルゴリズムを用いた処理であってもよい。
(Modification 9)
The generation unit 271 of the terminal device 2 of the user A may generate output information including face motion data without using imaging data. For example, the terminal storage device 22 of the terminal device 2 stores face motion data corresponding to voice data. to generate output information including the extracted face motion data, voice data, and user A's user ID. Further, the generation unit 271 of the terminal device 2 of the user A generates output information including the voice data of the user A output from the microphone 26 and the user ID stored in the terminal storage device 22 without including the face motion data. may be generated. In this case, the display processing unit 274 of the terminal device 2 of the user B extracts the face motion data corresponding to the voice data of the user A included in the output information of the user A received via the server device 3, and extracts the face motion data of the user A. An animation of the character object may be generated. Note that the process of generating face motion data corresponding to the user's voice data may be a process using a known lip-sync algorithm.

このように、HMDを表示装置23として用いるユーザAの端末装置2において、ユーザAの撮像データを取得することなしに、キャラクタオブジェクトを介したコミュニケーションをユーザBと行うことが可能となる。 In this way, in the terminal device 2 of user A using the HMD as the display device 23, it is possible to communicate with user B through the character object without acquiring user A's imaging data.

1 情報システム
2(2a、2b1、2b2) 端末装置
21 端末通信I/F
22 端末記憶装置
23 表示装置
24 入力装置
25 撮像装置
26 マイク
27 端末処理装置
271 生成部
272 送信部
273 受信部
274 表示処理部
275 音声出力部
3 サーバ装置
31 サーバ通信I/F
32 サーバ記憶装置
33 サーバ処理装置
331 サーバ受信部
332 サーバ送信部
4 基地局
5 移動体通信網
6 ゲートウェイ
7 インターネット
1 information system 2 (2a, 2b1, 2b2) terminal device 21 terminal communication I/F
22 terminal storage device 23 display device 24 input device 25 imaging device 26 microphone 27 terminal processing device 271 generation unit 272 transmission unit 273 reception unit 274 display processing unit 275 audio output unit 3 server device 31 server communication I/F
32 Server storage device 33 Server processing device 331 Server receiving unit 332 Server transmitting unit 4 Base station 5 Mobile communication network 6 Gateway 7 Internet

Claims (15)

第1ユーザの端末装置の制御プログラムであって、
前記第1ユーザの端末装置に、
前記第1ユーザを示す第1オブジェクトを含む第1画像と、前記第1ユーザとは異なる第2ユーザを示す第2オブジェクトを含む第2画像とを少なくとも表示し、
前記第1画像の表示に関する情報を前記第2ユーザの端末装置に送信し、
前記第1ユーザの第1音声を取得した場合、前記第1音声を前記第2ユーザの端末装置に送信し、
前記第1ユーザの動作又は前記第1音声に応じて変化する前記第1オブジェクトを含む前記第1画像を表示し、
前記第2ユーザの第2音声を受信した場合、前記第2音声を出力し、
前記第2ユーザの動作又は前記第2音声に応じて変化する前記第2オブジェクトを含む前記第2画像を表示し、
前記第1ユーザによる指示又は前記第2ユーザによる指示に応じて、少なくとも一部が変更された前記第1画像又は少なくとも一部が変更された前記第2画像を表示すること、
を実行させ
少なくとも一部が変更された前記第1画像の表示において、前記第1ユーザの端末装置に、
前記第1画像の表示時間及び/又は前記第2画像の表示時間に関する条件を含む所定の条件が満たされた場合、複数の第2候補オブジェクトを含む選択グループに特定の前記第2候補オブジェクトを含めるか、又は、前記選択グループから一部の前記第2候補オブジェクトを削除し、
前記選択グループの中から前記第2ユーザによる指示に応じて選択された前記第2候補オブジェクトに対応する第3オブジェクトを含む前記第1画像を表示すること、
を実行させるための制御プログラム。
A control program for a terminal device of a first user,
to the terminal device of the first user,
displaying at least a first image including a first object representing the first user and a second image including a second object representing a second user different from the first user;
transmitting information regarding the display of the first image to the terminal device of the second user;
when acquiring the first voice of the first user, transmitting the first voice to the terminal device of the second user;
displaying the first image including the first object that changes according to the first user's action or the first sound;
when receiving the second voice of the second user, outputting the second voice;
displaying the second image including the second object that changes according to the second user's action or the second sound;
displaying the at least partially changed first image or the at least partially changed second image in response to an instruction by the first user or an instruction by the second user;
and
In the display of the first image at least partially changed, the terminal device of the first user,
including a particular second candidate object in a selection group comprising a plurality of second candidate objects if a predetermined condition including a condition relating to the display time of the first image and/or the display time of the second image is met; or removing some of the second candidate objects from the selection group;
displaying the first image including a third object corresponding to the second candidate object selected from the selection group in accordance with an instruction by the second user;
A control program for executing
少なくとも一部が変更された前記第1画像の表示において、前記第1ユーザの端末装置に、
前記第1ユーザに関連付けられた一又は複数の第1候補オブジェクトの中から前記第1ユーザによる指示に応じて選択された前記第1候補オブジェクトに基づいて、一部が変更された前記第1オブジェクトを含む前記第1画像を表示すること、
を実行させる、請求項1に記載の制御プログラム。
In the display of the first image at least partially changed, the terminal device of the first user,
said partially changed based on said first candidate object selected from among one or more first candidate objects associated with said first user according to an instruction by said first user displaying the first image including a first object;
The control program according to claim 1, causing the execution of
前記第1オブジェクトは仮想空間内に配置される立体オブジェクトであり、
前記第1オブジェクトを含む前記第1画像の表示において、前記第1ユーザの端末装置に、
前記仮想空間内の所定の視点から見た前記仮想空間を示す画像を前記第1画像として表示すること、
を実行させ、
前記第1ユーザの端末装置に、
前記仮想空間内において自動的に移動する前記所定の視点から見た前記仮想空間を示す画像を前記第1画像として表示すること、
を実行させる、請求項2に記載の制御プログラム。
the first object is a three-dimensional object arranged in a virtual space;
In displaying the first image including the first object, the terminal device of the first user:
displaying, as the first image, an image showing the virtual space seen from a predetermined viewpoint in the virtual space;
and
to the terminal device of the first user,
displaying, as the first image, an image showing the virtual space viewed from the predetermined viewpoint that automatically moves in the virtual space;
3. The control program according to claim 2, causing the execution of
前記所定の視点は、前記第1オブジェクトの変更された一部に近づくように移動制御される、請求項3に記載の制御プログラム。 4. The control program according to claim 3, wherein movement of said predetermined viewpoint is controlled so as to approach the changed part of said first object. 前記所定の視点は、前記所定の視点からの視線方向を前記第1オブジェクトに向く方向に合わせながら前記第1オブジェクトの周囲を移動するように移動制御される、請求項3に記載の制御プログラム。 4. The control program according to claim 3, wherein movement of said predetermined viewpoint is controlled so as to move around said first object while aligning a line-of-sight direction from said predetermined viewpoint with a direction facing said first object. 前記第1ユーザの端末装置に、
記選択グループの中から前記第1ユーザによる指示に応じて選択された前記第2候補オブジェクトに基づいて、選択された前記第2候補オブジェクトに対応する前記第3オブジェクトを含む前記第2画像を表示するとともに、前記第3オブジェクトの表示に関する情報を前記第2ユーザの端末装置に送信すること、
を実行させ、
前記所定の条件は、前記第1ユーザ及び/又は前記第2ユーザによる前記第2候補オブジェクトの選択回数に関する条件を含む、請求項1~5のいずれか一項に記載の制御プログラム。
to the terminal device of the first user,
Based on the second candidate object selected from the selection group according to the instruction by the first user, the third object including the third object corresponding to the selected second candidate object is selected. Displaying two images and transmitting information regarding display of the third object to the terminal device of the second user;
and
6. The control program according to any one of claims 1 to 5 , wherein said predetermined condition includes a condition regarding the number of times said second candidate object is selected by said first user and/or said second user.
前記第1画像と前記第2画像との表示において、前記第1ユーザの端末装置に、
複数の前記第2ユーザのそれぞれを示す複数の前記第2画像を表示すること、
を実行させ、
前記第1ユーザの端末装置に、
前記第2ユーザによる指示に応じて選択された前記第2候補オブジェクトに基づいて、選択された前記第2候補オブジェクトに対応する前記第3オブジェクトを含む、前記第1画像及び複数の前記第2ユーザのそれぞれを示す複数の前記第2画像を表示すること、
を実行させる、請求項1~5のいずれか一項に記載の制御プログラム。
In the display of the first image and the second image, on the terminal device of the first user,
displaying a plurality of said second images respectively showing a plurality of said second users;
and
to the terminal device of the first user,
The first image and the plurality of the first image and the plurality of the first image, including the third object corresponding to the second candidate object selected based on the second candidate object selected in accordance with an instruction by the second user. displaying a plurality of said second images representing each of a second user;
The control program according to any one of claims 1 to 5 , causing the execution of
前記第1ユーザによって前記第3オブジェクトの選択指示が可能であり、
前記第1ユーザの端末装置に、
前記第1ユーザによる前記第3オブジェクトの選択指示に応じて、一部が変更された前記第1オブジェクトを含む前記第1画像を表示すること、
を実行させる、請求項1~5のいずれか一項に記載の制御プログラム。
The first user can instruct the selection of the third object,
to the terminal device of the first user,
displaying the first image including the partially changed first object in response to an instruction by the first user to select the third object;
The control program according to any one of claims 1 to 5 , causing the execution of
少なくとも一部が変更された前記第1画像の表示において、前記第1ユーザの端末装置に、
前記第1ユーザ及び/又は前記第2ユーザによってプレイされるゲームの進行を示す画像を、前記第1画像の少なくとも一部に替えて表示すること、
を実行させる、請求項1~5のいずれか一項に記載の制御プログラム。
In the display of the first image at least partially changed, the terminal device of the first user,
displaying an image showing the progress of the game played by the first user and/or the second user in place of at least part of the first image;
The control program according to any one of claims 1 to 5 , causing the execution of
前記第1ユーザの端末装置に、
前記第2ユーザによる指示に応じて選択された前記第2候補オブジェクトがゲームに対応する場合、前記第1ユーザ及び/又は前記第2ユーザによってプレイされる前記ゲームの進行を示す画像を、前記第2画像の少なくとも一部に替えて表示すること、
を実行させる、請求項1~5のいずれか一項に記載の制御プログラム。
to the terminal device of the first user,
When the second candidate object selected according to the instruction by the second user corresponds to a game, an image showing the progress of the game played by the first user and/or the second user is displayed. , displaying in place of at least part of the second image;
The control program according to any one of claims 1 to 5 , causing the execution of
第1ユーザの端末装置及び前記第1ユーザとは異なる第2ユーザの端末装置のそれぞれと通信可能なサーバ装置の制御プログラムであって、
前記第1ユーザを示す第1オブジェクトを含む第1画像の表示に関する情報を、前記第1ユーザの端末装置から受信し、前記第2ユーザを示す第2オブジェクトを含む第2画像の表示に関する情報を、前記第2ユーザの端末装置から受信し、
前記第1画像を少なくとも表示するための情報を、少なくとも前記第2ユーザの端末装置に送信し、前記第2画像を少なくとも表示するための情報を、少なくとも前記第1ユーザの端末装置に送信し
前記第1ユーザの第1音声を受信した場合、前記第1音声を前記第2ユーザの端末装置に送信し、
前記第1ユーザの動作又は前記第1音声に応じて変化する前記第1オブジェクトを含む前記第1画像を表示するための情報を、少なくとも前記第2ユーザの端末装置に送信し、
前記第2ユーザの第2音声を受信した場合、前記第2音声を前記第1ユーザの端末装置に送信し、
前記第2ユーザの動作又は前記第2音声に応じて変化する前記第2オブジェクトを含む前記第2画像を表示するための情報を、少なくとも前記第1ユーザの端末装置に送信し、
前記第1ユーザによる指示に応じて、少なくとも一部が変更された前記第1画像を表示するための情報を、少なくとも前記第2ユーザの端末装置に送信し、
前記第2ユーザによる指示に応じて、少なくとも一部が変更された前記第2画像を表示するための情報を、少なくとも前記第1ユーザの端末装置に送信すること、
を実行させ
前記第1画像の表示時間及び/又は前記第2画像の表示時間に関する条件を含む所定の条件が満たされた場合、複数の第2候補オブジェクトを含む選択グループに特定の前記第2候補オブジェクトが含まれるか、又は、前記選択グループから一部の前記第2候補オブジェクトが削除され、
少なくとも一部が変更された前記第1画像の表示において、前記サーバ装置に、
前記選択グループの中から前記第2ユーザによる指示に応じて選択された前記第2候補オブジェクトに対応する第3オブジェクトを含む前記第1画像を表示するための情報を、少なくとも前記第2ユーザの端末装置に送信すること、
を実行させる、ことを特徴とする制御プログラム。
A control program for a server device capable of communicating with each of a terminal device of a first user and a terminal device of a second user different from the first user,
Information on display of a first image including a first object representing the first user is received from a terminal device of the first user, and information on display of a second image including a second object representing the second user is received. , received from the terminal device of the second user,
transmitting information for at least displaying the first image to at least the terminal device of the second user, and transmitting information for at least displaying the second image to at least the terminal device of the first user; when receiving the first voice of the first user, transmitting the first voice to the terminal device of the second user;
transmitting information for displaying the first image including the first object that changes according to the first user's action or the first voice to at least the second user's terminal device;
when receiving the second voice of the second user, transmitting the second voice to the terminal device of the first user;
transmitting, to at least the first user's terminal device, information for displaying the second image including the second object that changes according to the second user's motion or the second voice;
transmitting, to at least the second user's terminal device, information for displaying the first image, at least a part of which has been changed, in accordance with an instruction from the first user;
transmitting, to at least the terminal device of the first user, information for displaying the second image, at least a part of which has been changed, in accordance with an instruction from the second user;
and
a specific second candidate object is included in a selection group including a plurality of second candidate objects if a predetermined condition including a condition relating to the display time of the first image and/or the display time of the second image is satisfied; or removing some of the second candidate objects from the selection group;
In displaying the first image at least partially changed, the server device:
information for displaying the first image including the third object corresponding to the second candidate object selected from the selection group in accordance with the instruction by the second user, at least the terminal of the second user; transmitting to the device;
A control program characterized by executing
第1ユーザの端末装置であって、
前記第1ユーザを示す第1オブジェクトを含む第1画像と、前記第1ユーザとは異なる第2ユーザを示す第2オブジェクトを含む第2画像とを少なくとも表示し、
前記第1画像の表示に関する情報を前記第2ユーザの端末装置に送信し、
前記第1ユーザの第1音声を取得した場合、前記第1音声を前記第2ユーザの端末装置に送信し、
前記第1ユーザの動作又は前記第1音声に応じて変化する前記第1オブジェクトを含む前記第1画像を表示し、
前記第2ユーザの第2音声を受信した場合、前記第2音声を出力し、
前記第2ユーザの動作又は前記第2音声に応じて変化する前記第2オブジェクトを含む前記第2画像を表示し、
前記第1ユーザによる指示又は前記第2ユーザによる指示に応じて、少なくとも一部が変更された前記第1画像又は少なくとも一部が変更された前記第2画像を表示する、処理部
を備え
前記処理部が、少なくとも一部が変更された前記第1画像の表示において、
前記第1画像の表示時間及び/又は前記第2画像の表示時間に関する条件を含む所定の条件が満たされた場合、複数の第2候補オブジェクトを含む選択グループに特定の前記第2候補オブジェクトを含めるか、又は、前記選択グループから一部の前記第2候補オブジェクトを削除し、
前記選択グループの中から前記第2ユーザによる指示に応じて選択された前記第2候補オブジェクトに対応する第3オブジェクトを含む前記第1画像を表示する、
ことを特徴とする端末装置。
A terminal device of the first user,
displaying at least a first image including a first object representing the first user and a second image including a second object representing a second user different from the first user;
transmitting information regarding the display of the first image to the terminal device of the second user;
when acquiring the first voice of the first user, transmitting the first voice to the terminal device of the second user;
displaying the first image including the first object that changes according to the first user's action or the first sound;
when receiving the second voice of the second user, outputting the second voice;
displaying the second image including the second object that changes according to the second user's action or the second sound;
a processing unit that displays the first image at least partially changed or the second image at least partially changed in response to an instruction by the first user or an instruction by the second user ;
In the display of the first image in which the processing unit is at least partially changed,
including a particular second candidate object in a selection group comprising a plurality of second candidate objects if a predetermined condition including a condition relating to the display time of the first image and/or the display time of the second image is met; or removing some of the second candidate objects from the selection group;
displaying the first image including a third object corresponding to the second candidate object selected from the selection group in accordance with an instruction by the second user;
A terminal device characterized by:
第1ユーザの端末装置及び前記第1ユーザとは異なる第2ユーザの端末装置のそれぞれと通信可能なサーバ装置であって、
前記第1ユーザを示す第1オブジェクトを含む第1画像の表示に関する情報を、前記第1ユーザの端末装置から受信し、前記第2ユーザを示す第2オブジェクトを含む第2画像の表示に関する情報を、前記第2ユーザの端末装置から受信し、
前記第1画像を少なくとも表示するための情報を、少なくとも前記第2ユーザの端末装置に送信し、前記第2画像を少なくとも表示するための情報を、少なくとも前記第1ユーザの端末装置に送信し、
前記第1ユーザの第1音声を受信した場合、前記第1音声を前記第2ユーザの端末装置に送信し、
前記第1ユーザの動作又は前記第1音声に応じて変化する前記第1オブジェクトを含む前記第1画像を表示するための情報を、少なくとも前記第2ユーザの端末装置に送信し、
前記第2ユーザの第2音声を受信した場合、前記第2音声を前記第1ユーザの端末装置に送信し、
前記第2ユーザの動作又は前記第2音声に応じて変化する前記第2オブジェクトを含む前記第2画像を表示するための情報を、少なくとも前記第1ユーザの端末装置に送信し、
前記第1ユーザによる指示に応じて、少なくとも一部が変更された前記第1画像を表示するための情報を、少なくとも前記第2ユーザの端末装置に送信し、
前記第2ユーザによる指示に応じて、少なくとも一部が変更された前記第2画像を表示するための情報を、少なくとも前記第1ユーザの端末装置に送信する、処理部
を備え
前記第1画像の表示時間及び/又は前記第2画像の表示時間に関する条件を含む所定の条件が満たされた場合、複数の第2候補オブジェクトを含む選択グループに特定の前記第2候補オブジェクトが含まれるか、又は、前記選択グループから一部の前記第2候補オブジェクトが削除され、
前記処理部が、少なくとも一部が変更された前記第1画像の表示において、
前記選択グループの中から前記第2ユーザによる指示に応じて選択された前記第2候補オブジェクトに対応する第3オブジェクトを含む前記第1画像を表示するための情報を、少なくとも前記第2ユーザの端末装置に送信する、
ことを特徴とするサーバ装置。
A server device capable of communicating with each of a terminal device of a first user and a terminal device of a second user different from the first user,
Information on display of a first image including a first object representing the first user is received from a terminal device of the first user, and information on display of a second image including a second object representing the second user is received. , received from the terminal device of the second user,
transmitting information for at least displaying the first image to at least the terminal device of the second user, transmitting information for displaying at least the second image to at least the terminal device of the first user;
when receiving the first voice of the first user, transmitting the first voice to the terminal device of the second user;
transmitting information for displaying the first image including the first object that changes according to the first user's action or the first voice to at least the second user's terminal device;
when receiving the second voice of the second user, transmitting the second voice to the terminal device of the first user;
transmitting, to at least the first user's terminal device, information for displaying the second image including the second object that changes according to the second user's motion or the second voice;
transmitting, to at least the second user's terminal device, information for displaying the first image, at least a part of which has been changed, in accordance with an instruction from the first user;
a processing unit that transmits, to at least the first user's terminal device, information for displaying the second image, at least a part of which has been changed, in accordance with an instruction from the second user ;
a specific second candidate object is included in a selection group including a plurality of second candidate objects if a predetermined condition including a condition relating to the display time of the first image and/or the display time of the second image is satisfied; or removing some of the second candidate objects from the selection group;
In the display of the first image in which the processing unit is at least partially changed,
information for displaying the first image including the third object corresponding to the second candidate object selected from the selection group in accordance with the instruction by the second user, at least the terminal of the second user; send to the device,
A server device characterized by:
第1ユーザの端末装置の制御方法であって、
前記第1ユーザの端末装置が、
前記第1ユーザを示す第1オブジェクトを含む第1画像と、前記第1ユーザとは異なる第2ユーザを示す第2オブジェクトを含む第2画像とを少なくとも表示し、
前記第1画像の表示に関する情報を前記第2ユーザの端末装置に送信し、
前記第1ユーザの第1音声を取得した場合、前記第1音声を前記第2ユーザの端末装置に送信し、
前記第1ユーザの動作又は前記第1音声に応じて変化する前記第1オブジェクトを含む前記第1画像を表示し、
前記第2ユーザの第2音声を受信した場合、前記第2音声を出力し、
前記第2ユーザの動作又は前記第2音声に応じて変化する前記第2オブジェクトを含む前記第2画像を表示し、
前記第1ユーザによる指示又は前記第2ユーザによる指示に応じて、少なくとも一部が変更された前記第1画像又は少なくとも一部が変更された前記第2画像を表示すること、
を含み、
少なくとも一部が変更された前記第1画像の表示において、前記第1ユーザの端末装置が、
前記第1画像の表示時間及び/又は前記第2画像の表示時間に関する条件を含む所定の条件が満たされた場合、複数の第2候補オブジェクトを含む選択グループに特定の前記第2候補オブジェクトを含めるか、又は、前記選択グループから一部の前記第2候補オブジェクトを削除し、
前記選択グループの中から前記第2ユーザによる指示に応じて選択された前記第2候補オブジェクトに対応する第3オブジェクトを含む前記第1画像を表示すること、
を更に含むことを特徴とする制御方法。
A method for controlling a terminal device of a first user,
The terminal device of the first user,
displaying at least a first image including a first object representing the first user and a second image including a second object representing a second user different from the first user;
transmitting information regarding the display of the first image to the terminal device of the second user;
when acquiring the first voice of the first user, transmitting the first voice to the terminal device of the second user;
displaying the first image including the first object that changes according to the first user's action or the first sound;
when receiving the second voice of the second user, outputting the second voice;
displaying the second image including the second object that changes according to the second user's action or the second sound;
displaying the at least partially changed first image or the at least partially changed second image in response to an instruction by the first user or an instruction by the second user;
including
In displaying the first image at least partially changed, the terminal device of the first user,
including a particular second candidate object in a selection group comprising a plurality of second candidate objects if a predetermined condition including a condition relating to the display time of the first image and/or the display time of the second image is met; or removing some of the second candidate objects from the selection group;
displaying the first image including a third object corresponding to the second candidate object selected from the selection group in accordance with an instruction by the second user;
A control method, further comprising :
第1ユーザの端末装置及び前記第1ユーザとは異なる第2ユーザの端末装置のそれぞれと通信可能なサーバ装置の制御方法であって、
前記第1ユーザを示す第1オブジェクトを含む第1画像の表示に関する情報を、前記第1ユーザの端末装置から受信し、前記第2ユーザを示す第2オブジェクトを含む第2画像の表示に関する情報を、前記第2ユーザの端末装置から受信し、
前記第1画像を少なくとも表示するための情報を、少なくとも前記第2ユーザの端末装置に送信し、前記第2画像を少なくとも表示するための情報を、少なくとも前記第1ユーザの端末装置に送信し、
前記第1ユーザの第1音声を受信した場合、前記第1音声を前記第2ユーザの端末装置に送信し、
前記第1ユーザの動作又は前記第1音声に応じて変化する前記第1オブジェクトを含む前記第1画像を表示するための情報を、少なくとも前記第2ユーザの端末装置に送信し、
前記第2ユーザの第2音声を受信した場合、前記第2音声を前記第1ユーザの端末装置に送信し、
前記第2ユーザの動作又は前記第2音声に応じて変化する前記第2オブジェクトを含む前記第2画像を表示するための情報を、少なくとも前記第1ユーザの端末装置に送信し、
前記第1ユーザによる指示に応じて、少なくとも一部が変更された前記第1画像を表示するための情報を、少なくとも前記第2ユーザの端末装置に送信し、
前記第2ユーザによる指示に応じて、少なくとも一部が変更された前記第2画像を表示するための情報を、少なくとも前記第1ユーザの端末装置に送信すること、
を含み、
前記第1画像の表示時間及び/又は前記第2画像の表示時間に関する条件を含む所定の条件が満たされた場合、複数の第2候補オブジェクトを含む選択グループに特定の前記第2候補オブジェクトが含まれるか、又は、前記選択グループから一部の前記第2候補オブジェクトが削除され、
少なくとも一部が変更された前記第1画像の表示において、前記サーバ装置が、
前記選択グループの中から前記第2ユーザによる指示に応じて選択された前記第2候補オブジェクトに対応する第3オブジェクトを含む前記第1画像を表示するための情報を、少なくとも前記第2ユーザの端末装置に送信すること、
を含むことを特徴とする制御方法。
A control method for a server device capable of communicating with each of a terminal device of a first user and a terminal device of a second user different from the first user,
Information on display of a first image including a first object representing the first user is received from a terminal device of the first user, and information on display of a second image including a second object representing the second user is received. , received from the terminal device of the second user,
transmitting information for at least displaying the first image to at least the terminal device of the second user, transmitting information for displaying at least the second image to at least the terminal device of the first user;
when receiving the first voice of the first user, transmitting the first voice to the terminal device of the second user;
transmitting information for displaying the first image including the first object that changes according to the first user's action or the first voice to at least the second user's terminal device;
when receiving the second voice of the second user, transmitting the second voice to the terminal device of the first user;
transmitting, to at least the first user's terminal device, information for displaying the second image including the second object that changes according to the second user's motion or the second voice;
transmitting, to at least the second user's terminal device, information for displaying the first image, at least a part of which has been changed, in accordance with an instruction from the first user;
transmitting, to at least the terminal device of the first user, information for displaying the second image, at least a part of which has been changed, in accordance with an instruction from the second user;
including
a specific second candidate object is included in a selection group including a plurality of second candidate objects if a predetermined condition including a condition relating to the display time of the first image and/or the display time of the second image is satisfied; or removing some of the second candidate objects from the selection group;
In displaying the first image, at least a portion of which has been changed, the server device
information for displaying the first image including the third object corresponding to the second candidate object selected from the selection group according to the instruction by the second user, at least the terminal of the second user; transmitting to the device;
A control method comprising :
JP2022042722A 2022-03-17 2022-03-17 Terminal device control program, terminal device, terminal device control method, server device control program, server device, and server device control method Active JP7333529B1 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2022042722A JP7333529B1 (en) 2022-03-17 2022-03-17 Terminal device control program, terminal device, terminal device control method, server device control program, server device, and server device control method
US18/090,492 US20230298294A1 (en) 2022-03-17 2022-12-29 Control program of terminal device, terminal device, method of controlling terminal device, control program of server device, server device, and method of controlling server device
JP2023126118A JP2023138621A (en) 2022-03-17 2023-08-02 Control program of terminal device, terminal device, method of controlling terminal device, control program of server device, server device, and method of controlling server device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022042722A JP7333529B1 (en) 2022-03-17 2022-03-17 Terminal device control program, terminal device, terminal device control method, server device control program, server device, and server device control method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023126118A Division JP2023138621A (en) 2022-03-17 2023-08-02 Control program of terminal device, terminal device, method of controlling terminal device, control program of server device, server device, and method of controlling server device

Publications (2)

Publication Number Publication Date
JP7333529B1 true JP7333529B1 (en) 2023-08-25
JP2023136814A JP2023136814A (en) 2023-09-29

Family

ID=87654355

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2022042722A Active JP7333529B1 (en) 2022-03-17 2022-03-17 Terminal device control program, terminal device, terminal device control method, server device control program, server device, and server device control method
JP2023126118A Pending JP2023138621A (en) 2022-03-17 2023-08-02 Control program of terminal device, terminal device, method of controlling terminal device, control program of server device, server device, and method of controlling server device

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023126118A Pending JP2023138621A (en) 2022-03-17 2023-08-02 Control program of terminal device, terminal device, method of controlling terminal device, control program of server device, server device, and method of controlling server device

Country Status (1)

Country Link
JP (2) JP7333529B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021149407A (en) 2020-03-18 2021-09-27 グリー株式会社 Information process system, information processing method, and computer program
JP2021158558A (en) 2020-03-27 2021-10-07 グリー株式会社 Moving image application program, object drawing method of moving image, moving image management program, moving image management method, server and moving image distribution system
JP2021174422A (en) 2020-04-30 2021-11-01 グリー株式会社 Moving image distribution device, moving image distribution method and moving image distribution program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021149407A (en) 2020-03-18 2021-09-27 グリー株式会社 Information process system, information processing method, and computer program
JP2021158558A (en) 2020-03-27 2021-10-07 グリー株式会社 Moving image application program, object drawing method of moving image, moving image management program, moving image management method, server and moving image distribution system
JP2021174422A (en) 2020-04-30 2021-11-01 グリー株式会社 Moving image distribution device, moving image distribution method and moving image distribution program

Also Published As

Publication number Publication date
JP2023138621A (en) 2023-10-02
JP2023136814A (en) 2023-09-29

Similar Documents

Publication Publication Date Title
JP2022130508A (en) Video distribution system for live-distributing video including animation of character object generated on the basis of motions of distributing user, method for distributing video, and video distribution program
US20220233956A1 (en) Program, method, and information terminal device
US11707673B2 (en) Apparatus and method for streaming video data to viewing terminals
JP7442091B2 (en) Video distribution device, video distribution method, and video distribution program
KR20230159481A (en) Programs, methods, and information processing devices
JP7462912B2 (en) Video distribution system, video distribution method, and video distribution program
US20220323862A1 (en) Program, method, and information processing terminal
US20220297006A1 (en) Program, method, and terminal device
JP2023171797A (en) Control program for terminal device, terminal device, control method for terminal device, control program for server device, server device, and control method for server device
JP2024041749A (en) Moving image distribution system, moving image distribution method, and moving image distribution program
JP7333529B1 (en) Terminal device control program, terminal device, terminal device control method, server device control program, server device, and server device control method
JP2020113857A (en) Live communication system using character
JP7312975B1 (en) Terminal device control program, terminal device, terminal device control method, server device control program, server device, and server device control method
JP7398069B2 (en) Terminal device control program, terminal device, terminal device control method, server device control program, server device, and server device control method
JP7335572B1 (en) Information processing system, control method, and server device
US20230298294A1 (en) Control program of terminal device, terminal device, method of controlling terminal device, control program of server device, server device, and method of controlling server device
JP7410525B1 (en) Information processing system, control method, and server device
JP7421762B1 (en) Information processing system, control method, and server device
US20240106778A1 (en) Information processing system, control method, and server device
JP2024052539A (en) Information processing device, control method, and server device
JP7563704B2 (en) Video distribution system, video distribution method, and video distribution program for live-distributing video including animation of character object generated based on the movement of a broadcasting user
JP7379427B2 (en) Video distribution system, video distribution method, and video distribution program for live distribution of videos including character object animations generated based on the movements of distribution users
WO2019095131A1 (en) Call method, client, and storage medium
JP2024016015A (en) Program, information processing method, and information processing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220317

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230425

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230623

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230704

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230802

R150 Certificate of patent or registration of utility model

Ref document number: 7333529

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150