JP2021174283A - Computer program, server device, terminal device, and method - Google Patents

Computer program, server device, terminal device, and method Download PDF

Info

Publication number
JP2021174283A
JP2021174283A JP2020078079A JP2020078079A JP2021174283A JP 2021174283 A JP2021174283 A JP 2021174283A JP 2020078079 A JP2020078079 A JP 2020078079A JP 2020078079 A JP2020078079 A JP 2020078079A JP 2021174283 A JP2021174283 A JP 2021174283A
Authority
JP
Japan
Prior art keywords
predetermined
avatar
facial expression
pose
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020078079A
Other languages
Japanese (ja)
Other versions
JP7329217B2 (en
Inventor
匡志 渡邊
Masashi Watanabe
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GREE Inc
Original Assignee
GREE Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GREE Inc filed Critical GREE Inc
Priority to JP2020078079A priority Critical patent/JP7329217B2/en
Priority to PCT/JP2021/015347 priority patent/WO2021210585A1/en
Publication of JP2021174283A publication Critical patent/JP2021174283A/en
Priority to JP2021208605A priority patent/JP2022033220A/en
Priority to US17/956,873 priority patent/US20230023653A1/en
Application granted granted Critical
Publication of JP7329217B2 publication Critical patent/JP7329217B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

To provide a computer program, a server device, a terminal device and a method capable of expressing an avatar more appropriately.SOLUTION: The computer program is executed by one or more processors, acquires information relating to one or more selected from a predetermined action of an avatar played by a distributor, the avatar's expression, the avatar's complexion, the avatar's voice or a predetermined situation caused in relation to the avatar in a virtual space, determines whether or not the acquired information satisfies the predetermined conditions, and when determining that the predetermined conditions are satisfied, generates information for causing the avatar's expression or pause relating to the distributer generated based on an expression or pause relating to the distributer to be a predetermined expression or pause corresponding to the predetermined conditions, and displays an avatar to which the predetermined expression or pause is applied.SELECTED DRAWING: Figure 8

Description

本件出願に開示された技術は、コンピュータプログラム、サーバ装置、端末装置及び方法に関する。 The techniques disclosed in this application relate to computer programs, server devices, terminal devices and methods.

近年、配信者が演じるアバターを用いた技術が発展している。この種の技術においては、配信サービスを介して、配信者が演じるアバターを、視聴者が視聴可能なようにされている。 In recent years, technology using avatars played by distributors has been developed. In this kind of technology, the viewer can watch the avatar played by the distributor through the distribution service.

また、アバターを用いたサービスに関連して、アバターオブジェクトの表情や動作を演者等の動作に基づいて制御する技術を利用したサービスとして、「カスタムキャスト」と称されるサービスが知られている(非特許文献1)。このサービスでは、演者は、スマートフォンの画面に対する複数のフリック方向の各々に対して、用意された多数の表情や動作のうちのいずれかの表情又は動作を予め割り当てておき、所望する表情又は動作に対応する方向に沿って演者がスマートフォンの画面をフリックすることにより、その動画に表示されるアバターオブジェクトにその表情又は動作を表現させることができる。 Further, in relation to the service using an avatar, a service called "custom cast" is known as a service using a technique of controlling the facial expression and movement of an avatar object based on the movement of a performer or the like ("custom cast" is known. Non-Patent Document 1). In this service, the performer assigns one of a large number of prepared facial expressions or movements in advance to each of the plurality of flick directions with respect to the screen of the smartphone, and obtains the desired facial expression or movement. By flicking the screen of the smartphone along the corresponding direction, the avatar object displayed in the moving image can express the facial expression or movement.

"カスタムキャスト"、[online]、Custom Cast Inc.、[2019年12月10日検索]、インターネット(URL: https://customcast.jp/)"Custom Cast", [online], Custom Cast Inc., [Search December 10, 2019], Internet (URL: https://customcast.jp/)

しかしながら、非特許文献1に開示される技術においては、演者が発話しながらスマートフォンの画面をフリックしなければならず、演者にとっては当該フリックの操作を行う困難がある。 However, in the technique disclosed in Non-Patent Document 1, the performer must flick the screen of the smartphone while speaking, and it is difficult for the performer to operate the flick.

なお、上記非特許文献1は、引用によりその全体が本明細書に組み入れられる。 The entire non-patent document 1 is incorporated in the present specification by citation.

本件出願において開示された幾つかの実施形態は、アバターをより適切に表現可能な、コンピュータプログラム、サーバ装置、端末装置、及び方法を提供する。 Some embodiments disclosed in this application provide computer programs, server devices, terminal devices, and methods that can better represent avatars.

一態様に係るコンピュータプログラムは、一又は複数のプロセッサにより実行されることにより、仮想空間内において、配信者が演じるアバターの所定の動作、前記アバターの表情、前記アバターの顔色、前記アバターの声、又は、前記アバターに関して生じる所定の状況、のいずれか一つ又は複数に係る情報を取得し、前記取得した情報が所定の条件を充足するか否かを判定し、前記取得した情報に係る所定の条件が充足すると判定した場合に、前記配信者に係る表情又はポーズに基づいて生成されていた前記配信者に係るアバターの表情又はポーズを、前記所定の条件に対応する所定の表情又はポーズを、前記アバターの表情とするための情報を生成し、前記所定の表情又はポーズが適用された、前記アバターを表示する、ものである。 The computer program according to one aspect is executed by one or more processors to perform a predetermined action of the avatar played by the distributor, the expression of the avatar, the complexion of the avatar, the voice of the avatar, and the like. Alternatively, the information relating to any one or more of the predetermined situations occurring with respect to the avatar is acquired, it is determined whether or not the acquired information satisfies the predetermined conditions, and the predetermined information relating to the acquired information is determined. When it is determined that the conditions are satisfied, the avatar's facial expression or pose related to the distributor, which was generated based on the facial expression or pose related to the distributor, is changed to the predetermined facial expression or pose corresponding to the predetermined condition. Information for making the avatar's facial expression is generated, and the avatar to which the predetermined facial expression or pose is applied is displayed.

一態様に係るコンピュータプログラムは、一又は複数のプロセッサにより実行されることにより、仮想空間内において、配信者が演じるアバターの所定の動作、前記アバターの表情、前記アバターの顔色、前記アバターの声、又は、前記アバターに関して生じる所定の状況、のいずれか一つ又は複数に係る情報を取得し、前記取得した情報が所定の条件を充足するか否かを判定し、前記所定の条件が充足すると判定した場合に、前記配信者に係る表情又はポーズに基づいて生成されていた前記配信者に係るアバターの表情又はポーズを、前記所定の条件に対応する所定の表情又はポーズとするための情報を生成し、前記所定の表情又はポーズとするための情報を、送信する、ものである。 The computer program according to one aspect is executed by one or more processors to perform a predetermined action of the avatar played by the distributor, the facial expression of the avatar, the complexion of the avatar, the voice of the avatar, and the like. Alternatively, it acquires information relating to any one or more of the predetermined situations that occur with respect to the avatar, determines whether or not the acquired information satisfies the predetermined conditions, and determines that the predetermined conditions are satisfied. In this case, information is generated to make the facial expression or pose of the avatar related to the distributor, which was generated based on the facial expression or pose related to the distributor, into a predetermined facial expression or pose corresponding to the predetermined condition. Then, the information for making the predetermined facial expression or pose is transmitted.

一態様によるサーバ装置は、一又は複数のプロセッサを具備し、前記プロセッサが、コンピュータにより読み取り可能な命令を実行することにより、仮想空間内において、配信者が演じるアバターの所定の動作、前記アバターの表情、前記アバターの顔色、前記アバターの声、又は、前記アバターに関して生じる所定の状況、のいずれか一つ又は複数に係る情報を取得し、前記取得した情報が所定の条件を充足するか否かを判定し、前記所定の条件が充足すると判定した場合に、前記配信者に係る表情又はポーズに基づいて生成されていた前記配信者に係るアバターの表情又はポーズを、前記所定の条件に対応する所定の表情又はポーズとするための情報を生成し、前記所定の表情又はポーズとするための情報を、送信する、ものである。 The server device according to one aspect includes one or more processors, and the processor executes a computer-readable instruction to perform a predetermined operation of the avatar played by the distributor in the virtual space. Whether or not information relating to one or more of facial expressions, the complexion of the avatar, the voice of the avatar, or a predetermined situation occurring with respect to the avatar is acquired, and the acquired information satisfies the predetermined conditions. When it is determined that the predetermined condition is satisfied, the facial expression or pose of the avatar related to the distributor, which has been generated based on the facial expression or pose related to the distributor, corresponds to the predetermined condition. It generates information for making a predetermined facial expression or pose, and transmits the information for making the predetermined facial expression or pose.

一態様による方法は、コンピュータにより読み取り可能な命令を実行する一又は複数のプロセッサにより実行される方法であって、仮想空間内において、配信者が演じるアバターの所定の動作、前記アバターの表情、前記アバターの顔色、前記アバターの声、又は、前記アバターに関して生じる所定の状況、のいずれか一つ又は複数に係る情報を取得し、前記取得した情報が所定の条件を充足するか否かを判定し、前記取得した情報に係る所定の条件が充足すると判定した場合に、前記配信者に係る表情又はポーズに基づいて生成されていた前記配信者に係るアバターの表情又はポーズを、前記所定の条件に対応する所定の表情又はポーズを、前記アバターの表情とするための情報を生成し、前記所定の表情又はポーズが適用された、前記アバターを表示する、ものである。 The method according to one aspect is a method executed by one or more processors that execute a command readable by a computer, and a predetermined action of an avatar played by a distributor in a virtual space, the expression of the avatar, the above-mentioned. Acquires information relating to any one or more of the complexion of the avatar, the voice of the avatar, or the predetermined situation that occurs with respect to the avatar, and determines whether or not the acquired information satisfies the predetermined conditions. , When it is determined that the predetermined condition related to the acquired information is satisfied, the facial expression or pose of the avatar related to the distributor, which was generated based on the facial expression or pose related to the distributor, is set to the predetermined condition. Information for making the corresponding predetermined expression or pose into the expression of the avatar is generated, and the avatar to which the predetermined expression or pose is applied is displayed.

一態様による方法は、コンピュータにより読み取り可能な命令を実行する一又は複数のプロセッサにより実行される方法であって、仮想空間内において、配信者が演じるアバターの所定の動作、前記アバターの表情、前記アバターの顔色、前記アバターの声、又は、前記アバターに関して生じる所定の状況、のいずれか一つ又は複数に係る情報を取得し、前記取得した情報が所定の条件を充足するか否かを判定し、前記所定の条件が充足すると判定した場合に、前記配信者に係る表情又はポーズに基づいて生成されていた前記配信者に係るアバターの表情又はポーズを、前記所定の条件に対応する所定の表情又はポーズとするための情報を生成し、前記所定の表情又はポーズとするための情報を、送信する、ものである。 The method according to one aspect is a method executed by one or more processors that execute a computer-readable instruction, such as a predetermined action of the avatar played by the distributor, the facial expression of the avatar, and the above. Acquires information relating to any one or more of the complexion of the avatar, the voice of the avatar, or the predetermined situation that occurs with respect to the avatar, and determines whether or not the acquired information satisfies the predetermined conditions. , When it is determined that the predetermined condition is satisfied, the facial expression or pose of the avatar related to the distributor, which has been generated based on the facial expression or pose related to the distributor, is changed to the predetermined facial expression corresponding to the predetermined condition. Alternatively, the information for making a pose is generated, and the information for making the predetermined facial expression or pose is transmitted.

一態様による視聴者端末装置は、一又は複数のプロセッサを具備し、前記プロセッサが、コンピュータにより読み取り可能な命令を実行することにより、仮想空間内において、配信者が演じるアバターの所定の動作、前記アバターの表情、前記アバターの顔色、前記アバターの声、又は、前記アバターに関して生じる所定の状況、のいずれか一つ又は複数に係る情報を取得し、前記取得した情報が所定の条件を充足するか否かを判定し、前記取得した情報に係る所定の条件が充足すると判定した場合に、前記配信者に係る表情又はポーズに基づいて生成されていた前記配信者に係るアバターの表情又はポーズを、前記所定の条件に対応する所定の表情又はポーズを、前記アバターの表情とするための情報を生成し、前記所定の表情又はポーズが適用された、前記アバターを表示する、ものである。 The viewer terminal device according to one aspect includes one or more processors, and the processor executes a computer-readable instruction to perform a predetermined operation of the avatar played by the distributor in the virtual space. Whether to acquire information relating to any one or more of the avatar's facial expression, the avatar's complexion, the avatar's voice, or the predetermined situation occurring with respect to the avatar, and whether the acquired information satisfies the predetermined conditions. When it is determined whether or not, and it is determined that the predetermined condition related to the acquired information is satisfied, the expression or pose of the avatar related to the distributor generated based on the expression or pose related to the distributor is displayed. Information for making a predetermined expression or pose corresponding to the predetermined condition into the expression of the avatar is generated, and the avatar to which the predetermined expression or pose is applied is displayed.

一態様による配信者端末装置は、一又は複数のプロセッサを具備し、前記プロセッサが、コンピュータにより読み取り可能な命令を実行することにより、仮想空間内において、配信者が演じるアバターの所定の動作、前記アバターの表情、前記アバターの顔色、前記アバターの声、又は、前記アバターに関して生じる所定の状況、のいずれか一つ又は複数に係る情報を取得し、前記取得した情報が所定の条件を充足するか否かを判定し、前記所定の条件が充足すると判定した場合に、前記配信者に係る表情又はポーズに基づいて生成されていた前記配信者に係るアバターの表情又はポーズを、前記所定の条件に対応する所定の表情又はポーズとするための情報を生成し、前記所定の表情又はポーズとするための情報を、送信する、ものである。 The distributor terminal device according to one aspect includes one or more processors, and the processor executes a computer-readable instruction to perform a predetermined operation of the avatar played by the distributor in the virtual space. Whether to acquire information relating to one or more of the facial expression of the avatar, the complexion of the avatar, the voice of the avatar, or the predetermined situation occurring with respect to the avatar, and whether the acquired information satisfies the predetermined conditions. When it is determined whether or not the condition is satisfied, the facial expression or pose of the avatar related to the distributor, which has been generated based on the facial expression or pose related to the distributor, is set to the predetermined condition. It generates information for making a corresponding predetermined facial expression or pose, and transmits the information for making the predetermined facial expression or pose.

図1は、一実施形態に係るシステムの構成の一例を示すブロック図である。FIG. 1 is a block diagram showing an example of a system configuration according to an embodiment. 図2は、図1に示したサーバ装置20(端末装置30)のハードウェア構成の一例を模式的に示すブロック図である。FIG. 2 is a block diagram schematically showing an example of the hardware configuration of the server device 20 (terminal device 30) shown in FIG. 図3は、一実施形態に係るシステムの機能の一例を模式的に示すブロック図である。FIG. 3 is a block diagram schematically showing an example of the function of the system according to the embodiment. 図4は、一実施形態に係るシステムが有するデータの一例である。FIG. 4 is an example of data possessed by the system according to the embodiment. 図5は、一実施形態に係るシステムが有するデータの一例である。FIG. 5 is an example of data possessed by the system according to the embodiment. 図6は、一実施形態に係るシステムが処理するフローの一例である。FIG. 6 is an example of a flow processed by the system according to the embodiment. 図7は、一実施形態に係るシステムが処理するフローの一例である。FIG. 7 is an example of a flow processed by the system according to the embodiment. 図8は、一実施形態に係るシステムが処理するフローの一例である。FIG. 8 is an example of a flow processed by the system according to the embodiment.

以下、添付図面を参照して本発明の様々な実施形態を説明する。或る図面に表現された構成要素が、説明の便宜上、別の図面においては省略されていることがある点に留意されたい。さらにまた、添付した図面は、本願発明の一実施形態を開示するものではあるものの、必ずしも正確な縮尺で記載されている訳ではないということに注意されたい。また、本願書類において、アプリケーションという用語が示す対象は、ソフトウェア、又はプログラムと呼ばれるものであってよく、コンピュータに対する指令であって、結果を得ることができるように組み合わされたものであればよい。 Hereinafter, various embodiments of the present invention will be described with reference to the accompanying drawings. It should be noted that the components represented in one drawing may be omitted in another for convenience of explanation. Furthermore, it should be noted that although the attached drawings disclose one embodiment of the present invention, they are not necessarily described on an exact scale. Further, in the documents of the present application, the object indicated by the term application may be what is called software or a program, and may be a command to a computer, which may be combined so as to obtain a result.

1.システムの例
図1は、一実施形態に係るシステムの構成の一例を示すブロック図である。図1に示すように、システム1は、通信網10に接続される1又はそれ以上のサーバ装置20と、通信網10に接続される1又はそれ以上の端末装置30と、を含んでよい。なお、図1には、サーバ装置20の例として、3つのサーバ装置20A〜20Cが例示され、端末装置30の例として、3つの端末装置30A〜30Cが例示されているが、サーバ装置20として、これら以外の1又はそれ以上のサーバ装置20が通信網10に接続され得るし、端末装置30として、これら以外の1又はそれ以上の端末装置30が通信網10に接続され得る。なお、本出願書類において、システムという用語を、サーバと端末装置の両方を含む場合もあれば、サーバのみ、又は、端末装置のみ、を示す用語としても用いる。すなわち、システムは、サ―バのみ、端末装置のみ、サーバ及び端末装置の両方、のいずれの態様であってもよい。
1. 1. Example of a system FIG. 1 is a block diagram showing an example of a system configuration according to an embodiment. As shown in FIG. 1, the system 1 may include one or more server devices 20 connected to the communication network 10 and one or more terminal devices 30 connected to the communication network 10. In FIG. 1, three server devices 20A to 20C are exemplified as an example of the server device 20, and three terminal devices 30A to 30C are exemplified as an example of the terminal device 30, but the server device 20 is used. , One or more server devices 20 other than these can be connected to the communication network 10, and one or more terminal devices 30 other than these can be connected to the communication network 10 as the terminal device 30. In this application document, the term system may be used to indicate both a server and a terminal device, a server only, or a terminal device only. That is, the system may be in any mode of server only, terminal device only, and both server and terminal device.

また、システムは、クラウド上の情報処理装置であってもよい。また、システムは、仮想的な情報処理装置を構成するものであって、論理的に一の情報処理装置と構成されるものであってもよい。また、システムの所有者と管理者は異なってもよい。 Further, the system may be an information processing device on the cloud. Further, the system constitutes a virtual information processing device, and may be logically configured as one information processing device. Also, the owner and administrator of the system may be different.

通信網10は、携帯電話網、無線LAN、固定電話網、インターネット、イントラネット、イーサネット(登録商標)、及び/又はこれらの組み合わせ等であってよく、また、これらに限定されない。通信網10においては、本願書類で開示された種々のデータが通信されてよい。 The communication network 10 may be, and is not limited to, a mobile phone network, a wireless LAN, a fixed telephone network, the Internet, an intranet, an Ethernet (registered trademark), and / or a combination thereof. In the communication network 10, various data disclosed in the documents of the present application may be communicated.

サーバ装置20は、インストールされた特定のアプリケーションを実行することにより、仮想空間内において、配信者が演じるアバターの所定の動作、前記アバターの表情、前記アバターの顔色、前記アバターの声、又は、前記アバターに関して生じる所定の状況、のいずれか一つ又は複数に係る情報を取得し、前記取得した情報が所定の条件を充足するか否かを判定し、前記所定の条件が充足すると判定した場合に、前記配信者に係る表情又はポーズに基づいて生成されていた前記配信者に係るアバターの表情又はポーズを、前記所定の条件に対応する所定の表情又はポーズとするための情報を生成する、
という動作等を実行できてよい。
By executing a specific installed application, the server device 20 executes a predetermined action of the avatar played by the distributor, the facial expression of the avatar, the complexion of the avatar, the voice of the avatar, or the voice of the avatar in the virtual space. When information on any one or more of the predetermined situations that occur with respect to the avatar is acquired, it is determined whether or not the acquired information satisfies the predetermined conditions, and it is determined that the predetermined conditions are satisfied. , Generates information for making the facial expression or pose of the avatar related to the distributor, which was generated based on the facial expression or pose related to the distributor, into a predetermined facial expression or pose corresponding to the predetermined condition.
It may be possible to execute such an operation.

或いはまた、端末装置30は、インストールされたウェブブラウザまたは特定のアプリケーションを実行することにより、仮想空間内において、配信者が演じるアバターの所定の動作、前記アバターの表情、前記アバターの顔色、前記アバターの声、又は、前記アバターに関して生じる所定の状況、のいずれか一つ又は複数に係る情報を取得し、前記取得した情報が所定の条件を充足するか否かを判定し、前記所定の条件が充足すると判定した場合に、前記配信者に係る表情又はポーズに基づいて生成されていた前記配信者に係るアバターの表情又はポーズを、前記所定の条件に対応する所定の表情又はポーズとするための情報を生成する、という動作等を実行できてよい。 Alternatively, by executing the installed web browser or a specific application, the terminal device 30 executes a predetermined action of the avatar played by the distributor, the facial expression of the avatar, the complexion of the avatar, and the avatar in the virtual space. The information relating to any one or more of the voice of the avatar and the predetermined situation occurring with respect to the avatar is acquired, and it is determined whether or not the acquired information satisfies the predetermined condition, and the predetermined condition is satisfied. To make the avatar's facial expression or pose related to the distributor, which was generated based on the facial expression or pose related to the distributor, a predetermined facial expression or pose corresponding to the predetermined condition when it is determined that the condition is satisfied. It may be possible to execute an operation such as generating information.

端末装置30は、このような動作を実行することができる任意の端末装置であって、スマートフォン、タブレット、携帯電話(フィーチャーフォン)及び/又はパーソナルコンピュータ等であってよく、これらに限定されない。 The terminal device 30 is any terminal device capable of performing such an operation, and may be, but is not limited to, a smartphone, a tablet, a mobile phone (feature phone), and / or a personal computer.

2.各装置のハードウェア構成
次に、サーバ装置20が有するハードウェア構成の一例について説明する。
2. Hardware Configuration of Each Device Next, an example of the hardware configuration of the server device 20 will be described.

2−1.サーバ装置20のハードウェア構成
サーバ装置20のハードウェア構成例について図2を参照して説明する。図2は、図1に示したサーバ装置20(端末装置30)のハードウェア構成の一例を模式的に示すブロック図である(なお、図2において、括弧内の参照符号は、後述するように各端末装置30に関連して記載されたものである。)
2-1. Hardware Configuration of Server Device 20 A hardware configuration example of the server device 20 will be described with reference to FIG. FIG. 2 is a block diagram schematically showing an example of the hardware configuration of the server device 20 (terminal device 30) shown in FIG. 1. (Note that reference numerals in parentheses in FIG. 2 are as described later. It is described in relation to each terminal device 30.)

図2に示すように、サーバ装置20は、主に、演算装置21と、主記憶装置22と、入出力インタフェイス装置23を備えることができる。サーバ装置20は、更に、入力装置24と、補助出力装置26と、を含むことができる。これら装置同士は、データバス及び/又は制御バスにより接続されていてよい。 As shown in FIG. 2, the server device 20 can mainly include an arithmetic unit 21, a main storage device 22, and an input / output interface device 23. The server device 20 can further include an input device 24 and an auxiliary output device 26. These devices may be connected by a data bus and / or a control bus.

演算装置21は、主記憶装置22に記憶されている命令及びデータを用いて演算を行い、その演算の結果を主記憶装置22に記憶させるものである。さらに、演算装置21は、入出力インタフェイス装置23を介して、入力装置24、補助記憶装置25及び出力装置26等を制御することができる。サーバ装置20は、1以上の演算装置21を含んでよい。演算装置21は、1又はそれ以上の、中央処理装置(CPU)、マイクロプロセッサ、及び/又は、グラフィックスプロセッシングユニット(GPU)を含んでよい。 The arithmetic unit 21 performs an calculation using the instructions and data stored in the main storage device 22, and stores the result of the calculation in the main storage device 22. Further, the arithmetic unit 21 can control the input device 24, the auxiliary storage device 25, the output device 26, and the like via the input / output interface device 23. The server device 20 may include one or more arithmetic units 21. The arithmetic unit 21 may include one or more central processing units (CPUs), microprocessors, and / or graphics processing units (GPUs).

主記憶装置22は、記憶機能を有し、入力装置24、補助記憶装置25及び通信網10等(サーバ装置20等)から、入出力インタフェイス装置23を介して受信した命令及びデータ、並びに、演算装置21の演算結果を記憶するものである。主記憶装置22は、RAM(ランダムアクセスメモリ)、ROM(リードオンリーメモリ)及び/又はフラッシュメモリ等をこれらに限定することなく含むことができる。 The main storage device 22 has a storage function, and commands and data received from the input device 24, the auxiliary storage device 25, the communication network 10 and the like (server device 20 and the like) via the input / output interface device 23, and It stores the calculation result of the calculation device 21. The main storage device 22 can include RAM (random access memory), ROM (read-only memory) and / or flash memory without limitation.

補助記憶装置25は、記憶装置である。上記特定のアプリケーションやウェブブラウザ等を構成する命令及びデータ(コンピュータプログラム)を記憶してよく、演算装置21により制御されることにより、これらの命令及びデータ(コンピュータプログラム)は入出力インタフェイス装置23を介して主記憶装置22にロードされてよい。補助記憶装置25は、磁気ディスク装置及び/又は光ディスク装置、ファイルサーバ等であってよく、これらに限定されない。 The auxiliary storage device 25 is a storage device. Instructions and data (computer programs) constituting the specific application, web browser, etc. may be stored, and these instructions and data (computer programs) can be stored in the input / output interface device 23 by being controlled by the arithmetic unit 21. It may be loaded into the main storage device 22 via. The auxiliary storage device 25 may be a magnetic disk device and / or an optical disk device, a file server, or the like, and is not limited thereto.

入力装置24は、外部からデータを取り込む装置であり、タッチパネル、ボタン、キーボード、マウス及び/又はセンサ等であってよい。 The input device 24 is a device that takes in data from the outside, and may be a touch panel, a button, a keyboard, a mouse and / or a sensor or the like.

出力装置26は、ディスプレイ装置、タッチパネル及び/又はプリンタ装置等をこれらに限定することなく含むことができてよい。また、入力装置24と出力装置26とが一体化されたものであってもよい。 The output device 26 may include, but is not limited to, a display device, a touch panel, and / or a printer device. Further, the input device 24 and the output device 26 may be integrated.

このようなハードウェア構成にあっては、演算装置21が、補助記憶装置25に記憶された特定のアプリケーションを構成する命令及びデータ(コンピュータプログラム)を順次主記憶装置22にロードし、ロードした命令及びデータを演算することにより、入出力インタフェイス装置23を介して出力装置26を制御し、或いはまた、入出力インタフェイス装置23及び通信網10を介して、他の装置(例えばサーバ装置20及び他の端末装置30等)との間で様々な情報の送受信を行うことができてよい。 In such a hardware configuration, the arithmetic unit 21 sequentially loads the instructions and data (computer programs) that constitute a specific application stored in the auxiliary storage device 25 into the main storage device 22, and the loaded instructions. And by computing the data, the output device 26 is controlled via the input / output interface device 23, or another device (for example, the server device 20 and the server device 20 and) via the input / output interface device 23 and the communication network 10. Various information may be transmitted / received to / from other terminal devices (30, etc.).

サーバ装置20がかかる構成を備え、インストールされた特定のアプリケーションを実行することにより、以下で定義される、仮想空間内において、配信者が演じるアバターの所定の動作、前記アバターの表情、前記アバターの顔色、前記アバターの声、又は、前記アバターに関して生じる所定の状況、のいずれか一つ又は複数に係る情報を取得し、前記取得した情報が所定の条件を充足するか否かを判定し、前記所定の条件が充足すると判定した場合に、前記配信者に係る表情又はポーズに基づいて生成されていた前記配信者に係るアバターの表情又はポーズを、前記所定の条件に対応する所定の表情又はポーズとするための情報を生成する、という動作等(後に詳述する様々な動作を含む)の一部又は全部を実行できてよい。また、かかる動作等は、ユーザーが、入力装置24又は後述する端末装置30に係る入力装置34を用いて、本願書類で開示する発明の一例のシステムに指示を与えることで動作されてよい。また、プログラムが演算装置21上で実行されている場合にはユーザーの利用するシステムとしてのサーバ装置20の出力装置26によって表示されてよく、又はユーザーの利用するシステムとしての端末装置30の出力装置36に表示させる構成であってよい。 The server device 20 has such a configuration, and by executing a specific installed application, a predetermined action of the avatar played by the distributor, the facial expression of the avatar, and the avatar of the avatar are defined below in the virtual space. Information on any one or more of the complexion, the voice of the avatar, or the predetermined situation that occurs with respect to the avatar is acquired, and it is determined whether or not the acquired information satisfies the predetermined conditions. When it is determined that the predetermined conditions are satisfied, the facial expressions or poses of the avatar related to the distributor, which are generated based on the facial expressions or poses related to the distributor, are changed to the predetermined facial expressions or poses corresponding to the predetermined conditions. It may be possible to execute a part or all of an operation (including various operations described in detail later) such as generating information for the above. Further, such an operation or the like may be performed by the user giving an instruction to the system of the example of the invention disclosed in the documents of the present application by using the input device 24 or the input device 34 according to the terminal device 30 described later. Further, when the program is executed on the arithmetic device 21, it may be displayed by the output device 26 of the server device 20 as the system used by the user, or the output device of the terminal device 30 as the system used by the user. It may be configured to be displayed on 36.

2−2.端末装置30のハードウェア構成
端末装置30のハードウェア構成例について同じく図2を参照して説明する。各端末装置30のハードウェア構成としては、例えば、上述した各サーバ装置20のハードウェア構成と同一のものを用いることが可能である。したがって、各端末装置30が有する構成要素に対する参照符号は、図2において括弧内に示されている。
2-2. Hardware Configuration of Terminal Device 30 A hardware configuration example of the terminal device 30 will also be described with reference to FIG. As the hardware configuration of each terminal device 30, for example, the same hardware configuration as that of each server device 20 described above can be used. Therefore, reference numerals for the components of each terminal device 30 are shown in parentheses in FIG.

図2に示すように、各端末装置30は、主に、演算装置31と、主記憶装置32と、入出力インタフェイス装置33と、入力装置34と、補助記憶装置35と、出力装置36と、を含むことができる。これら装置同士は、データバス及び/又は制御バスにより接続されている。 As shown in FIG. 2, each terminal device 30 mainly includes an arithmetic unit 31, a main storage device 32, an input / output interface device 33, an input device 34, an auxiliary storage device 35, and an output device 36. , Can be included. These devices are connected by a data bus and / or a control bus.

演算装置31、主記憶装置32、入出力インタフェイス装置33、入力装置34、補助記憶装置35及び出力装置36は、それぞれ、上述した各サーバ装置20に含まれる、演算装置21、主記憶装置22、入出力インタフェイス装置23、入力装置24、補助記憶装置25及び出力装置26と略同一であってもよいし、異なるものであってもよい。また、演算装置や記憶装置の容量や能力は、異なっていてよい。特に入力装置34及び出力装置36については、以下で詳述する。 The arithmetic device 31, the main storage device 32, the input / output interface device 33, the input device 34, the auxiliary storage device 35, and the output device 36 are included in each of the server devices 20 described above, respectively. , The input / output interface device 23, the input device 24, the auxiliary storage device 25, and the output device 26 may be substantially the same as or different from each other. Further, the capacities and capacities of the arithmetic unit and the storage device may be different. In particular, the input device 34 and the output device 36 will be described in detail below.

このようなハードウェア構成にあっては、演算装置31が、補助記憶装置35に記憶された特定のアプリケーションを構成する命令及びデータ(コンピュータプログラム)を順次主記憶装置32にロードし、ロードした命令及びデータを演算することにより、入出力インタフェイス装置33を介して出力装置36を制御し、或いはまた、入出力インタフェイス装置33及び通信網10を介して、他の装置(例えば各サーバ装置20等)との間で様々な情報の送受信を行うことができる。 In such a hardware configuration, the arithmetic unit 31 sequentially loads the instructions and data (computer programs) that constitute a specific application stored in the auxiliary storage device 35 into the main storage device 32, and the loaded instructions. And by calculating data, the output device 36 is controlled via the input / output interface device 33, or another device (for example, each server device 20) is controlled via the input / output interface device 33 and the communication network 10. Etc.), and various information can be sent and received.

端末装置30がかかる構成を備え、仮想空間内において、配信者が演じるアバターの所定の動作、前記アバターの表情、前記アバターの顔色、前記アバターの声、又は、前記アバターに関して生じる所定の状況、のいずれか一つ又は複数に係る情報を取得し、前記取得した情報が所定の条件を充足するか否かを判定し、前記所定の条件が充足すると判定した場合に、前記配信者に係る表情又はポーズに基づいて生成されていた前記配信者に係るアバターの表情又はポーズを、前記所定の条件に対応する所定の表情又はポーズとするための情報を生成する、 という動作等(後に詳述する様々な動作を含む)の一部又は全部を実行できてよい。また、インストールされたウェブブラウザを実行することにより、サーバ装置20からウェブページを受信及び表示して、同様の動作を実行できる。また、かかる動作等は、ユーザーが、入力装置34を用いて、本願書類で開示する発明の一例のシステムに指示を与えることで動作されてよい。また、プログラムが演算装置31上で実行されている場合にはユーザーの利用するシステムとしての端末装置30の出力装置36に表示する構成であってよい。 The terminal device 30 is provided with such a configuration, and in a virtual space, a predetermined action of an avatar played by a distributor, a facial expression of the avatar, a complexion of the avatar, a voice of the avatar, or a predetermined situation occurring with respect to the avatar. When one or more of the information is acquired, it is determined whether or not the acquired information satisfies the predetermined conditions, and when it is determined that the predetermined conditions are satisfied, the facial expression or the facial expression relating to the distributor or the distributor is determined. An operation of generating information for changing the facial expression or pose of the avatar related to the distributor, which was generated based on the pose, into a predetermined facial expression or pose corresponding to the predetermined condition (various details to be described later). It may be possible to perform some or all of the actions). Further, by executing the installed web browser, a web page can be received and displayed from the server device 20 to execute the same operation. Further, such an operation or the like may be performed by the user using the input device 34 to give an instruction to the system of the example of the invention disclosed in the documents of the present application. Further, when the program is executed on the arithmetic unit 31, it may be configured to be displayed on the output device 36 of the terminal device 30 as the system used by the user.

端末装置は、本願書類において、「配信者端末」と「視聴者端末」の2種類の端末装置があってよい。これらは端末の役割に対して付与された名称であってよく、一の端末装置が、視聴者端末であることもあれば、配信者端末であることもあり、また、視聴者端末であると同時に配信者端末であってもよい。配信者端末は、配信されるものにアバターなどの被写体として登場する者である配信者が利用する端末であってよい。他方、視聴者端末は、主に、配信されているものを視聴する者である視聴者が利用する端末であってよい。なお、視聴者も、アバターなどの被写体に対してギフトを提供するギフティング行為によって、配信されるものにギフトが登場するような形で、視聴者が配信されるものに一定の影響をあたえてもよい。同様に、視聴者は、音声、コメント、等の形で、配信されるものに、一定の影響を与えてよい。配信されるものは、動画であってもよいし、映像であってもよいし、アニメーションであってもよく、これらの一部に配信者が演じるアバターなどの被写体が登場する者であればよい。なお、上述の説明は、本願発明の一実施形態が適用される例にすぎず、かかる前提のない被写体が登場する仮想空間においても、本願発明に係る各実施形態は適用されてよい。 As the terminal device, there may be two types of terminal devices, a "distributor terminal" and a "viewer terminal", in the documents of the present application. These may be names given to the role of the terminal, and one terminal device may be a viewer terminal or a distributor terminal, and may be a viewer terminal and simultaneously distributed. It may be a personal terminal. The distributor terminal may be a terminal used by a distributor who appears as a subject such as an avatar in what is distributed. On the other hand, the viewer terminal may be a terminal mainly used by a viewer who is a viewer of what is being distributed. In addition, the viewer also gives a certain influence to what the viewer delivers by giving a gift to the subject such as an avatar so that the gift appears in the delivered one. May be good. Similarly, the viewer may have a certain influence on what is delivered in the form of audio, comments, etc. What is delivered may be a moving image, a video, or an animation, and may be a person in which a subject such as an avatar played by the distributor appears in a part of these. .. The above description is merely an example in which one embodiment of the present invention is applied, and each embodiment of the present invention may be applied even in a virtual space in which a subject without such a premise appears.

視聴者端末は、上述のように、音声の入力、コメントの入力、ギフティングなどが可能に構成されてよい。例えば、利用者端末は、入力装置34として、コメントを入力可能であり、テキスト情報たるコメントを取得可能なキーボード、タッチパネル、などを有してよい。また、利用者端末は、演算装置34により、一定のコメントを生成する機能を有してもよい。これらの取得されたコメントは、同様に、入出力インタフェイス装置23を介して、通信網10へ送信されてよい。 As described above, the viewer terminal may be configured to be capable of voice input, comment input, gifting, and the like. For example, the user terminal may have a keyboard, a touch panel, or the like as the input device 34, which can input a comment and can acquire a comment which is text information. Further, the user terminal may have a function of generating a certain comment by the arithmetic unit 34. These acquired comments may be similarly transmitted to the communication network 10 via the input / output interface device 23.

なお、本願発明に係るコメントは、利用者端末によって入力されるコメント以外に、システムが自動的に生成するものであってよい。かかるコメントは、利用者端末に向けて送信され、利用者端末において表示されてよい。 The comment according to the present invention may be automatically generated by the system in addition to the comment input by the user terminal. Such a comment may be transmitted to the user terminal and displayed on the user terminal.

また、端末は、入力装置34として、音を取得可能なマイクを含んでよい。なお、人の音声は、入力装置34としてのマイクによって取得され、音として扱ってもよいし、入力装置34としてのマイクによって取得された後、演算装置31による音声認識によりテキスト化して、コメントとして扱ってもよい。なお、利用者端末は、演算装置31によって音を生成してもよい。これらの取得された音又はコメントは、同様に、入出力インタフェイス装置23を介して、通信網10へ送信されてよい。 Further, the terminal may include a microphone capable of acquiring sound as the input device 34. The human voice may be acquired by the microphone as the input device 34 and treated as sound, or after being acquired by the microphone as the input device 34, it is converted into text by voice recognition by the arithmetic unit 31 and used as a comment. You may handle it. The user terminal may generate sound by the arithmetic unit 31. These acquired sounds or comments may be similarly transmitted to the communication network 10 via the input / output interface device 23.

他方、配信者端末は、入力装置34として、人の動きを検知可能なモーションセンサーを含んでよい。モーションセンサーは、配信者の身体に装着し、身体の各部の動きを検知可能な機能を有してよい。身体の各部としては、頭部、顔面、上腕、前腕、手、大腿、下腿、足、体幹、など種々の箇所が挙げられうるが、これらの一部又は全部に限られず、身体の動きを検出可能な位置に装着できるものであってよい。かかるセンサーによって、配信者の表情やポーズをトラッキングし、情報として生成可能であってよい。モーションセンサーは、加速度センサ、ジャイロセンサ、地磁気センサなどを有してよい。これらの取得された情報は、同様に、入出力インタフェイス装置23を介して、通信網10へ送信されてよい。 On the other hand, the distributor terminal may include a motion sensor capable of detecting the movement of a person as the input device 34. The motion sensor may be attached to the body of the distributor and may have a function of detecting the movement of each part of the body. Each part of the body may include various parts such as the head, face, upper arm, forearm, hand, thigh, lower leg, leg, and trunk, but the movement of the body is not limited to a part or all of them. It may be mounted in a detectable position. Such a sensor may be able to track the facial expression or pose of the distributor and generate it as information. The motion sensor may include an acceleration sensor, a gyro sensor, a geomagnetic sensor, and the like. The acquired information may be similarly transmitted to the communication network 10 via the input / output interface device 23.

また、配信者端末は、入力装置34として、動画を撮像可能なカメラを含んでよい。カメラは、配信者の、頭、顔面、目、身体の一部、全身、などを撮像してよい。カメラが、頭や顔面を撮像する場合顔の方向を検知することが可能であり、顔面を撮像する場合表情を検知することが可能であり、目を撮像する場合視線を検知することが可能であり、身体の一部又は全身を撮像する場合上述のモーションセンサーと共に又は代えて身体の動きを検知することが可能であってよい。これらの撮像情報に基づいた、顔方向、視線、表情、身体の動きについて取得された情報は、同様に、入出力インタフェイス装置23を介して、通信網10へ送信されてよい。 Further, the distributor terminal may include a camera capable of capturing a moving image as the input device 34. The camera may image the distributor's head, face, eyes, body part, whole body, and the like. When the camera images the head or face, it can detect the direction of the face, when it images the face, it can detect the facial expression, and when it images the eyes, it can detect the line of sight. Yes, when imaging a part or the whole body, it may be possible to detect the movement of the body together with or in place of the motion sensor described above. Information acquired about the face direction, the line of sight, the facial expression, and the movement of the body based on the captured information may be similarly transmitted to the communication network 10 via the input / output interface device 23.

また、視聴者端末及び配信者端末における出力装置36は、表示装置、音発生装置であってよい。表示装置は、表示可能な機能であれば種々の装置であってよく、例えば、液晶ディスプレイ、プラズマディスプレイ、有機ELディスプレイ、マイクロLEDディスプレイ、ヘッドマウントディスプレイなどが挙げられるが、これらに限らず種々の装置であってよい。音発生装置は、スピーカー、ヘッドフォン、イヤホンなどであってよい。出力装置36で出力される情報は、演算装置31において生成された情報であってもよいし、通信網10から受信した情報であってもよい。 Further, the output device 36 in the viewer terminal and the distributor terminal may be a display device or a sound generator. The display device may be various devices as long as it has a displayable function, and examples thereof include a liquid crystal display, a plasma display, an organic EL display, a micro LED display, and a head-mounted display, but the display device is not limited to these. It may be a device. The sound generator may be a speaker, headphones, earphones, or the like. The information output by the output device 36 may be the information generated by the arithmetic unit 31 or the information received from the communication network 10.

3.各装置の機能
次に、サーバ装置20及び端末装置30の各々が有する機能の一例について、図3を参考に、説明する。図3は、図1に示したシステムの機能の一例を模式的に示すブロック図である。図3に示すように、一例のシステムは、物体を生成するのに使用できる情報を取得する取得部と、取得された情報を用いて物体を生成する生成部と、を有してよい。
3. 3. Functions of Each Device Next, an example of the functions of each of the server device 20 and the terminal device 30 will be described with reference to FIG. FIG. 3 is a block diagram schematically showing an example of the function of the system shown in FIG. As shown in FIG. 3, an example system may have an acquisition unit that acquires information that can be used to generate an object, and a generation unit that generates an object using the acquired information.

2.1.取得部
取得部は、後述する所定の条件の適用の可否を判断するのに使用できる情報を取得する機能を有する。
2.1. Acquisition unit The acquisition unit has a function of acquiring information that can be used to determine whether or not a predetermined condition described later can be applied.

取得部の取得する情報は、仮想空間内において、配信者が演じるアバターの所定の動作、前記アバターの表情、前記アバターの顔色、前記アバターの声、又は、前記アバターに関して生じる所定の状況、のいずれか一つ又は複数に係る情報(本願書類において、所定の動作等、ということもある)を含んでよい。 The information acquired by the acquisition unit is any of a predetermined action of the avatar played by the distributor, the facial expression of the avatar, the complexion of the avatar, the voice of the avatar, or the predetermined situation occurring with respect to the avatar in the virtual space. It may include information relating to one or more of them (in the documents of the present application, it may be a predetermined operation, etc.).

これらの、取得部の取得する情報については、条件適用部において、その具体的な内容を説明する。なお、図4は、これらの取得部が取得する情報の一部の一例を示したものである。 The specific contents of the information acquired by the acquisition unit will be described in the condition application unit. Note that FIG. 4 shows an example of a part of the information acquired by these acquisition units.

また、取得部は、ギフトが、特定のアバターに対して提供された場合は、かかるギフトが提供された相手であるアバターを特定する情報を、取得してよい。 In addition, when the gift is provided to a specific avatar, the acquisition unit may acquire information for identifying the avatar to whom the gift is provided.

なお、取得部が情報を取得する元となる情報処理装置は、取得部の機能を有する情報処理装置と同じであってもよいし、異なってもよい。また、取得という用語は、情報を、他の情報処理装置から受信する意味の上位概念であってよく、また、情報を記憶装置から情報を読み取る意味の上位概念であってよく、また、他のプログラムから記憶装置を介して情報を受け取る意味の上位概念であってよい。 The information processing device from which the acquisition unit acquires information may be the same as or different from the information processing device having the function of the acquisition unit. Further, the term acquisition may be a superordinate concept of the meaning of receiving information from another information processing device, may be a superordinate concept of the meaning of reading information from a storage device, and may be another concept. It may be a superordinate concept of the meaning of receiving information from a program via a storage device.

2.2.条件適用部
条件適用部は、前記取得した情報が所定の条件を充足するか否かを判定し、前記取得した情報に係る所定の条件が充足すると判定した場合に、前記配信者に係る表情又はポーズに基づいて生成されていた前記配信者に係るアバターの表情又はポーズを、前記所定の条件に対応する所定の表情又はポーズとするための情報を生成する機能を有する。
2.2. Condition application unit The condition application unit determines whether or not the acquired information satisfies a predetermined condition, and when it is determined that the predetermined condition related to the acquired information is satisfied, the facial expression related to the distributor or the condition application unit It has a function of generating information for changing the facial expression or pose of the avatar related to the distributor, which was generated based on the pose, into a predetermined facial expression or pose corresponding to the predetermined condition.

ここで、前記配信者に係る表情又はポーズに基づいて生成されていた前記配信者に係るアバターの表情又はポーズを、前記所定の条件に対応する所定の表情又はポーズとするための情報を生成するとは、かかる所定の条件が充足された場合において、前記配信者に係る表情に基づいて生成されていた前記配信者に係るアバターの表情を、前記所定の条件に対応する所定の表情とするための情報のみを生成してもよいし、前記配信者に係るポーズに基づいて生成されていた前記配信者に係るアバターのポーズを、前記所定の条件に対応する所定のポーズとするための情報のみを生成してもよいし、前記配信者に係る表情及びポーズに基づいて各々生成されていた前記配信者に係るアバターの表情及びポーズを、前記所定の条件に対応する所定の表情及びポーズとするための情報を生成してもよい。なお、本願書類において、所定の条件に対応して特定される、所定の表情及び/又はポーズについて、所定の表情等ということがあり、また、表情及び/又はポーズを、表情等ということがある。 Here, when the facial expression or pose of the avatar related to the distributor, which was generated based on the facial expression or pose related to the distributor, is generated to be the predetermined facial expression or pose corresponding to the predetermined condition. Is to make the facial expression of the avatar related to the distributor, which is generated based on the facial expression related to the distributor, a predetermined facial expression corresponding to the predetermined condition when the predetermined condition is satisfied. Only the information may be generated, or only the information for making the pose of the avatar related to the distributor, which was generated based on the pose related to the distributor, into a predetermined pose corresponding to the predetermined condition is used. It may be generated, or to make the facial expression and pose of the avatar related to the distributor, which are generated based on the facial expression and pose related to the distributor, into a predetermined facial expression and pose corresponding to the predetermined condition. Information may be generated. In the documents of the present application, a predetermined facial expression and / or pose specified in accordance with a predetermined condition may be referred to as a predetermined facial expression, and the facial expression and / or pose may be referred to as a facial expression or the like. ..

また、所定の表情等は、予め定められた表情のパラメータ、又は、配信者の表情に基づく表情のパラメータを所定のルールに基づいて補正された表情のパラメータ、を用いて表示される表情であってもよいし、予め定められた形状又は動きの設定により表示される表情であってもよいし、予め定められたポーズのパラメータ、又は、配信者のポーズに基づくポーズのパラメータを所定のルールに基づいて補正されたポーズのパラメータ、を用いて表示されるポーズであってもよいし、予め定められた形状又は動きの設定により表示されるポーズであってもよい。ここで、予め定められた表情のパラメータとは、顔の各部位の動きに影響を与える複数のパラメータを示し、かかる複数のパラメータを各々所定の値に設定することにより、一の表情を示すものであってよい。かかる一又は複数のパラメータは、顔の各部位の動きに影響を与えるパラメータであればよく、各パラメータが、顔の特定の部位についてのものでもよいし、顔全体(又は顔の一部)についてのものであるがパラメータ毎に顔全体(又は顔の一部)の形状が異なるものでもよい。後者は、同じ面積であるが形状が異なるものを複数用意して、それらの一部又は複数の合成によって、一の表情を表現する技術である。後者の例としては、例えば、ブレンドシェイプが挙げられ、かかる技術では、予め形状が異なる複数の顔全体の形状のものを用意しそれらの複数の形状の合成によって一の表情を生成するものである。なお、本技術においては、通常の顔の要素に加えて、予め所定の形状のものを用意しておくことにより、特殊な表情をさせてもよい。例えば、予め顔の縦線を示す形状を用意しておく場合には、かかる顔の縦線の演出が可能となり、予め目がバツの演出の要素を用意しておく場合には、かかる目がバツの演出が可能となる。この場合、パラメータが予め設定されることから、配信者の表情等を問わず、再現される表情等となるため、表情等を示す適切なパラメータが選択される場合には常に分かりやすい表情等を再現できる利点がある。なお、この場合においても、アバターに応じて、所定の表情等が異なるよう設定されてもよい。すなわち、アバターAとアバターBについて、同一の所定の条件が充足された場合において適用される所定の表情等が、アバターAとアバターBにおいて、異なってもよい。この場合において、個々のアバターに対して設定されてもよいし、アバターの種類に応じて、設定されてもよい。 Further, the predetermined facial expression or the like is a facial expression displayed using a predetermined facial expression parameter or a facial expression parameter obtained by correcting a facial expression parameter based on the distributor's facial expression based on a predetermined rule. It may be a facial expression displayed by setting a predetermined shape or movement, or a predetermined pose parameter or a pose parameter based on the distributor's pose may be set to a predetermined rule. It may be a pose displayed using the pose parameters corrected based on it, or it may be a pose displayed by setting a predetermined shape or movement. Here, the predetermined facial expression parameters indicate a plurality of parameters that affect the movement of each part of the face, and by setting the plurality of parameters to predetermined values, one facial expression is indicated. May be. The one or more parameters may be parameters that affect the movement of each part of the face, and each parameter may be for a specific part of the face or for the entire face (or a part of the face). However, the shape of the entire face (or a part of the face) may be different for each parameter. The latter is a technique of preparing a plurality of products having the same area but different shapes, and expressing one facial expression by synthesizing a part or a plurality of them. An example of the latter is, for example, a blend shape. In such a technique, a plurality of face shapes having different shapes are prepared in advance, and one facial expression is generated by synthesizing the plurality of shapes. .. In the present technology, in addition to the usual facial elements, a predetermined shape may be prepared in advance to give a special facial expression. For example, when a shape indicating the vertical line of the face is prepared in advance, it is possible to produce the vertical line of the face, and when the element of the effect of the cross is prepared in advance, the eye is It is possible to produce a cross. In this case, since the parameters are set in advance, the facial expression or the like is reproduced regardless of the facial expression of the distributor. Therefore, when an appropriate parameter indicating the facial expression or the like is selected, the facial expression or the like that is easy to understand is always displayed. There is an advantage that it can be reproduced. Even in this case, the predetermined facial expressions and the like may be set differently depending on the avatar. That is, with respect to Avatar A and Avatar B, the predetermined facial expressions and the like applied when the same predetermined conditions are satisfied may differ between Avatar A and Avatar B. In this case, it may be set for each avatar, or it may be set according to the type of avatar.

他方、所定の表情等が、配信者の表情等に基づく表情等のパラメータを所定のルールに基づいて補正された表情等のパラメータである場合は、所定の表情等が、配信者の表情等に基づいた表情等となってよい。例えば、配信者が何らかのギフトに対して、驚いた表情をするとする。このとき、配信者の表情の検知に対応してアバターの表情が一又は複数のパラメータによって驚きに対応する表情に設定されるが、所定の条件に対応する所定の表情として驚きに係る複数のパラメータの値を所定の値分増加させたり減少させることにより、より驚きの表情を強調するようにする場合を示す。上述の技術を所定の表情として一又は複数のパラメータが決定される点において絶対値的なものであるのに対し、本技術は、いわば、現在の配信者の表情から得られた情報に対する相対的なパラメータを用いるものであってよい。そのため、同一の配信者が演じる同一のアバターが、同一の所定の条件が適用された場合においても、かかる配信者自身がその時点で有している表情等に基づく表情等のパラメータは同じ場合もあれば、異なる可能性もあることから、かかる異なりうるパラメータに応じた表情等が、所定の表情等となる場合がある。そのため、より表情等のバリエーションをもたせることができる可能性がある。 On the other hand, when the predetermined facial expression or the like is a parameter such as a facial expression obtained by correcting a parameter such as a facial expression based on the distributor's facial expression or the like based on a predetermined rule, the predetermined facial expression or the like becomes the distributor's facial expression or the like. It may be a facial expression based on it. For example, suppose a distributor looks surprised at some gift. At this time, the facial expression of the avatar is set to the facial expression corresponding to the surprise by one or a plurality of parameters in response to the detection of the facial expression of the distributor, but a plurality of parameters related to the surprise as a predetermined facial expression corresponding to a predetermined condition. The case where the expression of surprise is emphasized by increasing or decreasing the value of is shown by a predetermined value is shown. Whereas the above technique is absolute in that one or more parameters are determined with the above technique as a predetermined facial expression, this technique is, so to speak, relative to the information obtained from the facial expression of the current distributor. Parameters may be used. Therefore, even if the same avatar played by the same distributor is applied with the same predetermined conditions, the parameters such as facial expressions based on the facial expressions that the distributor himself has at that time may be the same. If so, the facial expressions and the like according to the different parameters may be the predetermined facial expressions and the like because they may be different. Therefore, there is a possibility that more variations such as facial expressions can be given.

また、予め定められた形状又は動きの設定により表示される表情は、表情として、お面のように予め定められた形状そのものを、所定の表情とするものを示し、かかるものであってもよい。 Further, the facial expression displayed by setting the predetermined shape or movement may indicate a facial expression in which the predetermined shape itself such as a mask is used as a predetermined facial expression, and may be such a facial expression. ..

なお、以上においては、いずれも所定の表情について説明したが、同様に、所定のポーズについても、対応する技術が用いられてよい。 In the above, the predetermined facial expressions have been described, but similarly, the corresponding techniques may be used for the predetermined poses.

また、所定の表情等は、生じる所定の動作等と関連する表情等であってよい。この場合、視聴者は、所定の表情等が表現される理由を、所定の動作等と関連付けて、容易に理解できる利点がある。 Further, the predetermined facial expression or the like may be a facial expression or the like related to the predetermined movement or the like that occurs. In this case, the viewer has an advantage that the reason why the predetermined facial expression or the like is expressed can be easily understood by associating it with the predetermined motion or the like.

また、所定の表情等は、表情等を構成する全ての個所についてのパラメータに作用してもよいし、その一部のパラメータに作用してもよい。例えば、所定の表情等は、口についてのパラメータのみに作用し、口以外の個所についてのパラメータは、配信者の表情に連動するパラメータであって、配信者端末から配信者の表情の動きに対応した情報に基づくパラメータであってよい。また、所定の表情等は、アバターの外観を含んでもよい。例えば、所定の表情等は、アバターが黒焦げになる演出を含んでよい。 Further, a predetermined facial expression or the like may act on parameters for all the parts constituting the facial expression or the like, or may act on some parameters thereof. For example, a predetermined facial expression or the like acts only on the parameters for the mouth, and the parameters for the parts other than the mouth are parameters linked to the facial expression of the distributor and correspond to the movement of the facial expression of the distributor from the distributor terminal. It may be a parameter based on the information provided. Further, the predetermined facial expression and the like may include the appearance of the avatar. For example, a predetermined facial expression or the like may include an effect that the avatar is charred.

また、所定の表情等は、所定の動作等の方向に連動して変化する、ものであってよい。仮想空間内において、後述の物等の出現場所が、配信者に分からないことがある。このとき、物等の出現場所に、配信者は気づかないことがあり、結果として、配信者に係るアバターも、その物等に反応ができないことがある。例えば、おばけキャラが登場したり、たらいが頭上から落ちてきたときに、配信者が気付かない場合もありえる。そこで、アバターに係る所定の表情等が、所定の動作等が表示されている方向に連動して変化することにより、視聴者もよりアバターの行動に興味を持つことができる利点がある。ここで、所定の動作等の方向に連動して変化する態様としては、種々のものがあってよい。例えば、おばけキャラが接触してきた方向や、ゾンビキャラが迫ってきた方向に対して、設定される所定の表情等が向いてよい。所定の表情等が向く場合において、アバターの一部の部位が連動して変化してもよいし、アバターの複数の部位が連動して変化してもよい。例えば、所定の表情等が向く場合とは、体全体がかかる方向を向いてもよいし、頭部のみがかかる方向を向いてもよいし、目のみなど顔の一部のみがかかる方向を向いてもよい。 Further, the predetermined facial expression or the like may change in conjunction with the direction of the predetermined movement or the like. In the virtual space, the distributor may not know where the objects described below appear. At this time, the distributor may not notice the place where the object or the like appears, and as a result, the avatar related to the distributor may not be able to react to the object or the like. For example, when a ghost character appears or a tub falls from overhead, the distributor may not notice it. Therefore, there is an advantage that the viewer can be more interested in the behavior of the avatar by changing the predetermined facial expression or the like related to the avatar in conjunction with the direction in which the predetermined movement or the like is displayed. Here, there may be various modes that change in conjunction with the direction of a predetermined operation or the like. For example, a predetermined facial expression or the like to be set may be oriented with respect to the direction in which the ghost character is in contact or the direction in which the zombie character is approaching. When a predetermined facial expression or the like is suitable, a part of the avatar may be changed in conjunction with the change, or a plurality of parts of the avatar may be changed in conjunction with each other. For example, when a predetermined facial expression or the like is directed, the entire body may be oriented in a direction in which only a part of the face is applied, such as only the eyes or only a part of the face. You may.

所定のポーズは、種々のポーズであってよい。ポーズは、アバターの体の一部のみであってもよいし、アバターの体の全体であってもよい。例えば、首をかしげるポーズとして頭部のみのポーズや、手が大きくなったり手が赤く腫れた演出を含む手のみのポーズや、ガッツポーズのように上半身のみのポーズであってもよいし、銃を構えるポーズや全身でジャンプするような全体のポーズでもよい。 The predetermined pose may be various poses. The pose may be only a part of the avatar's body or the entire avatar's body. For example, it may be a pose of only the head as a pose of bending the neck, a pose of only the hands including a production in which the hands are enlarged or the hands are swollen red, a pose of only the upper body such as a guts pose, or a gun. It may be a pose that holds the body or a whole pose that jumps with the whole body.

所定の条件は、配信者が演じるアバターの所定の動作、前記アバターの表情、前記アバターの顔色、前記アバターの声、又は、前記アバターに関して生じる所定の状況、のいずれか一つ又は複数に係る情報、を用いてよい。 The predetermined condition is information relating to any one or more of a predetermined action of the avatar played by the distributor, the facial expression of the avatar, the complexion of the avatar, the voice of the avatar, or the predetermined situation occurring with respect to the avatar. , May be used.

配信者が演じるアバターの所定の動作は、前記アバターが生物であれば前記アバターに五感で知覚される予め定められた動作であってよい。また、前記アバターの所定の動作は、所定の対象を見る動作を含んでよい。例えば、アバターが、何か物を見て驚いた場合、所定の表情等として、驚く表情が設定されてよい。この場合、アバターが驚く表情をすることが自然な物をあらかじめ設定しておき、かかる物が、視線の延長線上にある場合に、かかるアバターが、かかる物を見たと判定してよい。すなわち、前記所定の動作が、前記所定の対象を見る動作を含む場合、前記所定の条件は、前記所定の対象が前記アバターの視線方向となるように前記アバターの視線を移動させること、又は、前記アバターの視線上において前記所定の対象が存在すること、を含んでよい。前者は、アバターが主体的に見る方向を移動して視線を変化させた場合に、かかる視線の延長線上に驚く物が位置していると、所定の表情等として驚く表情が設定されてよい。後者は、所定の対象が存在する場合であってよく、アバターが所定の方向を見ている場合に、その方向に所定の対象が生じて表示された場合等があってよい。 The predetermined action of the avatar played by the distributor may be a predetermined action perceived by the avatar with all five senses if the avatar is a living thing. In addition, the predetermined action of the avatar may include an action of viewing a predetermined target. For example, when the avatar is surprised to see something, a surprised facial expression may be set as a predetermined facial expression or the like. In this case, an object that is natural for the avatar to make a surprised expression may be set in advance, and when the object is on an extension of the line of sight, it may be determined that the avatar has seen the object. That is, when the predetermined operation includes an operation of looking at the predetermined object, the predetermined condition is to move the line of sight of the avatar so that the predetermined target is in the line of sight of the avatar, or It may include the presence of the predetermined object in the line of sight of the avatar. In the former case, when the avatar independently moves the viewing direction to change the line of sight, if a surprised object is located on an extension of the line of sight, a surprised facial expression may be set as a predetermined facial expression or the like. The latter may be a case where a predetermined target exists, and there may be a case where a predetermined target is generated and displayed in that direction when the avatar is looking in a predetermined direction.

以上、上述においては、アバターに驚きの感情をもたらす物について説明したが、驚きの感情に限らず、他の感情や感覚をもたらす物であってもよい。例えば、おばけなどの怖いという感情をもたらす物、ステーキなどの好きだという感情をもたらす物、納豆などの嫌いだという感情をもたらす物、など人が対象を見たときに一定の感情や感覚が生じる物であってよい。また、かかる物を見た場合の所定の表情等についても、かかる対象を見た場合に人が一般的に生じる顔を示す所定の表情等が設定されてよい。上述の怖いという感情をもたらす物、好きだという感情をもたらす物、嫌いだという感情をもたらす物、については、対応して、ぞっとする表情、笑顔、嫌悪の表情、などであってよい。 In the above description, the thing that brings a surprise feeling to the avatar has been described, but the thing that brings a surprise feeling to the avatar is not limited to the thing that brings other feelings and sensations. For example, things that bring about scary feelings such as ghosts, things that bring about feelings like steak, things that bring about feelings of dislike such as natto, etc. When a person looks at an object, certain feelings and sensations occur. It may be a thing. Further, as for a predetermined facial expression or the like when looking at such an object, a predetermined facial expression or the like indicating a face generally generated by a person when looking at such an object may be set. The above-mentioned things that bring about the feeling of scary, the things that bring about the feeling of like, and the things that bring about the feeling of dislike may be correspondingly horrifying facial expressions, smiles, disgusting facial expressions, and the like.

上述では、見る対象を物として説明したが、見る対象は、他のキャラクタや他のアバターであってもよい。すなわち、前記所定の対象が他のアバター又はキャラクタである場合、前記アバターの所定の動作は、前記アバターの視線と前記所定の対象に係る視線とが合うことを含んでよい。このように、他のキャラクタや他のアバターと視線が合った場合に、所定の表情等に設定してよい。なお、アバター同士の視線が合致している場合、一方のアバターについてのみ、所定の表情等が設定されてもよいし、両方のアバターについて、所定の表情等が設定されてもよい。後者は、例えば、視線が合って、両方のアバターが顔が赤くなる等のドキドキしている表情等が考えられる。また、後者の両方のアバターについて所定の表情等が設定される場合において、かかる設定される表情等は、同一の所定の表情等であってもよいし、異なる所定の表情等であってもよい。かかる異なる所定の表情等となる理由としては、アバターの属するタイプに応じた所定の表情等であってもよいし、アバターの好みや性質等に応じた所定の表情等であってもよいし、確率的に選定された所定の表情等であってもよい。また、アバターが他のキャラクタと視線が合う場合の例としては、おばけキャラとアバターの視線があうと、アバターの所定の表情等として、アバターの顔が青ざめる設定としてよい。かかる所定の条件は、アバターの視線方向とおばけキャラ等の対象物との交点の有無を判定することによって、充足性が判定されてよい。 In the above, the object to be viewed has been described as an object, but the object to be viewed may be another character or another avatar. That is, when the predetermined target is another avatar or character, the predetermined operation of the avatar may include that the line of sight of the avatar and the line of sight of the predetermined target match. In this way, when the line of sight matches with another character or another avatar, a predetermined facial expression or the like may be set. When the lines of sight of the avatars match, a predetermined facial expression or the like may be set only for one avatar, or a predetermined facial expression or the like may be set for both avatars. In the latter case, for example, a throbbing facial expression such as a reddish face of both avatars when the eyes are aligned can be considered. Further, when a predetermined facial expression or the like is set for both of the latter avatars, the set facial expression or the like may be the same predetermined facial expression or the like, or may be a different predetermined facial expression or the like. .. The reason for the different predetermined facial expressions may be a predetermined facial expression or the like according to the type to which the avatar belongs, or a predetermined facial expression or the like according to the preference or property of the avatar. It may be a predetermined facial expression or the like that is stochastically selected. Further, as an example of the case where the avatar matches the line of sight of another character, the face of the avatar may be set to turn pale as a predetermined facial expression of the avatar when the line of sight of the ghost character and the avatar meet. Satisfiability of such a predetermined condition may be determined by determining the presence or absence of an intersection between the line-of-sight direction of the avatar and an object such as a ghost character.

上述では、見る対象を物として説明したが、見る対象は、何らかのイベントであってもよい。イベントは、その規模や対象は種々のものであってよく、限定はない。例えば、コオロギの大群が突進してきたり、氾濫した川の水で流されたり、突風が襲ってくるような怖い状況のイベントであってもよいし、他のキャラクタやアバターの転倒や流血などの痛そうな状況であってもよい。かかるイベントの場合であっても、同様に、かかるイベントを見たアバターについて、対応する所定の表情等に設定されてよい。 In the above, the object to be viewed has been described as an object, but the object to be viewed may be some event. Events can vary in size and target, and are not limited. For example, it could be a scary event where a horde of crickets rushes, is washed away by flooded river water, or a gust of wind strikes, or a pain such as a fall or bloodshed of another character or avatar. That may be the situation. Even in the case of such an event, similarly, the avatar who saw the event may be set to a corresponding predetermined facial expression or the like.

また、アバターの所定の動作は、所定の対象に接触する動作を含んでよい。そして、前記所定の動作が、前記所定の対象に接触する動作を含む場合、前記所定の条件は、前記アバターに係る位置と、前記所定の対象に係る位置と、の距離が所定の距離内である こと、を含んでよい。ここで、前記アバターに係る位置は、仮想空間内の前記アバターの位置、前記所定の表情を発動する部位、前記アバターの所定部位、又は、前記アバターのコライダーの位置、のいずれかであってよい。 In addition, the predetermined action of the avatar may include an action of contacting a predetermined target. When the predetermined operation includes an operation of contacting the predetermined target, the predetermined condition is that the distance between the position related to the avatar and the position related to the predetermined target is within a predetermined distance. It may include that there is. Here, the position related to the avatar is any one of the position of the avatar in the virtual space, the part that activates the predetermined facial expression, the predetermined part of the avatar, or the position of the collider of the avatar. good.

ここで、接触する動作は、アバターが主体的又は受動的を問わず、アバターから接触する態様を意味するが、第三者から接触される態様は意味しない。第三者から主体的又は受動的を問わず、第三者から接触される態様は、アバターに関して生じる所定の状況、に含まれる。なお、受動的とは、例えば、アバターや第三者の意思を問わずに、アバターや第三者が客観的に動いた結果、接触されるケースを含む。 Here, the contacting action means a mode in which the avatar contacts from the avatar regardless of whether it is subjective or passive, but does not mean a mode in which the avatar is contacted by a third party. Aspects of being contacted by a third party, whether independent or passive, are included in the given circumstances that arise with respect to the avatar. In addition, the passive means, for example, a case where the avatar or the third party is contacted as a result of objective movement regardless of the intention of the avatar or the third party.

アバターが接触する動作の例としては、例えば、アバターが触った対象が熱いものである場合、アバターが驚くような表情をしてもよいし、触った個所が熱さで腫れるような所定の表情等であってもよい。より具体的には、例えば、手で熱いものを触った場合、手が大きくなって、赤く腫れあがるような所定の表情等であってもよい。 Examples of actions that the avatar touches include, for example, when the object touched by the avatar is hot, the avatar may have a surprising facial expression, or a predetermined facial expression such that the touched part is swollen by heat. May be. More specifically, for example, when a hot object is touched by a hand, the hand may have a predetermined facial expression such that the hand becomes large and swells red.

アバターの所定の動作は、所定の対象の飲食動作を含む。ここで、所定の飲食動作は、アバターの飲食動作として、予め定められたものであってよく、かかる飲食動作を示すIDなどによって、検知してよい。かかる飲食動作を示すIDは、飲食動作として予め定められた特定の動きに対し付与されたIDであってもよいし、一又は複数のモーションデータに基づく所定の動きに対し付与されたIDであってもよい。本願発明において、飲食動作を所定の動作として組み込む技術的意義は、後述の他の情報と組み合わせることによって、所定の表情等を設定する点にある。例えば、同じ飲食動作(例えば、お肉を食べる動作)であるとしても、あるアバターAがお肉を食べる場合は、上品な食べ方を表現する所定の表情等が設定される一方、他のアバターBがお肉を食べる場合は、ワイルドな食べ方を表現する所定の表情等が設定される、などが考えられる。ここで、アバターAとアバターBとにおいて、異なる演出となる要因としては、例えば、アバターAとアバターBとが異なるタイプのアバターであったり、同一タイプのアバターであっても、その設定された趣向や好み等によって、異なる食べ方を表現する所定の表情等が設定される、などが考えられる。かかるアバターのタイプは、アバターの設定時に設定された性格であってもよいし、アバターが所定の条件が判定される時点で装備しているパーツや服装から判定されるものであってもよい。 A predetermined action of the avatar includes a predetermined target eating and drinking action. Here, the predetermined eating and drinking action may be a predetermined eating and drinking action of the avatar, and may be detected by an ID or the like indicating such eating and drinking action. The ID indicating such eating and drinking movement may be an ID given to a specific movement predetermined as a eating and drinking movement, or an ID given to a predetermined movement based on one or a plurality of motion data. You may. In the present invention, the technical significance of incorporating the eating and drinking motion as a predetermined motion is to set a predetermined facial expression or the like by combining with other information described later. For example, even if the same eating and drinking action (for example, the action of eating meat) is performed, when a certain avatar A eats meat, a predetermined facial expression or the like expressing an elegant way of eating is set, while another avatar is set. When B eats meat, it is conceivable that a predetermined facial expression or the like expressing a wild way of eating is set. Here, as a factor that causes different effects in avatar A and avatar B, for example, even if avatar A and avatar B are different types of avatars, or even if they are the same type of avatar, the set taste is set. It is conceivable that a predetermined facial expression or the like expressing different eating styles is set depending on the taste and taste. The type of such an avatar may be the personality set at the time of setting the avatar, or may be determined from the parts and clothes that the avatar is equipped with at the time when a predetermined condition is determined.

また、前記アバターの所定の動作は、匂い又は臭いに対する所定のジェスチャーを含んでよい。ここで、所定のジェスチャーとしては、鼻をくんくん動かすようなジェスチャー、手で鼻の前の空気を左右に移動させるジェスチャー、などが挙げられる。かかるジェスチャーは、例えば、鼻の動きや右手又は左手などの手の動きを、光学センサや慣性センサ等を用いることによって、検出されてよい。すなわち、前記所定の条件は、前記アバターの前記所定のジェスチャーの検知を用いてよい。そして、対応する所定の表情等として、恍惚感を演出する所定の表情等や苦悶する所定の表情等が挙げられる。これにより、配信者が、何らかの匂いや臭いを感じた場合に行う動作によって、その動作の意義をよりはっきりと視聴者に理解させる利点がある。なお、かかる匂いや臭いに対応する具体的なジェスチャーについて、予め配信者とシステム間で共有することにより、より効果的に、かかるジェスチャーに対応する所定の表情等を演出できる。 Also, the predetermined action of the avatar may include a scent or a predetermined gesture for the odor. Here, as a predetermined gesture, a gesture such as moving the nose, a gesture of moving the air in front of the nose to the left or right by a hand, and the like can be mentioned. Such a gesture may be detected, for example, by using an optical sensor, an inertial sensor, or the like to detect the movement of the nose or the movement of a hand such as the right hand or the left hand. That is, the predetermined condition may use the detection of the predetermined gesture of the avatar. Then, as the corresponding predetermined facial expression and the like, a predetermined facial expression and the like that produce a feeling of ecstasy and a predetermined facial expression and the like that are in agony can be mentioned. This has the advantage that the action performed when the distributor feels some kind of odor or odor makes the viewer understand the meaning of the action more clearly. By sharing the odor and the specific gesture corresponding to the odor between the distributor and the system in advance, it is possible to more effectively produce a predetermined facial expression or the like corresponding to the gesture.

また、前記アバターの所定の動作は、音を聞く/聴くことについての所定のジェスチャーを含んでよい。音を聞く/聴くことについての所定のジェスチャーとしては、例えば、手を耳に沿える動作や、片耳を一定の方向に動かすジェスチャーが考えられる。かかるジェスチャーに対応する所定の表情等としては、手を耳に沿えるジェスチャーの場合はかかる手が大きくなることが考えられ、片耳を一定の方向に動かすジェスチャーの場合はかかる耳が大きくなって動くことが考えられる。 Also, the predetermined action of the avatar may include a predetermined gesture of listening / listening to a sound. As a predetermined gesture for listening / listening to a sound, for example, a gesture of moving a hand along the ear or a gesture of moving one ear in a certain direction can be considered. As a predetermined facial expression corresponding to such a gesture, it is considered that the hand is enlarged in the case of a gesture in which the hand is along the ear, and the ear is enlarged in the case of a gesture of moving one ear in a certain direction. Can be considered.

配信者が演じるアバターの表情を含む所定の条件は、例えば、アバターの表情が特定の一又は複数のパラメータである場合に、所定の表情等とすることが考えられる。また、常に所定の表情等とならないとしても、他の所定の条件が充足した場合に、所定の表情等とすることが考えられる。例えば、配信者の驚きの表情の顔として、通常であれば、所定の表情等を設定しない場合であっても、特定のイベントが生じるととともに配信者が驚きの表情の顔を示す場合、所定の表情等が設定されてもよい。 A predetermined condition including the facial expression of the avatar played by the distributor may be, for example, a predetermined facial expression when the facial expression of the avatar is a specific one or a plurality of parameters. Further, even if a predetermined facial expression or the like is not always obtained, it is conceivable to obtain a predetermined facial expression or the like when other predetermined conditions are satisfied. For example, as a face with a surprised expression of a distributor, normally, even if a predetermined facial expression or the like is not set, when a specific event occurs and the distributor shows a face with a surprised expression, it is predetermined. The facial expression and the like may be set.

配信者が演じるアバターの顔色は、顔色の変化を含んでよい。例えば、アバターの顔色が、通常と異なる態様になった場合に、かかる顔色に合わせて、アバターの表情等を、異なる所定の表情等に設定してよい。 The complexion of the avatar played by the distributor may include a change in complexion. For example, when the complexion of the avatar is different from the usual one, the facial expression of the avatar may be set to a different predetermined facial expression or the like according to the complexion.

配信者が演じるアバターの声は、前記アバターの声の音質が所定の範囲以上変化すること、又は、前記アバターの声の音量が所定の量以上変化すること、を含んでよい。例えば、アバターの声が、緊張や、怒りなどで、通常と異なる声の性質となっている場合が考えられる。かかる声の場合、かかる声に対応する所定の表情等が設定されてよい。 The voice of the avatar played by the distributor may include that the sound quality of the voice of the avatar changes by a predetermined range or more, or that the volume of the voice of the avatar changes by a predetermined amount or more. For example, it is conceivable that the voice of the avatar has an unusual voice property due to tension or anger. In the case of such a voice, a predetermined facial expression or the like corresponding to the voice may be set.

前記アバターに関して生じる所定の状況は、仮想空間内において所定の音が生じることを含んでよい。所定の音は、例えば、大きな音であってよい。かかる大きな音に対して、所定の表情等として、驚いた表情としたり、例えば、飛び上がるというような、驚きを全身で表すポーズをしてもよい。 The predetermined situation that arises with respect to the avatar may include the occurrence of a predetermined sound in the virtual space. The predetermined sound may be, for example, a loud sound. In response to such a loud sound, a surprised facial expression may be given as a predetermined facial expression, or a pose that expresses the surprise with the whole body, for example, jumping up, may be performed.

アバターに関して生じる所定の状況は、所定の物に係る位置と、前記アバターに係る位置と、の距離が所定の範囲内になることを含んでよい。ここで、所定の物に係る位置は、例えば、所定の物の重心とされる個所、所定の物の中心とされる個所、所定の物の外接円の中心、所定の物の内接円の中心、所定の物の表示上の外接円の中心、所定の物の表示上の内接円の中心、等であってよい。また、所定の物に係る位置は、所定の物に係る円又は多角形とアバターに係る位置との間の直線距離の接線上のかかる円又は多角形との交点であってもよい。また、所定の物に係る位置は、所定の物に対してコライダーを設定し、また、アバターにもコライダーを設定し、かかるコライダーを用いた接触判定を行ってもよい。アバターに係る位置は、上述のとおりであってよい。なお、アバターに係る位置がコライダーの位置である場合、所定の物とアバターが接触していると判定してよい。 A predetermined situation that arises with respect to an avatar may include the distance between a position relating to a predetermined object and a position relating to the avatar being within a predetermined range. Here, the positions related to the predetermined object are, for example, the positions of the center of gravity of the predetermined object, the center of the predetermined object, the center of the circumscribed circle of the predetermined object, and the inscribed circle of the predetermined object. It may be the center, the center of the circumscribed circle on the display of the predetermined object, the center of the inscribed circle on the display of the predetermined object, and the like. Further, the position relating to the predetermined object may be an intersection of the circle or polygon relating to the predetermined object and the circle or polygon on the tangent line of the linear distance between the position relating to the avatar. Further, as for the position related to the predetermined object, a collider may be set for the predetermined object, and a collider may be set for the avatar, and a contact determination using the collider may be performed. The position of the avatar may be as described above. When the position related to the avatar is the position of the collider, it may be determined that the avatar is in contact with a predetermined object.

所定の物は、上述の種々の物であってよい。例えば、たらいが頭上から落ちてきて、頭に接触した場合に、所定の表情等として、目をバツ(×)とする設定にしてよい。また、アバターに雷が落ちる(接触)すると、所定の表情等として、全身が黒焦げとする設定にしてよい。 The predetermined object may be the various objects described above. For example, when the tub falls from above the head and comes into contact with the head, the eyes may be set to cross (x) as a predetermined facial expression or the like. Further, when lightning strikes (contacts) the avatar, the whole body may be charred as a predetermined facial expression or the like.

また、所定の物に代えて、他のものでよく、例えば、キャラクタや、他のアバターでもよい。キャラクタの場合の例としては、アバターに関して生じる所定の状況として、ゾンビキャラに係る位置と、アバターに係る位置と、の距離が所定の範囲内になることを含んでよい。この場合、かかる距離が所定の距離内の場合に、アバターの顔に縦線を入れるようにしてもよい。また、かかる距離の程度に応じて、所定の表情等も変化してよい。例えば、かかる距離が、第1の距離と、第1の距離よりも短い第2の距離と、に変化した場合、第1の距離における所定の表情等と、第2の距離における所定の表情等と、が異なってよい。例えば、第1の距離における所定の表情等として、顔の表情内の縦線が10本であるのに対し、第2の距離における所定の表情等として、顔の表情内の縦線が20本かつかかる縦線の幅が2倍になる、などであってよい。なお、上記とは逆に、所定の条件において、アバターに係る位置と、キャラクタ又はアバターに係る位置と、が所定距離の範囲外となることを含んでもよい。この場合、アバター又はキャラクタがアバターとが離れる方向に相対的に移動する状況が示されているが、例えば、アバターの所定の表情として涙が出てくる、などの表情が設定されてもよい。 Further, instead of the predetermined object, another object may be used, for example, a character or another avatar. As an example in the case of a character, as a predetermined situation that occurs with respect to the avatar, the distance between the position related to the zombie character and the position related to the avatar may be within a predetermined range. In this case, a vertical line may be drawn on the face of the avatar when the distance is within a predetermined distance. In addition, a predetermined facial expression or the like may change depending on the degree of the distance. For example, when the distance is changed to a first distance and a second distance shorter than the first distance, a predetermined facial expression or the like at the first distance, a predetermined facial expression or the like at the second distance, or the like. And may be different. For example, as a predetermined facial expression at the first distance, there are 10 vertical lines in the facial expression, whereas as a predetermined facial expression at the second distance, there are 20 vertical lines in the facial expression. Moreover, the width of the vertical line may be doubled. Contrary to the above, it may be included that the position related to the avatar and the position related to the character or the avatar are outside the range of the predetermined distance under a predetermined condition. In this case, the situation where the avatar or the character moves relatively in the direction away from the avatar is shown, but for example, a facial expression such as tears appearing as a predetermined facial expression of the avatar may be set.

例えば、アバターに関して生じる所定の状況は、第1のアバターと、第2のアバターと、が所定の関係が生じる場合を含んでよい。例えば、第1のアバターが、第2のアバターの頭を撫でる場合、所定の表情等として、第2のアバターの目をハートに設定してよい。この場合、第1のアバターと第2のアバターとの各々にコライダーを設定し、その接触判定によって、判定してよい。 For example, a given situation that arises with respect to an avatar may include a case where a first avatar and a second avatar have a given relationship. For example, when the first avatar strokes the head of the second avatar, the eyes of the second avatar may be set as a heart as a predetermined facial expression or the like. In this case, a collider may be set for each of the first avatar and the second avatar, and the contact determination may be used for determination.

また、アバターに関して生じる所定の状況は、前記アバターに関して生じる所定の状況は、所定の対象と、前記アバターの所定のポーズと、が所定の組み合わせとなることを含んでよい。ここで、所定の対象は、物であってもよいし、所定の状況であってもよいし、所定のイベントであってもよい。また、物は、ギフトを含んでもよい。例えば、物として拳銃のギフトを装着し、アバターが射撃のポーズをすると、所定の表情等として勇ましい表情が設定されてよい。なお、ここで、射撃のポーズの判定は、アバターの中心位置からのコライダーを設定し、右手、左手、右足、左足、頭などの体の各位置の衝突判定によって、判定してよい。ここで、配信者における各配信者の右手、左、右足、左足、頭などの位置は、光学センサや慣性センサによって、検出してよい。なお、かかる場合において設定される所定の表情等は、与えられたギフトの組み合わせから、示唆されるものであってよい。一例を挙げれば、カエルの盾、カエルの件、カエルのマントであれば、カエルのような顔になってよい。 Further, the predetermined situation that occurs with respect to the avatar may include that the predetermined situation that occurs with respect to the avatar is a predetermined combination of the predetermined object and the predetermined pose of the avatar. Here, the predetermined target may be a thing, a predetermined situation, or a predetermined event. The item may also include a gift. For example, when a pistol gift is attached as an object and the avatar poses for shooting, a brave facial expression may be set as a predetermined facial expression or the like. Here, the shooting pose may be determined by setting a collider from the center position of the avatar and determining the collision at each position of the body such as the right hand, the left hand, the right foot, the left foot, and the head. Here, the positions of the right hand, left, right foot, left foot, head, and the like of each distributor in the distributor may be detected by an optical sensor or an inertial sensor. The predetermined facial expression or the like set in such a case may be suggested from the combination of the given gifts. For example, a frog shield, a frog case, or a frog cloak can look like a frog.

また、本願発明に係る複数の条件のうち、複数の条件が成立する場合がある。例えば、アバターがおばけキャラと視線が合致すると同時に、アバターに係る位置とおばけキャラに係る位置との距離が所定の距離範囲内である場合、などが挙げられる。このような場合、視線が合致したこと及び距離が範囲内であることの各条件に対応する所定の表情等が異なる場合、複数の所定の条件が充足した場合の処理が定められていてよい。例えば、所定の時間内において、第1の所定の条件が充足し、かつ、第2の所定の条件が充足した場合、前記第1の所定の条件又は前記第2の所定の条件のうち、優先度が高く設定されている所定の条件が充足した場合に対応する所定の表情又はポーズを適用してよい。ここで、優先度は、各所定の条件と、関連付けられて、記憶されていてもよいし、複数の所定の条件が充足した場合のルールとして設定されていてもよい。例えば、所定の条件として、A1、A2、A3、A4などがあった場合において、各所定の条件同士を比較した上で優先される所定の条件を選定できるものであればよい。かかる優先度を用いた機能により、複数の所定の条件が充足された場合においても、特にほぼ同時に複数の所定の条件が充足された場合においても、適確に処理できる利点がある。また、かかる優先度は、確率が用いられてもよい。例えば、確率が、疑似乱数関数等によって判定される場合であって、第1の所定の条件と第2の所定の条件とが充足している場合において、かかる疑似乱数関数値が所定の値の場合は、第1の所定の条件に対応する所定の表情等が適用され、他の所定の値の場合は、第2の所定の条件に対応する所定の表情等が適用される、と処理されてよい。この場合、演出のバリエーションが増加することになり、より視聴者の興味を引くことができる可能性がある。 Further, among the plurality of conditions according to the present invention, a plurality of conditions may be satisfied. For example, when the avatar matches the line of sight with the ghost character, and at the same time, the distance between the position related to the avatar and the position related to the ghost character is within a predetermined distance range. In such a case, if the predetermined facial expressions and the like corresponding to the conditions that the line of sight is matched and the distance is within the range are different, the processing when a plurality of predetermined conditions are satisfied may be defined. For example, when the first predetermined condition is satisfied and the second predetermined condition is satisfied within a predetermined time, priority is given to the first predetermined condition or the second predetermined condition. When a predetermined condition set with a high degree is satisfied, a corresponding predetermined facial expression or pose may be applied. Here, the priority may be associated with each predetermined condition and stored, or may be set as a rule when a plurality of predetermined conditions are satisfied. For example, when there are A1, A2, A3, A4 and the like as predetermined conditions, it is sufficient that the predetermined conditions that are prioritized can be selected after comparing the predetermined conditions with each other. The function using such a priority has an advantage that even when a plurality of predetermined conditions are satisfied, particularly when a plurality of predetermined conditions are satisfied almost at the same time, processing can be performed appropriately. In addition, a probability may be used as the priority. For example, when the probability is determined by a pseudo-random number function or the like, and the first predetermined condition and the second predetermined condition are satisfied, the pseudo-random number function value is a predetermined value. In that case, a predetermined facial expression or the like corresponding to the first predetermined condition is applied, and in the case of another predetermined value, a predetermined facial expression or the like corresponding to the second predetermined condition is applied. It's okay. In this case, the variation of the production will increase, and there is a possibility that the viewer's interest can be further attracted.

なお、充足しうる複数の条件についての判定において、所定の時間の経過を待って判断することから、所定の時間をある時間以上に設定した場合、所定の条件の充足から所定の表情等の演出まで、タイムラグが生じる可能性がある。そのため、かかる優先度を設けずに、上述の複数の条件が成立する場合に、時間的に先行して充足された所定の条件に対応する所定の表情等を設定してもよい。ここで時間的に先行するとは、ネットワークや情報処理などの結果、実質的にはほぼ同時に所定の条件が成立した場合においても、処理部が所定の条件の充足を先に判定したものであってよい。この場合、所定の時間の経過を待たずに、先に充足した所定の条件に対応する所定の表情等を設定できる利点がある。なお、かかる場合において、後に充足した所定の条件に対応する所定の表情等を設定してもよいし、設定しなくともよい。設定する場合、先に充足された所定の条件に対応する所定の表情等は上書きされてしまうが、後に充足された所定の条件に対応する所定の表情等も視聴者に演出できる利点がある。他方、設定しない場合、先行した所定の表情等について、視聴者は十分楽しむことができる利点がある。なお、このように、第1の所定の条件と第2の所定の条件について、双方ともに充足する場合、第1の所定の条件が充足したタイミングと、第2の所定の条件が充足したタイミングに応じて、所定の表情等を設定してもよい。例えば、第1の所定の条件が充足した第1タイミングと、第2の所定の条件が充足した第2タイミングと、の間の時間が所定の時間よりも短い場合、第1の所定の条件に対応する第1の所定の表情等のみを演出し、第2の所定の条件に対応する第2の所定の表情等を演出しない処理としてよい。この場合、第1の所定の表情等の演出について、視聴者は、途中で変更されず、楽しむことができる利点がある。他の他方、前記第1タイミングと前記第2タイミングとの間の時間が所定の時間よりも長い場合、前記第2の所定の条件が充足したタイミングで、前記第2の所定の条件に対応する所定の表情等を設定してもよい。この場合、視聴者は、第1の所定の表情等に続き、第2の所定の表情等も両方の演出を楽しむことができる利点がある。 In the determination of a plurality of conditions that can be satisfied, the determination is made after the lapse of a predetermined time. Therefore, when the predetermined time is set to a certain time or longer, the effect of the predetermined expression or the like is produced from the satisfaction of the predetermined conditions. There may be a time lag. Therefore, when the above-mentioned plurality of conditions are satisfied without providing such a priority, a predetermined facial expression or the like corresponding to the predetermined conditions satisfied in advance in time may be set. Here, "preceding in time" means that the processing unit first determines that the predetermined conditions are satisfied even when the predetermined conditions are satisfied substantially at the same time as a result of the network or information processing. good. In this case, there is an advantage that a predetermined facial expression or the like corresponding to a predetermined condition satisfied earlier can be set without waiting for the elapse of a predetermined time. In such a case, a predetermined facial expression or the like corresponding to a predetermined condition satisfied later may or may not be set. In the case of setting, the predetermined facial expression or the like corresponding to the predetermined condition satisfied earlier is overwritten, but there is an advantage that the predetermined facial expression or the like corresponding to the predetermined condition satisfied later can also be produced to the viewer. On the other hand, if it is not set, there is an advantage that the viewer can fully enjoy the preceding predetermined facial expression and the like. In this way, when both the first predetermined condition and the second predetermined condition are satisfied, the timing when the first predetermined condition is satisfied and the timing when the second predetermined condition is satisfied are satisfied. A predetermined facial expression or the like may be set accordingly. For example, when the time between the first timing when the first predetermined condition is satisfied and the second timing when the second predetermined condition is satisfied is shorter than the predetermined time, the first predetermined condition is satisfied. The process may be such that only the corresponding first predetermined facial expression or the like is produced, and the second predetermined facial expression or the like corresponding to the second predetermined condition is not produced. In this case, there is an advantage that the viewer can enjoy the first predetermined facial expression and the like without being changed on the way. On the other hand, when the time between the first timing and the second timing is longer than the predetermined time, the second predetermined condition is satisfied at the timing when the second predetermined condition is satisfied. A predetermined facial expression or the like may be set. In this case, the viewer has an advantage that the second predetermined facial expression and the like can enjoy both effects following the first predetermined facial expression and the like.

なお、かかる第1のタイミングと第2のタイミングとの間の時間について判定する上述の所定の時間は、充足される所定の条件の組に応じて設定されてもよい。例えば、第1の所定の条件が充足した場合に第1の所定の表情等が演出され、第2の所定の条件が充足した場合に第2の所定の表情等が演出され、第3の所定の条件が充足した場合に第3の所定の表情等が演出されたとする。また、第1の所定の条件が第1のタイミングで充足され、第2の所定の条件が第2のタイミングで充足され、第3の所定の条件が第3のタイミングで充足されたとする。この時、第1のタイミングと第2のタイミングとの間の時間が、第12所定の時間よりも短い場合に、第2の所定の表情等が演出されず、第12所定の時間以上の場合に第2の所定の表情等が演出されるとする。また、第1のタイミングと第3のタイミングとの間の時間が、第13所定の時間よりも短い場合に、第3の所定の表情等が演出されず、第13所定の時間以上の場合に第3の所定の表情等が演出されるとする。このとき、第12所定の時間と第13所定の時間は、同じであってもよいし、異なってもよい。同じである場合は、第1の所定の条件の充足の後に、第2の所定の条件が充足されても、第3の所定の条件が充足されても、第1の所定の表情等の演出時間に変わりがないことを意味する。他方、異なる場合は、第1の所定の条件の充足の後に、第2の所定の条件が充足する場合と、第3の所定の条件が充足する場合と、において、第1の所定の表情等の演出時間が変化することになる。この場合、演出のバリエーションが増加することになり、より視聴者の興味を引くことができる可能性がある。 The above-mentioned predetermined time for determining the time between the first timing and the second timing may be set according to a set of predetermined conditions to be satisfied. For example, when the first predetermined condition is satisfied, a first predetermined facial expression or the like is produced, and when the second predetermined condition is satisfied, a second predetermined facial expression or the like is produced, and a third predetermined expression or the like is produced. It is assumed that a third predetermined facial expression or the like is produced when the above conditions are satisfied. Further, it is assumed that the first predetermined condition is satisfied at the first timing, the second predetermined condition is satisfied at the second timing, and the third predetermined condition is satisfied at the third timing. At this time, when the time between the first timing and the second timing is shorter than the twelfth predetermined time, the second predetermined facial expression or the like is not produced, and the time is equal to or longer than the twelfth predetermined time. It is assumed that a second predetermined facial expression or the like is produced. Further, when the time between the first timing and the third timing is shorter than the thirteenth predetermined time, the third predetermined facial expression or the like is not produced, and when it is equal to or longer than the thirteenth predetermined time. It is assumed that a third predetermined facial expression or the like is produced. At this time, the twelfth predetermined time and the thirteenth predetermined time may be the same or different. If they are the same, even if the second predetermined condition is satisfied or the third predetermined condition is satisfied after the first predetermined condition is satisfied, the first predetermined facial expression or the like is produced. It means that there is no change in time. On the other hand, if they are different, in the case where the second predetermined condition is satisfied after the satisfaction of the first predetermined condition and the case where the third predetermined condition is satisfied, the first predetermined expression, etc. The production time will change. In this case, the variation of the production will increase, and there is a possibility that the viewer's interest can be further attracted.

なお、上述において、優先度は、所定の条件と関連付けられている、又は、充足される所定の条件についてのルールの例を説明したが、そのほか、優先度は、所定の条件内の物、イベント、状況、などと関連付けられていてもよい。例えば、所定の条件においてギフトが利用される場合において、ギフトと優先度が関連付けられていてもよい。 In addition, in the above, the example of the rule about the predetermined condition that the priority is associated with or is satisfied with the predetermined condition has been described, but in addition, the priority is an object or event within the predetermined condition. , Situation, etc. For example, when a gift is used under predetermined conditions, the gift may be associated with a priority.

所定の条件に係る物、イベント、状況(本願書類において、物等、ということもある)に係る優先度は、物等の表示される大きさ、物等の出現場所、物等の出現のタイミング、などを用いて生成されたものであってよい。 The priority of objects, events, and situations (sometimes referred to as objects in the documents of the present application) related to predetermined conditions is the size of the objects displayed, the place where the objects appear, and the timing of the appearance of the objects. , Etc. may be used.

例えば、物等の表示される大きさ、については、第1の物等の大きさよりも、第2の物等の表示される大きさが大きい場合、かかる第2の物等に対して、かかる第1の物等よりも、高い優先度が設定されていてよい。この場合、表示される大きい方が、より視聴者の注目を浴びることから、優先させることが視聴者の意向に沿うと考えられるためである。他方で、逆に設定してもよい。逆に設定した場合、意外性が出る利点がある。 For example, regarding the displayed size of an object or the like, when the displayed size of the second object or the like is larger than the size of the first object or the like, it is applied to the second object or the like. A higher priority may be set than the first item or the like. In this case, the larger one displayed is more noticed by the viewer, and it is considered that giving priority is in line with the intention of the viewer. On the other hand, it may be set in reverse. If it is set in reverse, there is an advantage that it is unexpected.

また、物等の大きさの他に、物等に価格がある場合は価格であってもよいし、物等に消費ポイントが設定されている場合には消費ポイントであってもよい。例えば、第1の物等の価格よりも、第2の物等の価格が高い場合、かかる第2の物等に対して、かかる第1の物等よりも、高い優先度が設定されていてよい。この場合、価格が高い方が、より視聴者の注目を浴びることから、優先させることが視聴者の意向に沿うと考えられるためである。他方で、逆に設定してもよい。逆に設定した場合、意外性が出る利点がある。また、同様に、消費ポイントについても、例えば、第1の物等の消費ポイントよりも、第2の物等の消費ポイントが高い場合、かかる第2の物等に対して、かかる第1の物等よりも、高い優先度が設定されていてよい。この場合、消費ポイントが高い方が、より視聴者の注目を浴びることから、優先させることが視聴者の意向に沿うと考えられるためである。他方で、逆に設定してもよい。逆に設定した場合、意外性が出る利点がある。 In addition to the size of the item or the like, if the item or the like has a price, it may be the price, or if the item or the like has a consumption point, it may be a consumption point. For example, when the price of the second item or the like is higher than the price of the first item or the like, the second item or the like is given a higher priority than the first item or the like. good. In this case, the higher the price, the more attention the viewer will get, and it is considered that giving priority is in line with the viewer's intention. On the other hand, it may be set in reverse. If it is set in reverse, there is an advantage that it is unexpected. Similarly, with respect to the consumption points, for example, when the consumption points of the second item or the like are higher than the consumption points of the first item or the like, the first item is relative to the second item or the like. Etc., a higher priority may be set. In this case, the higher the consumption point, the more attention the viewer will get, and it is considered that giving priority is in line with the viewer's intention. On the other hand, it may be set in reverse. If it is set in reverse, there is an advantage that it is unexpected.

物等の仮想空間内の出現場所としては、例えば、仮想空間内の中央に出現した物等を、仮想空間内の左右などの端に出現した物等よりも、優先度を高く設定してよい。仮想空間内の目立ちやすい場所に出現した物等の優先度を高くした場合、視聴者は、目立ちやすい場所に出現した物等を視野に入れることができるため、視聴者は、所定の表情等の意味を理解しやすくなる利点がある。 As the place of appearance in the virtual space such as an object, for example, an object appearing in the center of the virtual space may be set to have a higher priority than an object appearing at the left and right edges in the virtual space. .. When the priority of objects appearing in a conspicuous place in the virtual space is raised, the viewer can see the objects appearing in a conspicuous place, so that the viewer can see a predetermined facial expression or the like. It has the advantage of making it easier to understand the meaning.

また、物等に係る優先度は、その物等に予め設定されている静的な情報であってもよいし、物等が提供された段階で初めて設定される動的な情報であってもよい。後者は、例えば、物等が出現された位置に応じて設定される情報であってよい。例えば、物等が仮想空間上で出現した位置と、アバターとの位置との関係に応じて設定された優先度であってよい。この場合、距離自体が優先度の役割を果たしてもよいし、距離が優先度を設定する一の情報として使用されてもよい。例えば、アバターと出現した第1の物に係る位置の距離が第1距離であり、アバターと出現した第2の物に係る位置の距離が第2距離である場合において、第1距離が第2距離より長い場合、第2の物に対して第1の物に優先度を高く設定してよい。また、そのほか、画面中央と第1の物に係る位置との距離の第1距離が、画面中央と第2の物に係る位置との距離の第2距離よりも短い場合、第1の物がより画面中央に出現していることから、第1の物の優先度を第2の物よりも高く設定してもよい。物等に係る優先度が動的に設定される場合、より適切かつダイナミックに、所定の表情等を設定されるギフトを選定できる利点がある。 Further, the priority related to the thing or the like may be static information preset for the thing or the like, or dynamic information set for the first time when the thing or the like is provided. good. The latter may be, for example, information set according to the position where an object or the like appears. For example, the priority may be set according to the relationship between the position where an object or the like appears in the virtual space and the position with the avatar. In this case, the distance itself may play the role of priority, or the distance may be used as one piece of information for setting the priority. For example, when the distance between the avatar and the position of the first object that appears is the first distance, and the distance between the avatar and the position of the second object that appears is the second distance, the first distance is the second. If it is longer than the distance, the priority may be set higher for the first object than for the second object. In addition, when the first distance between the center of the screen and the position related to the first object is shorter than the second distance between the center of the screen and the position related to the second object, the first object is used. Since it appears in the center of the screen, the priority of the first object may be set higher than that of the second object. When the priority related to a thing or the like is dynamically set, there is an advantage that a gift to which a predetermined facial expression or the like is set can be selected more appropriately and dynamically.

また、アバターに係る情報として、アバターが属するタイプを用いてもよい。例えば、所定の条件は、アバターが属するタイプの複数のものの一である、前記アバターの属するタイプを用いてもよい。これは、ある情報を取得した場合、第1のアバターの種類においては所定の表情等となるが、第2のアバターの種類においては所定の表情等とならない、ものであってよい。例えば、あるタイプのアバターは、弱気の性格の設定であるとして、おばけキャラとアバターとの距離が第1の距離の範囲内の場合に、怖がる表情が出やすくなってよい。また、あるタイプのアバターは、陽気な性格の設定であるとして、所定の表情等として、笑顔を含む表情となる条件が、他のアバターよりも、緩いよう設定されていてよい。なお、この場合、アバターについて、弱気、陽気、強気、負けず嫌い、など性格という特性を備えさせ、かかる性格という特性を用いて、所定の条件の充足が判定されてよい。なお、性格は、アバターの属するタイプに応じて設定されているものでもよいし、アバターの属するタイプとは別に個々のアバターについて設定されているものであってもよい。 Further, as the information related to the avatar, the type to which the avatar belongs may be used. For example, the predetermined condition may use the type to which the avatar belongs, which is one of a plurality of types to which the avatar belongs. This may be such that when certain information is acquired, the first avatar type has a predetermined facial expression or the like, but the second avatar type does not have a predetermined facial expression or the like. For example, a certain type of avatar may have a bearish personality setting, and when the distance between the ghost character and the avatar is within the range of the first distance, a scared expression may easily appear. Further, it is assumed that a certain type of avatar has a cheerful personality setting, and the condition of a facial expression including a smile as a predetermined facial expression or the like may be set to be looser than that of other avatars. In this case, the avatar may be provided with personality characteristics such as bearish, cheerful, bullish, and unyielding, and the satisfaction of a predetermined condition may be determined using such personality characteristics. The personality may be set according to the type to which the avatar belongs, or may be set for each avatar separately from the type to which the avatar belongs.

なお、所定の条件は、確率を含んでよい。すなわち、所定の条件は、疑似乱数関数等を含み、かかる関数値が所定の条件を充足した場合に、所定の表情等を生成してもよい。かかる確率を含む場合、常に、所定の表情等が生成されるわけではないため、視聴者の興味を継続的に引くことができる。また、例えば、その確率値を所定の値よりも低くする場合において、稀な表情とする場合、視聴者が貴重な表情を見ることができるという点において、視聴者の興味を引くことができる。 The predetermined condition may include a probability. That is, the predetermined condition includes a pseudo-random number function or the like, and when the function value satisfies the predetermined condition, a predetermined facial expression or the like may be generated. When such a probability is included, a predetermined facial expression or the like is not always generated, so that the viewer's interest can be continuously attracted. Further, for example, when the probability value is made lower than a predetermined value and a rare facial expression is used, the viewer can be interested in the fact that the viewer can see a valuable facial expression.

また、所定の条件として、物等の表示開始の情報、物等の表示変化の情報、及び/又は、物等の表示終了の情報、という個々の物等の表示のタイミングを用いて、所定の条件の充足を判定してもよい。この場合、物等の表示の開始、変化、終了という、物等の表示に対応して、アバターの表情やポーズに変化が生じることから、視聴者は、アバターの表情やポーズの変化の意味を、物等の状況と関連付けて、理解しやすくなる利点がある。 In addition, as a predetermined condition, information on the display start of the object, etc., information on the display change of the object, etc., and / or information on the display end of the object, etc., are used to determine the timing of displaying the individual object, etc. Satisfaction of the condition may be determined. In this case, the facial expression and pose of the avatar change in response to the display of the object, such as the start, change, and end of the display of the object, so that the viewer can understand the meaning of the change in the facial expression and pose of the avatar. , There is an advantage that it becomes easier to understand in relation to the situation of things.

また、所定の条件として、物等が属性として有する情報を用いてもよい。物等の属性は、物等の種類や、物等のレベル、などの物等が備える特性を含んでもよいし、含まなくともよい。また、物等が有する特定の特徴に応じて、所定の条件が充足されるよう所定の条件が設定されてよく、対応する所定の表情等が設定されてよい。 Further, as a predetermined condition, information possessed by an object or the like as an attribute may be used. The attributes of the thing or the like may or may not include the characteristics of the thing or the like such as the type of the thing or the like and the level of the thing or the like. Further, a predetermined condition may be set so that the predetermined condition is satisfied according to a specific feature of the object or the like, and a corresponding predetermined facial expression or the like may be set.

また、所定の条件は、取得した情報についての順番やタイミングを規定してもよい。 Further, the predetermined conditions may specify the order and timing of the acquired information.

例えば、所定の条件と充足の場合の所定の表情等について、おばけキャラが画面に現れた後の所定の時間内にこうもりキャラが画面に現れた場合に所定の表情Aが設定され、こうもりキャラが画面に現れた後の所定の時間内におばけキャラが画面に現れた場合に、所定の表情Bが設定される、などとしてよい。 For example, with respect to a predetermined facial expression when the predetermined conditions and satisfaction are satisfied, a predetermined facial expression A is set when the bat character appears on the screen within a predetermined time after the ghost character appears on the screen, and the bat character is set. When a ghost character appears on the screen within a predetermined time after appearing on the screen, a predetermined facial expression B may be set.

条件適用部は、所定の条件の充足によって特定された表情等を、前記ギフトが提供されたアバターについての表情等としてよい。より具体的には、所定の条件の充足によって特定された表情等を示す情報は、特定された表情等を示すIDや、特定された表情等を示す表情の一又は複数のパラメータであってよく、かかる特定された表情等を、かかるアバターの表情とできるように、かかる特定された表情等を示す情報を用いて、アバターの表情等を設定してよい。かかるIDやパラメータの情報は、条件適用部において特定又は生成された後、かかる情報が、映像やアニメーションの生成のためにサーバや端末に送信され、所定期間、利用されてよい。ここで、条件適用部は、各所定の条件と関連付けて、特定される表情等を示す情報を記憶してよく、かかる各所定の条件が充足された場合に、対応する特定される表情等を示す情報を特定できるよう構成されてよい。なお、所定の条件の充足によって適用される所定の表情等がアバターに、所定期間、設定された後は、元のアバターの動作に戻ってよい。すなわち、アバターは、配信者によって演じられていることから、所定期間の後、アバターの表情やポーズは、配信者の表情やポーズの情報に基づくものとなってよい。ここで、配信者の表情やポーズの情報に基づくとは、配信者の表情やポーズを光学センサや慣性センサで検出された情報によってアバターの動作が規定されてよい。 The condition application unit may use the facial expression or the like specified by satisfying the predetermined condition as the facial expression or the like of the avatar to which the gift is provided. More specifically, the information indicating the facial expression or the like specified by satisfying a predetermined condition may be an ID indicating the specified facial expression or the like or one or a plurality of parameters of the facial expression indicating the specified facial expression or the like. , The facial expression of the avatar or the like may be set by using the information indicating the specified facial expression or the like so that the specified facial expression or the like can be the facial expression of the avatar. The ID and parameter information may be specified or generated by the condition application unit, and then the information may be transmitted to a server or terminal for generating a video or animation and used for a predetermined period of time. Here, the condition application unit may store information indicating a specified facial expression or the like in association with each predetermined condition, and when each of the predetermined conditions is satisfied, the corresponding specified facial expression or the like is stored. It may be configured to identify the information to be shown. After a predetermined facial expression or the like applied by satisfying a predetermined condition is set on the avatar for a predetermined period, the operation of the original avatar may be restored. That is, since the avatar is played by the distributor, the facial expression and pose of the avatar may be based on the information of the facial expression and pose of the distributor after a predetermined period. Here, based on the information on the facial expression and pose of the distributor, the operation of the avatar may be defined by the information detected by the optical sensor and the inertial sensor on the facial expression and pose of the distributor.

かかる処理において、条件適用部が実行される第1情報処理装置と、かかるアバターの表情等の設定を含む処理を行う第2情報処理装置と、が同じ場合、条件適用部は、条件適用部が所定の条件の充足によって特定した表情を用いて、前記アバターの表情等と設定するよう処理してよい。 In such processing, when the first information processing device on which the condition application unit is executed and the second information processing device that performs the processing including the setting of the facial expression of the avatar are the same, the condition application unit is the condition application unit. Using the facial expression specified by satisfying a predetermined condition, processing may be performed so as to set the facial expression of the avatar or the like.

また、条件適用部が実行される第1情報処理装置と、かかるアバターの表情の設定を含む処理を行う第2情報処理装置と、が異なる場合、条件適用部が所定の条件の充足によって特定した表情等を、第1情報処理装置は、第2情報処理装置に送信し、かかる第2情報処理装置において、特定された表情等を用いて、前記アバターの表情と設定するよう処理してよい。 Further, when the first information processing device on which the condition application unit is executed and the second information processing device that performs processing including setting of the facial expression of the avatar are different, the condition application unit specifies by satisfying a predetermined condition. The first information processing apparatus may transmit the facial expression or the like to the second information processing apparatus, and the second information processing apparatus may process the second information processing apparatus so as to set the facial expression or the like as the facial expression of the avatar using the specified facial expression or the like.

ここで、第1情報処理装置がサーバであって、第2情報処理装置がサーバである場合は、第1情報処理装置のサーバから、第2情報処理装置のサーバに、かかる特定された表情等を示す情報が送信されてよい。また、第1情報処理装置がサーバであって、第2情報処理装置が視聴者端末である場合は、第1情報処理装置のサーバから、第2情報処理装置の視聴者端末に、かかる特定された表情等を示す情報が送信されてよい。また、第1情報処理装置がサーバであって、第2情報処理装置が配信者端末である場合は、第1情報処理装置のサーバから、第2情報処理装置の配信者端末に、かかる特定された表情等を示す情報が送信されてよい。 Here, when the first information processing device is a server and the second information processing device is a server, the specified facial expression or the like is transmitted from the server of the first information processing device to the server of the second information processing device. Information indicating that may be transmitted. When the first information processing device is a server and the second information processing device is a viewer terminal, the server of the first information processing device identifies the viewer terminal of the second information processing device. Information indicating the information processing and the like may be transmitted. When the first information processing device is a server and the second information processing device is a distributor terminal, the server of the first information processing device identifies the distributor terminal of the second information processing device. Information indicating the information processing and the like may be transmitted.

同様に、第1情報処理装置が視聴者端末であって、第2情報処理装置がサーバである場合は、第1情報処理装置の視聴者端末から、第2情報処理装置のサーバに、かかる特定された表情等を示す情報が送信されてよい。また、第1情報処理装置が視聴者端末であって、第2情報処理装置が視聴者端末である場合は、第1情報処理装置の視聴者端末から、第2情報処理装置の視聴者端末に、かかる特定された表情等を示す情報が送信されてよい。また、第1情報処理装置が視聴者端末であって、第2情報処理装置が配信者端末である場合は、第1情報処理装置の視聴者端末から、第2情報処理装置の配信者端末に、かかる特定された表情等を示す情報が送信されてよい。 Similarly, when the first information processing device is a viewer terminal and the second information processing device is a server, the specific information processing device from the viewer terminal of the first information processing device to the server of the second information processing device. Information indicating the facial expression or the like may be transmitted. When the first information processing device is a viewer terminal and the second information processing device is a viewer terminal, the viewer terminal of the first information processing device is transferred to the viewer terminal of the second information processing device. , Information indicating such a identified facial expression or the like may be transmitted. When the first information processing device is a viewer terminal and the second information processing device is a distributor terminal, the viewer terminal of the first information processing device is transferred to the distributor terminal of the second information processing device. , Information indicating such a identified facial expression or the like may be transmitted.

同様に、第1情報処理装置が配信者端末であって、第2情報処理装置がサーバである場合は、第1情報処理装置の配信者端末から、第2情報処理装置のサーバに、かかる特定された表情等を示す情報が送信されてよい。また、第1情報処理装置が配信者端末であって、第2情報処理装置が配信者端末である場合は、第1情報処理装置の配信者端末から、第2情報処理装置の配信者端末に、かかる特定された表情等を示す情報が送信されてよい。また、第1情報処理装置が配信者端末であって、第2情報処理装置が視聴者端末である場合は、第1情報処理装置の配信者端末から、第2情報処理装置の視聴者端末に、かかる特定された表情等を示す情報が送信されてよい。 Similarly, when the first information processing device is the distributor terminal and the second information processing device is the server, the specific information processing device from the distributor terminal of the first information processing device to the server of the second information processing device. Information indicating the facial expression or the like may be transmitted. When the first information processing device is a distributor terminal and the second information processing device is a distributor terminal, the distributor terminal of the first information processing device is transferred to the distributor terminal of the second information processing device. , Information indicating such a identified facial expression or the like may be transmitted. When the first information processing device is a distributor terminal and the second information processing device is a viewer terminal, the distributor terminal of the first information processing device is transferred to the viewer terminal of the second information processing device. , Information indicating such a identified facial expression or the like may be transmitted.

上記では、条件適用部が、単一の情報処理装置において実行される態様を示しているが、複数の情報処理装置において条件適用部を分散して処理してもよい。 In the above, the condition application unit is executed in a single information processing device, but the condition application unit may be distributed and processed in a plurality of information processing devices.

また、条件適用部は、所定の表情等が設定されるタイミングを用いて、所定の表情等を設定してよい。タイミングは、例えば、上述のように、アバターと、アバター又はキャラクタとの視線が合ったタイミング、アバターが物と接触したタイミング、などであってよい。この場合、かかる所定の表情等を示す情報を含む情報が、表示される情報処理装置に送信されて、表示されてよい。この場合のタイミングのずれは、通信や処理のタイムラグが含まれてよい。 In addition, the condition application unit may set a predetermined facial expression or the like by using the timing at which the predetermined facial expression or the like is set. The timing may be, for example, as described above, the timing at which the line of sight of the avatar and the avatar or the character match, the timing at which the avatar comes into contact with an object, and the like. In this case, information including information indicating such a predetermined facial expression or the like may be transmitted to the displayed information processing apparatus and displayed. The timing lag in this case may include a time lag in communication and processing.

他方、所定の条件が充足された上で、所定の表情等が設定されるタイミングは、別途設定されたものが使用されてもよい。例えば、所定の条件が設定されてから、2秒後に、所定の表情等になる、というものでもよい。一例としては、アバターが驚くような状況が生じて、その2秒後という故意に遅らせたタイミングで、所定の驚きの表情を設定するものなどでもよい。 On the other hand, when a predetermined condition is satisfied, a separately set timing may be used for setting a predetermined facial expression or the like. For example, a predetermined facial expression or the like may be obtained 2 seconds after the predetermined condition is set. As an example, a situation in which the avatar is surprised may occur, and a predetermined surprised facial expression may be set at a timing intentionally delayed 2 seconds later.

図5は、所定の条件に対する所定の表情等の関係を示した一例である。取得した情報を、所定の条件として用いることにより、対応する、所定の表情等が特定されるものとなる。 FIG. 5 is an example showing the relationship between a predetermined facial expression and the like with respect to a predetermined condition. By using the acquired information as a predetermined condition, a corresponding predetermined facial expression or the like can be specified.

上述のように、条件適用部の機能によって、所定の条件が充足した場合に、対応する所定の表情等が実現できることとなり、仮想空間内のアバターの表情やポーズにバリエーションを持たせることができる利点がある。また、演者がタブレットなどを用いてアバターの表情を自ら指定できる場合であっても、スタジオ配信においてオペレータによって装着ギフトが装着される場合、演者が装着されたことに気づかないこともあるため、そのような場合において演者が何ら操作しなくとも、ギフトに対応する表情又はポーズがアバターに適用できる利点がある。すなわち、所定の表情又はポーズとするための情報は、前記配信者からギフトを提供する以外の操作なしに、生成されてよい。 As described above, the function of the condition application unit enables the corresponding predetermined facial expressions and the like to be realized when the predetermined conditions are satisfied, and has the advantage that the facial expressions and poses of the avatars in the virtual space can be varied. There is. In addition, even if the performer can specify the facial expression of the avatar by himself / herself using a tablet or the like, when the wearing gift is worn by the operator in the studio distribution, the performer may not be aware that the wearing gift has been worn. In such a case, there is an advantage that the facial expression or pose corresponding to the gift can be applied to the avatar without any operation by the performer. That is, the information for making a predetermined facial expression or pose may be generated without any operation other than providing a gift from the distributor.

また、上述のように、条件適用部の機能によって、所定の条件が充足した場合に、対応する所定の表情等を自動的に実現できることとなり、視聴者端末からの操作なく、アバターの表情が変更する結果が生じる反応を楽しむことのできる利点がある。 Further, as described above, the function of the condition application unit can automatically realize the corresponding predetermined facial expression when the predetermined condition is satisfied, and the facial expression of the avatar can be changed without any operation from the viewer terminal. There is an advantage that you can enjoy the reaction that results in the result.

4.実施形態
4−1.実施形態1
実施形態1は、視聴者端末において、条件適用部が動作する例である。この場合、取得部は、視聴者端末において、動作してよい。本例について、図6を用いて説明する。なお、視聴者端末において、条件適用部が動作するため、視聴者端末に基づく情報を所定の条件として含めることにより、視聴者端末毎に、アバターの表現等を変更することも可能であってよい。
4. Embodiment
4-1. Embodiment 1
The first embodiment is an example in which the condition application unit operates in the viewer terminal. In this case, the acquisition unit may operate on the viewer terminal. This example will be described with reference to FIG. Since the condition application unit operates on the viewer terminal, it may be possible to change the expression of the avatar for each viewer terminal by including the information based on the viewer terminal as a predetermined condition. ..

ステップ1
取得部が、所定の動作等の情報を取得する(ステップ001)。かかる所定の動作等の情報は、条件適用部が動作する視聴者端末において入力されたものでもよいし、他の視聴者端末において入力された情報や演出としてサーバ内で生成された情報が、サーバなどを介して、条件適用部が動作する視聴者端末が取得してもよい。
Step 1
The acquisition unit acquires information such as a predetermined operation (step 001). The information such as the predetermined operation may be input in the viewer terminal in which the condition application unit operates, or the information input in the other viewer terminal or the information generated in the server as an effect is the server. The viewer terminal on which the condition application unit operates may acquire the information via the above.

ステップ2
次に、条件適用部が、少なくとも所定の動作等の情報を用いて、所定の条件を判定し、所定の条件が充足すると判定した場合、充足した所定の条件に対応する表情等を特定する(ステップ002)。このために、条件適用部は、少なくとも一部の所定の条件とかかる条件が充足した場合における所定の表情等を示す情報を有していてよい。
Step 2
Next, the condition application unit determines a predetermined condition using at least information such as a predetermined operation, and when it is determined that the predetermined condition is satisfied, the facial expression or the like corresponding to the satisfied predetermined condition is specified ( Step 002). For this reason, the condition application unit may have information indicating at least a part of the predetermined conditions and a predetermined facial expression when the conditions are satisfied.

ステップ3
特定された表情等を、視聴者端末において、所定の条件の充足に使用されたアバターに係る表情等に設定する(ステップ003)。視聴者は、所定の動作等に対応して、アバターの表情等が変更される反応を視聴できる利点がある。
Step 3
The specified facial expression or the like is set to the facial expression or the like related to the avatar used to satisfy the predetermined condition on the viewer terminal (step 003). The viewer has the advantage of being able to view the reaction in which the facial expression of the avatar is changed in response to a predetermined operation or the like.

ステップ4
各視聴者端末において、アバターの所定の表情等が所定の期間表示された後、元のかかるアバターに係る配信者の表情等に基づく表情にアバターに係る表情等は戻る(ステップ004)。
Step 4
After the predetermined facial expression or the like of the avatar is displayed for a predetermined period on each viewer terminal, the facial expression or the like related to the avatar returns to the facial expression based on the original facial expression of the distributor related to the avatar (step 004).

4−2.実施形態2
実施形態2は、サーバにおいて、条件適用部が動作する例である。この場合、取得部は、サーバにおいて、動作してよい。なお、本例は、視聴者端末上において、アニメーションが生成される前提で、図7を用いて説明する。
4-2. Embodiment 2
The second embodiment is an example in which the condition application unit operates in the server. In this case, the acquisition unit may operate on the server. In addition, this example will be described with reference to FIG. 7 on the premise that the animation is generated on the viewer terminal.

ステップ1
取得部が、所定の動作等の情報を取得する(ステップ001)。
Step 1
The acquisition unit acquires information such as a predetermined operation (step 001).

ステップ2
次に、条件適用部が、少なくとも所定の動作等の情報を用いて、所定の条件を判定し、所定の条件が充足すると判定した場合、充足した所定の条件に対応する表情等を特定する(ステップ002)。
Step 2
Next, the condition application unit determines a predetermined condition using at least information such as a predetermined operation, and when it is determined that the predetermined condition is satisfied, the facial expression or the like corresponding to the satisfied predetermined condition is specified ( Step 002).

ステップ3
サーバは、特定された表情等を示す情報を、かかるアバターの配信を視聴している、各視聴者端末に送信する(ステップ003)。
Step 3
The server transmits information indicating the specified facial expression or the like to each viewer terminal viewing the distribution of the avatar (step 003).

ステップ4
各視聴者端末において、サーバから取得した表情等を示す情報を用いて、アバターの表情等を設定する(ステップ004)。ここで、各視聴者端末において、かかる設定されたアバターの表情等を用いて、アニメーションが生成されてもよい。
Step 4
In each viewer terminal, the facial expression and the like of the avatar are set by using the information indicating the facial expression and the like acquired from the server (step 004). Here, in each viewer terminal, an animation may be generated using the facial expression of the set avatar or the like.

ステップ5
各視聴者端末において、サーバから取得した表情等を示す情報が用いられたアバターの表情等が、所定の期間表示され、その後元のかかるアバターに係る配信者の表情等に基づく表情に設定される(ステップ005)。なお、アニメ―エションが生成された場合は、各アニメーション内に、所定の期間、かかる生成された表情等が用いられて表示され、その後は、アバターに係る配信者の表情等に基づきトラッキングによって得られた表情等がアバターの表情等として使用されてよい。
Step 5
On each viewer terminal, the facial expression of the avatar using the information indicating the facial expression acquired from the server is displayed for a predetermined period, and then the facial expression is set based on the facial expression of the distributor related to the original avatar. (Step 005). When an animation is generated, it is displayed in each animation using the generated facial expression for a predetermined period, and after that, it is obtained by tracking based on the facial expression of the distributor related to the avatar. The facial expression or the like may be used as the facial expression or the like of the avatar.

4−3.実施形態3
実施形態3は、サーバにおいて、条件適用部が動作する例である。この場合、取得部は、サーバにおいて、動作してよい。なお、本例は、サーバ上において、アバターの表情を含む映像が生成される前提で、図8を用いて説明する。
4-3. Embodiment 3
The third embodiment is an example in which the condition application unit operates in the server. In this case, the acquisition unit may operate on the server. Note that this example will be described with reference to FIG. 8 on the premise that a video including the facial expression of the avatar is generated on the server.

ステップ1
取得部が、所定の動作等の情報を取得する(ステップ001)。
Step 1
The acquisition unit acquires information such as a predetermined operation (step 001).

ステップ2
次に、条件適用部が、少なくとも所定の動作等の情報を用いて、所定の条件を判定し、所定の条件が充足すると判定した場合、充足した所定の条件に対応する表情等を特定する(ステップ002)。
Step 2
Next, the condition application unit determines a predetermined condition using at least information such as a predetermined operation, and when it is determined that the predetermined condition is satisfied, the facial expression or the like corresponding to the satisfied predetermined condition is specified ( Step 002).

ステップ3
サーバは、特定された表情等を示す情報等を用いて、かかるアバターの配信についての映像を生成する(ステップ003)。ここで、アバターの配信についての映像を生成するサーバと、かかる条件適用部を実行するサーバが、同一のサーバの場合、条件適用部を実行するサーバにおいて、アバターの配信のための映像を生成してよい。他方、アバターの配信についての映像を生成するサーバと、かかる条件適用部を実行するサーバが、異なるサーバの場合、条件適用部を実行するサーバから、かかる映像を生成するサーバに、かかる特定された表情等を示す情報が送信され、かかる映像生成するサーバにおいて、かかる特定された表情等を示す情報が用いられてよい。なお、かかるサーバにおいてアニメーションを生成する場合も同様に、映像と共に又は映像に代えて、かかるアバターの配信についてのアニメーションを生成してもよく、この場合は以降映像と共に又は映像に代えてアニメーションが使用されてよい。
Step 3
The server uses information or the like indicating the specified facial expression or the like to generate a video about the distribution of the avatar (step 003). Here, if the server that generates the video about the distribution of the avatar and the server that executes the condition application unit are the same server, the server that executes the condition application unit generates the video for the distribution of the avatar. You can. On the other hand, if the server that generates the video about the distribution of the avatar and the server that executes the condition application unit are different servers, the server that executes the condition application unit identifies the server that generates the video. Information indicating a facial expression or the like is transmitted, and the information indicating the specified facial expression or the like may be used in the server that generates such an image. Similarly, when generating an animation on such a server, an animation for distribution of the avatar may be generated together with the video or in place of the video. In this case, the animation is used together with the video or in place of the video. May be done.

ステップ4
特定された表情等を示す情報に基づいて特定された表情を用いて生成されたアバターの映像が、各視聴者端末に対して送信される(ステップ004)。
Step 4
An image of an avatar generated using the specified facial expression based on the information indicating the specified facial expression or the like is transmitted to each viewer terminal (step 004).

ステップ5
各視聴者端末において、サーバから取得した表情等を示す情報が用いられた映像が、所定の期間表示され、その後元のかかるアバターに係る配信者の表情等に基づく表情等に基づくアバターの映像が表示される(ステップ005)。
Step 5
On each viewer terminal, an image using information indicating facial expressions acquired from the server is displayed for a predetermined period, and then an avatar image based on the facial expression of the distributor related to the original avatar is displayed. It is displayed (step 005).

4−4.様々な実施態様について
第1の態様によるコンピュータプログラムは、「コンピュータプログラムであって、一又は複数のプロセッサにより実行されることにより、仮想空間内において、配信者が演じるアバターの所定の動作、前記アバターの表情、前記アバターの顔色、前記アバターの声、又は、前記アバターに関して生じる所定の状況、のいずれか一つ又は複数に係る情報を取得し、前記取得した情報が所定の条件を充足するか否かを判定し、前記取得した情報に係る所定の条件が充足すると判定した場合に、前記配信者に係る表情又はポーズに基づいて生成されていた前記配信者に係るアバターの表情又はポーズを、前記所定の条件に対応する所定の表情又はポーズを、前記アバターの表情とするための情報を生成しする 、前記所定の表情又はポーズが適用された、前記アバターを表示する」ものである。
4-4. Various Embodiments The computer program according to the first aspect is "a computer program, and by being executed by one or more processors, a predetermined operation of an avatar played by a distributor in a virtual space, said avatar. Whether or not information relating to any one or more of the facial expression, the complexion of the avatar, the voice of the avatar, or the predetermined situation occurring with respect to the avatar is acquired, and the acquired information satisfies the predetermined conditions. When it is determined that the predetermined condition related to the acquired information is satisfied, the expression or pose of the avatar related to the distributor generated based on the expression or pose related to the distributor is displayed. It generates information for making a predetermined expression or pose corresponding to a predetermined condition into the expression of the avatar, and displays the avatar to which the predetermined expression or pose is applied. "

第2の態様によるコンピュータプログラムは、上記第1の態様において「前記アバターの所定の動作は、前記アバターが生物であれば前記アバターに五感で知覚される予め定められた動作である」ものである。 The computer program according to the second aspect is the one in the first aspect, "a predetermined action of the avatar is a predetermined action perceived by the avatar with all five senses if the avatar is a living thing". ..

第3の態様によるコンピュータプログラムは、上記第1の態様又は上記第2の態様において「前記アバターの所定の動作は、所定の対象を見る動作を含む」ものである。 The computer program according to the third aspect is the one in the first aspect or the second aspect, "the predetermined action of the avatar includes the action of looking at a predetermined object".

第4の態様によるコンピュータプログラムは、上記第1乃至上記第3のいずれか一の態様において「前記所定の対象が他のアバター又はキャラクタである場合、前記アバターの所定の動作は、前記アバターの視線と前記所定の対象に係る視線とが合うことを含む」ものである。 The computer program according to the fourth aspect is described in any one of the first to third aspects, "when the predetermined target is another avatar or character, the predetermined action of the avatar is the line of sight of the avatar. And the line of sight of the predetermined object are aligned with each other. "

第5の態様によるコンピュータプログラムは、上記第1乃至上記第4のいずれか一の態様において「前記所定の動作が、前記所定の対象を見る動作を含む場合、前記所定の条件は、前記所定の対象が前記アバターの視線方向となるように前記アバターの視線を移動させること、又は、前記アバターの視線上において前記所定の対象が存在する こと、を含む」ものである。 In the computer program according to the fifth aspect, in any one of the first to fourth aspects, "when the predetermined operation includes an operation of viewing the predetermined object, the predetermined condition is the predetermined condition. It includes moving the line of sight of the avatar so that the target is in the direction of the line of sight of the avatar, or the presence of the predetermined target in the line of sight of the avatar. "

第6の態様によるコンピュータプログラムは、上記第1乃至上記第5のいずれか一の態様において「前記アバターの所定の動作は、所定の対象に接触する動作を含む」ものである。 The computer program according to the sixth aspect is one in any one of the first to fifth aspects, "a predetermined action of the avatar includes an action of contacting a predetermined target".

第7の態様によるコンピュータプログラムは、上記第1乃至上記第6のいずれか一の態様において「前記所定の動作が、前記所定の対象に接触する動作を含む場合、前記所定の条件は、前記アバターに係る位置と、前記所定の対象に係る位置と、の距離が所定の距離内であること、を含む」ものである。 In any one of the first to sixth aspects, the computer program according to the seventh aspect states that "when the predetermined operation includes an operation of contacting the predetermined object, the predetermined condition is the avatar. The distance between the position according to the above and the position according to the predetermined object is within a predetermined distance. "

第8の態様によるコンピュータプログラムは、上記第1乃至上記第7のいずれか一の態様において「前記アバターに係る位置は、仮想空間内の前記アバターの位置、前記所定の表情を発動する部位、前記アバターの所定部位、又は、前記アバターのコライダーの位置、のいずれかである」ものである。 In any one of the first to seventh aspects, the computer program according to the eighth aspect states that "the position of the avatar is the position of the avatar in the virtual space, the part that activates the predetermined facial expression, the said. It is either a predetermined part of the avatar or the position of the collider of the avatar. "

第9の態様によるコンピュータプログラムは、上記第1乃至上記第8のいずれか一の態様において「前記アバターの所定の動作は、所定の対象の飲食動作を含む」ものである。 The computer program according to the ninth aspect is the one in any one of the first to eighth aspects, "the predetermined action of the avatar includes the eating and drinking action of a predetermined target".

第10の態様によるコンピュータプログラムは、上記第1乃至上記第9のいずれか一の態様において「前記アバターの所定の動作は、匂い又は臭いに対する所定のジェスチャーを含む」ものである。 The computer program according to the tenth aspect is the one in any one of the first to ninth aspects, "the predetermined action of the avatar includes a scent or a predetermined gesture for the odor".

第11の態様によるコンピュータプログラムは、上記第1乃至上記第10のいずれか一の態様において「前記アバターの所定の動作は、音を聞く又は/聴くことについての所定のジェスチャーを含む」ものである。 The computer program according to the eleventh aspect is one in any one of the first to tenth aspects, "a predetermined action of the avatar includes a predetermined gesture for listening to or / listening to a sound". ..

第12の態様によるコンピュータプログラムは、上記第1乃至上記第11のいずれか一の態様において「前記所定の条件は、前記アバターの前記所定のジェスチャーの検知を用いる」ものである。 The computer program according to the twelfth aspect is "the predetermined condition uses the detection of the predetermined gesture of the avatar" in any one of the first to eleventh aspects.

第13の態様によるコンピュータプログラムは、上記第1乃至上記第12のいずれか一の態様において「前記アバターに関して生じる所定の状況は、仮想空間内において所定の音が生じることを含む」ものである。 The computer program according to the thirteenth aspect is that in any one of the first to twelfth aspects, "a predetermined situation that occurs with respect to the avatar includes a predetermined sound that occurs in the virtual space".

第14の態様によるコンピュータプログラムは、上記第1乃至上記第13のいずれか一の態様において「前記アバターに関して生じる所定の状況は、所定の物に係る位置と、前記アバターに係る位置と、の距離が所定の範囲内になることを含む」ものである。 The computer program according to the fourteenth aspect describes in any one of the first to thirteenth aspects, "The predetermined situation that occurs with respect to the avatar is the distance between the position relating to the predetermined object and the position relating to the avatar. Includes being within a predetermined range. "

第15の態様によるコンピュータプログラムは、上記第1乃至上記第14のいずれか一の態様において「前記アバターに関して生じる所定の状況は、所定の対象と、前記アバターの所定のポーズと、が所定の組み合わせとなることを含む」ものである。 In the computer program according to the fifteenth aspect, in any one of the first to the fourteenth aspects, "a predetermined situation that occurs with respect to the avatar is a combination of a predetermined object and a predetermined pose of the avatar. Including that. "

第16の態様によるコンピュータプログラムは、上記第1乃至上記第15のいずれか一の態様において「前記アバターの顔色は、顔色の変化を含む」ものである。 The computer program according to the sixteenth aspect is "the complexion of the avatar includes a change in complexion" in any one of the first to fifteenth aspects.

第17の態様によるコンピュータプログラムは、上記第1乃至上記第16のいずれか一の態様において「前記アバターの声は、前記アバターの声の音質が所定の範囲以上変化すること、又は、前記アバターの声の音量が所定の量以上変化すること、を含む」ものである。 The computer program according to the seventeenth aspect is described in any one of the first to the sixth aspects, "The voice of the avatar changes the sound quality of the voice of the avatar by a predetermined range or more, or the voice of the avatar. Including that the volume of the voice changes by a predetermined amount or more. "

第18の態様によるコンピュータプログラムは、上記第1乃至上記第17のいずれか一の態様において「所定の時間内において、第1の所定の条件が充足し、かつ、第2の所定の条件が充足した場合、前記第1の所定の条件又は前記第2の所定の条件のうち、優先度が高く設定されている所定の条件が充足した場合に対応する所定の表情又はポーズを適用する」ものである。 In the computer program according to the eighteenth aspect, in any one of the first to the seventeenth aspects, "the first predetermined condition is satisfied and the second predetermined condition is satisfied within a predetermined time". In that case, the predetermined facial expression or pose corresponding to the case where the predetermined condition set with a high priority among the first predetermined condition or the second predetermined condition is satisfied is applied. " be.

第19の態様によるコンピュータプログラムは、上記第1乃至上記第18のいずれか一の態様において「前記所定の表情又はポーズとするための情報は、前記配信者端末から前記アバターを操作する情報を取得せずに、生成される」ものである。 The computer program according to the nineteenth aspect acquires, in any one of the first to eighteenth aspects, "information for making the predetermined facial expression or pose obtains information for operating the avatar from the distributor terminal. It is generated without it. "

第20の態様によるコンピュータプログラムは、「コンピュータプログラムであって、一又は複数のプロセッサにより実行されることにより、仮想空間内において、配信者が演じるアバターの所定の動作、前記アバターの表情、前記アバターの顔色、前記アバターの声、又は、前記アバターに関して生じる所定の状況、のいずれか一つ又は複数に係る情報を取得し、前記取得した情報が所定の条件を充足するか否かを判定し、前記所定の条件が充足すると判定した場合に、前記配信者に係る表情又はポーズに基づいて生成されていた前記配信者に係るアバターの表情又はポーズを、前記所定の条件に対応する所定の表情又はポーズとするための情報を生成し、前記所定の表情又はポーズとするための情報を、送信する、」ものである。 The computer program according to the twentieth aspect is "a computer program, which is executed by one or more processors to perform a predetermined action of an avatar played by a distributor, an expression of the avatar, and the avatar in a virtual space. Acquires information relating to any one or more of the complexion of the avatar, the voice of the avatar, or a predetermined situation that occurs with respect to the avatar, and determines whether or not the acquired information satisfies the predetermined conditions. When it is determined that the predetermined condition is satisfied, the facial expression or pose of the avatar related to the distributor, which is generated based on the facial expression or pose related to the distributor, is changed to the predetermined facial expression or pose corresponding to the predetermined condition. The information for making a pose is generated, and the information for making the predetermined expression or pose is transmitted. "

第21の態様によるコンピュータプログラムは、上記第20の態様において「前記アバターの所定の動作は、前記アバターが生物であれば前記アバターに五感で知覚される予め定められた動作である」ものである。 In the twentieth aspect, the computer program according to the twenty-first aspect is "a predetermined action of the avatar is a predetermined action perceived by the avatar with all five senses if the avatar is a living thing". ..

第22の態様によるサーバ装置は、「一又は複数のプロセッサを具備し、前記プロセッサが、コンピュータにより読み取り可能な命令を実行することにより、仮想空間内において、配信者が演じるアバターの所定の動作、前記アバターの表情、前記アバターの顔色、前記アバターの声、又は、前記アバターに関して生じる所定の状況、のいずれか一つ又は複数に係る情報を取得し、前記取得した情報が所定の条件を充足するか否かを判定し、前記所定の条件が充足すると判定した場合に、前記配信者に係る表情又はポーズに基づいて生成されていた前記配信者に係るアバターの表情又はポーズを、前記所定の条件に対応する所定の表情又はポーズとするための情報を生成し、前記所定の表情又はポーズとするための情報を、送信する」ものである。 The server device according to the 22nd aspect is described as "a predetermined operation of an avatar played by a distributor in a virtual space by including one or a plurality of processors, and the processor executes a computer-readable instruction. Information relating to one or more of the facial expression of the avatar, the complexion of the avatar, the voice of the avatar, or the predetermined situation occurring with respect to the avatar is acquired, and the acquired information satisfies the predetermined condition. When it is determined whether or not the condition is satisfied, the facial expression or pose of the avatar related to the distributor, which has been generated based on the facial expression or pose related to the distributor, is set to the predetermined condition. The information for making the predetermined facial expression or pose corresponding to the above is generated, and the information for making the predetermined facial expression or pose is transmitted. "

第23の態様によるサーバ装置は、上記第22の態様において「前記アバターの所定の動作は、前記アバターが生物であれば前記アバターに五感で知覚される予め定められた動作である」ものである。 In the 22nd aspect, the server device according to the 23rd aspect is "a predetermined operation of the avatar is a predetermined operation perceived by the avatar with all five senses if the avatar is a living thing". ..

第24の態様による方法は、「コンピュータにより読み取り可能な命令を実行する一又は複数のプロセッサにより実行される方法であって、仮想空間内において、配信者が演じるアバターの所定の動作、前記アバターの表情、前記アバターの顔色、前記アバターの声、又は、前記アバターに関して生じる所定の状況、のいずれか一つ又は複数に係る情報を取得し、前記取得した情報が所定の条件を充足するか否かを判定し、前記取得した情報に係る所定の条件が充足すると判定した場合に、前記配信者に係る表情又はポーズに基づいて生成されていた前記配信者に係るアバターの表情又はポーズを、前記所定の条件に対応する所定の表情又はポーズを、前記アバターの表情とするための情報を生成し、前記所定の表情又はポーズが適用された、前記アバターを表示する」ものである。 The method according to the twenty-fourth aspect is "a method executed by one or more processors that execute a computer-readable instruction, a predetermined action of an avatar played by a distributor in virtual space, the avatar. Whether or not information relating to any one or more of the facial expression, the complexion of the avatar, the voice of the avatar, or the predetermined situation occurring with respect to the avatar is acquired, and the acquired information satisfies the predetermined conditions. When it is determined that the predetermined condition related to the acquired information is satisfied, the avatar's facial expression or pose related to the distributor, which was generated based on the facial expression or pose related to the distributor, is determined. Information for making a predetermined expression or pose corresponding to the condition of the above into the expression of the avatar is generated, and the avatar to which the predetermined expression or pose is applied is displayed. "

第25の態様による方法は、上記第24の態様において「前記アバターの所定の動作は、前記アバターが生物であれば前記アバターに五感で知覚される予め定められた動作である」ものである。 The method according to the 25th aspect is that in the 24th aspect, "a predetermined action of the avatar is a predetermined action perceived by the avatar with all five senses if the avatar is a living thing".

第26の態様による方法は、「コンピュータにより読み取り可能な命令を実行する一又は複数のプロセッサにより実行される方法であって、仮想空間内において、配信者が演じるアバターの所定の動作、前記アバターの表情、前記アバターの顔色、前記アバターの声、又は、前記アバターに関して生じる所定の状況、のいずれか一つ又は複数に係る情報を取得し、前記取得した情報が所定の条件を充足するか否かを判定し、前記所定の条件が充足すると判定した場合に、前記配信者に係る表情又はポーズに基づいて生成されていた前記配信者に係るアバターの表情又はポーズを、前記所定の条件に対応する所定の表情又はポーズとするための情報を生成し、前記所定の表情又はポーズとするための情報を、送信する」ものである。 The method according to the twenty-sixth aspect is "a method executed by one or more processors that execute a computer-readable instruction, and is a predetermined action of an avatar played by a distributor in a virtual space, that of the avatar. Whether or not information relating to one or more of facial expressions, the complexion of the avatar, the voice of the avatar, or a predetermined situation occurring with respect to the avatar is acquired, and the acquired information satisfies the predetermined conditions. When it is determined that the predetermined condition is satisfied, the facial expression or pose of the avatar related to the distributor, which has been generated based on the facial expression or pose related to the distributor, corresponds to the predetermined condition. It generates information for making a predetermined facial expression or pose, and transmits the information for making the predetermined facial expression or pose. "

第27の態様による方法は、上記第26の態様において「前記アバターの所定の動作は、前記アバターが生物であれば前記アバターに五感で知覚される予め定められた動作である」ものである。 The method according to the 27th aspect is that in the 26th aspect, "a predetermined action of the avatar is a predetermined action perceived by the avatar with all five senses if the avatar is a living thing".

第28の態様による視聴者端末装置は、「一又は複数のプロセッサを具備し、前記プロセッサが、コンピュータにより読み取り可能な命令を実行することにより、仮想空間内において、配信者が演じるアバターの所定の動作、前記アバターの表情、前記アバターの顔色、前記アバターの声、又は、前記アバターに関して生じる所定の状況、のいずれか一つ又は複数に係る情報を取得し、前記取得した情報が所定の条件を充足するか否かを判定し、前記取得した情報に係る所定の条件が充足すると判定した場合に、前記配信者に係る表情又はポーズに基づいて生成されていた前記配信者に係るアバターの表情又はポーズを、前記所定の条件に対応する所定の表情又はポーズを、前記アバターの表情とするための情報を生成し、前記所定の表情又はポーズが適用された、前記アバターを表示する」ものである。 The viewer terminal device according to the 28th aspect is described as "a predetermined avatar played by a distributor in a virtual space by including one or a plurality of processors, and the processor executes a computer-readable instruction. Information on any one or more of the operation, the facial expression of the avatar, the complexion of the avatar, the voice of the avatar, or the predetermined situation occurring with respect to the avatar is acquired, and the acquired information satisfies a predetermined condition. When it is determined whether or not the information is satisfied and it is determined that the predetermined conditions related to the acquired information are satisfied, the facial expression or the avatar's facial expression related to the distributor, which was generated based on the facial expression or pose related to the distributor, or Information for making a pose a predetermined expression or pose corresponding to the predetermined condition as the expression of the avatar is generated, and the avatar to which the predetermined expression or pose is applied is displayed. " ..

第29の態様による視聴者端末装置は、上記第28の態様において「前記アバターの所定の動作は、前記アバターが生物であれば前記アバターに五感で知覚される予め定められた動作である」ものである。 In the 28th aspect, the viewer terminal device according to the 29th aspect is "a predetermined operation of the avatar is a predetermined operation perceived by the avatar with all five senses if the avatar is a living thing". Is.

第30の態様による配信者端末装置は、「一又は複数のプロセッサを具備し、前記プロセッサが、コンピュータにより読み取り可能な命令を実行することにより、仮想空間内において、配信者が演じるアバターの所定の動作、前記アバターの表情、前記アバターの顔色、前記アバターの声、又は、前記アバターに関して生じる所定の状況、のいずれか一つ又は複数に係る情報を取得し、前記取得した情報が所定の条件を充足するか否かを判定し、前記所定の条件が充足すると判定した場合に、前記配信者に係る表情又はポーズに基づいて生成されていた前記配信者に係るアバターの表情又はポーズを、前記所定の条件に対応する所定の表情又はポーズとするための情報を生成し、前記所定の表情又はポーズとするための情報を、送信する」ものである。 The distributor terminal device according to the thirtieth aspect is described as "a predetermined avatar played by a distributor in a virtual space by including one or a plurality of processors, and the processor executes a computer-readable instruction. Information on any one or more of the operation, the facial expression of the avatar, the complexion of the avatar, the voice of the avatar, or the predetermined situation occurring with respect to the avatar is acquired, and the acquired information satisfies a predetermined condition. When it is determined whether or not the condition is satisfied and it is determined that the predetermined condition is satisfied, the facial expression or pose of the avatar related to the distributor generated based on the facial expression or pose related to the distributor is set as the predetermined condition. The information for making a predetermined facial expression or pose corresponding to the condition of the above is generated, and the information for making the predetermined facial expression or pose is transmitted. "

第31の態様による配信者端末装置は、上記第30の態様において「前記アバターの所定の動作は、前記アバターが生物であれば前記アバターに五感で知覚される予め定められた動作である」ものである。 In the thirtieth aspect, the distributor terminal device according to the thirty-first aspect is "a predetermined action of the avatar is a predetermined action perceived by the avatar with five senses if the avatar is a living thing". Is.

また、本願書類で説明されたシステム及び情報処理は、ソフトウェア、ハードウェア又はこれらの組み合わせによっても実施されてよく、またかかるシステム及び情報処理の一部又は全部は、処理・手順をコンピュータプログラムとして実装し、各種のコンピュータに実行させられてよく、またこれらのコンピュータプログラムは、記憶媒体に記憶されてよい。また、これらのプログラムは、非一過性又は一時的な記憶媒体に記憶されてよい。 In addition, the system and information processing described in the documents of the present application may be carried out by software, hardware or a combination thereof, and a part or all of such a system and information processing implements processing / procedures as a computer program. However, it may be executed by various computers, and these computer programs may be stored in a storage medium. Also, these programs may be stored on a non-transient or temporary storage medium.

本願書類で説明したものは、本願書類で説明されたものに限られず、本願書類で説明された種々の技術上の利点や構成を有する種々の技術的思想の範囲内で、種々の例に適用できることはいうまでもない。 What has been described in the documents of the present application is not limited to that described in the documents of the present application, and is applied to various examples within the scope of various technical ideas having various technical advantages and configurations described in the documents of the present application. Needless to say, you can do it.

1 システム
10 通信網
20(20A〜20C) サーバ装置
30(30A〜30C) 端末装置
21(31) 演算装置
22(32) 主記憶装置
23(33) 入出力インタフェイス
24(34) 入力装置
25(35) 補助記憶装置
26(36) 出力装置
41 取得部
42 条件適用部
1 System 10 Communication network 20 (20A to 20C) Server device 30 (30A to 30C) Terminal device 21 (31) Computing device 22 (32) Main storage device 23 (33) Input / output interface 24 (34) Input device 25 ( 35) Auxiliary storage device 26 (36) Output device 41 Acquisition unit 42 Condition application unit

Claims (27)

コンピュータプログラムであって、
一又は複数のプロセッサにより実行されることにより、
仮想空間内において、配信者が演じるアバターの所定の動作、前記アバターの表情、前記アバターの顔色、前記アバターの声、又は、前記アバターに関して生じる所定の状況、のいずれか一つ又は複数に係る情報を取得し、
前記取得した情報が所定の条件を充足するか否かを判定し、
前記所定の条件が充足すると判定した場合に、前記配信者に係る表情又はポーズに基づいて生成されていた前記配信者に係るアバターの表情又はポーズを、前記所定の条件に対応する所定の表情又はポーズとするための情報を生成し、
前記所定の表情又はポーズが適用された、前記アバターを表示する、
ように前記一又は複数のプロセッサを機能させるコンピュータプログラム。
It ’s a computer program,
By being run by one or more processors
Information relating to any one or more of a predetermined action of the avatar played by the distributor, the facial expression of the avatar, the complexion of the avatar, the voice of the avatar, or the predetermined situation occurring with respect to the avatar in the virtual space. To get
It is determined whether or not the acquired information satisfies the predetermined conditions, and the information is determined.
When it is determined that the predetermined condition is satisfied, the facial expression or pose of the avatar related to the distributor generated based on the facial expression or pose related to the distributor is changed to the predetermined facial expression or pose corresponding to the predetermined condition. Generate information to pose and
Display the avatar to which the predetermined facial expression or pose is applied.
A computer program that activates the one or more processors as described above.
前記アバターの所定の動作は、前記アバターが生物であれば前記アバターに五感で知覚される予め定められた動作である、
請求項1に記載のコンピュータプログラム。
The predetermined action of the avatar is a predetermined action perceived by the avatar with all five senses if the avatar is a living thing.
The computer program according to claim 1.
前記アバターの所定の動作は、所定の対象を見る動作を含む、
請求項1に記載のコンピュータプログラム。
A predetermined action of the avatar includes an action of looking at a predetermined target.
The computer program according to claim 1.
前記所定の対象が他のアバター又はキャラクタである場合、
前記アバターの所定の動作は、前記アバターの視線と前記所定の対象に係る視線とが合うことを含む、
請求項3に記載のコンピュータプログラム。
When the predetermined target is another avatar or character
The predetermined action of the avatar includes the line of sight of the avatar and the line of sight of the predetermined target.
The computer program according to claim 3.
前記所定の動作が、前記所定の対象を見る動作を含む場合、
前記所定の条件は、前記所定の対象が前記アバターの視線方向となるように前記アバターの視線を移動させること、又は、前記アバターの視線上において前記所定の対象が存在すること、を含む、
請求項3に記載のコンピュータプログラム。
When the predetermined operation includes an operation of viewing the predetermined object,
The predetermined condition includes moving the line of sight of the avatar so that the predetermined target is in the line-of-sight direction of the avatar, or the predetermined target is present in the line of sight of the avatar.
The computer program according to claim 3.
前記アバターの所定の動作は、所定の対象に接触する動作を含む、
請求項1に記載のコンピュータプログラム。
A predetermined action of the avatar includes an action of contacting a predetermined target.
The computer program according to claim 1.
前記所定の動作が、前記所定の対象に接触する動作を含む場合、
前記所定の条件は、前記アバターに係る位置と、前記所定の対象に係る位置と、の距離が所定の距離内であること、を含む、
請求項6に記載のコンピュータプログラム。
When the predetermined operation includes an operation of contacting the predetermined object,
The predetermined condition includes that the distance between the position related to the avatar and the position related to the predetermined target is within a predetermined distance.
The computer program according to claim 6.
前記アバターに係る位置は、仮想空間内の前記アバターの位置、前記所定の表情を発動する部位、前記アバターの所定部位、又は、前記アバターのコライダーの位置、のいずれかである、
請求項6に記載のコンピュータプログラム。
The position related to the avatar is either the position of the avatar in the virtual space, the part that activates the predetermined facial expression, the predetermined part of the avatar, or the position of the collider of the avatar.
The computer program according to claim 6.
前記アバターの所定の動作は、所定の対象の飲食動作を含む、
請求項1に記載のコンピュータプログラム。
The predetermined action of the avatar includes a predetermined eating and drinking action of the target.
The computer program according to claim 1.
前記アバターの所定の動作は、匂い又は臭いに対する所定のジェスチャーを含む、
請求項1に記載のコンピュータプログラム。
A predetermined action of the avatar comprises a scent or a predetermined gesture to the odor.
The computer program according to claim 1.
前記アバターの所定の動作は、音を聞く又は聴くことについての所定のジェスチャーを含む、
請求項1に記載のコンピュータプログラム。
A predetermined action of the avatar includes a predetermined gesture of listening to or listening to a sound.
The computer program according to claim 1.
前記所定の条件は、前記アバターの前記所定のジェスチャーの検知を用いる、
請求項8又は9に記載のコンピュータプログラム。
The predetermined condition uses the detection of the predetermined gesture of the avatar.
The computer program according to claim 8 or 9.
前記アバターに関して生じる所定の状況は、仮想空間内において所定の音が生じることを含む、
請求項1に記載のコンピュータプログラム。
Predetermined situations that occur with respect to the avatar include producing a predetermined sound in the virtual space.
The computer program according to claim 1.
前記アバターに関して生じる所定の状況は、所定の物に係る位置と、前記アバターに係る位置と、の距離が所定の範囲内になることを含む、
請求項1に記載のコンピュータプログラム。
A predetermined situation that occurs with respect to the avatar includes that the distance between the position relating to the predetermined object and the position relating to the avatar is within a predetermined range.
The computer program according to claim 1.
前記アバターに関して生じる所定の状況は、所定の対象と、前記アバターの所定のポーズと、が所定の組み合わせとなることを含む、
請求項1に記載のコンピュータプログラム。
A predetermined situation that occurs with respect to the avatar includes a predetermined combination of a predetermined object and a predetermined pose of the avatar.
The computer program according to claim 1.
前記アバターの顔色は、顔色の変化を含む、
請求項1に記載のコンピュータプログラム。
The complexion of the avatar includes a change in complexion.
The computer program according to claim 1.
前記アバターの声は、前記アバターの声の音質が所定の範囲以上変化すること、又は、前記アバターの声の音量が所定の量以上変化すること、を含む、
請求項1に記載のコンピュータプログラム。
The voice of the avatar includes that the sound quality of the voice of the avatar changes by a predetermined range or more, or the volume of the voice of the avatar changes by a predetermined amount or more.
The computer program according to claim 1.
所定の時間内において、第1の所定の条件が充足し、かつ、第2の所定の条件が充足した場合、前記第1の所定の条件又は前記第2の所定の条件のうち、優先度が高く設定されている所定の条件が充足した場合に対応する所定の表情又はポーズを適用する、
請求項1乃至17のいずれか1項に記載のコンピュータプログラム。
When the first predetermined condition is satisfied and the second predetermined condition is satisfied within the predetermined time, the priority of the first predetermined condition or the second predetermined condition is set. Applying the corresponding facial expression or pose when a high set condition is met,
The computer program according to any one of claims 1 to 17.
前記所定の表情又はポーズとするための情報は、前記配信者端末から前記アバターを操作する情報を取得せずに、生成される、
請求項1乃至18のいずれか1項に記載のコンピュータプログラム。
The information for making the predetermined facial expression or pose is generated without acquiring the information for operating the avatar from the distributor terminal.
The computer program according to any one of claims 1 to 18.
コンピュータプログラムであって、
一又は複数のプロセッサにより実行されることにより、
仮想空間内において、配信者が演じるアバターの所定の動作、前記アバターの表情、前記アバターの顔色、前記アバターの声、又は、前記アバターに関して生じる所定の状況、のいずれか一つ又は複数に係る情報を取得し、
前記取得した情報が所定の条件を充足するか否かを判定し、
前記所定の条件が充足すると判定した場合に、前記配信者に係る表情又はポーズに基づいて生成されていた前記配信者に係るアバターの表情又はポーズを、前記所定の条件に対応する所定の表情又はポーズとするための情報を生成し、
前記所定の表情又はポーズとするための情報を、送信する、
ように前記一又は複数のプロセッサを機能させるコンピュータプログラム。
It ’s a computer program,
By being run by one or more processors
Information relating to any one or more of a predetermined action of the avatar played by the distributor, the facial expression of the avatar, the complexion of the avatar, the voice of the avatar, or the predetermined situation occurring with respect to the avatar in the virtual space. To get
It is determined whether or not the acquired information satisfies the predetermined conditions, and the information is determined.
When it is determined that the predetermined condition is satisfied, the facial expression or pose of the avatar related to the distributor generated based on the facial expression or pose related to the distributor is changed to the predetermined facial expression or pose corresponding to the predetermined condition. Generate information to pose and
Information for making the predetermined facial expression or pose is transmitted.
A computer program that activates the one or more processors as described above.
前記アバターの所定の動作は、前記アバターが生物であれば前記アバターに五感で知覚される予め定められた動作である、
請求項20に記載のコンピュータプログラム。
The predetermined action of the avatar is a predetermined action perceived by the avatar with all five senses if the avatar is a living thing.
The computer program according to claim 20.
一又は複数のプロセッサを具備し、
前記プロセッサが、コンピュータにより読み取り可能な命令を実行することにより、
仮想空間内において、配信者が演じるアバターの所定の動作、前記アバターの表情、前記アバターの顔色、前記アバターの声、又は、前記アバターに関して生じる所定の状況、のいずれか一つ又は複数に係る情報を取得し、
前記取得した情報が所定の条件を充足するか否かを判定し、
前記所定の条件が充足すると判定した場合に、前記配信者に係る表情又はポーズに基づいて生成されていた前記配信者に係るアバターの表情又はポーズを、前記所定の条件に対応する所定の表情又はポーズとするための情報を生成し、
前記所定の表情又はポーズとするための情報を、送信する、
ことを特徴とするサーバ装置。
Equipped with one or more processors
When the processor executes a computer-readable instruction,
Information relating to any one or more of a predetermined action of the avatar played by the distributor, the facial expression of the avatar, the complexion of the avatar, the voice of the avatar, or the predetermined situation occurring with respect to the avatar in the virtual space. To get
It is determined whether or not the acquired information satisfies the predetermined conditions, and the information is determined.
When it is determined that the predetermined condition is satisfied, the facial expression or pose of the avatar related to the distributor generated based on the facial expression or pose related to the distributor is changed to the predetermined facial expression or pose corresponding to the predetermined condition. Generate information to pose and
Information for making the predetermined facial expression or pose is transmitted.
A server device characterized by that.
前記アバターの所定の動作は、前記アバターが生物であれば前記アバターに五感で知覚される予め定められた動作である、
請求項22に記載のサーバ装置。
The predetermined action of the avatar is a predetermined action perceived by the avatar with all five senses if the avatar is a living thing.
The server device according to claim 22.
コンピュータにより読み取り可能な命令を実行する一又は複数のプロセッサにより実行される方法であって、
仮想空間内において、配信者が演じるアバターの所定の動作、前記アバターの表情、前記アバターの顔色、前記アバターの声、又は、前記アバターに関して生じる所定の状況、のいずれか一つ又は複数に係る情報を取得し、
前記取得した情報が所定の条件を充足するか否かを判定し、
前記取得した情報に係る所定の条件が充足すると判定した場合に、前記配信者に係る表情又はポーズに基づいて生成されていた前記配信者に係るアバターの表情又はポーズを、前記所定の条件に対応する所定の表情又はポーズを、前記アバター の表情 とするための情報を生成し、
前記所定の表情又はポーズが適用された、前記アバターを表示する、
ことを特徴とする方法。
A method executed by one or more processors that execute computer-readable instructions.
Information relating to any one or more of a predetermined action of the avatar played by the distributor, the facial expression of the avatar, the complexion of the avatar, the voice of the avatar, or the predetermined situation occurring with respect to the avatar in the virtual space. To get
It is determined whether or not the acquired information satisfies the predetermined conditions, and the information is determined.
When it is determined that the predetermined condition related to the acquired information is satisfied, the facial expression or pose of the avatar related to the distributor, which is generated based on the facial expression or pose related to the distributor, corresponds to the predetermined condition. Generates information to make the predetermined facial expression or pose to be the facial expression of the avatar.
Display the avatar to which the predetermined facial expression or pose is applied.
A method characterized by that.
前記アバターの所定の動作は、前記アバターが生物であれば前記アバターに五感で知覚される予め定められた動作である、
請求項24に記載の方法。
The predetermined action of the avatar is a predetermined action perceived by the avatar with all five senses if the avatar is a living thing.
24. The method of claim 24.
コンピュータにより読み取り可能な命令を実行する一又は複数のプロセッサにより実行される方法であって、
仮想空間内において、配信者が演じるアバターの所定の動作、前記アバターの表情、前記アバターの顔色、前記アバターの声、又は、前記アバターに関して生じる所定の状況、のいずれか一つ又は複数に係る情報を取得し、
前記取得した情報が所定の条件を充足するか否かを判定し、
前記所定の条件が充足すると判定した場合に、前記配信者に係る表情又はポーズに基づいて生成されていた前記配信者に係るアバターの表情又はポーズを、前記所定の条件に対応する所定の表情又はポーズとするための情報を生成し、
前記所定の表情又はポーズとするための情報を、送信する、
ことを特徴とする方法。
A method executed by one or more processors that execute computer-readable instructions.
Information relating to any one or more of a predetermined action of the avatar played by the distributor, the facial expression of the avatar, the complexion of the avatar, the voice of the avatar, or the predetermined situation occurring with respect to the avatar in the virtual space. To get
It is determined whether or not the acquired information satisfies the predetermined conditions, and the information is determined.
When it is determined that the predetermined condition is satisfied, the facial expression or pose of the avatar related to the distributor generated based on the facial expression or pose related to the distributor is changed to the predetermined facial expression or pose corresponding to the predetermined condition. Generate information to pose and
Information for making the predetermined facial expression or pose is transmitted.
A method characterized by that.
前記アバターの所定の動作は、前記アバターが生物であれば前記アバターに五感で知覚される予め定められた動作である、
請求項26に記載の方法。
The predetermined action of the avatar is a predetermined action perceived by the avatar with all five senses if the avatar is a living thing.
The method of claim 26.
JP2020078079A 2020-04-14 2020-04-27 Computer program, server device, terminal device, and method Active JP7329217B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2020078079A JP7329217B2 (en) 2020-04-27 2020-04-27 Computer program, server device, terminal device, and method
PCT/JP2021/015347 WO2021210585A1 (en) 2020-04-14 2021-04-13 Computer program, server device, terminal device, and method
JP2021208605A JP2022033220A (en) 2020-04-27 2021-12-22 Computer program, server device, terminal device, and method
US17/956,873 US20230023653A1 (en) 2020-04-14 2022-09-30 Computer program, server, terminal, and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020078079A JP7329217B2 (en) 2020-04-27 2020-04-27 Computer program, server device, terminal device, and method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021208605A Division JP2022033220A (en) 2020-04-27 2021-12-22 Computer program, server device, terminal device, and method

Publications (2)

Publication Number Publication Date
JP2021174283A true JP2021174283A (en) 2021-11-01
JP7329217B2 JP7329217B2 (en) 2023-08-18

Family

ID=78279700

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020078079A Active JP7329217B2 (en) 2020-04-14 2020-04-27 Computer program, server device, terminal device, and method
JP2021208605A Pending JP2022033220A (en) 2020-04-27 2021-12-22 Computer program, server device, terminal device, and method

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2021208605A Pending JP2022033220A (en) 2020-04-27 2021-12-22 Computer program, server device, terminal device, and method

Country Status (1)

Country Link
JP (2) JP7329217B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114245155A (en) * 2021-11-30 2022-03-25 北京百度网讯科技有限公司 Live broadcast method and device and electronic equipment

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040014123A (en) * 2002-08-06 2004-02-14 윤재민 Emotion and Motion Extracting System of Virtual Human and its Method
CN108986192A (en) * 2018-07-26 2018-12-11 北京运多多网络科技有限公司 Data processing method and device for live streaming
JP2020017244A (en) * 2018-07-25 2020-01-30 株式会社バーチャルキャスト Server, method, program, and dynamic image broadcasting system
JP2021064253A (en) * 2019-10-16 2021-04-22 株式会社Zizai Live communication system using character

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040014123A (en) * 2002-08-06 2004-02-14 윤재민 Emotion and Motion Extracting System of Virtual Human and its Method
JP2020017244A (en) * 2018-07-25 2020-01-30 株式会社バーチャルキャスト Server, method, program, and dynamic image broadcasting system
CN108986192A (en) * 2018-07-26 2018-12-11 北京运多多网络科技有限公司 Data processing method and device for live streaming
JP2021064253A (en) * 2019-10-16 2021-04-22 株式会社Zizai Live communication system using character

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
徳岡 正肇: "[CEDEC 2019]「ギフトが当たると勝手に動くVTuberアバター」セッションレポート。2人のVTuberが握手し・", 4GAMER, JPN6023000182, 4 September 2019 (2019-09-04), pages 1 - 10, ISSN: 0004965244 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114245155A (en) * 2021-11-30 2022-03-25 北京百度网讯科技有限公司 Live broadcast method and device and electronic equipment

Also Published As

Publication number Publication date
JP2022033220A (en) 2022-02-28
JP7329217B2 (en) 2023-08-18

Similar Documents

Publication Publication Date Title
US11308672B2 (en) Telepresence of users in interactive virtual spaces
JP7080212B2 (en) Computer programs, server devices and methods
WO2019114328A1 (en) Augmented reality-based video processing method and device thereof
US11960792B2 (en) Communication assistance program, communication assistance method, communication assistance system, terminal device, and non-verbal expression program
KR20130032620A (en) Method and apparatus for providing moving picture using 3d user avatar
US20230023653A1 (en) Computer program, server, terminal, and method
WO2018139203A1 (en) Information processing device, information processing method, and program
TWI736054B (en) Avatar facial expression generating system and method of avatar facial expression generation
JP2024063117A (en) Computer program, server device, terminal device, and method
WO2018173383A1 (en) Information processing device, information processing method, and program
JP7479618B2 (en) Information processing program, information processing method, and information processing device
JP2022033220A (en) Computer program, server device, terminal device, and method
JP7398655B2 (en) Computer program, server device, terminal device, and method
JP7204984B1 (en) program, method, information processing device
US20230063681A1 (en) Dynamic augmentation of stimuli based on profile of user
US11417042B2 (en) Animating body language for avatars
JP7509436B2 (en) Computer program, server device, terminal device, and method
JP7194371B1 (en) program, method, information processing device
JP7339420B1 (en) program, method, information processing device
JP7356662B2 (en) computer program and method
JP7418709B2 (en) Computer programs, methods and server devices
WO2020235346A1 (en) Computer program, server device, terminal device, system, and method
JP2024088283A (en) Program, method, and information processing device
Nakagawa et al. Model-Based Analysis of the Differences in Sensory Perception between Real and Virtual Space: Toward “Adaptive Virtual Reality”

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230315

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230718

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230728

R150 Certificate of patent or registration of utility model

Ref document number: 7329217

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150