JP2024063117A - Computer program, server device, terminal device, and method - Google Patents

Computer program, server device, terminal device, and method Download PDF

Info

Publication number
JP2024063117A
JP2024063117A JP2024029409A JP2024029409A JP2024063117A JP 2024063117 A JP2024063117 A JP 2024063117A JP 2024029409 A JP2024029409 A JP 2024029409A JP 2024029409 A JP2024029409 A JP 2024029409A JP 2024063117 A JP2024063117 A JP 2024063117A
Authority
JP
Japan
Prior art keywords
predetermined
facial expression
avatar
broadcaster
distributor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2024029409A
Other languages
Japanese (ja)
Inventor
匡志 渡邊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GREE Inc
Original Assignee
GREE Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GREE Inc filed Critical GREE Inc
Priority to JP2024029409A priority Critical patent/JP2024063117A/en
Publication of JP2024063117A publication Critical patent/JP2024063117A/en
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

【課題】アバターをより適切に表現可能な、コンピュータプログラム、サーバ装置、端末装置及び方法を提供する。【解決手段】通信網に接続される1又はそれ以上のサーバ装置と、通信網に接続される1又はそれ以上の端末装置と、を含むシステムにおいて、サーバ装置は、配信者による所定の動作、前記配信者の表情、前記配信者の顔色、配信者の声又は配信者に対して生じる所定の状況のうちの一又は複数に係る情報を取得する取得部と、取得した情報が所定の条件を充足するか否かを判定する条件適用部と、を有し、所定の条件を充足すると判定した場合に、配信者に係る表情又はポーズに基づいて生成されていた配信者に係るアバターの表情又はポーズを、所定の条件に対応する所定の表情又はポーズとするための情報を生成し、所定の表情又はポーズが適用されたアバターを端末装置に表示させる。【選択図】図3[Problem] To provide a computer program, a server device, a terminal device, and a method capable of expressing an avatar more appropriately. [Solution] In a system including one or more server devices connected to a communication network and one or more terminal devices connected to the communication network, the server device has an acquisition unit that acquires information related to one or more of a predetermined action by a broadcaster, the broadcaster's facial expression, the broadcaster's complexion, the broadcaster's voice, or a predetermined situation occurring to the broadcaster, and a condition application unit that determines whether the acquired information satisfies a predetermined condition, and when it is determined that the predetermined condition is satisfied, generates information for changing the facial expression or pose of an avatar related to the broadcaster that has been generated based on the facial expression or pose related to the broadcaster to a predetermined facial expression or pose corresponding to the predetermined condition, and displays the avatar to which the predetermined facial expression or pose has been applied on the terminal device. [Selected Figure] Figure 3

Description

本件出願に開示された技術は、コンピュータプログラム、サーバ装置、端末装置及び方
法に関する。
The technology disclosed in this application relates to a computer program, a server device, a terminal device, and a method.

近年、配信者が演じるアバターを用いた技術が発展している。この種の技術においては
、配信サービスを介して、配信者が演じるアバターを、視聴者が視聴可能なようにされて
いる。
In recent years, technology using avatars played by broadcasters has been developed. In this type of technology, viewers can view the avatars played by broadcasters via a broadcasting service.

また、アバターを用いたサービスに関連して、アバターオブジェクトの表情や動作を演
者等の動作に基づいて制御する技術を利用したサービスとして、「カスタムキャスト」と
称されるサービスが知られている(非特許文献1)。このサービスでは、演者は、スマー
トフォンの画面に対する複数のフリック方向の各々に対して、用意された多数の表情や動
作のうちのいずれかの表情又は動作を予め割り当てておき、所望する表情又は動作に対応
する方向に沿って演者がスマートフォンの画面をフリックすることにより、その動画に表
示されるアバターオブジェクトにその表情又は動作を表現させることができる。
In relation to services using avatars, a service called "Custom Cast" is known as a service that uses a technology to control the facial expressions and movements of an avatar object based on the movements of a performer, etc. (Non-Patent Document 1). In this service, a performer pre-assigns one of a large number of prepared facial expressions and movements to each of a number of flick directions on a smartphone screen, and by flicking the smartphone screen in the direction corresponding to the desired facial expression or movement, the performer can make the avatar object displayed in the video express that facial expression or movement.

"カスタムキャスト"、[online]、Custom Cast Inc.、[2019年12月10日検索]、インターネット(URL: https://customcast.jp/)"Custom Cast", [online], Custom Cast Inc., [searched December 10, 2019], Internet (URL: https://customcast.jp/)

しかしながら、非特許文献1に開示される技術においては、演者が発話しながらスマー
トフォンの画面をフリックしなければならず、演者にとっては当該フリックの操作を行う
困難となり得る。
However, in the technology disclosed in Non-Patent Document 1, the performer must flick the smartphone screen while speaking, which may make it difficult for the performer to perform the flick operation.

なお、上記非特許文献1は、引用によりその全体が本明細書に組み入れられる。 The above non-patent document 1 is incorporated herein in its entirety by reference.

本件出願において開示された幾つかの実施形態は、アバターをより適切に表現可能な、
コンピュータプログラム、サーバ装置、端末装置、及び方法を提供する。
Some embodiments disclosed in the present application provide a method for creating a more suitable representation of an avatar.
A computer program, a server device, a terminal device, and a method are provided.

一態様に係るコンピュータプログラムは、一又は複数のプロセッサにより実行されるこ
とにより、配信者による所定の動作、前記配信者の表情、前記配信者の顔色、前記配信者
の声、又は、前記配信者に対して生じる所定の状況、のうちの一又は複数に係る情報を検
知し、前記検知した情報が所定の条件を充足するか否かを判定し、前記所定の条件を充足
すると判定した場合に、前記配信者に係る表情又はポーズに基づいて生成されていた前記
配信者に係るアバターの表情又はポーズを、前記所定の条件に対応する所定の表情又はポ
ーズとするための情報を生成し、前記所定の表情又はポーズが適用された、前記アバター
を表示する、ように前記一又は複数のプロセッサを機能させるものである。
A computer program in one embodiment, when executed by one or more processors, causes the one or more processors to function as follows: detect information relating to one or more of a predetermined action by a broadcaster, the broadcaster's facial expression, the broadcaster's complexion, the broadcaster's voice, or a predetermined situation occurring to the broadcaster; determine whether the detected information satisfies a predetermined condition; and, if it is determined that the predetermined condition is satisfied, generate information for changing the facial expression or pose of an avatar relating to the broadcaster that was generated based on the facial expression or pose of the broadcaster to a predetermined facial expression or pose that corresponds to the predetermined condition; and display the avatar with the predetermined facial expression or pose applied.

また、一態様に係るコンピュータプログラムは、一又は複数のプロセッサにより実行さ
れることにより、配信者による所定の動作、前記配信者の表情、前記配信者の顔色、前記
配信者の声、又は、前記配信者に対して生じる所定の状況、のうちの一又は複数に係る情
報を検知し、前記検知した情報が所定の条件を充足するか否かを判定し、前記所定の条件
を充足すると判定した場合に、前記配信者に係る表情又はポーズに基づいて生成されてい
た前記配信者に係るアバターの表情又はポーズを、前記所定の条件に対応する所定の表情
又はポーズとするための情報を生成し、前記所定の表情又はポーズとするための情報を、
送信する、ように前記一又は複数のプロセッサを機能させるものである。
A computer program according to one embodiment is executed by one or more processors to detect information relating to one or more of a predetermined action by a distributor, a facial expression of the distributor, a complexion of the distributor, the voice of the distributor, or a predetermined situation occurring to the distributor, determine whether the detected information satisfies a predetermined condition, and if it is determined that the predetermined condition is satisfied, generate information for changing a facial expression or pose of an avatar relating to the distributor that has been generated based on a facial expression or pose relating to the distributor to a predetermined facial expression or pose corresponding to the predetermined condition, and
The one or more processors are operable to transmit.

また、一態様に係るサーバ装置は、一又は複数のプロセッサを具備し、前記プロセッサ
が、コンピュータにより読み取り可能な命令を実行することにより、配信者による所定の
動作、前記配信者の表情、前記配信者の顔色、前記配信者の声、又は、前記配信者に対し
て生じる所定の状況、のうちの一又は複数に係る情報を検知し、前記検知した情報が所定
の条件を充足するか否かを判定し、前記所定の条件を充足すると判定した場合に、前記配
信者に係る表情又はポーズに基づいて生成されていた前記配信者に係るアバターの表情又
はポーズを、前記所定の条件に対応する所定の表情又はポーズとするための情報を生成し
、前記所定の表情又はポーズとするための情報を、送信する、ものである。
In addition, a server device in one embodiment is equipped with one or more processors, and the processor executes computer-readable instructions to detect information related to one or more of a predetermined action by a broadcaster, a facial expression of the broadcaster, a complexion of the broadcaster, the voice of the broadcaster, or a predetermined situation occurring to the broadcaster, determines whether the detected information satisfies a predetermined condition, and if it is determined that the predetermined condition is satisfied, generates information for changing the facial expression or pose of an avatar related to the broadcaster that was generated based on the facial expression or pose of the broadcaster to a predetermined facial expression or pose that corresponds to the predetermined condition, and transmits the information for changing the predetermined facial expression or pose.

また、一態様に係る方法は、コンピュータにより読み取り可能な命令を実行する一又は
複数のプロセッサにより実行される方法であって、配信者による所定の動作、前記配信者
の表情、前記配信者の顔色、前記配信者の声、又は、前記配信者に対して生じる所定の状
況、のうちの一又は複数に係る情報を検知し、前記検知した情報が所定の条件を充足する
か否かを判定し、前記所定の条件を充足すると判定した場合に、前記配信者に係る表情又
はポーズに基づいて生成されていた前記配信者に係るアバターの表情又はポーズを、前記
所定の条件に対応する所定の表情又はポーズとするための情報を生成し、前記所定の表情
又はポーズが適用された、前記アバターを表示する、ものである。
In addition, a method according to one embodiment is a method executed by one or more processors executing computer-readable instructions, which detects information relating to one or more of a predetermined action by a broadcaster, a facial expression of the broadcaster, a complexion of the broadcaster, the voice of the broadcaster, or a predetermined situation occurring to the broadcaster, determines whether the detected information satisfies a predetermined condition, and if it is determined that the predetermined condition is satisfied, generates information for changing the facial expression or pose of an avatar relating to the broadcaster that was generated based on the facial expression or pose of the broadcaster to a predetermined facial expression or pose that corresponds to the predetermined condition, and displays the avatar with the predetermined facial expression or pose applied.

また、一態様に係る方法は、コンピュータにより読み取り可能な命令を実行する一又は
複数のプロセッサにより実行される方法であって、配信者による所定の動作、前記配信者
の表情、前記配信者の顔色、前記配信者の声、又は、前記配信者に対して生じる所定の状
況、のうちの一又は複数に係る情報を検知し、前記検知した情報が所定の条件を充足する
か否かを判定し、前記所定の条件を充足すると判定した場合に、前記配信者に係る表情又
はポーズに基づいて生成されていた前記配信者に係るアバターの表情又はポーズを、前記
所定の条件に対応する所定の表情又はポーズとするための情報を生成し、前記所定の表情
又はポーズとするための情報を、送信する、ものである。
In addition, a method according to one embodiment is a method executed by one or more processors executing computer-readable instructions, which detects information relating to one or more of a predetermined action by a broadcaster, a facial expression of the broadcaster, a complexion of the broadcaster, the voice of the broadcaster, or a predetermined situation occurring to the broadcaster, determines whether the detected information satisfies a predetermined condition, and if it is determined that the predetermined condition is satisfied, generates information for changing the facial expression or pose of an avatar relating to the broadcaster that was generated based on the facial expression or pose of the broadcaster to a predetermined facial expression or pose that corresponds to the predetermined condition, and transmits the information for changing the predetermined facial expression or pose.

また、一態様に係る視聴者端末は、一又は複数のプロセッサを具備し、前記プロセッサ
が、コンピュータにより読み取り可能な命令を実行することにより、配信者による所定の
動作、前記配信者の表情、前記配信者の顔色、前記配信者の声、又は、前記配信者に対し
て生じる所定の状況、のうちの一又は複数に係る情報を検知し、前記検知した情報が所定
の条件を充足するか否かを判定し、前記所定の条件を充足すると判定した場合に、前記配
信者に係る表情又はポーズに基づいて生成されていた前記配信者に係るアバターの表情又
はポーズを、前記所定の条件に対応する所定の表情又はポーズとするための情報を生成し
、前記所定の表情又はポーズが適用された、前記アバターを表示する、ものである。
In addition, a viewer terminal in one embodiment is equipped with one or more processors, and the processor executes computer-readable instructions to detect information related to one or more of a predetermined action by a distributor, a facial expression of the distributor, a complexion of the distributor, the voice of the distributor, or a predetermined situation occurring to the distributor, determines whether the detected information satisfies a predetermined condition, and if it is determined that the predetermined condition is satisfied, generates information to change the facial expression or pose of an avatar related to the distributor that was generated based on the facial expression or pose of the distributor to a predetermined facial expression or pose that corresponds to the predetermined condition, and displays the avatar with the predetermined facial expression or pose applied.

また、一態様に係る配信者端末は、一又は複数のプロセッサを具備し、前記プロセッサ
が、コンピュータにより読み取り可能な命令を実行することにより、配信者による所定の
動作、前記配信者の表情、前記配信者の顔色、前記配信者の声、又は、前記配信者に対し
て生じる所定の状況、のうちの一又は複数に係る情報を検知し、前記検知した情報が所定
の条件を充足するか否かを判定し、前記所定の条件を充足すると判定した場合に、前記配
信者に係る表情又はポーズに基づいて生成されていた前記配信者に係るアバターの表情又
はポーズを、前記所定の条件に対応する所定の表情又はポーズとするための情報を生成し
、前記所定の表情又はポーズとするための情報を、送信する、ものである。
In addition, a broadcaster terminal in one embodiment is equipped with one or more processors, and the processor executes computer-readable instructions to detect information related to one or more of a predetermined action by the broadcaster, the broadcaster's facial expression, the broadcaster's complexion, the broadcaster's voice, or a predetermined situation occurring to the broadcaster, determine whether the detected information satisfies a predetermined condition, and if it is determined that the predetermined condition is satisfied, generate information for changing the facial expression or pose of an avatar related to the broadcaster that was generated based on the facial expression or pose of the broadcaster to a predetermined facial expression or pose that corresponds to the predetermined condition, and transmit the information for changing the predetermined facial expression or pose.

図1は、一実施形態に係るシステムの構成の一例を示すブロック図である。FIG. 1 is a block diagram showing an example of a configuration of a system according to an embodiment. 図2は、図1に示したサーバ装置20(端末装置30)のハードウェア構成の一例を模式的に示すブロック図である。FIG. 2 is a block diagram illustrating an example of a hardware configuration of the server device 20 (terminal device 30) illustrated in FIG. 図3は、一実施形態に係るシステムの機能の一例を模式的に示すブロック図である。FIG. 3 is a block diagram illustrating an example of the functions of a system according to an embodiment. 図4は、一実施形態に係るシステムが有するデータの一例である。FIG. 4 is an example of data held by the system according to an embodiment. 図5は、一実施形態に係るシステムが有するデータの一例である。FIG. 5 is an example of data held by a system according to an embodiment. 図6は、一実施形態に係るシステムが有するデータの一例である。FIG. 6 is an example of data held by the system according to an embodiment. 図7は、一実施形態に係るシステムが処理するフローの一例である。FIG. 7 is an example of a flow of processing performed by a system according to an embodiment. 図8は、一実施形態に係るシステムが処理するフローの一例である。FIG. 8 is an example of a flow of processing performed by a system according to an embodiment. 図9は、一実施形態に係るシステムが処理するフローの一例である。FIG. 9 is an example of a flow of processing performed by a system according to an embodiment.

以下、添付図面を参照して本発明の様々な実施形態を説明する。或る図面に表現された
構成要素が、説明の便宜上、別の図面においては省略されていることがある点に留意され
たい。さらにまた、添付した図面は、本願発明の一実施形態を開示するものではあるもの
の、必ずしも正確な縮尺で記載されている訳ではないということに注意されたい。また、
本願書類において、アプリケーションという用語が示す対象は、ソフトウェア、又はプロ
グラムと呼ばれるものであってよく、コンピュータに対する指令であって、結果を得るこ
とができるように組み合わされたものであればよい。
Various embodiments of the present invention will be described below with reference to the accompanying drawings. Please note that components depicted in one drawing may be omitted in another drawing for convenience of explanation. Furthermore, please note that the accompanying drawings disclose an embodiment of the present invention, but are not necessarily drawn to scale. Also,
In this document, the term application refers to software, which may be called a program, and may be instructions for a computer that are combined to produce a result.

1.システムの例
図1は、一実施形態に係るシステムの構成の一例を示すブロック図である。図1に示す
ように、システム1は、通信網10に接続される1又はそれ以上のサーバ装置20と、通
信網10に接続される1又はそれ以上の端末装置30と、を含んでよい。なお、図1には
、サーバ装置20の例として、3つのサーバ装置20A~20Cが例示され、端末装置3
0の例として、3つの端末装置30A~30Cが例示されているが、サーバ装置20とし
て、これら以外の1又はそれ以上のサーバ装置20が通信網10に接続され得るし、端末
装置30として、これら以外の1又はそれ以上の端末装置30が通信網10に接続され得
る。なお、本出願書類において、システムという用語を、サーバと端末装置の両方を含む
場合もあれば、サーバのみ、又は、端末装置のみ、を示す用語としても用いる。すなわち
、システムは、サ―バのみ、端末装置のみ、サーバ及び端末装置の両方、のいずれの態様
であってもよい。
1. Example of a System FIG . 1 is a block diagram showing an example of a system configuration according to an embodiment. As shown in FIG. 1, the system 1 may include one or more server devices 20 connected to a communication network 10, and one or more terminal devices 30 connected to the communication network 10. Note that FIG. 1 shows three server devices 20A to 20C as examples of the server devices 20, and one or more terminal devices 30.
As an example of the system, three terminal devices 30A to 30C are illustrated, but one or more other server devices 20 may be connected to the communication network 10 as the server device 20, and one or more other terminal devices 30 may be connected to the communication network 10 as the terminal device 30. In addition, in the present application documents, the term "system" is used to refer to both the server and the terminal device, or to only the server or only the terminal device. In other words, the system may be in any of the following forms: only the server, only the terminal device, or both the server and the terminal device.

また、システムは、クラウド上の情報処理装置であってもよい。また、システムは、仮
想的な情報処理装置を構成するものであって、論理的に一の情報処理装置と構成されるも
のであってもよい。また、システムの所有者と管理者は異なってもよい。
The system may be an information processing device on a cloud. The system may be a virtual information processing device and may be logically configured as one information processing device. The owner and the administrator of the system may be different persons.

通信網10は、携帯電話網、無線LAN、固定電話網、インターネット、イントラネッ
ト、イーサネット(登録商標)、及び/又はこれらの組み合わせ等であってよく、また、
これらに限定されない。通信網10においては、本願書類で開示された種々のデータが通
信されてよい。
The communication network 10 may be a mobile phone network, a wireless LAN, a landline telephone network, the Internet, an intranet, an Ethernet (registered trademark), and/or a combination thereof, and
The communication network 10 may communicate various data disclosed in the present application, but is not limited to these.

サーバ装置20は、インストールされた特定のアプリケーションを実行することにより
、配信者による所定の動作、前記配信者の表情、前記配信者の顔色、前記配信者の声、又
は、前記配信者に対して生じる所定の状況、のうちの一又は複数に係る情報を検知し、前
記検知した情報が所定の条件を充足するか否かを判定し、前記所定の条件を充足すると判
定した場合に、前記配信者に係る表情又はポーズに基づいて生成されていた前記配信者に
係るアバターの表情又はポーズを、前記所定の条件に対応する所定の表情又はポーズとす
るための情報を生成する、という動作等を実行できてよい。
By executing a specific installed application, the server device 20 may be able to perform operations such as detecting information relating to one or more of a specified action by the broadcaster, the broadcaster's facial expression, the broadcaster's complexion, the broadcaster's voice, or a specified situation occurring to the broadcaster, determining whether the detected information satisfies specified conditions, and if it determines that the specified conditions are satisfied, generating information to change the facial expression or pose of the avatar relating to the broadcaster that was generated based on the facial expression or pose relating to the broadcaster to a specified facial expression or pose that corresponds to the specified conditions.

或いはまた、端末装置30は、インストールされたウェブブラウザまたは特定のアプリ
ケーションを実行することにより、配信者による所定の動作、前記配信者の表情、前記配
信者の顔色、前記配信者の声、又は、前記配信者に対して生じる所定の状況、のうちの一
又は複数に係る情報を検知し、前記検知した情報が所定の条件を充足するか否かを判定し
、前記所定の条件を充足すると判定した場合に、前記配信者に係る表情又はポーズに基づ
いて生成されていた前記配信者に係るアバターの表情又はポーズを、前記所定の条件に対
応する所定の表情又はポーズとするための情報を生成する、という動作等を実行できてよ
い。
Alternatively, the terminal device 30 may be able to execute an installed web browser or a specific application to detect information relating to one or more of a predetermined action by the broadcaster, the broadcaster's facial expression, the broadcaster's complexion, the broadcaster's voice, or a predetermined situation occurring to the broadcaster, determine whether the detected information satisfies predetermined conditions, and if it determines that the predetermined conditions are satisfied, generate information to change the facial expression or pose of the avatar relating to the broadcaster that was generated based on the facial expression or pose relating to the broadcaster to a predetermined facial expression or pose that corresponds to the predetermined conditions.

端末装置30は、このような動作を実行することができる任意の端末装置であって、ス
マートフォン、タブレット、携帯電話(フィーチャーフォン)及び/又はパーソナルコン
ピュータ等であってよく、これらに限定されない。
The terminal device 30 is any terminal device capable of performing such operations, and may be, but is not limited to, a smartphone, a tablet, a mobile phone (feature phone), and/or a personal computer.

2.各装置のハードウェア構成
次に、サーバ装置20が有するハードウェア構成の一例について説明する。
2. Hardware Configuration of Each Device Next, an example of the hardware configuration of the server device 20 will be described.

2-1.サーバ装置20のハードウェア構成
サーバ装置20のハードウェア構成例について図2を参照して説明する。図2は、図1
に示したサーバ装置20(端末装置30)のハードウェア構成の一例を模式的に示すブロ
ック図である(なお、図2において、括弧内の参照符号は、後述するように各端末装置3
0に関連して記載されたものである。)
2-1. Hardware Configuration of Server Device 20 An example of the hardware configuration of the server device 20 will be described with reference to FIG.
2 is a block diagram showing an example of a hardware configuration of the server device 20 (terminal device 30) shown in FIG. 2 (note that in FIG. 2, the reference numerals in parentheses indicate the hardware configuration of each terminal device 30 as described later).
0.)

図2に示すように、サーバ装置20は、主に、演算装置21と、主記憶装置22と、入
出力インタフェイス装置23を備えることができる。サーバ装置20は、更に、入力装置
24と、補助出力装置26と、を含むことができる。これら装置同士は、データバス及び
/又は制御バスにより接続されていてよい。
2, the server device 20 may mainly include a computing device 21, a main memory device 22, and an input/output interface device 23. The server device 20 may further include an input device 24 and an auxiliary output device 26. These devices may be connected to each other by a data bus and/or a control bus.

演算装置21は、主記憶装置22に記憶されている命令及びデータを用いて演算を行い
、その演算の結果を主記憶装置22に記憶させるものである。さらに、演算装置21は、
入出力インタフェイス装置23を介して、入力装置24、補助記憶装置25及び出力装置
26等を制御することができる。サーバ装置20は、1以上の演算装置21を含んでよい
。演算装置21は、1又はそれ以上の、中央処理装置(CPU)、マイクロプロセッサ、
及び/又は、グラフィックスプロセッシングユニット(GPU)を含んでよい。
The arithmetic unit 21 performs calculations using instructions and data stored in the main memory 22, and stores the results of the calculations in the main memory 22.
The server device 20 can control an input device 24, an auxiliary storage device 25, an output device 26, etc. via an input/output interface device 23. The server device 20 may include one or more computing devices 21. The computing device 21 may include one or more of a central processing unit (CPU), a microprocessor,
and/or may include a graphics processing unit (GPU).

主記憶装置22は、記憶機能を有し、入力装置24、補助記憶装置25及び通信網10
等(サーバ装置20等)から、入出力インタフェイス装置23を介して受信した命令及び
データ、並びに、演算装置21の演算結果を記憶するものである。主記憶装置22は、R
AM(ランダムアクセスメモリ)、ROM(リードオンリーメモリ)及び/又はフラッシ
ュメモリ等をこれらに限定することなく含むことができる。
The main memory 22 has a storage function, and is connected to the input device 24, the auxiliary memory 25, and the communication network 10.
The main memory 22 stores commands and data received from the server device 20, etc. via the input/output interface device 23, as well as the results of the calculations performed by the calculation device 21.
This may include, but is not limited to, AM (random access memory), ROM (read only memory) and/or flash memory.

補助記憶装置25は、記憶装置である。上記特定のアプリケーションやウェブブラウザ
等を構成する命令及びデータ(コンピュータプログラム)を記憶してよく、演算装置21
により制御されることにより、これらの命令及びデータ(コンピュータプログラム)は入
出力インタフェイス装置23を介して主記憶装置22にロードされてよい。補助記憶装置
25は、磁気ディスク装置及び/又は光ディスク装置、ファイルサーバ等であってよく、
これらに限定されない。
The auxiliary storage device 25 is a storage device. It may store instructions and data (computer programs) that configure the specific application, the web browser, etc., and is used by the computing device 21.
Under the control of the I/O interface device 23, these instructions and data (computer programs) may be loaded into the main memory device 22 via the I/O interface device 23. The auxiliary memory device 25 may be a magnetic disk device and/or an optical disk device, a file server, etc.
Not limited to these.

入力装置24は、外部からデータを取り込む装置であり、タッチパネル、ボタン、キー
ボード、マウス及び/又はセンサ等であってよい。
The input device 24 is a device for inputting data from the outside, and may be a touch panel, a button, a keyboard, a mouse, and/or a sensor, etc.

出力装置26は、ディスプレイ装置、タッチパネル及び/又はプリンタ装置等をこれら
に限定することなく含むことができてよい。また、入力装置24と出力装置26とが一体
化されたものであってもよい。
The output device 26 may include, but is not limited to, a display device, a touch panel, and/or a printer device, etc. Also, the input device 24 and the output device 26 may be integrated together.

このようなハードウェア構成にあっては、演算装置21が、補助記憶装置25に記憶さ
れた特定のアプリケーションを構成する命令及びデータ(コンピュータプログラム)を順
次主記憶装置22にロードし、ロードした命令及びデータを演算することにより、入出力
インタフェイス装置23を介して出力装置26を制御し、或いはまた、入出力インタフェ
イス装置23及び通信網10を介して、他の装置(例えばサーバ装置20及び他の端末装
置30等)との間で様々な情報の送受信を行うことができてよい。
In such a hardware configuration, the calculation device 21 sequentially loads instructions and data (computer program) constituting a specific application stored in the auxiliary storage device 25 into the main storage device 22, and calculates the loaded instructions and data, thereby controlling the output device 26 via the input/output interface device 23, and/or transmitting and receiving various information to and from other devices (e.g., a server device 20 and other terminal devices 30, etc.) via the input/output interface device 23 and the communication network 10.

サーバ装置20がかかる構成を備え、インストールされた特定のアプリケーションを実
行することにより、以下で定義される、配信者による所定の動作、前記配信者の表情、前
記配信者の顔色、前記配信者の声、又は、前記配信者に対して生じる所定の状況、のうち
の一又は複数に係る情報を検知し、前記検知した情報が所定の条件を充足するか否かを判
定し、前記所定の条件を充足すると判定した場合に、前記配信者に係る表情又はポーズに
基づいて生成されていた前記配信者に係るアバターの表情又はポーズを、前記所定の条件
に対応する所定の表情又はポーズとするための情報を生成する、という動作等(後に詳述
する様々な動作を含む)の一部又は全部を実行できてよい。また、かかる動作等は、ユー
ザーが、入力装置24又は後述する端末装置30に係る入力装置34を用いて、本願書類
で開示する発明の一例のシステムに指示を与えることで動作されてよい。また、プログラ
ムが演算装置21上で実行されている場合にはユーザーの利用するシステムとしてのサー
バ装置20の出力装置26によって表示されてよく、又はユーザーの利用するシステムと
しての端末装置30の出力装置36に表示させる構成であってよい。
By having such a configuration and executing a specific application installed, the server device 20 may detect information related to one or more of a predetermined action by a distributor, a facial expression of the distributor, a complexion of the distributor, a voice of the distributor, or a predetermined situation occurring to the distributor, as defined below, determine whether the detected information satisfies a predetermined condition, and if it is determined that the predetermined condition is satisfied, generate information for changing the facial expression or pose of the avatar related to the distributor, which was generated based on the facial expression or pose of the distributor, to a predetermined facial expression or pose corresponding to the predetermined condition (including various operations described in detail later). In addition, such operations may be performed by a user giving an instruction to a system of an example of the invention disclosed in the present application documents using the input device 24 or the input device 34 related to the terminal device 30 described later. In addition, when the program is executed on the calculation device 21, it may be displayed by the output device 26 of the server device 20 as a system used by the user, or may be configured to be displayed on the output device 36 of the terminal device 30 as a system used by the user.

2-2.端末装置30のハードウェア構成
端末装置30のハードウェア構成例について同じく図2を参照して説明する。各端末装
置30のハードウェア構成としては、例えば、上述した各サーバ装置20のハードウェア
構成と同一のものを用いることが可能である。したがって、各端末装置30が有する構成
要素に対する参照符号は、図2において括弧内に示されている。
2-2. Hardware Configuration of Terminal Device 30 An example of the hardware configuration of the terminal device 30 will be described with reference to Fig. 2. The hardware configuration of each terminal device 30 may be the same as that of each server device 20 described above. Therefore, the reference numerals for the components of each terminal device 30 are shown in parentheses in Fig. 2.

図2に示すように、各端末装置30は、主に、演算装置31と、主記憶装置32と、入
出力インタフェイス装置33と、入力装置34と、補助記憶装置35と、出力装置36と
、を含むことができる。これら装置同士は、データバス及び/又は制御バスにより接続さ
れている。
2, each terminal device 30 can mainly include a calculation device 31, a main memory device 32, an input/output interface device 33, an input device 34, an auxiliary memory device 35, and an output device 36. These devices are connected to each other by a data bus and/or a control bus.

演算装置31、主記憶装置32、入出力インタフェイス装置33、入力装置34、補助
記憶装置35及び出力装置36は、それぞれ、上述した各サーバ装置20に含まれる、演
算装置21、主記憶装置22、入出力インタフェイス装置23、入力装置24、補助記憶
装置25及び出力装置26と略同一であってもよいし、異なるものであってもよい。また
、演算装置や記憶装置の容量や能力は、異なっていてよい。特に入力装置34及び出力装
置36については、以下で詳述する。
The arithmetic device 31, the main memory device 32, the input/output interface device 33, the input device 34, the auxiliary memory device 35, and the output device 36 may be substantially the same as or different from the arithmetic device 21, the main memory device 22, the input/output interface device 23, the input device 24, the auxiliary memory device 25, and the output device 26 included in each of the above-mentioned server devices 20. The arithmetic device and the memory devices may have different capacities and capabilities. The input device 34 and the output device 36 in particular will be described in detail below.

このようなハードウェア構成にあっては、演算装置31が、補助記憶装置35に記憶さ
れた特定のアプリケーションを構成する命令及びデータ(コンピュータプログラム)を順
次主記憶装置32にロードし、ロードした命令及びデータを演算することにより、入出力
インタフェイス装置33を介して出力装置36を制御し、或いはまた、入出力インタフェ
イス装置33及び通信網10を介して、他の装置(例えば各サーバ装置20等)との間で
様々な情報の送受信を行うことができる。
In such a hardware configuration, the calculation device 31 sequentially loads instructions and data (computer programs) constituting a specific application stored in the auxiliary storage device 35 into the main storage device 32, and by calculating the loaded instructions and data, it is possible to control the output device 36 via the input/output interface device 33, and also to send and receive various information between the output device 36 and other devices (e.g., each server device 20, etc.) via the input/output interface device 33 and the communication network 10.

端末装置30がかかる構成を備え、配信者による所定の動作、前記配信者の表情、前記
配信者の顔色、前記配信者の声、又は、前記配信者に対して生じる所定の状況、のうちの
一又は複数に係る情報を検知し、前記検知した情報が所定の条件を充足するか否かを判定
し、前記所定の条件を充足すると判定した場合に、前記配信者に係る表情又はポーズに基
づいて生成されていた前記配信者に係るアバターの表情又はポーズを、前記所定の条件に
対応する所定の表情又はポーズとするための情報を生成する、という動作等(後に詳述す
る様々な動作を含む)の一部又は全部を実行できてよい。また、インストールされたウェ
ブブラウザを実行することにより、サーバ装置20からウェブページを受信及び表示して
、同様の動作を実行できる。また、かかる動作等は、ユーザーが、入力装置34を用いて
、本願書類で開示する発明の一例のシステムに指示を与えることで動作されてよい。また
、プログラムが演算装置31上で実行されている場合にはユーザーの利用するシステムと
しての端末装置30の出力装置36に表示する構成であってよい。
The terminal device 30 may be equipped with such a configuration, and may detect information related to one or more of a predetermined action by a distributor, the facial expression of the distributor, the complexion of the distributor, the voice of the distributor, or a predetermined situation occurring to the distributor, determine whether the detected information satisfies a predetermined condition, and if it is determined that the predetermined condition is satisfied, generate information for changing the facial expression or pose of the avatar related to the distributor, which was generated based on the facial expression or pose of the distributor, to a predetermined facial expression or pose corresponding to the predetermined condition (including various operations described in detail later). Also, by executing the installed web browser, it is possible to receive and display a web page from the server device 20 and perform the same operation. Also, such operations may be performed by a user giving an instruction to the system of the example of the invention disclosed in the present application document using the input device 34. Also, when the program is executed on the computing device 31, it may be configured to be displayed on the output device 36 of the terminal device 30 as a system used by the user.

端末装置は、本願書類において、「配信者端末」と「視聴者端末」の2種類の端末装置
があってよい。これらは端末の役割に対して付与された名称であってよく、一の端末装置
が、視聴者端末であることもあれば、配信者端末であることもあり、また、視聴者端末で
あると同時に配信者端末であってもよい。また、配信者端末と視聴者端末とは異なってよ
い。配信者端末は、配信されるものにアバターなどの被写体として登場する者である配信
者が利用する端末であってよい。他方、視聴者端末は、主に、配信されているものを視聴
する者である視聴者が利用する端末であってよい。なお、視聴者も、アバターなどの被写
体に対してギフトを提供するギフティング行為によって、配信されるものにギフトが登場
するような形で、視聴者が配信されるものに一定の影響をあたえてもよい。同様に、視聴
者は、音声、コメント、等の形で、配信されるものに、一定の影響を与えてよい。配信さ
れるものは、動画であってもよいし、映像であってもよいし、アニメーションであっても
よく、これらの一部に配信者が演じるアバターなどの被写体が登場する者であればよい。
なお、上述の説明は、本願発明の一実施形態が適用される例にすぎず、かかる前提のない
被写体が登場する仮想空間においても、本願発明に係る各実施形態は適用されてよい。な
お、本願書類において、アニメーションは、仮想現実であってもよいし、拡張現実であっ
てもよい。
In the present application, there may be two types of terminal devices, a "distributor terminal" and a "viewer terminal". These may be names given to the roles of the terminals, and a terminal device may be a viewer terminal, a distributor terminal, or a viewer terminal and a distributor terminal at the same time. Also, the distributor terminal and the viewer terminal may be different. The distributor terminal may be a terminal used by a distributor who appears as a subject such as an avatar in the distributed content. On the other hand, the viewer terminal may be a terminal used mainly by a viewer who views the distributed content. In addition, the viewer may also have a certain influence on the distributed content by a gifting act of providing a gift to a subject such as an avatar, such that a gift appears in the distributed content. Similarly, the viewer may have a certain influence on the distributed content in the form of a voice, a comment, or the like. The distributed content may be a video, a video, or an animation, and it is sufficient that a subject such as an avatar played by the distributor appears in some of these.
The above description is merely an example of application of one embodiment of the present invention, and each embodiment of the present invention may be applied to a virtual space in which a subject without such a premise appears. In the present application, animation may be virtual reality or augmented reality.

視聴者端末は、上述のように、音声の入力、コメントの入力、ギフティングなどが可能
に構成されてよい。例えば、視聴者端末は、入力装置34として、コメントを入力可能で
あり、テキスト情報たるコメントを取得可能なキーボード、タッチパネル、などを有して
よい。また、視聴者端末は、演算装置34により、一定のコメントやギフトを生成する機
能を有してもよい。これらの取得されたコメントやギフトは、同様に、入出力インタフェ
イス装置23を介して、通信網10へ送信されてよい。また、これらのコメントやギフト
は、配信されるもの生成に利用されてよい。
As described above, the viewer terminal may be configured to allow voice input, comment input, gifting, and the like. For example, the viewer terminal may have, as the input device 34, a keyboard, a touch panel, or the like that can input comments and acquire comments as text information. The viewer terminal may also have a function of generating certain comments and gifts by the computing device 34. These acquired comments and gifts may be similarly transmitted to the communication network 10 via the input/output interface device 23. These comments and gifts may also be used to generate items to be distributed.

なお、本願発明に係るコメントは、視聴者端末によって入力されるコメント以外に、シ
ステムが自動的に生成するものであってよい。かかるコメントは、視聴者端末に向けて送
信され、視聴者端末において表示されてよい。
The comment according to the present invention may be a comment automatically generated by the system, in addition to a comment inputted by a viewer terminal. Such a comment may be transmitted to the viewer terminal and displayed on the viewer terminal.

また、端末は、入力装置34として、音を取得可能なマイクを含んでよい。なお、人の
音声は、入力装置34としてのマイクによって取得され、音として扱ってもよいし、入力
装置34としてのマイクによって取得された後、演算装置31による音声認識によりテキ
スト化して、コメントとして扱ってもよい。なお、視聴者端末は、演算装置31によって
音を生成してもよい。これらの取得された音又はコメントは、同様に、入出力インタフェ
イス装置23を介して、通信網10へ送信されてよい。
The terminal may also include a microphone capable of acquiring sound as the input device 34. Human voice may be acquired by the microphone as the input device 34 and treated as sound, or may be acquired by the microphone as the input device 34 and then converted into text by voice recognition by the calculation device 31 and treated as a comment. The viewer terminal may generate sound by the calculation device 31. The acquired sound or comment may be transmitted to the communication network 10 via the input/output interface device 23 in the same manner.

他方、配信者端末は、入力装置34として、人の動きを検知可能なモーションセンサを
含んでよい。モーションセンサは、配信者の身体に装着し、身体の各部の動きを検知可能
な機能を有してよい。身体の各部としては、頭部、顔面、上腕、前腕、手、大腿、下腿、
足、体幹、など種々の箇所が挙げられうるが、これらの一部又は全部に限られず、身体の
動きを検知可能な位置に装着できるものであってよい。かかるセンサによって、配信者の
表情やポーズをトラッキングし、情報として生成可能であってよい。モーションセンサは
、加速度センサ、ジャイロセンサ、地磁気センサなどを有してよい。これらの取得された
情報は、同様に、入出力インタフェイス装置23を介して、通信網10へ送信されてよい
On the other hand, the broadcaster terminal may include a motion sensor capable of detecting human movement as the input device 34. The motion sensor may be attached to the broadcaster's body and have a function of detecting the movement of each part of the body. The parts of the body include the head, face, upper arm, forearm, hand, thigh, lower leg,
Various locations such as the feet, trunk, etc. may be mentioned, but are not limited to some or all of these, and the sensor may be attached to a position capable of detecting body movements. Such a sensor may track the facial expression and pose of the broadcaster and generate the information. The motion sensor may include an acceleration sensor, a gyro sensor, a geomagnetic sensor, etc. The acquired information may be transmitted to the communication network 10 via the input/output interface device 23 in the same manner.

また、配信者端末は、入力装置34として、動画を撮像可能なカメラを含んでよい。カ
メラは、配信者の、頭、顔面、目、身体の一部、全身、などを撮像してよい。カメラが、
頭や顔面を撮像する場合顔の方向を検知することが可能であり、顔面を撮像する場合表情
を検知することが可能であり、目を撮像する場合視線を検知することが可能であり、身体
の一部又は全身を撮像する場合上述のモーションセンサと共に又は代えて身体の動きを検
知することが可能であってよい。これらの撮像情報に基づいた、顔方向、視線、表情、身
体の動きについて取得された情報は、同様に、入出力インタフェイス装置23を介して、
通信網10へ送信されてよい。
The distributor terminal may also include a camera capable of capturing video as the input device 34. The camera may capture the head, face, eyes, part of the body, the whole body, etc., of the distributor.
When the head or face is imaged, it is possible to detect the direction of the face, when the face is imaged, it is possible to detect facial expressions, when the eyes are imaged, it is possible to detect the line of sight, and when a part of the body or the whole body is imaged, it is possible to detect the movement of the body together with or instead of the above-mentioned motion sensor. Information obtained about the direction of the face, the line of sight, the facial expressions, and the movement of the body based on these image information is similarly transmitted via the input/output interface device 23 to:
It may be transmitted to the communication network 10 .

また、視聴者端末及び配信者端末における出力装置36は、表示装置、音発生装置であ
ってよい。表示装置は、表示可能な機能であれば種々の装置であってよく、例えば、液晶
ディスプレイ、プラズマディスプレイ、有機ELディスプレイ、マイクロLEDディスプ
レイ、ヘッドマウントディスプレイなどが挙げられるが、これらに限らず種々の装置であ
ってよい。音発生装置は、スピーカー、ヘッドフォン、イヤホンなどであってよい。出力
装置36で出力される情報は、演算装置31において生成された情報であってもよいし、
通信網10から受信した情報であってもよい。なお、配信者端末は、演じる演者について
の情報を取得するセンサを専用に備えるスタジオの装置であってもよい。この場合、演者
の情報をより精度よく情報を取得できる利点がある。また、配信者は、アバターを演じる
演者を含んでよい。
Furthermore, the output device 36 in the viewer terminal and the distributor terminal may be a display device or a sound generating device. The display device may be any of a variety of devices capable of displaying information, including, but not limited to, a liquid crystal display, a plasma display, an organic EL display, a micro LED display, and a head mounted display. The sound generating device may be a speaker, a headphone, an earphone, etc. The information output by the output device 36 may be information generated by the arithmetic device 31,
The information may be received from the communication network 10. The distributor terminal may be a device in a studio equipped with a dedicated sensor for acquiring information about the performer. In this case, there is an advantage that information about the performer can be acquired more accurately. The distributor may also include the performer who plays the avatar.

3.各装置の機能
次に、サーバ装置20及び端末装置30の各々が有する機能の一例について、図3を参
考に、説明する。図3は、図1に示したシステムの機能の一例を模式的に示すブロック図
である。
3. Functions of Each Device Next, an example of functions of each of the server device 20 and the terminal device 30 will be described with reference to Fig. 3. Fig. 3 is a block diagram showing an example of functions of the system shown in Fig. 1.

3.1.取得部
取得部は、後述する所定の条件の適用の可否を判断するのに使用できる情報を取得する
機能を有する。
3.1 Acquisition Unit The acquisition unit has a function of acquiring information that can be used to determine whether or not a predetermined condition, which will be described later, is applicable.

取得部の取得する情報は、配信者による所定の動作、前記配信者の表情、前記配信者の
顔色、前記配信者の声、又は、前記配信者に対して生じる所定の状況、のうちの一又は複
数に係る情報(本願書類において、所定の動作等、ということもある)を含んでよい。ま
た、取得部の取得する情報は、本願発明に係るシステムが接続されている情報処理装置に
よって検知された情報又は検知された情報に基づく情報であってよい。なお、検知された
情報は、検知する検知器に応じた情報であってよく、これらの検知された情報がそのまま
取得部において取得されてもよいし、検知された具体的な測定情報について所定の閾値や
範囲に応じた対応する情報を取得部において取得されてもよい。検知された情報としては
、モーションデータの動きの情報や、アルコール検知器によるアルコール量の情報、サー
マルセンサーの温度情報、などであってよい。そして、これらの具体的な測定情報に対す
る、対応する情報としては、モーションデータについての特定の表情や特定の動きの情報
、アルコール量に対する飲酒の量の情報、など本願発明に係る所定の条件に合わせた情報
に加工されてよい。これらの、取得部の取得する情報については、条件適用部において、
その具体的な内容を説明する。なお、図4は、これらの取得部が取得する情報の一部の一
例を示したものである。
The information acquired by the acquisition unit may include information related to one or more of a predetermined action by the distributor, the facial expression of the distributor, the complexion of the distributor, the voice of the distributor, or a predetermined situation occurring to the distributor (sometimes referred to as a predetermined action, etc. in the present application documents). The information acquired by the acquisition unit may be information detected by an information processing device to which the system according to the present invention is connected, or information based on the detected information. The detected information may be information according to the detector that detects the information, and the detected information may be acquired by the acquisition unit as is, or information corresponding to the detected specific measurement information according to a predetermined threshold or range may be acquired by the acquisition unit. The detected information may be information on the movement of the motion data, information on the amount of alcohol from a breathalyzer, temperature information from a thermal sensor, etc. Then, information corresponding to these specific measurement information may be information on a specific facial expression or a specific movement from the motion data, information on the amount of alcohol consumed relative to the amount of alcohol, etc., which may be processed into information according to a predetermined condition according to the present invention. The condition application unit processes the information acquired by the acquisition unit as follows:
The specific contents will be described below. Note that Fig. 4 shows an example of part of the information acquired by these acquisition units.

ここで、検知する手法は、種々の手法があってよい。例えば、検知した情報は、前記配
信者を撮像する一又は複数の撮像装置によって撮像された画像を用いた画像処理によって
検知した情報を含んでよい。かかる画像処理によって取得される情報は、例えば、モーシ
ョンデータに基づくブレンドシェイプを検知してもよい。また、配信者がいる居室内の音
声を取得するマイクによる音の検知や、配信者によって操作された音発生機器の操作を検
知することによる音の検知であってもよい。また、配信者の手や腕に装着するセンサの動
きを用いて、手や腕の動きを検知してもよいし、のどに巻き付ける形状のセンサを用いて
、のどの動きを検知し、食べる動作や飲む動作を検知してよい。また、アルコール検知器
により、配信者の飲酒動作を検知してよい。本願に係るシステムは、これらの検知器と接
続され、配信者の動作等についての情報を検知してよい。なお、配信者は、アバターを操
作可能な演者を含んでよい。
Here, the detection method may be various methods. For example, the detected information may include information detected by image processing using an image captured by one or more imaging devices that capture the broadcaster. The information acquired by such image processing may detect, for example, a blend shape based on motion data. In addition, sound may be detected by a microphone that captures sound in a room where the broadcaster is present, or by detecting the operation of a sound generating device operated by the broadcaster. In addition, the movement of the hand or arm may be detected using the movement of a sensor attached to the broadcaster's hand or arm, or the movement of the throat may be detected using a sensor wrapped around the throat to detect eating and drinking actions. In addition, the broadcaster's drinking action may be detected by an alcohol detector. The system according to the present application may be connected to these detectors and detect information about the broadcaster's actions, etc. In addition, the broadcaster may include an actor who can operate an avatar.

図5は、検知する手段の例と、検知される情報の例を示したものである。 Figure 5 shows examples of detection methods and examples of detected information.

なお、取得部が情報を取得する元となる情報処理装置は、取得部の機能を有する情報処
理装置と同じであってもよいし、異なってもよい。また、取得という用語は、情報を、他
の情報処理装置から受信する意味の上位概念であってよく、また、情報を記憶装置から情
報を読み取る意味の上位概念であってよく、また、他のプログラムから記憶装置を介して
情報を受け取る意味の上位概念であってよく、また、情報処理装置が検知する意味の上位
概念であってよい。
The information processing device from which the acquisition unit acquires information may be the same as or different from the information processing device having the function of the acquisition unit. The term "acquire" may be a higher-level concept of receiving information from another information processing device, reading information from a storage device, receiving information from another program via a storage device, or detecting information by an information processing device.

3.2.条件適用部
条件適用部は、前記検知した情報が所定の条件を充足するか否かを判定し、前記所定の
条件を充足すると判定した場合に、前記配信者に係る表情又はポーズに基づいて生成され
ていた前記配信者に係るアバターの表情又はポーズを、前記所定の条件に対応する所定の
表情又はポーズとするための情報を生成する、機能を有する。
The condition application unit has a function of determining whether the detected information satisfies a predetermined condition, and when it is determined that the predetermined condition is satisfied, generating information for changing the facial expression or pose of the avatar related to the distributor, which has been generated based on the facial expression or pose related to the distributor, to a predetermined facial expression or pose corresponding to the predetermined condition.

ここで、前記配信者に係る表情又はポーズに基づいて生成されていた前記配信者に係る
アバターの表情又はポーズを、前記所定の条件に対応する所定の表情又はポーズとするた
めの情報を生成するとは、かかる所定の条件が充足された場合において、前記配信者に係
る表情に基づいて生成されていた前記配信者に係るアバターの表情を、前記所定の条件に
対応する所定の表情とするための情報のみを生成してもよいし、前記配信者に係るポーズ
に基づいて生成されていた前記配信者に係るアバターのポーズを、前記所定の条件に対応
する所定のポーズとするための情報のみを生成してもよいし、前記配信者に係る表情及び
ポーズに基づいて各々生成されていた前記配信者に係るアバターの表情及びポーズを、前
記所定の条件に対応する所定の表情及びポーズとするための情報を生成してもよい。なお
、本願書類において、所定の条件に対応して特定される、所定の表情及び/又はポーズに
ついて、所定の表情等ということがあり、また、表情及び/又はポーズを、表情等という
ことがある。
Here, generating information for changing the facial expression or pose of the avatar of the distributor, which has been generated based on the facial expression or pose of the distributor, to a predetermined facial expression or pose corresponding to the predetermined condition may mean generating only information for changing the facial expression of the avatar of the distributor, which has been generated based on the facial expression of the distributor, to a predetermined facial expression corresponding to the predetermined condition, when the predetermined condition is satisfied, or generating only information for changing the pose of the avatar of the distributor, which has been generated based on the pose of the distributor, to a predetermined pose corresponding to the predetermined condition, or generating information for changing the facial expression and pose of the avatar of the distributor, which have been generated based on the facial expression and pose of the distributor, to a predetermined facial expression and pose corresponding to the predetermined condition. In the present application, the predetermined facial expression and/or pose specified in response to the predetermined condition may be referred to as a predetermined facial expression, etc., and the facial expression and/or pose may be referred to as a facial expression, etc.

また、所定の表情等は、予め定められた表情のパラメータ、又は、配信者の表情に基づ
く表情のパラメータを所定のルールに基づいて補正された表情のパラメータ、を用いて表
示される表情であってもよいし、予め定められた形状又は動きの設定により表示される表
情であってもよいし、予め定められたポーズのパラメータ、又は、配信者のポーズに基づ
くポーズのパラメータを所定のルールに基づいて補正されたポーズのパラメータ、を用い
て表示されるポーズであってもよいし、予め定められた形状又は動きの設定により表示さ
れるポーズであってもよい。ここで、予め定められた表情のパラメータとは、顔の各部位
の動きに影響を与える複数のパラメータを示し、かかる複数のパラメータを各々所定の値
に設定することにより、一の表情を示すものであってよい。かかる一又は複数のパラメー
タは、顔の各部位の動きに影響を与えるパラメータであればよく、各パラメータが、顔の
特定の部位についてのものでもよいし、顔全体(又は顔の一部)についてのものであるが
パラメータ毎に顔全体(又は顔の一部)の形状が異なるものでもよい。後者は、同じ面積
であるが形状が異なるものを複数用意して、それらの一部又は複数の合成によって、一の
表情を表現する技術である。後者の例としては、例えば、ブレンドシェイプが挙げられ、
かかる技術では、予め形状が異なる複数の顔全体の形状のものを用意しそれらの複数の形
状の合成によって一の表情を生成するものである。なお、本技術においては、通常の顔の
要素に加えて、予め所定の形状のものを用意しておくことにより、特殊な表情をさせても
よい。例えば、予め顔の縦線を示す形状を用意しておく場合には、かかる顔の縦線の演出
が可能となり、予め目がバツの演出の要素を用意しておく場合には、かかる目がバツの演
出が可能となる。この場合、パラメータが予め設定されることから、配信者の表情等を問
わず、再現される表情等となるため、表情等を示す適切なパラメータが選択される場合に
は常に分かりやすい表情等を再現できる利点がある。なお、この場合においても、アバタ
ーに応じて、所定の表情等が異なるよう設定されてもよい。すなわち、アバターAとアバ
ターBについて、同一の所定の条件が充足された場合において適用される所定の表情等が
、アバターAとアバターBにおいて、異なってもよい。この場合において、個々のアバタ
ーに対して設定されてもよいし、アバターの種類に応じて、設定されてもよい。
In addition, the predetermined facial expression may be an expression displayed using predetermined parameters of a facial expression, or a parameter of a facial expression based on the broadcaster's facial expression corrected based on a predetermined rule, or an expression displayed by setting a predetermined shape or movement, or a pose displayed using predetermined pose parameters, or a parameter of a pose based on the broadcaster's pose corrected based on a predetermined rule, or a pose displayed by setting a predetermined shape or movement. Here, the predetermined parameters of a facial expression may indicate a plurality of parameters that affect the movement of each part of the face, and one facial expression may be displayed by setting each of the plurality of parameters to a predetermined value. Such one or more parameters may be parameters that affect the movement of each part of the face, and each parameter may be for a specific part of the face, or may be for the entire face (or a part of the face) but the shape of the entire face (or a part of the face) may differ for each parameter. The latter is a technique in which a plurality of objects with the same area but different shapes are prepared, and one facial expression is expressed by combining a part or a plurality of them. An example of the latter is, for example, a blend shape,
In this technology, a plurality of different overall facial shapes are prepared in advance, and a single facial expression is generated by synthesizing the plurality of shapes. In this technology, a special facial expression may be made by preparing a predetermined shape in advance in addition to normal facial elements. For example, if a shape showing vertical lines on the face is prepared in advance, such a vertical line on the face can be produced, and if an element for producing a cross-eyed expression is prepared in advance, such a cross-eyed expression can be produced. In this case, since the parameters are set in advance, the facial expression is reproduced regardless of the broadcaster's facial expression, etc., and there is an advantage that an easy-to-understand facial expression can always be reproduced when appropriate parameters indicating the facial expression are selected. In this case, the predetermined facial expression may be set differently depending on the avatar. That is, the predetermined facial expression applied when the same predetermined condition is satisfied for avatar A and avatar B may be different for avatar A and avatar B. In this case, it may be set for each avatar, or it may be set according to the type of avatar.

他方、所定の表情等が、配信者の表情等に基づく表情等のパラメータを所定のルールに
基づいて補正された表情等のパラメータである場合は、所定の表情等が、配信者の表情等
に基づいた表情等となってよい。例えば、配信者が何らかのギフトに対して、驚いた表情
をするとする。このとき、配信者の表情の検知に対応してアバターの表情が一又は複数の
パラメータによって驚きに対応する表情に設定されるが、所定の条件に対応する所定の表
情として驚きに係る複数のパラメータの値を所定の値分増加させる又は減少させることに
より、より驚きの表情を強調するようにする場合を示す。上述の技術を所定の表情として
一又は複数のパラメータが決定される点において絶対値的なものであるのに対し、本技術
は、いわば、現在の配信者の表情から得られた情報に対する相対的なパラメータを用いる
ものであってよい。そのため、同一の配信者が演じる同一のアバターが、同一の所定の条
件が適用された場合においても、かかる配信者自身がその時点で有している表情等に基づ
く表情等のパラメータは同じ場合もあれば、異なる可能性もあることから、かかる異なり
うるパラメータに応じた表情等が、所定の表情等となる場合がある。そのため、より表情
等のバリエーションをもたせることができる可能性がある。
On the other hand, if the predetermined facial expression is a parameter of a facial expression based on the facial expression of the distributor, the predetermined facial expression may be a facial expression based on the facial expression of the distributor. For example, assume that the distributor has a surprised expression at some gift. In this case, the facial expression of the avatar is set to a facial expression corresponding to surprise by one or more parameters in response to the detection of the facial expression of the distributor, but the value of the multiple parameters related to surprise is increased or decreased by a predetermined value as a predetermined facial expression corresponding to a predetermined condition, so that the surprised facial expression is emphasized. While the above-mentioned technology is absolute in that one or more parameters are determined as a predetermined facial expression, the present technology may use a parameter relative to information obtained from the current facial expression of the distributor. Therefore, even when the same avatar played by the same distributor is applied with the same predetermined conditions, the parameters of the facial expression based on the facial expression of the distributor at that time may be the same or different, so that the facial expression according to such different parameters may become the predetermined facial expression. Therefore, it is possible to provide more variation in facial expressions.

また、予め定められた形状又は動きの設定により表示される表情は、表情として、お面
のように予め定められた形状そのものを、所定の表情とするものを示し、かかるものであ
ってもよい。
Furthermore, the facial expression displayed by setting a predetermined shape or movement may be one in which a predetermined shape, such as a mask, is itself the specified facial expression.

なお、以上においては、いずれも所定の表情について説明したが、同様に、所定のポー
ズについても、対応する技術が用いられてよい。
Although the above describes predetermined facial expressions, the corresponding techniques may be used for predetermined poses as well.

また、所定の表情等は、生じる所定の動作等と関連する表情等であってよい。この場合
、視聴者は、所定の表情等が表現される理由を、所定の動作等と関連付けて、容易に理解
できる利点がある。
Furthermore, the predetermined facial expression, etc. may be a facial expression, etc. associated with a predetermined action, etc. to be performed. In this case, there is an advantage that the viewer can easily understand the reason why the predetermined facial expression, etc. is expressed by associating it with the predetermined action, etc.

また、所定の表情等は、表情等を構成する全ての個所についてのパラメータに作用して
もよいし、その一部のパラメータに作用してもよい。例えば、所定の表情等は、口につい
てのパラメータのみに作用し、口以外の個所についてのパラメータは、配信者の表情に連
動するパラメータであって、配信者端末から配信者の表情の動きに対応した情報に基づく
パラメータであってよい。また、所定の表情等は、アバターの外観を含んでもよい。例え
ば、所定の表情等は、アバターが黒焦げになる演出を含んでよい。なお、パラメータの例
としては、目や口の開口度を示すパラメータ(例えば、0%から100%)を示す数値を
含んでもよいし、口の両端の左右位置や上下位置を示すパラメータを含んでもよいし、眉
の上下位置を示すパラメータを含んでもよい。
Furthermore, the predetermined facial expression, etc. may act on parameters for all parts constituting the facial expression, etc., or may act on some of the parameters. For example, the predetermined facial expression, etc. may act only on parameters for the mouth, and parameters for parts other than the mouth may be parameters linked to the facial expression of the distributor and based on information corresponding to the movement of the distributor's facial expression from the distributor terminal. The predetermined facial expression, etc. may also include the appearance of the avatar. For example, the predetermined facial expression, etc. may include a performance in which the avatar is charred. Note that, examples of parameters may include parameters indicating the degree of opening of the eyes and mouth (for example, numerical values indicating 0% to 100%), parameters indicating the left and right positions and up and down positions of both ends of the mouth, and parameters indicating the up and down positions of the eyebrows.

所定のポーズは、種々のポーズであってよい。ポーズは、アバターの体の一部のみであ
ってもよいし、アバターの体の全体であってもよい。例えば、首をかしげるポーズとして
頭部のみのポーズや、手が大きくなったり手が赤く腫れた演出を含む手のみのポーズや、
ガッツポーズのように上半身のみのポーズであってもよいし、銃を構えるポーズや全身で
ジャンプするような全体のポーズでもよい。
The predetermined pose may be a variety of poses. The pose may be only a part of the avatar's body or the entire avatar's body. For example, a pose of only the head as a head tilt pose, a pose of only the hands including the effect of the hands being enlarged or red and swollen,
It can be a pose of just the upper body, such as a fist pump, or a pose of the whole body, such as holding a gun or jumping.

所定の条件は、配信者が演じるアバターの所定の動作、前記アバターの表情、前記アバ
ターの顔色、前記アバターの声、又は、前記アバターに関して生じる所定の状況、のいず
れか一つ又は複数に係る情報、を用いてよい。
The specified condition may use information relating to one or more of a specified action of an avatar performed by the broadcaster, a facial expression of the avatar, a complexion of the avatar, a voice of the avatar, or a specified situation occurring regarding the avatar.

前記配信者の所定の動作は、前記配信者に五感で知覚される予め定められた動作であっ
てよい。また、前記配信者の所定の動作は、所定の対象を見る動作を含んでよい。例えば
、配信者が、配信者のいるステージや居室などの場所において、他の配信者や所定の物な
どの所定の対象を見て驚いた場合、所定の表情等として、驚く表情が設定されてよい。
The predetermined action of the broadcaster may be a predetermined action that is perceived by the broadcaster with the five senses. The predetermined action of the broadcaster may include an action of looking at a predetermined object. For example, when a broadcaster is surprised to see a predetermined object such as another broadcaster or a predetermined object in a place such as a stage or a room where the broadcaster is present, a surprised expression may be set as the predetermined expression.

また、所定の対象は、配信者に驚きの感情をもたらす物に限らず、他の感情や感覚をも
たらす物であってよく、例えば、怖いという感情をもたらす物、ステーキなどの好きだと
いう感情をもたらす物、納豆などの嫌いだという感情をもたらす物、など人が対象を見た
ときに一定の感情や感覚が生じる物であってよい。また、かかる物を見た場合の所定の表
情等についても、かかる対象を見た場合に人が一般的に生じる顔を示す所定の表情等が設
定されてよい。上述の怖いという感情をもたらす物、好きだという感情をもたらす物、嫌
いだという感情をもたらす物、については、対応して、ぞっとする表情、笑顔、嫌悪の表
情、などであってよい。
In addition, the predetermined object is not limited to an object that brings about a feeling of surprise to the distributor, but may be an object that brings about other feelings or sensations, for example, an object that brings about a feeling of fear, an object that brings about a feeling of like such as steak, an object that brings about a feeling of dislike such as natto, or the like, which may be an object that causes a certain feeling or sensation when a person sees the object. In addition, as for the predetermined facial expression when seeing such an object, a predetermined facial expression showing a face that a person generally makes when seeing such an object may be set. The above-mentioned objects that bring about a feeling of fear, an object that brings about a feeling of like, and an object that brings about a feeling of dislike may correspond to a facial expression of horror, a smile, a facial expression of disgust, and the like.

また、所定の対象が他の配信者である場合、所定の対象を見る動作は、一の配信者の視
線と他の配信者の目を見ることを含んでよい。この場合、かかる他の配信者もかかる一の
配信者の目を見た場合、一の配信者と他の配信者とは視線が合うことになる。このような
場合に、アバターを所定の表情等に設定してよい。なお、配信者同士の視線が合致してい
る場合、一方のアバターについてのみ、所定の表情等が設定されてもよいし、両方のアバ
ターについて、所定の表情等が設定されてもよい。後者は、例えば、視線が合って、両方
のアバターの顔が赤くなる表情やドキドキしている表情等が考えられる。また、後者の両
方のアバターについて所定の表情等が設定される場合において、かかる設定される表情等
は、同一の所定の表情等であってもよいし、異なる所定の表情等であってもよい。かかる
異なる所定の表情等となる理由としては、アバターの属するタイプに応じた所定の表情等
であってもよいし、アバターの好みや性質等に応じた所定の表情等であってもよいし、確
率的に選定された所定の表情等であってもよい。
Furthermore, when the predetermined target is another broadcaster, the action of looking at the predetermined target may include looking at the gaze of the one broadcaster and the eyes of the other broadcaster. In this case, when the other broadcaster also looks at the eyes of the one broadcaster, the gaze of the one broadcaster and the other broadcaster will meet. In such a case, the avatar may be set to a predetermined facial expression, etc. In addition, when the gazes of the broadcasters meet, a predetermined facial expression, etc. may be set only for one avatar, or a predetermined facial expression, etc. may be set for both avatars. In the latter case, for example, an expression in which the gazes of both avatars meet and the faces of both avatars turn red or an expression of excitement may be considered. In addition, in the latter case where a predetermined facial expression, etc. is set for both avatars, the set facial expression, etc. may be the same predetermined facial expression, etc., or may be different predetermined facial expressions, etc. The reason for such different predetermined facial expressions, etc. may be a predetermined facial expression, etc. according to the type to which the avatar belongs, a predetermined facial expression, etc. according to the preferences or characteristics of the avatar, or a predetermined facial expression, etc. selected probabilistically.

この場合、配信者を含む配信者周辺を撮像視野とする撮像装置によって、配信者を撮像
しておき、かかる撮像された画像内で、配信者と他の配信者との距離が所定の距離以下に
なった場合や、配信者が他の配信者を見た場合に、所定の表情等を設定してよい。後者の
配信者が他の配信者を見ることは、画像内における画像処理として、配信者の視線をRa
ycastなどすることにより配信者の目の視線の方向を計算し、かかる視線が他の配信
者と交差した場合に、他の配信者を見ると判定してよい。
同様に、配信者と物の距離が所定の距離以下になった場合や、配信者がかかる物を見た場
合に、所定の表情等を設定してよい。また、前記配信者の所定の動作は、所定の対象に接
触する動作を含んでよい。所定の対象は、予め定められていてよく、かかる接触動作は、
上述のように、配信者を含む配信者周辺を撮像視野とする撮像装置によって、配信者を撮
像しておき、かかる撮像された画像内で、配信者と所定の物との距離が所定の距離以下に
なった場合や、配信者と所定の物との距離が0になった場合に、所定の表情等を設定して
よい。
In this case, the broadcaster is captured by an imaging device with an imaging field of view that includes the broadcaster and its surroundings, and when the distance between the broadcaster and other broadcasters in the captured image becomes equal to or less than a predetermined distance, or when the broadcaster looks at other broadcasters, a predetermined facial expression or the like may be set. When the latter broadcaster looks at other broadcasters, the broadcaster's line of sight is changed to Ra as an image processing in the image.
The direction of the streamer's line of sight may be calculated by using a command such as ycast, and if the line of sight intersects with another streamer, it may be determined that the streamer is looking at the other streamer.
Similarly, when the distance between the broadcaster and an object becomes less than a predetermined distance, or when the broadcaster sees such an object, a predetermined facial expression or the like may be set. In addition, the predetermined action of the broadcaster may include an action of touching a predetermined object. The predetermined object may be determined in advance, and such a touching action may be
As described above, the broadcaster is imaged using an imaging device whose imaging field of view includes the broadcaster and its surroundings, and when the distance between the broadcaster and a specified object in the captured image becomes less than a specified distance, or when the distance between the broadcaster and a specified object becomes zero, a specified facial expression, etc. can be set.

この点、配信者を撮像する撮像装置の位置によっては、配信者が所定の物と接触するタ
イミングと、画像内における配信者の輪郭と所定の物の輪郭の接触が、異なるタイミング
の場合がある。特に後者は、配信者自身が所定の物と接触していないにもかかわらず、画
像上、配信者の輪郭と所定の物の輪郭に重複が生じる場合がある。そこで、画像処理を用
いた判定に加えて、又は、画像処理を用いた判定に代えて、配信者が身に着けるセンサを
用いてよい。例えば、配信者がセンサ付きのグローブを身に着け、かかるグローブと所定
の物との接触をグローブ内のセンサにより検知する構成としてもよい。また、配信者が体
に備え付けるセンサによって、他の配信者と接触したり、他の物と接触したりする状況を
検知してもよい。また、配信者が体に備え付けるセンサは、マーカー式のトラッカーであ
ってもよい。また、物についても一又は複数のトラッカーを備え付けることで、かかる物
に備えられたトラッカーと配信者の体に備え付けられたトラッカーとの関係によって、配
信者と物との接触等の関係を判定してよい。
In this regard, depending on the position of the imaging device that captures the broadcaster, the timing when the broadcaster comes into contact with the specified object and the timing when the broadcaster's outline and the outline of the specified object come into contact in the image may be different. In particular, in the latter case, even if the broadcaster himself does not come into contact with the specified object, the outline of the broadcaster and the outline of the specified object may overlap in the image. Therefore, in addition to or instead of the determination using image processing, a sensor worn by the broadcaster may be used. For example, the broadcaster may wear a glove with a sensor, and the sensor in the glove may detect the contact between the glove and the specified object. In addition, a sensor attached to the body of the broadcaster may detect a situation in which the broadcaster comes into contact with another broadcaster or comes into contact with another object. In addition, the sensor attached to the body of the broadcaster may be a marker-type tracker. In addition, by attaching one or more trackers to the object, the relationship between the broadcaster and the object, such as contact, may be determined based on the relationship between the tracker attached to the object and the tracker attached to the broadcaster's body.

また、前記配信者の所定の動作として、握手する動作を含んでよい。握手は、配信者が
装着したセンサ付きのグローブによって指の動きを検知し、握手の指の動きが検知された
場合に、握手していると判定されてよい。
The predetermined action of the distributor may include a handshake action. The handshake may be determined by detecting finger movements using a glove with a sensor worn by the distributor, and when the finger movements of the handshake are detected, the handshake may be determined to be occurring.

また、前記配信者の所定の動作は、所定の対象の飲食動作を含んでよい。飲食動作は、
配信者ののどに巻き付ける形のセンサを用いて、のどの動きを検知することを介して、配
信者が飲食動作をしていることが検知されてよい。配信者が飲食動作をした場合における
所定の動作等としては、配信者に係るアバターが口の中に食べ物を入れた状態で口を動か
す動作があげられる。例えば、口をもぐもぐしている表情であってもよい。かかる飲食中
の表情は、口の動きに応じるものであって良く、かかる口の動きは、上述ののどの動きに
対応したものであってよい。また、上述の技術と共に、または、上述の技術に代えて、配
信者を撮像した画像内の情報に基づいて、所定の動作等を設定してもよい。例えば、配信
者が所定の物を食べていることを画像内の情報に基づいて判定し、かかる所定の物を食べ
る対応する食べ方を示す表情としてもよい。例えば、配信者が、ラーメンを食べるとき、
カレーを食べるとき、お肉を食べるとき、お魚を食べるとき、野菜を食べるとき、などに
おいて、対応する食べ物のアイテム(ラーメン、カレー、お肉、お魚、野菜、など)を仮
想空間内のアイテム又はアニメーションとして演出しつつ、かかる食べ物に対応した食べ
方を所定の表情等としてもよい。例えば、お肉を食べる場合には、骨付きお肉を横からか
ぶりつく食べ方、カレーであればスプーンで食べる食べ方等であって良い。また、前記所
定の対象に対応するものを、仮想空間上に演出するアイテムを生成してよい。食べ物を食
べる表情であれば、対応する上述の食べ物のアイテムを生成し、演出させてもよい。
The predetermined action of the distributor may include an eating and drinking action of a predetermined target.
A sensor wrapped around the streamer's throat may be used to detect throat movement, and thus it may be possible to detect that the streamer is eating or drinking. A predetermined action or the like when the streamer eats or drinks may be an action of the streamer's avatar moving its mouth with food in it. For example, it may be an expression of munching. Such an expression while eating or drinking may correspond to the movement of the mouth, and such mouth movement may correspond to the above-mentioned throat movement. Furthermore, in addition to or instead of the above-mentioned technology, a predetermined action or the like may be set based on information in an image captured of the streamer. For example, it may be determined that the streamer is eating a predetermined thing based on information in the image, and an expression showing the corresponding way of eating the predetermined thing may be used. For example, when the streamer eats ramen,
When eating curry, meat, fish, vegetables, etc., the corresponding food items (ramen, curry, meat, fish, vegetables, etc.) may be displayed as items or animations in the virtual space, while the eating manner corresponding to the food may be a predetermined facial expression, etc. For example, when eating meat, the eating manner may be biting into meat on the bone from the side, and for curry, the eating manner may be eating with a spoon, etc. Also, an item may be generated to display in the virtual space that corresponds to the predetermined object. In the case of a facial expression for eating food, the corresponding food item described above may be generated and displayed.

なお、上述では、仮想空間上に演出として表示されるアイテムとして、飲食動作に対応
する食べ物又は飲み物のアイテムを説明したが、新たに表示されるアイテムは、これらに
限られない。例えば、配信者が、現実空間内において知覚した物に対応する物のアイテム
が、仮想空間上に演出されるアイテムとして、表示されてよい。例えば、楽器の音が聞こ
えた場合には、楽器がアイテムとして、表示されてよい。また、たらいやボールなどが配
信者に対して接触した場合には、かかる対応するたらいやボールのアイテムが、画面上に
演出として、表示されてよい。
In the above description, food or drink items corresponding to eating and drinking actions are described as items displayed as effects in the virtual space, but the newly displayed items are not limited to these. For example, an item corresponding to an object perceived by the broadcaster in the real space may be displayed as an item to be performed in the virtual space. For example, when the sound of a musical instrument is heard, the musical instrument may be displayed as an item. Also, when a tub or a ball comes into contact with the broadcaster, the corresponding tub or ball item may be displayed on the screen as an effect.

また、かかる演出として表示されるアイテムは、配信者に係るアバターが所定の表情等
に設定されるタイミングに対応して、表示されてよい。また、配信者に係るアバターに対
して設定される所定の表情等が元の配信者に対応するアバターの表情等に戻る場合、かか
る演出として表示されるアイテムは画面上から消えてもよい。演出として表示されるアイ
テムは、配信者に係るアバターが所定の表情等が設定される間、対応して、かかるアイテ
ムが表示されてよい。
Furthermore, the items displayed as such effects may be displayed in response to the timing when the avatar related to the distributor is set to a predetermined facial expression, etc. Furthermore, when the predetermined facial expression, etc. set for the avatar related to the distributor reverts to the facial expression, etc. of the avatar corresponding to the original distributor, the items displayed as such effects may disappear from the screen. The items displayed as such effects may be displayed in response to the time when the avatar related to the distributor is set to a predetermined facial expression, etc.

また、かかる演出として表示されるアイテムは、配信者に係る所定の動作等と関連して
アイテムの位置が決定され、移動してもよい。例えば、配信者に係る所定の動作等におい
て、音の強弱、動作の速さ、動作の距離、などに応じて、対応するアイテムの位置や動き
や大きさが異なってもよい。更に具体的には、例えば、音が強い場合は、アイテムの位置
が近く、音が弱い場合はアイテムの位置が遠い、などであってよい。また、例えば、食べ
る動作が速ければ、食べ物のアイテムの減りの速さが速い、などであってもよい。また、
ボールが飛んできた場合には、かかるボールに対応するボールのアイテムを仮想空間上に
表示させ、現実空間における飛んできたボールの速さや大きさに応じて、仮想空間内のボ
ールの速さや大きさを対応付けて表示させてよい。この場合、現実空間内のボールの速さ
を仮想空間内のボールの速さに対応させ、現実空間内のボールの大きさを仮想空間内のボ
ールの大きさに対応付けてもよいし、速さとボールを交互に対応付けてもよい。
Furthermore, the position of the items displayed as such a presentation may be determined and moved in relation to a specific action of the broadcaster. For example, in a specific action of the broadcaster, the position, movement, and size of the corresponding item may differ depending on the strength of the sound, the speed of the action, the distance of the action, and the like. More specifically, for example, if the sound is strong, the item may be closer, and if the sound is weak, the item may be farther away. Also, for example, if the action of eating is fast, the food item may be reduced quickly. Also,
When a ball is thrown, a ball item corresponding to the ball may be displayed in the virtual space, and the speed and size of the ball in the virtual space may be displayed in correspondence with the speed and size of the flying ball in the real space. In this case, the speed of the ball in the real space may be made to correspond to the speed of the ball in the virtual space, and the size of the ball in the real space may be made to correspond to the size of the ball in the virtual space, or the speed and the ball may be made to correspond alternately.

また、配信者の所定の動作として飲酒する場合、所定の表情等として、配信者に係るア
バターの顔色を赤くするなどアルコールの影響下の表情をしてよい。飲酒は、アルコール
検知器によって判定されてよい。また、アルコール検知器によって検知されたアルコール
の分量に応じて、アバターの顔色を変化させてよい。例えば、アルコール量が第1の所定
の範囲内の量を検知した場合は、アバターの顔色をピンク色に設定し、アルコール量が第
1の所定の範囲内の量よりも多い第2の所定の範囲内の量を検知した場合は、アバターの
顔色を赤色に設定し、アルコール量が第2の所定の範囲内の量よりも多い第3の所定の範
囲内の量を検知した場合は、濃い赤色を設定する、などしてよい。
In addition, when the predetermined behavior of the distributor is drinking alcohol, the predetermined facial expression may be, for example, a facial expression of the distributor under the influence of alcohol, such as by turning the face of the distributor red. Drinking may be determined by an alcohol breathalyzer. In addition, the facial color of the avatar may be changed according to the amount of alcohol detected by the alcohol breathalyzer. For example, when the amount of alcohol is detected to be within a first predetermined range, the facial color of the avatar may be set to pink, when the amount of alcohol is detected to be within a second predetermined range that is greater than the first predetermined range, the facial color of the avatar may be set to red, and when the amount of alcohol is detected to be within a third predetermined range that is greater than the second predetermined range, the facial color of the avatar may be set to dark red.

前記配信者の所定の動作は、臭う又は匂う所定のジェスチャーを含んでよい。匂う所定
のジェスチャーは、鼻に係る動作を含んでよい。例えば、鼻がいわゆるクンクン動く動作
やひくひく動く動作のように一般人が匂いを感じることを示すジェスチャーをしている場
合を含んでよい。また、臭う所定のジェスチャーは、鼻の穴を塞ごうとする動作や、息を
吸うのを止める動作や、鼻の前の空気を手で移動する動作等、一般人が臭いを感じること
を示すジェスチャーを含んでよい。また、臭う所定のジェスチャーは、鼻及び顔の動きの
みでもよいし、手の動きのみでもよいし、それらの両方であってもよい。かかる動作は、
表情等であってよい。
The predetermined behavior of the distributor may include smelling or a predetermined smelling gesture. The predetermined smelling gesture may include a behavior related to the nose. For example, it may include a gesture that indicates that a general person can smell, such as a so-called sniffing or twitching of the nose. The predetermined smelling gesture may also include a gesture that indicates that a general person can smell, such as a behavior of trying to cover the nostrils, a behavior of stopping breathing, or a behavior of moving air in front of the nose with the hands. The predetermined smelling gesture may also be only a movement of the nose and face, only a movement of the hands, or both. Such behaviors include:
It may be a facial expression, etc.

かかる配信者の匂う又は臭う所定のジェスチャーは、モーションデータに基づき、ブレ
ンドシェイプに基づいて鼻の情報を取得してもよい。また、光学センサや、画像処理によ
って情報を取得してもよい。
The broadcaster's smelling or smelling gesture may be based on motion data, and nose information may be obtained based on blend shapes. Information may also be obtained using an optical sensor or image processing.

また、配信者の所定の動作に対応するアバターの所定の表情等として、配信者による匂
う又は臭う動作に対応して、配信者に係るアバターが匂う又は臭う表情等をさせてよい。
所定の表情等としてのアバターの匂う又は臭う表情等も、同様に、一般人が匂い又は臭い
を嗅いでいることを演出していると感じる所定の匂う又は臭う動作であってよい。かかる
アバターによる匂う又は臭う表情等は、配信者による匂う又は臭う表情等と、同じ態様の
表情等であってもよいし、異なる態様の表情等であってもよい。また、同じ態様の表情等
である場合、アバターによる匂う又は臭う表情等は、配信者による匂う又は臭う表情等を
、より動きの幅を大きくする、動きの速さの緩急を明確にするなどして、匂う又は臭う表
情等であることが明確なものとしてよい。
In addition, as a predetermined facial expression of the avatar corresponding to a predetermined action of the distributor, the avatar related to the distributor may have a facial expression of smelling or smelling in response to a smelling or smelling action by the distributor.
Similarly, the avatar's smelling or smelling expression as a predetermined expression may be a predetermined smelling or smelling motion that an ordinary person feels is acting like they are smelling or smelling. Such a smelling or smelling expression by an avatar may be the same type of expression as the smelling or smelling expression by the distributor, or may be a different type of expression. In addition, if the expressions are the same type, the smelling or smelling expression by the avatar may be made clear to be a smelling or smelling expression by making the range of movement of the smelling or smelling expression by the distributor larger, or by making the speed of the movement clearer.

また、前記配信者の所定の動作は、音を聞く/聴くことについての所定のジェスチャー
を含んでよい。音を聞く/聴くことについての所定のジェスチャーは、耳のみの動作でも
よいし、頭部のみの動作でもよいし、手のみの動作でもよいし、これらの一部又は全部の
動作でもよい。耳の動作としては、耳を動かす動作が挙げられる。頭部の動作としては、
耳を一定の方向に向ける動作が挙げられる。一定の方向は、配信者が、音が聞こえると感
じた方向であってよい。また、手の動作としては、手を耳の所定の範囲に近づける動作を
含んでよい。また、手の動作としては、手の平を耳側に向ける動作を含んでよく、特定の
方向から来る音のみを集める態様の形にしてよい。また、片手のみの動作でもよいし、両
手の動作であってもよい。一方の耳について特定の方向から来る音のみを集める態様の形
に手の平をした場合において、かかる特定の方向にかかる耳が近づくよう体の向きを変え
てもよいし頭部の向きを変えてもよい。配信者の動作は、以上のような一般人が、音を聞
こう/聴こうとしている動作であると認識するジェスチャーを含んでよい。かかる動作は
、表情等であってよい。かかる配信者の表情等に対応して、配信者に係るアバターについ
ての所定の表情等として、上述のような、一般人が音を聞こう/聴こうとしている表情等
であると認識する表情等であってよい。かかるアバターによる音を聞こう/聴こうとして
いる表情等は、配信者による音を聞こう/聴こうとしている表情等と、同じ態様の表情等
であってもよいし、異なる態様の表情等であってもよい。また、同じ態様の表情等である
場合、アバターによる表情等は、配信者による音を聞こう/聴こうとしている表情等を、
より動きの幅を大きくする、動きの速さの緩急を明確にするなどして、音を聞こう/聴こ
うとしている表情等であることが明確なものとしてよい。
The predetermined action of the distributor may include a predetermined gesture for listening to/listening to a sound. The predetermined gesture for listening to/listening to a sound may be an ear movement only, a head movement only, a hand movement only, or some or all of these movements. An example of an ear movement is a movement of moving the ears. An example of a head movement is a movement of moving the ears.
An example of the motion is to turn the ear to a certain direction. The certain direction may be the direction in which the broadcaster feels that the sound can be heard. The hand motion may include a motion of bringing the hand close to a certain range of the ear. The hand motion may include a motion of turning the palm toward the ear, and may be in a form that collects only sounds coming from a specific direction. The motion may be a motion of only one hand, or may be a motion of both hands. When the palm is placed in a form that collects only sounds coming from a specific direction for one ear, the body or head may be turned so that the ear in the specific direction approaches. The broadcaster's motion may include a gesture that an ordinary person recognizes as a motion of listening to/attempting to listen to a sound, as described above. Such a motion may be a facial expression, etc. In response to such a facial expression, etc. of the broadcaster, the predetermined facial expression, etc. for the avatar related to the broadcaster may be a facial expression, etc. that an ordinary person recognizes as a facial expression, etc., of listening to/attempting to listen to a sound, as described above. The facial expression, etc. of the avatar listening to/attempting to listen to the sound may be the same as or different from the facial expression, etc. of the broadcaster listening to/attempting to listen to the sound. In addition, if the facial expressions are the same, the facial expression, etc. of the avatar may be different from the facial expression, etc. of the broadcaster listening to/attempting to listen to the sound.
By increasing the range of movement and clearly varying the speed of movement, it is possible to make it clear that the facial expression is one of listening to a sound/attempting to hear.

また、前記配信者に対して生じる所定の状況は、所定の音が生じることを含んでよい。
所定の音は、人の音声であってもよいし、自然な音であってもよいし、楽器による音であ
ってもよいし、人工的な音であってもよいし、演出的な音であってもよく、音の種類に制
限はなくてよい。人の音声は、人の通常の声、人の通常とは異なる声、人の奇声、人の悲
鳴、など、人から発生られる種々の声であってよい。自然の音は、風の音や、水の音、炎
の音、台風の音、洪水の音、など種々のものであってよい。楽器による音は、バイオリン
、ピアノ、フルート、など種々の楽器の音であってよい。人工的な音は、例えば、問題に
対する正解を示すピンポンという効果音や、不正解を示すブーという効果音など種々のも
のであってよい。また、演出的な音は、例えば、おばけが登場する際に一般的に使用され
る音であって一般人がおばけの登場を認識可能なヒュードロドロという音であってもよい
Furthermore, the predetermined situation occurring to the distributor may include the occurrence of a predetermined sound.
The predetermined sound may be a human voice, a natural sound, a sound produced by a musical instrument, an artificial sound, or a dramatic sound, and there is no limit to the type of sound. The human voice may be various voices emitted by humans, such as a normal human voice, an unusual human voice, a strange human voice, a human scream, etc. The natural sound may be various sounds such as the sound of wind, the sound of water, the sound of a fire, the sound of a typhoon, the sound of a flood, etc. The musical instrument sound may be various sounds such as a violin, a piano, a flute, etc. The artificial sound may be various sounds such as a ping-pong sound effect indicating a correct answer to a question, or a buzzing sound effect indicating an incorrect answer. The dramatic sound may be, for example, a slurping sound that is commonly used when a ghost appears and allows ordinary people to recognize the appearance of a ghost.

所定の音は、種々の手法で検知されてよい。たとえば、配信者のいる居室やスタジオ等
に設置されたマイクで配信者が聞くことが可能な音を検知してもよいし、スタジオにおけ
るオペレータの指示や配信者自身が入力する指示によって発生される音など配信者に対し
て音を聞かせることが可能な音発生装置からの情報を検知してもよい。
The predetermined sound may be detected by various methods. For example, a sound that can be heard by the distributor may be detected by a microphone installed in the room or studio where the distributor is present, or information from a sound generating device that can play a sound to the distributor, such as a sound generated by an instruction from an operator in the studio or an instruction input by the distributor himself, may be detected.

かかる所定の音の発生に対応して、配信者に係るアバターの所定の表情等としては、か
かる音に対応する所定の表情等としてよい。例えば、人の奇声や人の悲鳴が検知されると
、所定の表情等として、アバターも奇声や悲鳴をあげる表情に設定されてよい。具体的に
は、上下に口を開けて目や眉毛を上下に動かすような一般人が悲鳴や奇声を上げていると
認識可能な表情に設定してよい。また、ピンポンというような正解を示す効果音が検知さ
れた場合は、アバターの所定の表情等として閃いたような表情をしてもよい。この場合、
仮想空間上の演出として、更に、アバターが閃いた状態を示すために、アバターの頭部か
ら所定の範囲の周辺にエクスクラメーションマークを表示させてもよい。また、一般人が
おばけの登場を認識可能なヒュードロドロという音に対し、所定の表情等として、アバタ
ーがおびえた表情をしてもよい。また、楽器の音が検知された場合、所定の表情等として
、アバターが歌う表情をしてもよい。この場合、アバターの口が、楽器の音に合わせて、
動いてよい。例えば、楽器の音の変化に合わせて、アバターの口が動いてよい。また、音
量に応じて、配信者に係るアバターの所定の表情等が設定されてよい。例えば、所定の音
よりも大きい音量の音が検出されると、配信者に係るアバターの所定の表情等として、耳
をふさぐポーズが設定されてよい。また、所定の音よりも小さな音量の音が検出されると
、配信者に係るアバターの所定の表情等として、耳と手との距離が所定の距離よりも短く
なり、耳に手が接触する距離となって、耳に手をそえるポーズが設定されてよい。また、
音の音質に応じて、配信者に係るアバターの所定の表情等が設定されてよい。例えば、所
定の音質として設定されたダミ声が検出されると、配信者に係るアバターの所定の表情等
として、厳しい表情が設定されてよい。また、所定の音質として設定されたファルセット
が検出されると、配信者に係るアバターの所定の表情等として、酔いしれる表情が設定さ
れてよい。
In response to the generation of such a predetermined sound, the predetermined facial expression, etc. of the avatar related to the distributor may be a predetermined facial expression, etc. corresponding to such sound. For example, when a strange voice or a scream is detected, the avatar may be set to an expression of a strange voice or a scream as the predetermined facial expression, etc. Specifically, the facial expression may be set to an expression that can be recognized as an ordinary person screaming or making a strange voice, such as opening the mouth up and down and moving the eyes and eyebrows up and down. Also, when a sound effect indicating the correct answer, such as a ping-pong sound, is detected, the predetermined facial expression, etc. of the avatar may be an expression of an idea. In this case,
As a further effect in the virtual space, an exclamation mark may be displayed around the avatar's head within a predetermined area to indicate that the avatar has had an idea. In response to a slurping sound that would allow an average person to recognize the appearance of a ghost, the avatar may make a frightened expression as a predetermined facial expression, etc. When the sound of a musical instrument is detected, the avatar may make a singing expression as a predetermined facial expression, etc. In this case, the avatar's mouth may move in time with the sound of the musical instrument,
For example, the mouth of the avatar may move in accordance with changes in the sound of the instrument. Furthermore, a predetermined facial expression, etc. of the avatar related to the distributor may be set according to the volume. For example, when a sound with a volume louder than a predetermined volume is detected, a pose with the ears covered may be set as the predetermined facial expression, etc. of the avatar related to the distributor. Furthermore, when a sound with a volume quieter than the predetermined volume is detected, a pose with the hand placed over the ear may be set as the predetermined facial expression, etc. of the avatar related to the distributor, with the distance between the ear and the hand shorter than the predetermined distance, so that the hand is close enough to touch the ear. Furthermore,
A predetermined facial expression, etc. of the avatar of the distributor may be set according to the sound quality of the sound. For example, when a hoarse voice set as the predetermined sound quality is detected, a stern expression may be set as the predetermined facial expression, etc. of the avatar of the distributor. Also, when a falsetto set as the predetermined sound quality is detected, an intoxicated expression may be set as the predetermined facial expression, etc. of the avatar of the distributor.

また、前記配信者に対して生じる所定の状況は、所定の物が前記配信者に接触すること
を含んでよい。所定の物は、種々のものであってよい。例えば、ボール、バット、たらい
、などのものであってよい。但し、実際に配信者に対して物が接触する場合、安全のため
に、本物でなく、かかる本物を模した物であってもよい。所定の物が接触した場合に、対
応して、かかる配信者に係るアバターの所定の表情等として、対応する表情となってよい
。例えば、接触により、驚いた表情や、痛がっている表情などとしてよい。この場合、仮
想空間上の演出として、更に、アバターが痛がっている状態を示すために、アバターの頭
部から所定の範囲の周辺に星のマークなど痛みを一般に示す演出を表示させてもよい。
In addition, the predetermined situation occurring to the distributor may include a predetermined object coming into contact with the distributor. The predetermined object may be various objects. For example, it may be a ball, a bat, a basin, or the like. However, when an object actually comes into contact with the distributor, for safety reasons, it may not be a real object, but may be an imitation of such a real object. When a predetermined object comes into contact, a corresponding facial expression may be displayed as a predetermined facial expression of the avatar related to the distributor. For example, the contact may result in a surprised facial expression or a painful facial expression. In this case, as a representation in the virtual space, a representation generally indicating pain, such as a star mark, may be displayed around a predetermined range from the head of the avatar to indicate that the avatar is in pain.

また、配信者の顔色は、顔色の変化を含んでよい。顔色の変化は、上述のように、配信
者を撮像した画像処理に基づいて、判定されてよい。また、顔色の変化は、サーマルセン
サーを用いて、配信者の顔の温度を用いて測定されてもよい。また、顔色の変化は、他の
情報と合わせて、所定の表情等の設定に使用されてよい。例えば、顔色の変化と、アルコ
ールを検知した情報と、を用いて、飲酒の程度を検知してよい。より具体的には、配信者
の顔色が、通常の肌色から、ピンク色、赤色、などの色の変化と、検知されたアルコール
量の分量の程度、に対応づけられている、アバターに係る所定の表情等を、設定してよい
。かかるアバターの所定の表情等としては、上述のような、アルコールにより酔っている
表情等であってよい。また、アルコールにより酔っている表情等として、アバターの足や
体の動きを千鳥足の動きを含んでもよい。また、通常の肌色から、青白い色や白い色への
顔色の変化と、おばけキャラなどの所定のアイテムと、を用いて、アバターに係る所定の
表情等として、怖がっている表情を設定してよい
The face color of the distributor may include a change in face color. The change in face color may be determined based on image processing of the distributor, as described above. The change in face color may be measured using the temperature of the distributor's face using a thermal sensor. The change in face color may be used in combination with other information to set a predetermined facial expression, etc. For example, the degree of drinking may be detected using the change in face color and information on detected alcohol. More specifically, a predetermined facial expression, etc. related to the avatar may be set in which the face color of the distributor changes from a normal skin color to a color such as pink or red, and the degree of the detected amount of alcohol. Such a predetermined facial expression, etc. of the avatar may be an expression of intoxication due to alcohol, as described above. The expression of intoxication due to alcohol may include a staggering movement of the avatar's legs and body. A scared facial expression may be set as a predetermined facial expression, etc. related to the avatar, using a change in face color from a normal skin color to a pale or white color and a predetermined item such as a ghost character.

また、前記配信者の声は、前記配信者の声の音質が所定の範囲以上変化すること、又は
、前記配信者の声の音量が所定の量以上変化すること、を含んでよい。声の音質や声の音
量は、マイクから検知された情報を用いて、判定されてよい。配信者の声に、一定の変化
がある場合、かかる変化に応じた所定の表情等を設定してよい。また、かかる情報は、他
の情報と合わせて、検知されてもよい。例えば、配信者の声の音質及び/又は音量と、配
信者を撮像する撮像装置によって得られた画像に基づく情報と、を用いてアバターの所定
の表情等を設定してよい。より具体的には、例えば、配信者の声の音量が所定の音量より
も大きく検出され、かつ、配信者が口に手を添えるように配信者の手と口とが所定の距離
内であると判定された場合、配信者に係るアバターの所定の表情等として、かかるアバタ
ーの顔を赤くし、目をつむらせてよい。この場合、更に、メガホンを表示させる、及び/
又は、声の大きさを示す雷のようなイラストを表示させてもよい。ここで、かかる雷のよ
うなイラストは、声の大きさに応じた大きさであってよい。また、例えば、配信者の声が
所定の音質よりも低い声であると検出され、配信者に係る眉毛の間隔が所定の長さよりも
短いと判定された場合、配信者に係るアバターの所定の表情等として、かかるアバターの
顔に怒りを示すマークを付けてよい。ここで、眉毛の間隔が所定の長さよりも短いことは
、いわゆる、眉間にしわが寄っている状態であってよい。また、配信者が「変身」などの
特定のキーワードを発したことが検出され、かつ、配信者が所定のポーズをしたと判定さ
れた場合、配信者に係るアバターの所定の表情等として、所定の変身アニメーションが表
示されてもよい。例えば、配信者が片手を体の前方で円を描くように移動させると同時に
「変身」などの音声を発した場合、例えば、仮面ライダーの変身アニメーションが起動さ
れ、配信者に係るアバターの所定の表情等として、表示されてよい。
The voice of the distributor may include a change in the quality of the voice of the distributor beyond a predetermined range, or a change in the volume of the voice of the distributor beyond a predetermined amount. The quality of the voice and the volume of the voice may be determined using information detected from a microphone. When there is a certain change in the voice of the distributor, a predetermined facial expression, etc. corresponding to such change may be set. Such information may also be detected in combination with other information. For example, the predetermined facial expression, etc. of the avatar may be set using the quality and/or volume of the voice of the distributor and information based on an image obtained by an imaging device that images the distributor. More specifically, for example, when the volume of the voice of the distributor is detected to be higher than a predetermined volume and it is determined that the distributor's hands and mouth are within a predetermined distance such that the distributor places his/her hands on his/her mouth, the predetermined facial expression, etc. of the avatar related to the distributor may be made to be red in the face and have the eyes closed. In this case, a megaphone may further be displayed, and/or a megaphone may be displayed.
Alternatively, an illustration like thunder may be displayed to indicate the volume of the voice. Here, the size of the illustration like thunder may correspond to the volume of the voice. Also, for example, when the voice of the distributor is detected to be lower than a predetermined tone quality and the distance between the eyebrows of the distributor is determined to be shorter than a predetermined length, a mark indicating anger may be attached to the face of the avatar of the distributor as a predetermined facial expression, etc. of the avatar of the distributor. Here, the distance between the eyebrows being shorter than a predetermined length may be a state in which the eyebrows are wrinkled. Also, when it is detected that the distributor has uttered a specific keyword such as "transform" and it is determined that the distributor has taken a predetermined pose, a predetermined transformation animation may be displayed as a predetermined facial expression, etc. of the avatar of the distributor. For example, when the distributor moves one hand in a circular motion in front of the body and simultaneously utters a voice such as "transform", for example, a Kamen Rider transformation animation may be activated and displayed as a predetermined facial expression, etc. of the avatar of the distributor.

なお、検知した情報は、第三者が入力したことに起因して検知した情報を含んでよい。
例えば、スタジオにおいて配信している場合、演出者と異なる第三者によって入力された
情報を検知してもよい。例えば、問題に対して、演出者が回答したことに対し正解した場
合のピンポン、という音は、かかる音自体を検知する場合に加えて、又は、代えて、かか
るピンポンという音を入力した第三者による入力情報を検知した情報であってよい。また
、音以外の情報においても、例えば、演出者が他の演出者を含む他の者や何かの物と接触
した場合の接触したことを示す情報を、第三者が入力してもよいし、演出者が、食べ物を
食べる飲むなどの飲食動作について、第三者が対応する情報を入力してもよいし、匂い又
は臭いが発生していることの情報を、第三者が入力してもよい。このように、配信者が五
感で認識可能な情報を、配信者自身又は第三者による入力を検知する情報としてもよい。
The detected information may include information detected as a result of input by a third party.
For example, when broadcasting in a studio, information input by a third party other than the director may be detected. For example, the sound of a ping pong that is heard when the director answers a question correctly may be information detected by detecting input information by a third party who inputs the ping pong sound, in addition to or instead of detecting the sound itself. In addition, as for information other than sound, for example, a third party may input information indicating contact when a director comes into contact with another person or object, including another director, or a third party may input information corresponding to a director's eating or drinking action, such as eating or drinking food, or a third party may input information about the generation of a smell or odor. In this way, information that a broadcaster can recognize with the five senses may be information detected as input by the broadcaster himself or a third party.

また、所定の条件は、複数の所定の条件が成立する場合がある。例えば、一の配信者が
他の配信者を見ると同時に、かかる一の配信者に対して、第三の配信者が接触する場合等
である。このような場合、他の配信者を見ること及び第三の配信者との距離が所定の距離
の範囲内であることの各条件に対応する所定の表情等が異なる場合、複数の所定の条件が
充足した場合の処理が定められていてよい。例えば、所定の時間内において、第1の所定
の条件が充足し、かつ、第2の所定の条件が充足した場合、前記第1の所定の条件又は前
記第2の所定の条件のうち、優先度が高く設定されている所定の条件が充足した場合に対
応する所定の表情又はポーズを適用してよい。ここで、優先度は、各所定の条件と、関連
付けられて、記憶されていてもよいし、複数の所定の条件が充足した場合のルールとして
設定されていてもよい。例えば、所定の条件として、A1、A2、A3、A4などがあっ
た場合において、各所定の条件同士を比較した上で優先される所定の条件を選定できるも
のであればよい。かかる優先度を用いた機能により、複数の所定の条件が充足された場合
においても、特にほぼ同時に複数の所定の条件が充足された場合においても、適確に処理
できる利点がある。また、かかる優先度は、確率が用いられてもよい。例えば、確率が、
疑似乱数関数等によって判定される場合であって、第1の所定の条件と第2の所定の条件
とが充足している場合において、かかる疑似乱数関数値が所定の値以下の場合は、第1の
所定の条件に対応する所定の表情等が適用され、所定の値を超える場合は、第2の所定の
条件に対応する所定の表情等が適用される、と処理されてよい。この場合、演出のバリエ
ーションが増加することになり、より視聴者の興味を引くことができる可能性がある。
In addition, the predetermined condition may be satisfied in a plurality of cases. For example, when one broadcaster sees another broadcaster and at the same time a third broadcaster contacts the first broadcaster, etc. In such a case, when the predetermined facial expressions, etc. corresponding to the conditions of seeing the other broadcaster and being within a predetermined distance range from the third broadcaster are different, processing may be defined when the plurality of predetermined conditions are satisfied. For example, when a first predetermined condition is satisfied and a second predetermined condition is satisfied within a predetermined time, a predetermined facial expression or pose corresponding to the case where the predetermined condition with a higher priority is satisfied among the first predetermined condition or the second predetermined condition may be applied. Here, the priority may be stored in association with each predetermined condition, or may be set as a rule when a plurality of predetermined conditions are satisfied. For example, when there are predetermined conditions such as A1, A2, A3, A4, etc., it is sufficient to be able to select a predetermined condition with priority after comparing each of the predetermined conditions. Such a function using the priority has the advantage of being able to process appropriately even when a plurality of predetermined conditions are satisfied, especially when a plurality of predetermined conditions are satisfied almost simultaneously. Moreover, the priority may be expressed by a probability. For example, the probability may be expressed as follows:
In the case where the determination is made by a pseudorandom function or the like, and the first and second predetermined conditions are satisfied, if the value of the pseudorandom function is equal to or less than a predetermined value, a predetermined facial expression or the like corresponding to the first predetermined condition is applied, and if the value exceeds the predetermined value, a predetermined facial expression or the like corresponding to the second predetermined condition is applied. In this case, the variety of presentations increases, which may further attract the interest of viewers.

なお、充足しうる複数の条件についての判定において、所定の時間の経過を待って判断
することから、所定の時間をある時間以上に設定した場合、所定の条件の充足から所定の
表情等の演出まで、タイムラグが生じる可能性がある。そのため、かかる優先度を設けず
に、上述の複数の条件が成立する場合に、時間的に先行して充足された所定の条件に対応
する所定の表情等を設定してもよい。ここで時間的に先行するとは、ネットワークや情報
処理などの結果、実質的にはほぼ同時に所定の条件が成立した場合においても、処理部が
所定の条件の充足を先に判定したものであってよい。この場合、所定の時間の経過を待た
ずに、先に充足した所定の条件に対応する所定の表情等を設定できる利点がある。なお、
かかる場合において、後に充足した所定の条件に対応する所定の表情等を設定してもよい
し、設定しなくともよい。設定する場合、先に充足された所定の条件に対応する所定の表
情等は上書きされてしまうが、後に充足された所定の条件に対応する所定の表情等も視聴
者に演出できる利点がある。他方、設定しない場合、先行した所定の表情等について、視
聴者は十分楽しむことができる利点がある。なお、このように、第1の所定の条件と第2
の所定の条件について、双方ともに充足する場合、第1の所定の条件が充足したタイミン
グと、第2の所定の条件が充足したタイミングに応じて、所定の表情等を設定してもよい
。例えば、第1の所定の条件が充足した第1タイミングと、第2の所定の条件が充足した
第2タイミングと、の間の時間が所定の時間よりも短い場合、第1の所定の条件に対応す
る第1の所定の表情等のみを演出し、第2の所定の条件に対応する第2の所定の表情等を
演出しない処理としてよい。この場合、第1の所定の表情等の演出について、視聴者は、
途中で変更されず、楽しむことができる利点がある。他の他方、前記第1タイミングと前
記第2タイミングとの間の時間が所定の時間よりも長い場合、前記第2の所定の条件が充
足したタイミングで、前記第2の所定の条件に対応する所定の表情等を設定してもよい。
この場合、視聴者は、第1の所定の表情等に続き、第2の所定の表情等も両方の演出を楽
しむことができる利点がある。
In addition, since the judgment regarding the multiple conditions that can be satisfied is made after waiting for the passage of a predetermined time, if the predetermined time is set to be a certain time or more, there is a possibility that a time lag will occur between the satisfaction of the predetermined condition and the presentation of the predetermined facial expression, etc. Therefore, without setting such a priority, when the multiple conditions described above are satisfied, a predetermined facial expression, etc. corresponding to the predetermined condition that was satisfied first in time may be set. In this case, "first in time" may mean that the processing unit judges that the predetermined condition has been satisfied first, even if the predetermined conditions are satisfied substantially at almost the same time as a result of a network or information processing, etc. In this case, there is an advantage that the predetermined facial expression, etc. corresponding to the predetermined condition that was satisfied first can be set without waiting for the passage of a predetermined time. In addition,
In such a case, a predetermined facial expression, etc. corresponding to the later-satisfied predetermined condition may or may not be set. If a predetermined facial expression, etc. corresponding to the earlier-satisfied predetermined condition is overwritten, but there is an advantage that the predetermined facial expression, etc. corresponding to the later-satisfied predetermined condition can also be presented to the viewer. On the other hand, if a predetermined facial expression, etc. is not set, there is an advantage that the viewer can fully enjoy the earlier predetermined facial expression, etc. In this way, the first and second predetermined conditions can be overwritten.
When both of the above predetermined conditions are satisfied, a predetermined facial expression, etc. may be set according to the timing when the first predetermined condition is satisfied and the timing when the second predetermined condition is satisfied. For example, when the time between the first timing when the first predetermined condition is satisfied and the second timing when the second predetermined condition is satisfied is shorter than a predetermined time, only the first predetermined facial expression, etc. corresponding to the first predetermined condition may be produced, and the second predetermined facial expression, etc. corresponding to the second predetermined condition may not be produced. In this case, with regard to the production of the first predetermined facial expression, etc., the viewer may
On the other hand, if the time between the first timing and the second timing is longer than a predetermined time, a predetermined facial expression or the like corresponding to the second predetermined condition may be set at the timing when the second predetermined condition is satisfied.
In this case, there is an advantage that the viewer can enjoy both the first predetermined facial expression and the second predetermined facial expression.

なお、かかる第1のタイミングと第2のタイミングとの間の時間について判定する上述
の所定の時間は、充足される所定の条件の組に応じて設定されてもよい。例えば、第1の
所定の条件が充足した場合に第1の所定の表情等が演出され、第2の所定の条件が充足し
た場合に第2の所定の表情等が演出され、第3の所定の条件が充足した場合に第3の所定
の表情等が演出されたとする。また、第1の所定の条件が第1のタイミングで充足され、
第2の所定の条件が第2のタイミングで充足され、第3の所定の条件が第3のタイミング
で充足されたとする。この時、第1のタイミングと第2のタイミングとの間の時間が、第
12所定の時間よりも短い場合に、第2の所定の表情等が演出されず、第12所定の時間
以上の場合に第2の所定の表情等が演出されるとする。また、第1のタイミングと第3の
タイミングとの間の時間が、第13所定の時間よりも短い場合に、第3の所定の表情等が
演出されず、第13所定の時間以上の場合に第3の所定の表情等が演出されるとする。こ
のとき、第12所定の時間と第13所定の時間は、同じであってもよいし、異なってもよ
い。同じである場合は、第1の所定の条件の充足の後に、第2の所定の条件が充足されて
も、第3の所定の条件が充足されても、第1の所定の表情等の演出時間に変わりがないこ
とを意味する。他方、異なる場合は、第1の所定の条件の充足の後に、第2の所定の条件
が充足する場合と、第3の所定の条件が充足する場合と、において、第1の所定の表情等
の演出時間が変化することになる。この場合、演出のバリエーションが増加することにな
り、より視聴者の興味を引くことができる可能性がある。
The above-mentioned predetermined time for determining the time between the first timing and the second timing may be set according to a set of predetermined conditions that are satisfied. For example, it is assumed that a first predetermined facial expression or the like is produced when a first predetermined condition is satisfied, a second predetermined facial expression or the like is produced when a second predetermined condition is satisfied, and a third predetermined facial expression or the like is produced when a third predetermined condition is satisfied. Also, if the first predetermined condition is satisfied at the first timing,
Assume that the second predetermined condition is satisfied at the second timing, and the third predetermined condition is satisfied at the third timing. At this time, if the time between the first timing and the second timing is shorter than the twelfth predetermined time, the second predetermined facial expression, etc. is not produced, and if it is equal to or longer than the twelfth predetermined time, the second predetermined facial expression, etc. is produced. Also, if the time between the first timing and the third timing is shorter than the thirteenth predetermined time, the third predetermined facial expression, etc. is not produced, and if it is equal to or longer than the thirteenth predetermined time, the third predetermined facial expression, etc. is produced. At this time, the twelfth predetermined time and the thirteenth predetermined time may be the same or different. If they are the same, it means that the production time of the first predetermined facial expression, etc. remains the same whether the second predetermined condition is satisfied or the third predetermined condition is satisfied after the first predetermined condition is satisfied. On the other hand, if they are different, the presentation time of the first predetermined facial expression, etc. will change when the second predetermined condition is satisfied and when the third predetermined condition is satisfied after the first predetermined condition is satisfied. In this case, the variety of presentations will increase, which may attract more viewers' interest.

なお、上述において、優先度は、所定の条件と関連付けられている、又は、充足される
所定の条件についてのルールの例を説明したが、そのほか、優先度は、所定の条件内の物
、イベント、状況、などと関連付けられていてもよい。
In the above, priority is associated with a specified condition, or examples of rules regarding the specified condition being satisfied are described. However, priority may also be associated with an object, event, situation, etc. within the specified condition.

所定の条件に係る物、イベント、状況(本願書類において、物等、ということもある)
に係る優先度は、物等の表示される大きさ、物等の出現場所、物等の出現のタイミング、
などを用いて生成されたものであってよい。
An object, event, or situation related to a specified condition (sometimes referred to as an object, etc. in this application)
The priority of the above is determined based on the size of the object, the location of the object, the timing of the object's appearance,
The image may be generated using the above.

例えば、物等の表示される大きさ、については、第1の物等の大きさよりも、第2の物
等の表示される大きさが大きい場合、かかる第2の物等に対して、かかる第1の物等より
も、高い優先度が設定されていてよい。この場合、表示される大きい方が、より視聴者の
注目を浴びることから、優先させることが視聴者の意向に沿うと考えられるためである。
他方で、逆に設定してもよい。逆に設定した場合、意外性が出る利点がある。
For example, regarding the displayed size of an object, if a second object is larger than a first object, a higher priority may be set for the second object than for the first object. In this case, the larger object attracts more attention from the viewer, so giving priority to the larger object is considered to be in line with the viewer's wishes.
On the other hand, the opposite may be true. In this case, the advantage is that it creates an element of surprise.

また、物等の大きさの他に、物等に価格がある場合は価格であってもよいし、物等に消
費ポイントが設定されている場合には消費ポイントであってもよい。例えば、第1の物等
の価格よりも、第2の物等の価格が高い場合、かかる第2の物等に対して、かかる第1の
物等よりも、高い優先度が設定されていてよい。この場合、価格が高い方が、より視聴者
の注目を浴びることから、優先させることが視聴者の意向に沿うと考えられるためである
。他方で、逆に設定してもよい。逆に設定した場合、意外性が出る利点がある。また、同
様に、消費ポイントについても、例えば、第1の物等の消費ポイントよりも、第2の物等
の消費ポイントが高い場合、かかる第2の物等に対して、かかる第1の物等よりも、高い
優先度が設定されていてよい。この場合、価格が高い方が、より視聴者の注目を浴びるこ
とから、優先させることが視聴者の意向に沿うと考えられるためである。他方で、逆に設
定してもよい。逆に設定した場合、意外性が出る利点がある。
In addition to the size of the object, the price may be used if the object has a price, or the consumption points may be used if the object has consumption points. For example, if the price of the second object is higher than the price of the first object, a higher priority may be set for the second object than the first object. In this case, the higher the price, the more attention the viewer will pay, so it is considered that giving priority to the object is in line with the viewer's intention. On the other hand, the opposite may be set. In the opposite setting, there is an advantage in that it creates a sense of surprise. Similarly, for example, if the consumption points of the second object are higher than the consumption points of the first object, the second object may be set to a higher priority than the first object. In this case, the higher the price, the more attention the viewer will pay, so it is considered that giving priority to the object is in line with the viewer's intention. On the other hand, the opposite may be set. In the opposite setting, there is an advantage in that it creates a sense of surprise.

物等の仮想空間内の出現場所としては、例えば、仮想空間内の中央に出現した物等を、
仮想空間内の左右などの端に出現した物等よりも、優先度を高く設定してよい。仮想空間
内の目立ちやすい場所に出現した物等の優先度を高くした場合、視聴者は、目立ちやすい
場所に出現した物等を視野に入れることができるため、視聴者は、所定の表情等の意味を
理解しやすくなる利点がある。
The location of an object in the virtual space may be, for example, an object that appears in the center of the virtual space.
A higher priority may be set for objects that appear at the left or right edge of the virtual space. When the priority of an object that appears in a conspicuous place in the virtual space is set high, the viewer can include the object that appears in the conspicuous place in his or her field of vision, which has the advantage that the viewer can easily understand the meaning of a certain facial expression.

また、物等に係る優先度は、その物等に予め設定されている静的な情報であってもよい
し、物等が提供された段階で初めて設定される動的な情報であってもよい。後者は、例え
ば、物等が出現された位置に応じて設定される情報であってよい。例えば、物等が仮想空
間上で出現した位置と、アバターとの位置との関係に応じて設定された優先度であってよ
い。この場合、距離自体が優先度の役割を果たしてもよいし、距離が優先度を設定する一
の情報として使用されてもよい。例えば、アバターと出現した第1の物に係る位置の距離
が第1距離であり、アバターと出現した第2の物に係る位置の距離が第2距離である場合
において、第1距離が第2距離より長い場合、第2の物に対して第1の物に優先度を高く
設定してよい。また、そのほか、画面中央と第1の物に係る位置との距離の第1距離が画
面中央と第2の物に係る位置との距離の第2距離よりも短い場合、第1の物がより画面中
央に出現していることから、第1の物の優先度を第2の物よりも高く設定してもよい。物
等に係る優先度が動的に設定される場合、より適切かつダイナミックに、所定の表情等を
設定されるギフトを選定できる利点がある。
In addition, the priority of the object may be static information that is set in advance for the object, or may be dynamic information that is set only when the object is provided. The latter may be information that is set according to the position where the object appears. For example, the priority may be set according to the relationship between the position where the object appears in the virtual space and the position of the avatar. In this case, the distance itself may play the role of the priority, or the distance may be used as one piece of information for setting the priority. For example, in a case where the distance between the avatar and the position related to the first object that appeared is a first distance, and the distance between the avatar and the position related to the second object that appeared is a second distance, if the first distance is longer than the second distance, the priority of the first object may be set higher than the second object. In addition, if the first distance between the center of the screen and the position related to the first object is shorter than the second distance between the center of the screen and the position related to the second object, the priority of the first object may be set higher than the second object since the first object appears closer to the center of the screen. When the priority of the object or the like is dynamically set, there is an advantage that a gift to which a predetermined expression or the like is set can be selected more appropriately and dynamically.

また、所定の条件が成立した場合に、適用される所定の表情等は、所定の表情等が適用
されるアバターに係るアバターが属するタイプを用いてもよい。例えば、所定の条件は、
アバターが属するタイプの複数のものの一である、前記アバターの属するタイプを用いて
もよい。これは、ある情報を取得した場合、第1のアバターの種類においては所定の表情
等となるが、第2のアバターの種類においては所定の表情等とならない、ものであってよ
い。例えば、あるタイプのアバターは、弱気の性格の設定であるとして、他の配信者との
距離が第1の距離の範囲内の場合に、驚く表情が出やすくなってよい。また、あるタイプ
のアバターは、陽気な性格の設定であるとして、所定の表情等として、笑顔を含む表情と
なる条件が、他のアバターよりも、緩いよう設定されていてよい。なお、この場合、アバ
ターについて、弱気、陽気、強気、負けず嫌い、など性格という特性を備えさせ、かかる
性格という特性を用いて、所定の条件の充足が判定されてよい。なお、性格は、アバター
の属するタイプに応じて設定されているものでもよいし、アバターの属するタイプとは別
に個々のアバターについて設定されているものであってもよい。また、かかるアバターの
タイプは、アバターの設定時に設定された性格であってもよいし、アバターが所定の条件
が判定される時点で装備しているパーツや服装から判定されてもよい。
In addition, when a predetermined condition is satisfied, the predetermined facial expression or the like to be applied may be the type to which the avatar to which the predetermined facial expression or the like is applied belongs. For example, the predetermined condition is
A type to which the avatar belongs, which is one of a plurality of types to which the avatar belongs, may be used. This may be such that, when certain information is acquired, a predetermined facial expression, etc. is obtained in a first avatar type, but a predetermined facial expression, etc. is not obtained in a second avatar type. For example, a certain type of avatar may be set to have a timid personality, and when the distance from other broadcasters is within a first distance range, a surprised facial expression may be easily produced. Also, a certain type of avatar may be set to have a cheerful personality, and the condition for a facial expression including a smile as a predetermined facial expression, etc. may be set to be looser than other avatars. In this case, the avatar may be provided with a personality characteristic such as timid, cheerful, bullish, or competitive, and the satisfaction of a predetermined condition may be determined using the personality characteristic. The personality may be set according to the type to which the avatar belongs, or may be set for each avatar separately from the type to which the avatar belongs. Also, such an avatar type may be a personality set when the avatar is set, or may be determined from the parts or clothes equipped on the avatar at the time when the predetermined condition is determined.

なお、所定の条件は、確率を含んでよい。すなわち、所定の条件は、疑似乱数関数等を
含み、かかる関数値が所定の条件を充足すると判定した場合に、所定の表情等を生成して
もよい。かかる確率を含む場合、常に、所定の表情等が生成されるわけではないため、視
聴者の興味を継続的に引くことができる。また、例えば、その確率値を所定の値よりも低
くする場合において、稀な表情とする場合、視聴者が貴重な表情を見ることができるとい
う点において、視聴者の興味を引くことができる。
The predetermined condition may include a probability. That is, the predetermined condition may include a pseudorandom number function, etc., and a predetermined facial expression, etc. may be generated when it is determined that the function value satisfies the predetermined condition. When such a probability is included, the predetermined facial expression, etc. is not always generated, so that the viewer's interest can be continuously attracted. Also, for example, when the probability value is lower than a predetermined value and a rare facial expression is generated, the viewer's interest can be attracted in that the viewer can see a valuable facial expression.

条件適用部は、配信者について所定の条件の充足によって特定された表情等を、かかる
配信者が演じるアバターについての表情等としてよい。より具体的には、所定の条件の充
足によって特定された表情等を示す情報は、特定された表情等を示すIDや、特定された
表情等を示す表情の一又は複数のパラメータであってよく、かかる特定された表情等を、
かかるアバターの表情とできるように、かかる特定された表情等を示す情報を用いて、ア
バターの表情等を設定してよい。かかるIDやパラメータの情報は、条件適用部において
特定又は生成された後、かかる情報が、映像やアニメーションの生成のためにサーバや端
末に送信され、所定期間、利用されてよい。ここで、条件適用部は、各所定の条件と関連
付けて、特定される表情等を示す情報を記憶してよく、かかる各所定の条件が充足された
場合に、対応する特定される表情等を示す情報を特定できるよう構成されてよい。なお、
所定の条件の充足によって適用される所定の表情等がアバターに、所定期間、設定された
後は、元のアバターの動作に戻ってよい。すなわち、アバターは、配信者によって演じら
れていることから、所定期間の後、アバターの表情やポーズは、配信者の表情やポーズの
情報に基づくものとなってよい。ここで、配信者の表情やポーズの情報に基づくとは、配
信者の表情やポーズを光学センサや慣性センサで検知された情報によってアバターの動作
が規定されてよい。
The condition application unit may set the facial expression, etc., specified by the satisfaction of a predetermined condition for the distributor, as the facial expression, etc., for the avatar played by the distributor. More specifically, the information indicating the facial expression, etc., specified by the satisfaction of a predetermined condition may be an ID indicating the specified facial expression, etc., or one or more parameters of the facial expression indicating the specified facial expression, etc., and the specified facial expression, etc. may be
The avatar's facial expression, etc. may be set using information indicating the specified facial expression, etc., so that the facial expression, etc. of the avatar can be set to such an avatar's facial expression. After such ID and parameter information is specified or generated by the condition application unit, such information may be transmitted to a server or terminal for generating video or animation, and may be used for a specified period of time. Here, the condition application unit may store information indicating the specified facial expression, etc., in association with each specified condition, and may be configured to be able to specify information indicating the corresponding specified facial expression, etc., when each specified condition is satisfied. Note that,
After a predetermined facial expression or the like that is applied when a predetermined condition is satisfied is set for the avatar for a predetermined period of time, the avatar may return to its original behavior. That is, since the avatar is performed by the distributor, after a predetermined period of time, the avatar's facial expression and pose may be based on the information on the distributor's facial expression and pose. Here, based on the information on the distributor's facial expression and pose may mean that the avatar's behavior is determined by information on the distributor's facial expression and pose detected by an optical sensor or an inertial sensor.

条件適用部が実行される第1情報処理装置と、かかるアバターの表情等を示す情報の設
定を含む処理を行う第2情報処理装置と、が同じ場合、条件適用部は、条件適用部が所定
の条件の充足によって特定した表情を用いて、前記アバターの表情等を示す情報を設定す
るよう処理してよい。
When a first information processing device on which the condition application unit is executed is the same as a second information processing device which performs processing including setting information indicating the facial expressions, etc. of the avatar, the condition application unit may process the information indicating the facial expressions, etc. of the avatar using the facial expressions identified by the condition application unit upon satisfaction of specified conditions.

また、条件適用部が実行される第1情報処理装置と、かかるアバターの表情等を示す情
報の設定を含む処理を行う第2情報処理装置と、が異なる場合、条件適用部が所定の条件
の充足によって特定した表情等を示す情報を、第1情報処理装置は、第2情報処理装置に
送信し、かかる第2情報処理装置において、特定された表情等を示す情報を用いて、前記
アバターの表情等の示す情報を設定するよう処理してよい。
In addition, when a first information processing device on which the condition application unit is executed is different from a second information processing device which performs processing including setting information indicating the facial expressions, etc. of the avatar, the first information processing device may transmit information indicating the facial expressions, etc. identified by the condition application unit by satisfying a specified condition to the second information processing device, and the second information processing device may process the information indicating the facial expressions, etc. of the avatar using the information indicating the identified facial expressions, etc. to set the information indicating the facial expressions, etc. of the avatar.

ここで、第1情報処理装置がサーバであって、第2情報処理装置がサーバである場合は
、第1情報処理装置のサーバから、第2情報処理装置のサーバに、かかる特定された表情
等を示す情報が送信されてよい。また、第1情報処理装置がサーバであって、第2情報処
理装置が視聴者端末である場合は、第1情報処理装置のサーバから、第2情報処理装置の
視聴者端末に、かかる特定された表情等を示す情報が送信されてよい。また、第1情報処
理装置がサーバであって、第2情報処理装置が配信者端末である場合は、第1情報処理装
置のサーバから、第2情報処理装置の配信者端末に、かかる特定された表情等を示す情報
が送信されてよい。
Here, when the first information processing device is a server and the second information processing device is a server, information indicating the specified facial expression, etc. may be transmitted from the server of the first information processing device to the server of the second information processing device. Also, when the first information processing device is a server and the second information processing device is a viewer terminal, information indicating the specified facial expression, etc. may be transmitted from the server of the first information processing device to the viewer terminal of the second information processing device. Also, when the first information processing device is a server and the second information processing device is a distributor terminal, information indicating the specified facial expression, etc. may be transmitted from the server of the first information processing device to the distributor terminal of the second information processing device.

同様に、第1情報処理装置が視聴者端末であって、第2情報処理装置がサーバである場
合は、第1情報処理装置の視聴者端末から、第2情報処理装置のサーバに、かかる特定さ
れた表情等を示す情報が送信されてよい。また、第1情報処理装置が視聴者端末であって
、第2情報処理装置が視聴者端末である場合は、第1情報処理装置の視聴者端末から、第
2情報処理装置の視聴者端末に、かかる特定された表情等を示す情報が送信されてよい。
また、第1情報処理装置が視聴者端末であって、第2情報処理装置が配信者端末である場
合は、第1情報処理装置の視聴者端末から、第2情報処理装置の配信者端末に、かかる特
定された表情等を示す情報が送信されてよい。
Similarly, when the first information processing device is a viewer terminal and the second information processing device is a server, information indicating the specified facial expression, etc. may be transmitted from the viewer terminal of the first information processing device to the server of the second information processing device. Also, when the first information processing device is a viewer terminal and the second information processing device is a viewer terminal, information indicating the specified facial expression, etc. may be transmitted from the viewer terminal of the first information processing device to the viewer terminal of the second information processing device.
Furthermore, when the first information processing device is a viewer terminal and the second information processing device is a broadcaster terminal, information indicating such identified facial expressions, etc. may be transmitted from the viewer terminal of the first information processing device to the broadcaster terminal of the second information processing device.

同様に、第1情報処理装置が配信者端末であって、第2情報処理装置がサーバである場
合は、第1情報処理装置の配信者端末から、第2情報処理装置のサーバに、かかる特定さ
れた表情等を示す情報が送信されてよい。また、第1情報処理装置が配信者端末であって
、第2情報処理装置が配信者端末である場合は、第1情報処理装置の配信者端末から、第
2情報処理装置の配信者端末に、かかる特定された表情等を示す情報が送信されてよい。
また、第1情報処理装置が配信者端末であって、第2情報処理装置が視聴者端末である場
合は、第1情報処理装置の配信者端末から、第2情報処理装置の視聴者端末に、かかる特
定された表情等を示す情報が送信されてよい。
Similarly, when the first information processing device is a broadcaster terminal and the second information processing device is a server, information indicating the specified facial expression, etc. may be transmitted from the broadcaster terminal of the first information processing device to the server of the second information processing device. Also, when the first information processing device is a broadcaster terminal and the second information processing device is a broadcaster terminal, information indicating the specified facial expression, etc. may be transmitted from the broadcaster terminal of the first information processing device to the broadcaster terminal of the second information processing device.
Furthermore, when the first information processing device is a broadcaster terminal and the second information processing device is a viewer terminal, information indicating such identified facial expressions, etc. may be transmitted from the broadcaster terminal of the first information processing device to the viewer terminal of the second information processing device.

上記では、条件適用部が、単一の情報処理装置において実行される態様を示しているが
、複数の情報処理装置において条件適用部を分散して処理してもよい。
Although the above describes an aspect in which the condition application section is executed in a single information processing device, the condition application section may be distributed among a plurality of information processing devices for processing.

また、条件適用部は、所定の表情等が設定されるタイミングを用いて、所定の表情等を
示す情報を設定してよい。タイミングは、例えば、上述のように、一の配信者と他の配信
者をアバターと、アバター又はキャラクタとの視線が合ったタイミング、アバターが物と
接触したタイミング、などであってよい。この場合、かかる所定の表情等を示す情報を含
む情報が、表示される情報処理装置に送信されて、表示されてよい。この場合のタイミン
グのずれは、通信や処理のタイムラグが含まれてよい。
Furthermore, the condition application unit may set information indicating the predetermined facial expression, etc., using the timing at which the predetermined facial expression, etc. is set. The timing may be, for example, as described above, the timing when the gaze of one broadcaster and the avatar of another broadcaster meets the gaze of the avatar or character, the timing when the avatar comes into contact with an object, etc. In this case, information including the information indicating the predetermined facial expression, etc. may be transmitted to an information processing device on which the information is displayed and displayed. The timing difference in this case may include a time lag in communication or processing.

他方、所定の条件が充足された上で、所定の表情等を示す情報が設定されるタイミング
は、別途設定されたものが使用されてもよい。例えば、所定の条件が設定されてから、2
秒後に、所定の表情等になる、というものでもよい。一例としては、アバターが驚くよう
な状況が生じて、その2秒後という故意に遅らせたタイミングで、所定の驚きの表情を設
定するものなどでもよい。
On the other hand, the timing at which the information indicating the predetermined facial expression or the like is set after the predetermined condition is satisfied may be set separately. For example,
For example, the avatar may assume a predetermined facial expression two seconds after a situation that surprises the avatar occurs, and the avatar may assume a predetermined facial expression two seconds after the situation.

図6は、所定の条件に対する所定の表情等の関係を示した一例である。取得した情報を
、所定の条件として用いることにより、対応する、所定の表情等が特定されるものとなる
6 is an example showing the relationship between the predetermined conditions and the predetermined facial expressions, etc. By using the acquired information as the predetermined conditions, the corresponding predetermined facial expressions, etc. are identified.

上述のように、条件適用部の機能によって、所定の条件が充足した場合に、対応する所
定の表情等が実現できることとなり、仮想空間内のアバターの表情やポーズにバリエーシ
ョンを持たせることができる利点がある。また、現実世界で演者に現実に起こった出来事
に対応して、仮想空間内のアバターに表情等を設定できる利点がある。また、前記所定の
表情又はポーズとするための情報は、前記配信者端末から前記アバターを操作する情報を
取得せずに、生成してよい。この場合、演者は、現実世界の状況への対応していることで
アバターの表情等の変化などの入力の負担なく、演者からの何らの情報なく、アバターの
表情等が変更できる利点がある。
As described above, when a certain condition is satisfied, the function of the condition application unit allows a corresponding predetermined facial expression, etc. to be realized, which has the advantage of allowing the facial expressions and poses of the avatar in the virtual space to be varied. In addition, there is an advantage that a facial expression, etc. can be set for the avatar in the virtual space in response to an event that actually occurred to the performer in the real world. In addition, information for setting the predetermined facial expression or pose may be generated without obtaining information for operating the avatar from the distributor terminal. In this case, there is an advantage that the performer can change the facial expression, etc. of the avatar without the burden of inputting changes in the avatar's facial expression, etc., because it corresponds to the situation in the real world, and without any information from the performer.

4.実施形態
4-1.実施形態1
実施形態1は、視聴者端末において、条件適用部が動作する例である。この場合、取得
部は、視聴者端末において、動作してよい。本例について、図7を用いて説明する。なお
、視聴者端末において、条件適用部が動作するため、視聴者端末に基づく情報を所定の条
件として含めることにより、視聴者端末毎に、アバターの表現等を変更することも可能で
あってよい。
4. Embodiments
4-1. Embodiment 1
The first embodiment is an example in which the condition application unit operates in the viewer terminal. In this case, the acquisition unit may operate in the viewer terminal. This example will be described with reference to FIG. 7. Since the condition application unit operates in the viewer terminal, it may be possible to change the expression of the avatar for each viewer terminal by including information based on the viewer terminal as a predetermined condition.

ステップ1
取得部が、所定の動作等の情報を取得する(ステップ001)。かかる所定の動作等の
情報は、配信者端末において取得されたものでもよいし、サーバにおいて取得されたもの
でもよく、これらが、サーバなどを介して、条件適用部が動作する視聴者端末が取得して
もよい。
Step 1
The acquisition unit acquires information on a predetermined action, etc. (step 001). The information on the predetermined action, etc. may be acquired at a distributor terminal or at a server, and may be acquired by a viewer terminal on which a condition application unit operates, via a server or the like.

ステップ2
次に、条件適用部が、少なくとも所定の動作等の情報を用いて、所定の条件を判定し、
所定の条件が充足すると判定した場合、充足した所定の条件に対応する表情等を特定する
(ステップ002)。このために、条件適用部は、少なくとも一部の所定の条件とかかる
条件が充足した場合における所定の表情等を示す情報を有していてよい。
Step 2
Next, the condition application unit determines whether a predetermined condition is satisfied using at least the information on the predetermined operation, etc.
When it is determined that the predetermined condition is satisfied, the facial expression, etc. corresponding to the satisfied predetermined condition is identified (step 002). For this purpose, the condition application unit may have information indicating at least some of the predetermined conditions and the predetermined facial expression, etc. when such conditions are satisfied.

ステップ3
特定された表情等を、視聴者端末において、所定の条件の充足に使用されたアバターに
係る表情等に設定する(ステップ003)。視聴者は、所定の動作等に対応して、アバタ
ーの表情等が変更される反応を視聴できる利点がある。
Step 3
The specified facial expression, etc. is set in the viewer terminal as the facial expression, etc. associated with the avatar used to satisfy the predetermined condition (step 003). This has the advantage that the viewer can watch the reaction of the avatar as the facial expression, etc. of the avatar changes in response to the predetermined action, etc.

ステップ4
各視聴者端末において、アバターの所定の表情等が所定の期間表示された後、元のかか
るアバターに係る配信者の表情等に基づく表情にアバターに係る表情等は戻る(ステップ
004)。
Step 4
At each viewer terminal, after a predetermined facial expression of the avatar is displayed for a predetermined period of time, the facial expression of the avatar returns to the facial expression based on the facial expression of the distributor associated with the original avatar (step 004).

4-2.実施形態2
実施形態2は、サーバにおいて、条件適用部が動作する例である。この場合、取得部は
、サーバにおいて、動作してよい。なお、本例は、視聴者端末上において、アニメーショ
ンが生成される前提で、図8を用いて説明する。
4-2. Embodiment 2
The second embodiment is an example in which the condition application unit operates in the server. In this case, the acquisition unit may operate in the server. Note that this example will be described with reference to FIG. 8 on the premise that animation is generated on a viewer terminal.

ステップ1
取得部が、所定の動作等の情報を取得する(ステップ001)。
Step 1
The acquisition unit acquires information on a predetermined action or the like (step 001).

ステップ2
次に、条件適用部が、少なくとも所定の動作等の情報を用いて、所定の条件を判定し、
所定の条件が充足すると判定した場合、充足した所定の条件に対応する表情等を特定する
(ステップ002)。
Step 2
Next, the condition application unit determines whether a predetermined condition is satisfied using at least the information on the predetermined operation, etc.
If it is determined that the predetermined condition is satisfied, the facial expression or the like corresponding to the satisfied predetermined condition is identified (step 002).

ステップ3
サーバは、特定された表情等を示す情報を、かかるアバターの配信を視聴している、各
視聴者端末に送信する(ステップ003)。
Step 3
The server transmits information indicating the identified facial expression, etc. to each viewer terminal viewing the distribution of the avatar (step 003).

ステップ4
各視聴者端末において、サーバから取得した表情等を示す情報を用いて、アバターの表
情等を設定する(ステップ004)。ここで、各視聴者端末において、かかる設定された
アバターの表情等を用いて、アニメーションが生成されてもよい。
Step 4
In each viewer terminal, the facial expression of the avatar is set using the information indicating the facial expression, etc. acquired from the server (step 004). Here, in each viewer terminal, an animation may be generated using the set facial expression, etc. of the avatar.

ステップ5
各視聴者端末において、サーバから取得した表情等を示す情報が用いられたアバターの
表情等が、所定の期間表示され、その後元のかかるアバターに係る配信者の表情等に基づ
く表情に設定される(ステップ005)。なお、アニメ―エションが生成された場合は、
各アニメーション内に、所定の期間、かかる生成された表情等が用いられて表示され、そ
の後は、アバターに係る配信者の表情等に基づきトラッキングによって得られた表情等が
アバターの表情等として使用されてよい。
Step 5
In each viewer terminal, the facial expression of the avatar using the information indicating the facial expression obtained from the server is displayed for a predetermined period of time, and then the facial expression is set to the facial expression of the distributor related to the original avatar (step 005).
Such generated facial expressions, etc. may be used and displayed within each animation for a predetermined period of time, and thereafter, facial expressions, etc. obtained by tracking based on the facial expressions, etc. of the broadcaster associated with the avatar may be used as the avatar's facial expressions, etc.

4-3.実施形態3
実施形態3は、サーバにおいて、条件適用部が動作する例である。この場合、取得部は
、サーバにおいて、動作してよい。なお、本例は、サーバが上において、アバターの表情
を含む映像が生成される前提で、図9を用いて説明する。
4-3. Embodiment 3
The third embodiment is an example in which the condition application unit operates in the server. In this case, the acquisition unit may operate in the server. Note that this example will be described with reference to FIG. 9 on the premise that the server generates a video including the facial expression of the avatar.

ステップ1
取得部が、所定の動作等の情報を取得する(ステップ001)。
Step 1
The acquisition unit acquires information on a predetermined action or the like (step 001).

ステップ2
次に、条件適用部が、少なくとも所定の動作等の情報を用いて、所定の条件を判定し、
所定の条件が充足すると判定した場合、充足した所定の条件に対応する表情等を特定する
(ステップ002)。
Step 2
Next, the condition application unit determines whether a predetermined condition is satisfied using at least the information on the predetermined operation, etc.
If it is determined that the predetermined condition is satisfied, the facial expression or the like corresponding to the satisfied predetermined condition is identified (step 002).

ステップ3
サーバは、特定された表情等を示す情報等を用いて、かかるアバターの配信についての
映像を生成する(ステップ003)。ここで、アバターの配信についての映像を生成する
サーバと、かかる条件適用部を実行するサーバが、同一のサーバの場合、条件適用部を実
行するサーバにおいて、アバターの配信のための映像を生成してよい。他方、アバターの
配信についての映像を生成するサーバと、かかる条件適用部を実行するサーバが、異なる
サーバの場合、条件適用部を実行するサーバから、かかる映像を生成するサーバに、かか
る特定された表情等を示す情報が送信され、かかる映像生成するサーバにおいて、かかる
特定された表情等を示す情報が用いられてよい。なお、かかるサーバにおいてアニメーシ
ョンを生成する場合も同様に、映像と共に又は映像に代えて、かかるアバターの配信につ
いてのアニメーションを生成してもよく、この場合は以降映像と共に又は映像に代えてア
ニメーションが使用されてよい。
Step 3
The server generates a video for the distribution of the avatar using information indicating the specified facial expression, etc. (step 003). Here, when the server generating the video for the distribution of the avatar and the server executing the condition application unit are the same server, the server executing the condition application unit may generate the video for the distribution of the avatar. On the other hand, when the server generating the video for the distribution of the avatar and the server executing the condition application unit are different servers, information indicating the specified facial expression, etc. may be transmitted from the server executing the condition application unit to the server generating the video, and the information indicating the specified facial expression, etc. may be used in the server generating the video. Note that when an animation is generated in the server, an animation for the distribution of the avatar may be generated together with or instead of the video, and in this case, the animation may be used together with or instead of the video hereafter.

ステップ4
特定された表情等を示す情報に基づいて特定された表情を用いて生成されたアバターの
映像が、各視聴者端末に対して送信される(ステップ004)。
Step 4
An image of an avatar generated using the specified facial expression based on information indicating the specified facial expression, etc. is transmitted to each viewer terminal (step 004).

ステップ5
各視聴者端末において、サーバから取得した表情等を示す情報が用いられた映像が、所
定の期間表示され、その後元のかかるアバターに係る配信者の表情等に基づく表情等に基
づくアバターの映像が表示される(ステップ005)。
Step 5
At each viewer terminal, an image using information indicating facial expressions, etc. obtained from the server is displayed for a predetermined period of time, and then an image of an avatar based on facial expressions, etc. based on the facial expressions, etc. of the distributor associated with the original avatar is displayed (step 005).

4-4.様々な実施態様について
第1の態様によるコンピュータプログラムは、「一又は複数のプロセッサにより実行さ
れることにより、配信者による所定の動作、前記配信者の表情、前記配信者の顔色、前記
配信者の声、又は、前記配信者に対して生じる所定の状況、のうちの一又は複数に係る情
報を検知し、前記検知した情報が所定の条件を充足するか否かを判定し、前記所定の条件
を充足すると判定した場合に、前記配信者に係る表情又はポーズに基づいて生成されてい
た前記配信者に係るアバターの表情又はポーズを、前記所定の条件に対応する所定の表情
又はポーズとするための情報を生成し、前記所定の表情又はポーズが適用された、前記ア
バターを表示する、ように前記一又は複数のプロセッサを機能させる」ものである。
4-4. Various embodiments The computer program according to the first aspect "causes the one or more processors to function in the following manner: detect information related to one or more of a predetermined action by a distributor, a facial expression of the distributor, a complexion of the distributor, the voice of the distributor, or a predetermined situation occurring to the distributor; determine whether the detected information satisfies a predetermined condition; and, if it is determined that the predetermined condition is satisfied, generate information for changing the facial expression or pose of an avatar related to the distributor that was generated based on the facial expression or pose related to the distributor to a predetermined facial expression or pose corresponding to the predetermined condition; and display the avatar to which the predetermined facial expression or pose is applied."

第2の態様によるコンピュータプログラムは、上記第1の態様において「前記配信者の
所定の動作は、前記配信者に五感で知覚される予め定められた動作である」ものである。
The computer program according to a second aspect is the computer program according to the first aspect, wherein "the specified action of the distributor is a predefined action that is perceived by the distributor through the five senses."

第3の態様によるコンピュータプログラムは、上記第1の態様又は上記第2の態様にお
いて「前記配信者の所定の動作は、所定の対象を見る動作を含む」ものである。
The computer program according to a third aspect is the computer program according to the first or second aspect, wherein "the specified action of the distributor includes an action of looking at a specified target."

第4の態様によるコンピュータプログラムは、上記第1乃至上記第3のいずれか一の態
様において「前記配信者の所定の動作は、所定の対象に接触する動作を含む」ものである
The computer program according to a fourth aspect is the computer program according to any one of the first to third aspects, wherein "the specified action of the distributor includes an action of contacting a specified target."

第5の態様によるコンピュータプログラムは、上記第1乃至上記第4のいずれか一の態
様において「前記配信者の所定の動作は、所定の対象の飲食動作を含む」ものである。
The computer program according to a fifth aspect is the computer program according to any one of the first to fourth aspects, wherein "the specified action of the distributor includes an eating and drinking action of a specified target."

第6の態様によるコンピュータプログラムは、上記第1乃至上記第5のいずれか一の態
様において「前記所定の対象に対応するものを、仮想空間上に演出するアイテムを生成す
る」ものである。
The computer program according to a sixth aspect is one in any one of the first to fifth aspects that "generates an item that represents in a virtual space something that corresponds to the specified target."

第7の態様によるコンピュータプログラムは、上記第1乃至上記第6のいずれか一の態
様において「前記配信者の所定の動作は、臭う又は匂う所定のジェスチャーを含む」もの
である。
The computer program according to a seventh aspect is the computer program according to any one of the first to sixth aspects, wherein "the specified action of the distributor includes smelling or a specified gesture of smelling."

第8の態様によるコンピュータプログラムは、上記第1乃至上記第7のいずれか一の態
様において「前記配信者の所定の動作は、音を聞く/聴くことについての所定のジェスチ
ャーを含む」ものである。
The computer program according to the eighth aspect is one in any one of the first to seventh aspects, in which "the specified action of the distributor includes a specified gesture regarding listening/listening to sound."

第9の態様によるコンピュータプログラムは、上記第1乃至上記第8のいずれか一の態
様において「前記検知した情報は、第三者が入力したことに起因して検知した情報を含む
」ものである。
The computer program according to a ninth aspect is any one of the first to eighth aspects above, wherein "the detected information includes information detected as a result of input by a third party."

第10の態様によるコンピュータプログラムは、上記第1乃至上記第9のいずれか一の
態様において「前記検知した情報は、前記配信者を撮像する一又は複数の撮像装置によっ
て撮像された画像を用いた画像処理によって検知した情報を含む」ものである。
The computer program according to a tenth aspect is any one of the first to ninth aspects above, wherein "the detected information includes information detected by image processing using images captured by one or more imaging devices that capture the broadcaster."

第11の態様によるコンピュータプログラムは、上記第1乃至上記第10のいずれか一
の態様において「前記配信者に対して生じる所定の状況は、所定の音が生じることを含む
」ものである。
The computer program according to an eleventh aspect is the computer program according to any one of the first to tenth aspects, wherein "the specified situation occurring to the distributor includes the occurrence of a specified sound."

第12の態様によるコンピュータプログラムは、上記第1乃至上記第11のいずれか一
の態様において「前記配信者に対して生じる所定の状況は、所定の物が前記配信者に接触
することを含む」ものである。
The computer program according to the 12th aspect is any one of the first to 11th aspects above, in which "the specified situation occurring to the distributor includes a specified object coming into contact with the distributor."

第13の態様によるコンピュータプログラムは、上記第1乃至上記第12のいずれか一
の態様において「前記配信者の顔色は、顔色の変化を含む」ものである。
The computer program according to a thirteenth aspect is the computer program according to any one of the first to twelfth aspects, wherein "the distributor's facial color includes a change in facial color."

第14の態様によるコンピュータプログラムは、上記第1乃至上記第13のいずれか一
の態様において「前記配信者の声は、前記配信者の声の音質が所定の範囲以上変化するこ
と、又は、前記配信者の声の音量が所定の量以上変化すること、を含む」ものである。
The computer program according to the fourteenth aspect is any one of the first to thirteenth aspects above, wherein "the voice of the distributor includes the sound quality of the voice of the distributor changing by more than a predetermined range, or the volume of the voice of the distributor changing by more than a predetermined amount."

第15の態様によるコンピュータプログラムは、上記第1乃至上記第14のいずれか一
の態様において「所定の時間内において、第1の所定の条件が充足し、かつ、第2の所定
の条件が充足した場合、前記第1の所定の条件又は前記第2の所定の条件のうち、優先度
が高く設定されている所定の条件が充足した場合に対応する所定の表情又はポーズを適用
する」ものである。
The computer program according to the fifteenth aspect is, in any one of the first to fourteenth aspects above, "applying a predetermined facial expression or pose corresponding to when a first predetermined condition is satisfied and a second predetermined condition is satisfied within a predetermined time, and when the first predetermined condition or the second predetermined condition, whichever is set as the higher priority condition, is satisfied."

第16の態様によるコンピュータプログラムは、上記第1乃至上記第15のいずれか一
の態様において「前記所定の表情又はポーズとするための情報は、前記配信者端末から前
記アバターを操作する情報を取得せずに、生成する」ものである。
The computer program according to the 16th aspect is any one of the aspects 1 to 15 above, in which "information for achieving the specified facial expression or pose is generated without obtaining information for operating the avatar from the distributor terminal."

第17の態様によるコンピュータプログラムは、「コンピュータプログラムであって、
一又は複数のプロセッサにより実行されることにより、配信者による所定の動作、前記配
信者の表情、前記配信者の顔色、前記配信者の声、又は、前記配信者に対して生じる所定
の状況、のうちの一又は複数に係る情報を検知し、前記検知した情報が所定の条件を充足
するか否かを判定し、前記所定の条件を充足すると判定した場合に、前記配信者に係る表
情又はポーズに基づいて生成されていた前記配信者に係るアバターの表情又はポーズを、
前記所定の条件に対応する所定の表情又はポーズとするための情報を生成し、前記所定の
表情又はポーズとするための情報を、送信する、ように前記一又は複数のプロセッサを機
能させる」ものである。
A computer program according to a seventeenth aspect is a computer program,
When executed by one or more processors, the program detects information related to one or more of a predetermined action by a distributor, a facial expression of the distributor, a complexion of the distributor, a voice of the distributor, or a predetermined situation occurring to the distributor, determines whether the detected information satisfies a predetermined condition, and when it is determined that the predetermined condition is satisfied, changes the facial expression or pose of an avatar related to the distributor that was generated based on the facial expression or pose related to the distributor,
"The one or more processors are caused to function to generate information for a predetermined facial expression or pose corresponding to the predetermined condition, and to transmit the information for the predetermined facial expression or pose."

第18の態様によるコンピュータプログラムは、上記第17の態様において「前記配信
者の所定の動作は、前記配信者に五感で知覚される予め定められた動作である」ものであ
る。
The computer program according to an eighteenth aspect is the computer program according to the seventeenth aspect, wherein "the specified action of the distributor is a predefined action that is perceived by the distributor through the five senses."

第19の態様によるサーバ装置は、「一又は複数のプロセッサを具備し、前記プロセッ
サが、コンピュータにより読み取り可能な命令を実行することにより、配信者による所定
の動作、前記配信者の表情、前記配信者の顔色、前記配信者の声、又は、前記配信者に対
して生じる所定の状況、のうちの一又は複数に係る情報を検知し、前記検知した情報が所
定の条件を充足するか否かを判定し、前記所定の条件を充足すると判定した場合に、前記
配信者に係る表情又はポーズに基づいて生成されていた前記配信者に係るアバターの表情
又はポーズを、前記所定の条件に対応する所定の表情又はポーズとするための情報を生成
し、前記所定の表情又はポーズとするための情報を、送信する」ものである。
The server device according to the 19th aspect is equipped with "one or more processors, which execute computer-readable instructions to detect information relating to one or more of a predetermined action by a broadcaster, the broadcaster's facial expression, the broadcaster's complexion, the broadcaster's voice, or a predetermined situation occurring to the broadcaster, determine whether the detected information satisfies predetermined conditions, and if it is determined that the predetermined conditions are satisfied, generate information for changing the facial expression or pose of an avatar relating to the broadcaster that has been generated based on the facial expression or pose of the broadcaster to a predetermined facial expression or pose that corresponds to the predetermined conditions, and transmit the information for changing the facial expression or pose."

第20の態様によるサーバ装置は、上記第19の態様において「前記配信者の所定の動
作は、前記配信者に五感で知覚される予め定められた動作である」ものである。
The server device according to a twentieth aspect is the server device according to the nineteenth aspect, wherein "the specified action of the distributor is a predefined action that is perceived by the distributor through the five senses."

第21の態様による方法は、「コンピュータにより読み取り可能な命令を実行する一又
は複数のプロセッサにより実行される方法であって、配信者による所定の動作、前記配信
者の表情、前記配信者の顔色、前記配信者の声、又は、前記配信者に対して生じる所定の
状況、のうちの一又は複数に係る情報を検知し、前記検知した情報が所定の条件を充足す
るか否かを判定し、前記所定の条件を充足すると判定した場合に、前記配信者に係る表情
又はポーズに基づいて生成されていた前記配信者に係るアバターの表情又はポーズを、前
記所定の条件に対応する所定の表情又はポーズとするための情報を生成し、前記所定の表
情又はポーズが適用された、前記アバターを表示する、」ものである。
The method according to the twenty-first aspect is "a method executed by one or more processors that execute computer-readable instructions, which detects information relating to one or more of a predetermined action by a broadcaster, a facial expression of the broadcaster, a complexion of the broadcaster, the voice of the broadcaster, or a predetermined situation occurring to the broadcaster, determines whether the detected information satisfies a predetermined condition, and if it is determined that the predetermined condition is satisfied, generates information for changing the facial expression or pose of an avatar of the broadcaster that was generated based on the facial expression or pose of the broadcaster to a predetermined facial expression or pose that corresponds to the predetermined condition, and displays the avatar with the predetermined facial expression or pose applied."

第22の態様による方法は、上記第21の態様において「前記配信者の所定の動作は、
前記配信者に五感で知覚される予め定められた動作である」ものである。
The method according to the twenty-second aspect is the method according to the twenty-first aspect, wherein "the predetermined operation of the distributor is
It is a predetermined action that is perceived by the distributor through the five senses.

第23の態様による方法は、「コンピュータにより読み取り可能な命令を実行する一又
は複数のプロセッサにより実行される方法であって、配信者による所定の動作、前記配信
者の表情、前記配信者の顔色、前記配信者の声、又は、前記配信者に対して生じる所定の
状況、のうちの一又は複数に係る情報を検知し、前記検知した情報が所定の条件を充足す
るか否かを判定し、前記所定の条件を充足すると判定した場合に、前記配信者に係る表情
又はポーズに基づいて生成されていた前記配信者に係るアバターの表情又はポーズを、前
記所定の条件に対応する所定の表情又はポーズとするための情報を生成し、前記所定の表
情又はポーズとするための情報を、送信する、」ものである。
The method according to the 23rd aspect is "a method executed by one or more processors that execute computer-readable instructions, which detects information relating to one or more of a predetermined action by a broadcaster, a facial expression of the broadcaster, a complexion of the broadcaster, the voice of the broadcaster, or a predetermined situation occurring to the broadcaster, determines whether the detected information satisfies a predetermined condition, and if it is determined that the predetermined condition is satisfied, generates information for changing the facial expression or pose of an avatar of the broadcaster that was generated based on the facial expression or pose of the broadcaster to a predetermined facial expression or pose that corresponds to the predetermined condition, and transmits the information for changing the facial expression or pose."

第24の態様による方法は、上記第23の態様において「前記配信者の所定の動作は、
前記配信者に五感で知覚される予め定められた動作である」ものである。
The method according to the 24th aspect is the method according to the 23rd aspect, in which "the predetermined operation of the distributor is
It is a predetermined action that is perceived by the distributor through the five senses.

第25の態様による視聴者端末装置は、「一又は複数のプロセッサを具備し、前記プロ
セッサが、コンピュータにより読み取り可能な命令を実行することにより、配信者による
所定の動作、前記配信者の表情、前記配信者の顔色、前記配信者の声、又は、前記配信者
に対して生じる所定の状況、のうちの一又は複数に係る情報を検知し、前記検知した情報
が所定の条件を充足するか否かを判定し、前記所定の条件を充足すると判定した場合に、
前記配信者に係る表情又はポーズに基づいて生成されていた前記配信者に係るアバターの
表情又はポーズを、前記所定の条件に対応する所定の表情又はポーズとするための情報を
生成し、前記所定の表情又はポーズが適用された、前記アバターを表示する」ものである
The viewer terminal device according to the twenty-fifth aspect is provided with one or more processors, and the processor executes computer-readable instructions to detect information relating to one or more of a predetermined action by a distributor, a facial expression of the distributor, a complexion of the distributor, a voice of the distributor, or a predetermined situation occurring to the distributor, and determines whether the detected information satisfies a predetermined condition, and when it is determined that the predetermined condition is satisfied,
"Information is generated to change the facial expression or pose of the avatar related to the distributor, which has been generated based on the facial expression or pose related to the distributor, to a specified facial expression or pose that corresponds to the specified conditions, and the avatar is displayed with the specified facial expression or pose applied."

第26の態様による配信者端末装置は、「一又は複数のプロセッサを具備し、前記プロ
セッサが、コンピュータにより読み取り可能な命令を実行することにより、配信者による
所定の動作、前記配信者の表情、前記配信者の顔色、前記配信者の声、又は、前記配信者
に対して生じる所定の状況、のうちの一又は複数に係る情報を検知し、前記検知した情報
が所定の条件を充足するか否かを判定し、前記所定の条件を充足すると判定した場合に、
前記配信者に係る表情又はポーズに基づいて生成されていた前記配信者に係るアバターの
表情又はポーズを、前記所定の条件に対応する所定の表情又はポーズとするための情報を
生成し、前記所定の表情又はポーズとするための情報を、送信する、」ものである。
A broadcaster terminal device according to a twenty-sixth aspect of the present invention is provided with one or more processors, and the processor executes computer-readable instructions to detect information relating to one or more of a predetermined action by a broadcaster, a facial expression of the broadcaster, a complexion of the broadcaster, a voice of the broadcaster, or a predetermined situation occurring to the broadcaster, and determines whether the detected information satisfies a predetermined condition, and when it is determined that the predetermined condition is satisfied,
"generating information for changing the facial expression or pose of the avatar related to the distributor, which has been generated based on the facial expression or pose related to the distributor, to a specified facial expression or pose that corresponds to the specified conditions, and transmitting the information for changing to the specified facial expression or pose."

また、本願書類で説明されたシステム及び情報処理は、ソフトウェア、ハードウェア又
はこれらの組み合わせによっても実施されてよく、またかかるシステム及び情報処理の一
部又は全部は、処理・手順をコンピュータプログラムとして実装し、各種のコンピュータ
に実行させられてよく、またこれらのコンピュータプログラムは、記憶媒体に記憶されて
よい。また、これらのプログラムは、非一過性又は一時的な記憶媒体に記憶されてよい。
The system and information processing described in the present application may be implemented by software, hardware, or a combination of these, and a part or all of the system and information processing may be implemented as computer programs and executed by various computers, and these computer programs may be stored in storage media. These programs may also be stored in non-transient or temporary storage media.

本願書類で説明したものは、本願書類で説明されたものに限られず、本願書類で説明さ
れた種々の技術上の利点や構成を有する種々の技術的思想の範囲内で、種々の例に適用で
きることはいうまでもない。
It goes without saying that what is described in this application document is not limited to what is described in this application document, but can be applied to various examples within the scope of various technical ideas having various technical advantages and configurations described in this application document.

1 システム
10 通信網
20(20A~20C) サーバ装置
30(30A~30C) 端末装置
21(31) 演算装置
22(32) 主記憶装置
23(33) 入出力インタフェイス
24(34) 入力装置
25(35) 補助記憶装置
26(36) 出力装置
41 取得部
42 条件適用部
REFERENCE SIGNS LIST 1 System 10 Communication network 20 (20A to 20C) Server device 30 (30A to 30C) Terminal device 21 (31) Arithmetic device 22 (32) Main memory device 23 (33) Input/output interface 24 (34) Input device 25 (35) Auxiliary memory device 26 (36) Output device 41 Acquisition unit 42 Condition application unit

Claims (10)

コンピュータを、
仮想空間で動作するアバターと対応する演者の現実空間での動作を取得する第1手段と、
前記演者の現実空間での動作が1以上の条件のいずれかを充足するか否かを判定する第2手段と、
(1)前記1以上の条件のいずれも充足しない場合には、仮想空間における前記アバターの動作を、前記第1手段によって取得された前記演者の現実空間での動作に対応したものとし、(2)前記1以上の条件のうちのある条件を充足する場合には、仮想空間における前記アバターの動作を、前記ある条件に関連付けられた動作とし、所定期間経過後に、前記演者の現実空間における動作に対応したものとする第3手段と、として機能させるプログラム。
Computer,
A first means for acquiring a motion in a real space of an actor corresponding to an avatar moving in a virtual space;
a second means for determining whether the movement of the actor in real space satisfies any of one or more conditions;
A program that functions as a third means for: (1) making the avatar's movements in the virtual space correspond to the movements of the actor in real space acquired by the first means when none of the one or more conditions are met; and (2) making the avatar's movements in the virtual space correspond to the movements of the actor in real space acquired by the first means when a certain condition of the one or more conditions is met, and after a predetermined period of time, making the avatar's movements in the virtual space correspond to the movements of the actor in real space associated with the certain condition.
前記アバターの動作は、前記アバターの表情またはポーズである、請求項1に記載のプログラム。 The program according to claim 1, wherein the avatar's movement is the avatar's facial expression or pose. 前記1以上の条件のそれぞれには、予め動作が関連付けられている、請求項1または2に記載のプログラム。 The program according to claim 1 or 2, wherein each of the one or more conditions is associated with an action in advance. 前記1以上の条件は、少なくとも第1条件および第2条件を含み、
前記第1条件に関連付けられた動作と、前記第2条件に関連付けられた動作と、は異なる、請求項1乃至3のいずれかに記載のプログラム。
the one or more conditions include at least a first condition and a second condition,
The computer-readable medium according to claim 1 , wherein the action associated with the first condition is different from the action associated with the second condition.
前記演者の現実空間での動作は、モーションセンサで検知され、前記第1手段によって取得される、請求項1乃至4のいずれかに記載のプログラム。 The program according to any one of claims 1 to 4, wherein the movement of the actor in real space is detected by a motion sensor and acquired by the first means. 前記ある条件に関連付けられた動作は、前記第1手段によって取得された前記演者の現実空間での動作に対応した動作とは異なる、請求項1乃至5のいずれかに記載のプログラム。 The program according to any one of claims 1 to 5, wherein the movement associated with the certain condition is different from the movement of the actor in real space acquired by the first means. 前記1以上の条件のうちの1つは、配信者が臭う又は匂う所定のジェスチャーをしたことである、請求項1乃至6のいずれかに記載のプログラム。 The program according to any one of claims 1 to 6, wherein one of the one or more conditions is that the distributor smells or makes a certain gesture that smells. 前記1以上の条件のうちの1つは、現実空間に存在する所定の対象に対して所定の動作をしたことであり、
この条件に関連付けられた動作は、仮想空間において前記所定の対象に対応するアイテムを生成することである、請求項1乃至6のいずれかに記載のプログラム。
one of the one or more conditions being that a predetermined action has been performed on a predetermined object existing in real space;
The program according to claim 1 , wherein the action associated with the condition is to generate an item corresponding to the predetermined target in a virtual space.
仮想空間で動作するアバターと対応する演者の現実空間での動作を取得する第1手段と、
前記演者の現実空間での動作が1以上の条件のいずれかを充足するか否かを判定する第2手段と、
(1)前記1以上の条件のいずれも充足しない場合には、仮想空間における前記アバターの動作を、前記第1手段によって取得された前記演者の現実空間での動作に対応したものとし、(2)前記1以上の条件のうちのある条件を充足する場合には、仮想空間における前記アバターの動作を、前記ある条件に関連付けられた動作とし、所定期間経過後に、前記演者の現実空間における動作に対応したものとする第3手段と、を備える情報処理装置。
A first means for acquiring a motion in a real space of an actor corresponding to an avatar moving in a virtual space;
A second means for determining whether the movement of the actor in the real space satisfies any of one or more conditions;
An information processing device comprising: (1) a third means for, when none of the one or more conditions are satisfied, making the avatar's movements in the virtual space correspond to the movements of the actor in the real space acquired by the first means; and (2) a third means for, when a certain condition of the one or more conditions is satisfied, making the avatar's movements in the virtual space correspond to the movements associated with the certain condition, and after a predetermined period of time, making them correspond to the movements of the actor in the real space.
第1手段が、仮想空間で動作するアバターと対応する演者の現実空間での動作を取得するステップと、
第2手段が、前記演者の現実空間での動作が1以上の条件のいずれかを充足するか否かを判定するステップと、
第3手段が、(1)前記1以上の条件のいずれも充足しない場合には、仮想空間における前記アバターの動作を、前記第1手段によって取得された前記演者の現実空間での動作に対応したものとし、(2)前記1以上の条件のうちのある条件を充足する場合には、仮想空間における前記アバターの動作を、前記ある条件に関連付けられた動作とし、所定期間経過後に、前記演者の現実空間における動作に対応したものとするステップと、を含む情報処理方法。
A step in which a first means acquires an action in a real space of an actor corresponding to an avatar that operates in a virtual space;
A step of a second means for determining whether or not the movement of the actor in the real space satisfies any of one or more conditions;
An information processing method comprising: a third means for (1) setting the avatar's movements in the virtual space to correspond to the actor's movements in real space acquired by the first means when none of the one or more conditions are satisfied; and (2) setting the avatar's movements in the virtual space to movements associated with the certain condition when a certain condition of the one or more conditions is satisfied, and after a predetermined period of time, setting the avatar's movements in the virtual space to correspond to the actor's movements in real space.
JP2024029409A 2020-05-28 2024-02-29 Computer program, server device, terminal device, and method Pending JP2024063117A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2024029409A JP2024063117A (en) 2020-05-28 2024-02-29 Computer program, server device, terminal device, and method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020093438A JP2021189674A (en) 2020-05-28 2020-05-28 Computer program, server device, terminal device, and method
JP2024029409A JP2024063117A (en) 2020-05-28 2024-02-29 Computer program, server device, terminal device, and method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2020093438A Division JP2021189674A (en) 2020-04-14 2020-05-28 Computer program, server device, terminal device, and method

Publications (1)

Publication Number Publication Date
JP2024063117A true JP2024063117A (en) 2024-05-10

Family

ID=78849585

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020093438A Pending JP2021189674A (en) 2020-04-14 2020-05-28 Computer program, server device, terminal device, and method
JP2024029409A Pending JP2024063117A (en) 2020-05-28 2024-02-29 Computer program, server device, terminal device, and method

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2020093438A Pending JP2021189674A (en) 2020-04-14 2020-05-28 Computer program, server device, terminal device, and method

Country Status (1)

Country Link
JP (2) JP2021189674A (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7461654B2 (en) * 2021-06-28 2024-04-04 グリー株式会社 Information processing system, information processing method, and information processing program
US20230127495A1 (en) * 2021-10-22 2023-04-27 Lemon Inc. System and method for animated emoji recording and playback

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101006191B1 (en) * 2002-08-06 2011-01-07 윤재민 Emotion and Motion Extracting Method of Virtual Human
US9245177B2 (en) * 2010-06-02 2016-01-26 Microsoft Technology Licensing, Llc Limiting avatar gesture display
JP6810108B2 (en) * 2018-07-25 2021-01-06 株式会社バーチャルキャスト Servers, methods, programs, video broadcasting systems
CN108986192B (en) * 2018-07-26 2024-01-30 北京运多多网络科技有限公司 Data processing method and device for live broadcast
JP6559871B1 (en) * 2018-11-30 2019-08-14 株式会社ドワンゴ Movie synthesis apparatus, movie synthesis method, and movie synthesis program

Also Published As

Publication number Publication date
JP2021189674A (en) 2021-12-13

Similar Documents

Publication Publication Date Title
JP7109408B2 (en) Wide range simultaneous remote digital presentation world
US11398067B2 (en) Virtual reality presentation of body postures of avatars
JP2024063117A (en) Computer program, server device, terminal device, and method
US11178456B2 (en) Video distribution system, video distribution method, and storage medium storing video distribution program
KR20170085422A (en) Apparatus and method for operating personal agent
WO2019040524A1 (en) Method and system for musical communication
US20230023653A1 (en) Computer program, server, terminal, and method
US10877555B2 (en) Information processing device and information processing method for controlling user immersion degree in a virtual reality environment
JP7329217B2 (en) Computer program, server device, terminal device, and method
JP7204984B1 (en) program, method, information processing device
JP7398655B2 (en) Computer program, server device, terminal device, and method
US20230063681A1 (en) Dynamic augmentation of stimuli based on profile of user
JP7339420B1 (en) program, method, information processing device
US20240091650A1 (en) Systems and methods for modifying user sentiment for playing a game
US20230386443A1 (en) Method for adjusting noise cancellation in headphones based on real-world activity or game context
JP7194371B1 (en) program, method, information processing device
US11914146B2 (en) Methods and systems for adding real-world sounds to virtual reality scenes
US20240022682A1 (en) Systems and methods for communicating audio data
JP7356662B2 (en) computer program and method
Lages Nine Challenges for Immersive Entertainment
Nakagawa et al. Model-Based Analysis of the Differences in Sensory Perception between Real and Virtual Space: Toward “Adaptive Virtual Reality”

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240229