JP2024029089A - Computer programs, methods and server devices - Google Patents

Computer programs, methods and server devices Download PDF

Info

Publication number
JP2024029089A
JP2024029089A JP2023217320A JP2023217320A JP2024029089A JP 2024029089 A JP2024029089 A JP 2024029089A JP 2023217320 A JP2023217320 A JP 2023217320A JP 2023217320 A JP2023217320 A JP 2023217320A JP 2024029089 A JP2024029089 A JP 2024029089A
Authority
JP
Japan
Prior art keywords
performer
terminal device
change
unit
parts
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023217320A
Other languages
Japanese (ja)
Inventor
暁彦 白井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GREE Inc
Original Assignee
GREE Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GREE Inc filed Critical GREE Inc
Priority to JP2023217320A priority Critical patent/JP2024029089A/en
Publication of JP2024029089A publication Critical patent/JP2024029089A/en
Pending legal-status Critical Current

Links

Images

Abstract

【課題】演者の動作に基づいた画像を新たな手法により表示するタプログラム、サーバ装置、端末装置及び表示方法を提供する。【解決手段】端末装置20又はサーバ装置30は、像の配信及び/又は画像の受信に必要とされる様々な情報を記憶する記憶部と、単位時間毎に演者の身体に関する画像データを取得するセンサ部と、取得した演者の身体に関する測定データに基づいて、演者の身体の複数の部位の各々の単位時間当たりの変化量を取得する変化量取得部と、測定データに基づいて、演者の身体の複数の部位の単位時間当たりの変化量に基づく参照値を取得する参照値取得部と、参照値が閾値を上回る事象が検出された場合に、単位時間当たりの変化量が大きい上位少なくとも1つの部位を識別する識別部と、識別した単位時間当たりの変化量が大きい上位少なくとも1つの部位に対応付けられた何れか1つの特定動作を、演者が行った動作として決定する決定部と、を含む。【選択図】図3The present invention provides a computer program, a server device, a terminal device, and a display method that display images based on a performer's actions using a new method. [Solution] A terminal device 20 or a server device 30 includes a storage unit that stores various information required for distributing images and/or receiving images, and acquires image data regarding the performer's body every unit time. a sensor section; a change amount acquisition section that obtains the amount of change per unit time in each of a plurality of parts of the performer's body based on the acquired measurement data regarding the performer's body; a reference value acquisition unit that acquires a reference value based on the amount of change per unit time of a plurality of parts of the body; An identification unit that identifies the body part; and a determination unit that determines any one specific movement associated with the at least one body part with the largest identified change amount per unit time as the movement performed by the performer. . [Selection diagram] Figure 3

Description

本件出願に開示された技術は、様々なアプリケーションにおいて演者(ユーザ)の動作に基づいた画像を表示する、コンピュータプログラム、方法及びサーバ装置に関する。 The technology disclosed in the present application relates to a computer program, method, and server device that display images based on the actions of a performer (user) in various applications.

アプリケーションにおいて表示される仮想的なキャラクターの表情を演者の表情に基づいて制御する技術を利用したサービスとしては、まず「アニ文字」と称されるサービスが知られている(非特許文献1)。このサービスでは、ユーザは、顔の形状の変形を検知するカメラを搭載したスマートフォンを見ながら表情を変化させることにより、メッセンジャーアプリケーションにおいて表示されるアバターの表情を変化させることができる。 A service called "Animoji" is known as a service that uses technology to control the facial expression of a virtual character displayed in an application based on the facial expression of a performer (Non-Patent Document 1). With this service, users can change the facial expressions of their avatars displayed in messenger applications by changing their facial expressions while looking at a smartphone equipped with a camera that detects facial deformation.

さらに、別のサービスとしては、「カスタムキャスト」と称されるサービスが知られている(非特許文献2)。このサービスでは、ユーザは、スマートフォンの画面に対する複数のフリック方向の各々に対して、用意された多数の表情のうちのいずれかの表情を割り当てる。さらに、ユーザは、動画の配信の際には、所望する表情に対応する方向に沿って画面をフリックすることにより、その動画に表示されるアバターにその表情を表現させることができる。 Furthermore, as another service, a service called "custom cast" is known (Non-Patent Document 2). In this service, the user assigns one of a number of prepared facial expressions to each of a plurality of flick directions on the smartphone screen. Furthermore, when distributing a video, the user can make the avatar displayed in the video express that facial expression by flicking the screen along the direction corresponding to the desired facial expression.

なお、上記非特許文献1及び2の各々は、引用によりその全体が本明細書に組み入れられる。 In addition, each of the above-mentioned non-patent documents 1 and 2 is incorporated into the present specification by reference.

"iPhone X 以降でアニ文字を使う"、[online]、2018年10月24日、アップルジャパン株式会社、[2020年1月10日検索]、インターネット(URL: https://support.apple.com/ja-jp/HT208190)"Using Animoji on iPhone X and later", [online], October 24, 2018, Apple Japan Co., Ltd., [searched on January 10, 2020], Internet (URL: https://support.apple.com /ja-jp/HT208190) "カスタムキャスト"、[online]、2018年10月3日、株式会社ドワンゴ、[2020年1月10日検索]、インターネット(URL: https://customcast.jp/)"Custom Cast", [online], October 3, 2018, Dwango Co., Ltd., [searched on January 10, 2020], Internet (URL: https://customcast.jp/)

仮想的なキャラクター(アバター等)を表示させるアプリケーションにおいて、そのキャラクターに、印象的な表情を表現させることが望まれることがある。印象的な表情は、例えば、以下の3つの例を含む。第1の例は、顔の形状が漫画のように非現実的に変形した表情である。この表情は、例えば、両目が顔面から飛び出した表情等を含む。第2の例は、記号、図形及び/又は色が顔に付加された表情である。この表情は、例えば、涙がこぼれた表情、顔が真っ赤になった表情、目を三角形状にして怒った表情、等を含む。第3の例は、喜怒哀楽を含む感情を表現する表情である。印象的な表情は、これらの例に限定されない。 In applications that display virtual characters (such as avatars), it is sometimes desired that the characters express impressive facial expressions. Impressive facial expressions include, for example, the following three examples. The first example is an expression in which the shape of the face is unrealistically deformed like a cartoon. This facial expression includes, for example, a facial expression in which both eyes protrude from the face. A second example is an expression in which symbols, graphics and/or colors are added to the face. This facial expression includes, for example, a facial expression with tears streaming down its face, a facial expression with a bright red face, an angry facial expression with triangular eyes, and the like. The third example is a facial expression that expresses emotions including happiness, anger, sadness, and happiness. Impressive facial expressions are not limited to these examples.

しかしながら、まず、特許文献1に記載された技術は、ユーザ(演者)の顔の形状の変化に追従するように仮想的なキャラクターの表情を変化させる。したがって、特許文献1に記載された技術は、ユーザの顔が実際に表現することが困難な、上記のような印象的な表情を、仮想的なキャラクターの表情において表現することは困難である。 However, first, the technique described in Patent Document 1 changes the facial expression of a virtual character to follow changes in the shape of the user's (performer's) face. Therefore, with the technique described in Patent Document 1, it is difficult to express the above-mentioned impressive facial expressions, which are difficult to actually express on a user's face, in the facial expressions of a virtual character.

次に、特許文献2に記載された技術にあっては、複数のフリック方向の各々に対して、仮想的なキャラクターに表現させるべき表情を予め割り当てておく必要がある。このため、ユーザ(演者)は用意されている表情をすべて認識している必要がある。さらには、複数のフリック方向に対して割り当てて一度に使用することが可能な表情の総数は、10に満たない程度に限定され、充分ではない。 Next, in the technique described in Patent Document 2, it is necessary to assign in advance an expression to be expressed by a virtual character to each of a plurality of flick directions. Therefore, the user (performer) needs to recognize all the prepared facial expressions. Furthermore, the total number of facial expressions that can be assigned to multiple flick directions and used at once is limited to less than 10, which is not sufficient.

したがって、本件出願において開示された幾つかの実施形態は、演者の動作に基づいた画像を新たな手法により表示する、コンピュータプログラム、サーバ装置、端末装置及び表示方法を提供する。 Therefore, some embodiments disclosed in the present application provide a computer program, a server device, a terminal device, and a display method that display images based on a performer's actions using a new method.

一態様に係るコンピュータプログラムは、「少なくとも1つのプロセッサにより実行されることにより、少なくとも1つの特定動作の各々と、演者の身体における複数の部位のうち変化量が大きい上位少なくとも1つの部位と、を対応付けた情報を保持し、演者の身体に関する測定データを用いて該演者の身体における単位時間当たりの変化量が大きい上位少なくとも1つの部位を識別し、前記情報を用いて、前記少なくとも1つの特定動作のうち、識別された前記単位時間当たりの変化量が大きい上位少なくとも1つの部位に対応付けられたいずれか1つの特定動作を、検出動作として決定する、ように前記プロセッサを機能させる」ことができる。 According to one embodiment, a computer program "is executed by at least one processor to perform each of at least one specific motion and at least one region having a large amount of change among a plurality of regions in the performer's body." holding the associated information, identifying at least one region of the performer's body having a large amount of change per unit time using measurement data regarding the performer's body, and using the information to identify the at least one region; ``The processor is made to function so as to determine, as a detected operation, any one specific operation associated with at least one of the identified parts having the largest amount of change per unit time among the operations.'' can.

別の態様に係るコンピュータプログラムは、「少なくとも1つのプロセッサにより実行されることにより、少なくとも1つの特定動作の各々と、演者の身体における複数の部位のうち変化量が大きい上位少なくとも1つの部位と、を対応付けた情報を記憶し、演者の端末装置により送信された該演者の身体に関する測定データを用いて該演者の身体における単位時間当たりの変化量が大きい上位少なくとも1つの部位を識別し、前記情報を用いて、前記少なくとも1つの特定動作のうち、識別された前記単位時間当たりの変化量が大きい上位少なくとも1つの部位に対応付けられたいずれか1つの特定動作を、検出動作として決定する、ように前記プロセッサを機能させる」ことができる。 A computer program according to another aspect includes: ``by being executed by at least one processor, each of at least one specific action and at least one area having the largest amount of change among the plurality of areas in the performer's body; , and identify at least one region of the performer's body having a large amount of change per unit time using measurement data regarding the performer's body transmitted from the performer's terminal device; Using the information, determine, as a detected motion, any one of the at least one specific motion that is associated with the at least one region with the highest identified change amount per unit time. The processor may be operated to perform the following functions.

一態様に係る方法は、「コンピュータにより読み取り可能な命令を実行する少なくとも1つのプロセッサにより実行される方法であって、該プロセッサが前記命令を実行することにより、少なくとも1つの特定動作の各々と、演者の身体における複数の部位のうち変化量が大きい上位少なくとも1つの部位と、を対応付けた情報を記憶し、演者の身体に関する測定データを用いて該演者の身体における単位時間当たりの変化量が大きい上位少なくとも1つの部位を識別し、前記情報を用いて、前記少なくとも1つの特定動作のうち、識別された前記単位時間当たりの変化量が大きい上位少なくとも1つの部位に対応付けられたいずれか1つの特定動作を、検出動作として決定する」ことができる。 According to one aspect, a method is a method performed by at least one processor that executes computer-readable instructions, the processor executing the instructions to perform each of the at least one specified operation. Information that associates at least one region with the largest amount of change among a plurality of regions in the performer's body is stored, and the amount of change per unit time in the performer's body is calculated using measurement data regarding the performer's body. identify at least one region with the largest amount of change per unit time, and use the information to determine which one of the at least one specific motion is associated with the at least one region with the largest amount of change per unit time; One specific operation can be determined as a detection operation.

一態様に係るサーバ装置は、「少なくとも1つのプロセッサを具備し、該プロセッサが、コンピュータにより読み取り可能な命令を実行することにより、少なくとも1つの特定動作の各々と、演者の身体における複数の部位のうち変化量が大きい上位少なくとも1つの部位と、を対応付けた情報を記憶し、演者の身体に関する測定データを用いて該演者の身体における単位時間当たりの変化量が大きい上位少なくとも1つの部位を識別し、前記情報を用いて、前記少なくとも1つの特定動作のうち、識別された前記単位時間当たりの変化量が大きい上位少なくとも1つの部位に対応付けられたいずれか1つの特定動作を、検出動作として決定する」ことができる。 A server device according to one aspect is provided with the following: “The server device includes at least one processor, and the processor executes computer-readable instructions to perform each of the at least one specific action and the performance of multiple parts of the performer's body. At least one part of the performer's body that has a large amount of change per unit time is stored, and the at least one part of the performer's body that has a large amount of change per unit time is identified using measurement data regarding the performer's body. Then, using the information, among the at least one specific motion, any one of the identified motions associated with the at least one region with the largest change per unit time is selected as a detected motion. be able to decide.

図1は、一実施形態に係る通信システムの構成の一例を示すブロック図である。FIG. 1 is a block diagram showing an example of the configuration of a communication system according to an embodiment. 図2は、図1に示した端末装置20(サーバ装置30)のハードウェア構成の一例を模式的に示すブロック図である。FIG. 2 is a block diagram schematically showing an example of the hardware configuration of the terminal device 20 (server device 30) shown in FIG. 図3は、図1に示した端末装置20(サーバ装置30)の機能の一例を模式的に示すブロック図である。FIG. 3 is a block diagram schematically showing an example of the functions of the terminal device 20 (server device 30) shown in FIG. 1. 図4は、図1に示した通信システム1全体において行われる動作の一例を示すフロー図である。FIG. 4 is a flow diagram showing an example of operations performed in the entire communication system 1 shown in FIG. 図5は、図4に示した動作のうち動画の生成及び送信に関する動作の一例を示すフロー図である。FIG. 5 is a flow diagram illustrating an example of the operations related to the generation and transmission of a moving image among the operations illustrated in FIG. 4. 図6は、図1に示した通信システムにおいて用いられる対応情報の一例を模式的に示す図である。FIG. 6 is a diagram schematically showing an example of correspondence information used in the communication system shown in FIG. 1. 図7Aは、図1に示した通信システムにおいて用いられる端末装置20等により表示される動画の一例を示す図である。FIG. 7A is a diagram showing an example of a moving image displayed by the terminal device 20 etc. used in the communication system shown in FIG. 1. 図7Aは、図1に示した通信システムにおいて用いられる端末装置20等により表示される動画の別の例を示す図である。FIG. 7A is a diagram showing another example of a moving image displayed by the terminal device 20 or the like used in the communication system shown in FIG. 1. 図7Cは、図1に示した通信システムにおいて用いられる端末装置20等により表示される動画のさらに別の例を示す図である。FIG. 7C is a diagram showing yet another example of a moving image displayed by the terminal device 20 or the like used in the communication system shown in FIG. 1.

以下、添付図面を参照して本発明の様々な実施形態を説明する。なお、図面において共通した構成要素には同一の参照符号が付されている。また、或る図面に表現された構成要素が、説明の便宜上、別の図面においては省略されていることがある点に留意されたい。さらにまた、添付した図面が必ずしも正確な縮尺で記載されている訳ではないということに注意されたい。 Hereinafter, various embodiments of the present invention will be described with reference to the accompanying drawings. Note that common components in the drawings are given the same reference numerals. Also, it should be noted that components depicted in one drawing may be omitted from another drawing for convenience of explanation. Furthermore, it should be noted that the attached drawings are not necessarily drawn to scale.

1.通信システムの例
本件出願において開示される通信システムでは、簡潔にいえば、配信ユーザ(演者)に対向して設けられた端末装置等が、この配信ユーザの動作に基づいて生成した画像(動画像及び/又は静止画像)を、サーバ装置等を介して、各視聴ユーザの端末装置等に送信することができる。
1. Example of a Communication System In the communication system disclosed in this application, to put it simply, a terminal device or the like installed facing a distribution user (performer) transmits an image (video image) generated based on the operation of the distribution user (performer). and/or still images) can be transmitted to each viewing user's terminal device or the like via a server device or the like.

図1は、一実施形態に係る通信システムの構成の一例を示すブロック図である。図1に示すように、通信システム1は、通信網10に接続される1又はそれ以上の端末装置20と、通信網10に接続される1又はそれ以上のサーバ装置30と、を含むことができる。なお、図1には、端末装置20の例として、3つの端末装置20A~20Cが例示され、サーバ装置30の例として、3つのサーバ装置30A~30Cが例示されている。しかし、端末装置20として、これら以外の1又はそれ以上の端末装置20が通信網10に接続され得る。また、サーバ装置30として、これら以外の1又はそれ以上のサーバ装置30が通信網10に接続され得る。 FIG. 1 is a block diagram showing an example of the configuration of a communication system according to an embodiment. As shown in FIG. 1, the communication system 1 may include one or more terminal devices 20 connected to the communication network 10 and one or more server devices 30 connected to the communication network 10. can. Note that, in FIG. 1, three terminal devices 20A to 20C are illustrated as examples of the terminal device 20, and three server devices 30A to 30C are illustrated as examples of the server device 30. However, as the terminal device 20, one or more terminal devices 20 other than these may be connected to the communication network 10. Further, as the server device 30, one or more server devices 30 other than these may be connected to the communication network 10.

また、通信システム1は、通信網10に接続される1又はそれ以上のスタジオユニット40を含むことができる。なお、図1には、スタジオユニット40の例として、2つのスタジオユニット40A及び40Bが例示されている。しかし、スタジオユニット40として、これら以外の1又はそれ以上のスタジオユニット40が通信網10に接続され得る。 Furthermore, the communication system 1 can include one or more studio units 40 connected to the communication network 10. Note that FIG. 1 illustrates two studio units 40A and 40B as examples of the studio unit 40. However, one or more studio units 40 other than these may be connected to the communication network 10.

「第1の態様」では、図1に示す通信システム1では、演者により操作され所定のアプリケーション(動画配信用のアプリケーション等)を実行する端末装置20(例えば端末装置20A)が、端末装置20Aに対向する演者の身体に関するデータ及び/又は演者により発せられた発話及び/又は歌唱に関する音声データを取得することができる。さらに、この端末装置20Aは、この取得したデータに従って生成した仮想的なキャラクターの画像を、通信網10を介してサーバ装置30(例えばサーバ装置30A)に送信することができる。さらに、サーバ装置30Aは、端末装置20Aから受信した仮想的なキャラクターの画像を、通信網10を介して他の1又はそれ以上の端末装置20であって所定のアプリケーション(動画視聴用のアプリケーション等)を実行して画像の配信を要求する旨を送信した端末装置20に配信することができる。 In the "first aspect", in the communication system 1 shown in FIG. Data regarding the body of the opposing performer and/or audio data regarding speech and/or singing uttered by the performer can be obtained. Furthermore, this terminal device 20A can transmit an image of a virtual character generated according to the acquired data to the server device 30 (for example, the server device 30A) via the communication network 10. Further, the server device 30A sends the image of the virtual character received from the terminal device 20A to one or more other terminal devices 20 via the communication network 10 and to a predetermined application (an application for viewing a video, etc.). ) to deliver the image to the terminal device 20 that has sent the request for image delivery.

なお、本明細書において、「所定のアプリケーション」又は「特定のアプリケーション」とは、1又はそれ以上のアプリケーションであってもよいし、1又はそれ以上のアプリケーションと1又はそれ以上のミドルウェアとの組み合わせであってもよい。 Note that in this specification, a "predetermined application" or a "specific application" may be one or more applications, or a combination of one or more applications and one or more middleware. It may be.

「第2の態様」では、図1に示す通信システム1では、例えばスタジオ等又は他の場所に設置されたサーバ装置30(例えばサーバ装置30B)が、上記スタジオ等又は他の場所に居る演者の身体に関するデータ及び/又は演者により発せられた発話及び/又は歌唱に関する音声データを取得することができる。さらに、このサーバ装置30Bは、この取得したデータに従って生成した仮想的なキャラクターの画像を、通信網10を介して1又はそれ以上の端末装置20であって所定のアプリケーション(動画視聴用のアプリケーション等)を実行して画像の配信を要求する旨を送信した端末装置20に配信することができる。 In the "second aspect", in the communication system 1 shown in FIG. Data regarding the body and/or audio data regarding speech and/or singing uttered by the performer may be obtained. Furthermore, this server device 30B transmits the image of the virtual character generated according to the acquired data to one or more terminal devices 20 via a communication network 10 and to a predetermined application (an application for viewing a video, etc.). ) to deliver the image to the terminal device 20 that has sent the request for image delivery.

「第3の態様」では、図1に示す通信システム1では、例えばスタジオ等又は他の場所に設置されたスタジオユニット40が、上記スタジオ等又は他の場所に居る演者の身体に関するデータ及び/又は演者により発せられた発話及び/又は歌唱に関する音声データを取得することができる。さらに、このスタジオユニット40は、このデータに従って生成した仮想的なキャラクターの画像を生成してサーバ装置30に送信することができる。さらに、サーバ装置30は、スタジオユニット40から取得(受信)した画像を、通信網10を介して1又はそれ以上の端末装置20であって所定のアプリケーション(動画視聴用のアプリケーション等)を実行して画像の配信を要求する旨を送信した端末装置20に配信することができる。 In the "third aspect", in the communication system 1 shown in FIG. Audio data related to speech and/or singing uttered by a performer can be obtained. Furthermore, this studio unit 40 can generate an image of a virtual character generated according to this data and transmit it to the server device 30. Further, the server device 30 transmits the images acquired (received) from the studio unit 40 to one or more terminal devices 20 via the communication network 10 and executes a predetermined application (such as an application for viewing a video). The image can be distributed to the terminal device 20 that has sent the request for image distribution.

通信網10は、携帯電話網、無線LAN、固定電話網、インターネット、イントラネット及び/又はイーサネット(登録商標)等をこれらに限定することなく含むことができる。 The communication network 10 may include, but is not limited to, a mobile phone network, a wireless LAN, a fixed telephone network, the Internet, an intranet, and/or an Ethernet (registered trademark).

端末装置20は、インストールされた特定のアプリケーションを実行することにより、その演者の身体に関するデータ及び/又はその演者により発せられた発話及び/又は歌唱に関する音声データを取得する、という動作等を実行することができる。さらに、この端末装置20は、この取得したデータに従って生成した仮想的なキャラクターの画像を、通信網10を介してサーバ装置30に送信する、という動作等を実行することができる。或いはまた、端末装置20は、インストールされたウェブブラウザを実行することにより、サーバ装置30からウェブページを受信及び表示して、同様の動作を実行することができる。 The terminal device 20 performs operations such as acquiring data regarding the performer's body and/or audio data regarding speech and/or singing uttered by the performer by executing a specific installed application. be able to. Further, the terminal device 20 can perform operations such as transmitting an image of a virtual character generated according to the acquired data to the server device 30 via the communication network 10. Alternatively, the terminal device 20 can receive and display a web page from the server device 30 and perform similar operations by running an installed web browser.

端末装置20は、このような動作を実行することができる任意の端末装置であって、スマートフォン、タブレット、携帯電話(フィーチャーフォン)及び/又はパーソナルコンピュータ等を、これらに限定することなく含むことができる。 The terminal device 20 is any terminal device capable of performing such operations, and may include, without limitation, a smartphone, a tablet, a mobile phone (feature phone), and/or a personal computer. can.

サーバ装置30は、「第1の態様」では、インストールされた特定のアプリケーションを実行してアプリケーションサーバとして機能することができる。これにより、サーバ装置30は、各端末装置20から仮想的なキャラクターの画像を、通信網10を介して受信し、受信した画像を、通信網10を介して各端末装置20に配信する、という動作等を実行することができる。或いはまた、サーバ装置30は、インストールされた特定のアプリケーションを実行してウェブサーバとして機能することにより、各端末装置20に送信するウェブページを介して、同様の動作を実行することができる。 In the "first aspect", the server device 30 can function as an application server by executing a specific installed application. Thereby, the server device 30 receives images of virtual characters from each terminal device 20 via the communication network 10 and distributes the received images to each terminal device 20 via the communication network 10. It is possible to perform actions, etc. Alternatively, the server device 30 can perform similar operations via a web page sent to each terminal device 20 by executing a specific installed application and functioning as a web server.

サーバ装置30は、「第2の態様」では、インストールされた特定のアプリケーションを実行してアプリケーションサーバとして機能することができる。これにより、サーバ装置30は、このサーバ装置30が設置されたスタジオ等又は他の場所に居る演者の身体に関するデータ及び/又は演者により発せられた発話及び/又は歌唱に関する音声データを取得する、という動作等を実行することができる。さらに、サーバ装置30は、この取得したデータに従って生成した仮想的なキャラクターの画像を、通信網10を介して各端末装置20に配信する、という動作等を実行することができる。或いはまた、サーバ装置30は、インストールされた特定のアプリケーションを実行してウェブサーバとして機能することにより、各端末装置20に送信するウェブページを介して、同様の動作を実行することができる。さらにまた、サーバ装置30は、インストールされた特定のアプリケーションを実行してアプリケーションサーバとして機能することができる。これにより、サーバ装置30は、スタジオ等又は他の場所に設置されたスタジオユニット40からこのスタジオ等に居る演者の身体に関するデータ及び/又は演者により発せられた発話及び/又は歌唱に関する音声データに従って表情を変化させた仮想的なキャラクターの画像を取得(受信)する、という動作等を実行することができる。さらに、サーバ装置30は、この画像を、通信網10を介して各端末装置20に配信する、という動作等を実行することができる。 In the "second aspect", the server device 30 can function as an application server by executing a specific installed application. Thereby, the server device 30 acquires data regarding the body of the performer in the studio or other location where the server device 30 is installed, and/or audio data regarding the speech and/or singing uttered by the performer. It is possible to perform actions, etc. Further, the server device 30 can perform operations such as distributing images of virtual characters generated according to the acquired data to each terminal device 20 via the communication network 10. Alternatively, the server device 30 can perform similar operations via a web page sent to each terminal device 20 by executing a specific installed application and functioning as a web server. Furthermore, the server device 30 can function as an application server by executing a specific installed application. As a result, the server device 30 receives facial expressions from the studio unit 40 installed in the studio or other locations according to data regarding the body of the performer in the studio or the like and/or audio data regarding speech and/or singing uttered by the performer. It is possible to perform operations such as acquiring (receiving) an image of a virtual character that has been changed. Furthermore, the server device 30 can perform operations such as distributing this image to each terminal device 20 via the communication network 10.

スタジオユニット40は、インストールされた特定のアプリケーションを実行する情報処理装置として機能することができる。これにより、スタジオユニット40は、このスタジオユニット40が設置されたスタジオ等又は他の場所に居る演者の身体に関するデータ及び/又は演者により発せられた発話及び/又は歌唱に関する音声データを取得することができる。さらに、スタジオユニット40は、この取得したデータに従って生成した仮想的なキャラクターの画像を、通信網10を介してサーバ装置30に送信することができる。 The studio unit 40 can function as an information processing device that executes a specific installed application. As a result, the studio unit 40 can acquire data regarding the body of the performer in the studio where the studio unit 40 is installed or other locations, and/or audio data regarding the speech and/or singing uttered by the performer. can. Furthermore, the studio unit 40 can transmit the image of the virtual character generated according to the acquired data to the server device 30 via the communication network 10.

2.各装置のハードウェア構成
次に、端末装置20、サーバ装置30及びスタジオユニット40の各々が有するハードウェア構成の一例について説明する。
2-1.端末装置20のハードウェア構成
各端末装置20のハードウェア構成例について図2を参照して説明する。図2は、図1に示した端末装置20(サーバ装置30)のハードウェア構成の一例を模式的に示すブロック図である。なお、図2において、括弧内の参照符号は、後述するように各サーバ装置30に関連して記載されている。
2. Hardware Configuration of Each Device Next, an example of the hardware configuration of each of the terminal device 20, server device 30, and studio unit 40 will be described.
2-1. Hardware configuration of terminal device 20
An example of the hardware configuration of each terminal device 20 will be described with reference to FIG. 2. FIG. 2 is a block diagram schematically showing an example of the hardware configuration of the terminal device 20 (server device 30) shown in FIG. In addition, in FIG. 2, reference numerals in parentheses are described in relation to each server device 30, as will be described later.

図2に示すように、各端末装置20は、主に、中央処理装置21と、主記憶装置22と、入出力インタフェイス装置23と、入力装置24と、補助記憶装置25と、出力装置26と、を含むことができる。これら装置同士は、データバス及び/又は制御バスにより接続されている。 As shown in FIG. 2, each terminal device 20 mainly includes a central processing unit 21, a main storage device 22, an input/output interface device 23, an input device 24, an auxiliary storage device 25, and an output device 26. and can include. These devices are connected to each other by a data bus and/or a control bus.

中央処理装置21は、「CPU」と称されることがあり、主記憶装置22に記憶されている命令及びデータに対して演算を行い、その演算の結果を主記憶装置22に記憶させることができる。さらに、中央処理装置21は、入出力インタフェイス装置23を介して、入力装置24、補助記憶装置25及び出力装置26等を制御することができる。端末装置20は、1又はそれ以上のこのような中央処理装置21を含むことが可能である。 The central processing unit 21 is sometimes referred to as a "CPU" and can perform calculations on instructions and data stored in the main storage device 22 and store the results of the calculations in the main storage device 22. can. Furthermore, the central processing unit 21 can control the input device 24, the auxiliary storage device 25, the output device 26, etc. via the input/output interface device 23. Terminal device 20 may include one or more such central processing units 21 .

主記憶装置22は、「メモリ」と称されることがあり、入力装置24、補助記憶装置25及び通信網10等(サーバ装置30等)から、入出力インタフェイス装置23を介して受信した命令及びデータ、並びに、中央処理装置21の演算結果を記憶することができる。主記憶装置22は、RAM(ランダムアクセスメモリ)、ROM(リードオンリーメモリ)及び/又はフラッシュメモリ等をこれらに限定することなく含むことができる。 The main storage device 22 is sometimes referred to as a "memory" and receives instructions from the input device 24, the auxiliary storage device 25, the communication network 10, etc. (server device 30, etc.) via the input/output interface device 23. and data, as well as the calculation results of the central processing unit 21. The main storage device 22 can include, but is not limited to, RAM (random access memory), ROM (read only memory), and/or flash memory.

補助記憶装置25は、主記憶装置22よりも大きな容量を有する記憶装置である。補助記憶装置25は、上記特定のアプリケーションやウェブブラウザ等を構成する命令及びデータ(コンピュータプログラム)を記憶しておき、中央処理装置21により制御されることにより、これらの命令及びデータ(コンピュータプログラム)を、入出力インタフェイス装置23を介して主記憶装置22に送信することができる。補助記憶装置25は、磁気ディスク装置及び/又は光ディスク装置等をこれらに限定することなく含むことができる。 The auxiliary storage device 25 is a storage device that has a larger capacity than the main storage device 22. The auxiliary storage device 25 stores instructions and data (computer programs) constituting the specific application, web browser, etc., and is controlled by the central processing unit 21 to store these instructions and data (computer programs). can be sent to the main storage device 22 via the input/output interface device 23. The auxiliary storage device 25 can include, but is not limited to, a magnetic disk device and/or an optical disk device.

入力装置24は、外部からデータを取り込む装置であり、タッチパネル、ボタン、キーボード、マウス及び/又はセンサ等をこれらに限定することなく含むことができる。センサは、後述するように、1又はそれ以上のカメラ等を含む第1のセンサ、及び/又は、1又はそれ以上のマイク等を含む第2のセンサをこれらに限定することなく含むことができる。 The input device 24 is a device that takes in data from the outside, and can include, but is not limited to, a touch panel, a button, a keyboard, a mouse, and/or a sensor. The sensors may include, but are not limited to, a first sensor including one or more cameras, etc., and/or a second sensor including one or more microphones, etc., as described below. .

出力装置26は、ディスプレイ装置、タッチパネル及び/又はプリンタ装置等をこれらに限定することなく含むことができる。 The output device 26 may include, but is not limited to, a display device, a touch panel, and/or a printer device.

このようなハードウェア構成にあっては、中央処理装置21が、補助記憶装置25に記憶された特定のアプリケーションを構成する命令及びデータ(コンピュータプログラム)を順次主記憶装置22にロードし、ロードした命令及びデータを演算することができる。これにより、中央処理装置21は、入出力インタフェイス装置23を介して出力装置26を制御し、或いはまた、入出力インタフェイス装置23及び通信網10を介して、他の装置(例えばサーバ装置30及び他の端末装置20等)との間で様々な情報の送受信を行うことができる。 In such a hardware configuration, the central processing unit 21 sequentially loads instructions and data (computer programs) constituting a specific application stored in the auxiliary storage device 25 into the main storage device 22, and Can operate on instructions and data. Thereby, the central processing unit 21 controls the output device 26 via the input/output interface device 23, or also controls other devices (for example, the server device 30) via the input/output interface device 23 and the communication network 10. and other terminal devices 20, etc.).

これにより、端末装置20は、インストールされた特定のアプリケーションを実行することにより、その演者の身体に関するデータ及び/又はその演者により発せられた発話及び/又は歌唱に関する音声データを取得し、取得したデータに従って生成した仮想的なキャラクターの画像を、通信網10を介してサーバ装置30に送信する、という動作等(後に詳述する様々な動作を含む)を実行することができる。或いはまた、端末装置20は、インストールされたウェブブラウザを実行することにより、サーバ装置30からウェブページを受信及び表示して、同様の動作を実行することができる。 Thereby, by executing the installed specific application, the terminal device 20 acquires data regarding the performer's body and/or audio data regarding the speech and/or singing uttered by the performer, and the acquired data An operation such as transmitting an image of a virtual character generated according to the above to the server device 30 via the communication network 10 (including various operations described in detail later) can be executed. Alternatively, the terminal device 20 can receive and display a web page from the server device 30 and perform similar operations by running an installed web browser.

なお、端末装置20は、中央処理装置21に代えて又は中央処理装置21とともに、1又はそれ以上のマイクロプロセッサ、及び/又は、グラフィックスプロセッシングユニット(GPU)を含むことができる。 Note that the terminal device 20 can include one or more microprocessors and/or graphics processing units (GPUs) instead of or together with the central processing unit 21.

2-2.サーバ装置30のハードウェア構成
各サーバ装置30のハードウェア構成例について同じく図2を参照して説明する。各サーバ装置30のハードウェア構成は、例えば、上述した各端末装置20のハードウェア構成と同一とすることができる。したがって、各サーバ装置30が有する構成要素に対する参照符号は、図2において括弧内に示されている。
2-2. Hardware Configuration of Server Apparatus 30 An example of the hardware configuration of each server apparatus 30 will be described with reference to FIG. 2 as well. The hardware configuration of each server device 30 can be, for example, the same as the hardware configuration of each terminal device 20 described above. Therefore, reference numerals for components included in each server device 30 are shown in parentheses in FIG. 2.

図2に示すように、各サーバ装置30は、主に、中央処理装置31と、主記憶装置32と、入出力インタフェイス装置33と、入力装置34と、補助記憶装置35と、出力装置36と、を含むことができる。これら装置同士は、データバス及び/又は制御バスにより接続されている。 As shown in FIG. 2, each server device 30 mainly includes a central processing unit 31, a main storage device 32, an input/output interface device 33, an input device 34, an auxiliary storage device 35, and an output device 36. and can include. These devices are connected to each other by a data bus and/or a control bus.

中央処理装置31、主記憶装置32、入出力インタフェイス装置33、入力装置34、補助記憶装置35及び出力装置36は、それぞれ、上述した各端末装置20に含まれる、中央処理装置21、主記憶装置22、入出力インタフェイス装置23、入力装置24、補助記憶装置25及び出力装置26と略同一であり得る。 The central processing unit 31, the main memory 32, the input/output interface device 33, the input device 34, the auxiliary storage 35, and the output device 36 are the central processing unit 21, the main memory included in each terminal device 20 described above, respectively. The device 22, the input/output interface device 23, the input device 24, the auxiliary storage device 25, and the output device 26 may be substantially the same.

このようなハードウェア構成にあっては、中央処理装置31が、補助記憶装置35に記憶された特定のアプリケーションを構成する命令及びデータ(コンピュータプログラム)を順次主記憶装置32にロードし、ロードした命令及びデータを演算することができる。これにより、中央処理装置31は、入出力インタフェイス装置33を介して出力装置36を制御し、或いはまた、入出力インタフェイス装置33及び通信網10を介して、他の装置(例えば各端末装置20等)との間で様々な情報の送受信を行うことができる。 In such a hardware configuration, the central processing unit 31 sequentially loads instructions and data (computer programs) constituting a specific application stored in the auxiliary storage device 35 into the main storage device 32, and Can operate on instructions and data. Thereby, the central processing unit 31 controls the output device 36 via the input/output interface device 33, or also controls other devices (for example, each terminal device) via the input/output interface device 33 and the communication network 10. 20, etc.), various information can be sent and received.

これにより、サーバ装置30は、「第1の態様」では、インストールされた特定のアプリケーションを実行してアプリケーションサーバとして機能することができる。これにより、サーバ装置30は、各端末装置20から仮想的なキャラクターの画像を、通信網10を介して受信し、受信した画像を、通信網10を介して各端末装置20に配信する、という動作等(後に詳述する様々な動作を含む)を実行することができる。或いはまた、サーバ装置30は、インストールされた特定のアプリケーションを実行してウェブサーバとして機能することができる。これにより、サーバ装置30は、各端末装置20に送信するウェブページを介して、同様の動作を実行することができる。 Thereby, in the "first aspect", the server device 30 can function as an application server by executing a specific installed application. Thereby, the server device 30 receives images of virtual characters from each terminal device 20 via the communication network 10 and distributes the received images to each terminal device 20 via the communication network 10. Operations, etc. (including various operations detailed below) can be performed. Alternatively, the server device 30 can function as a web server by running a specific installed application. Thereby, the server device 30 can perform similar operations via the web page sent to each terminal device 20.

また、サーバ装置30は、「第2の態様」では、インストールされた特定のアプリケーションを実行してアプリケーションサーバとして機能することができる。これにより、サーバ装置30は、このサーバ装置30が設置されたスタジオ等又は他の場所に居る演者の身体に関するデータ及び/又は演者により発せられた発話及び/又は歌唱に関する音声データを取得するという動作等を実行することができる。さらに、サーバ装置30は、この取得したデータに従って生成した仮想的なキャラクターの画像を、通信網10を介して各端末装置20に配信する、という動作等(後に詳述する様々な動作を含む)を実行することができる。或いはまた、サーバ装置30は、インストールされた特定のアプリケーションを実行してウェブサーバとして機能することができる。これにより、サーバ装置30は、各端末装置20に送信するウェブページを介して、同様の動作を実行することができる。 Furthermore, in the “second aspect”, the server device 30 can function as an application server by executing a specific installed application. Thereby, the server device 30 performs an operation of acquiring data regarding the body of the performer in the studio or other location where the server device 30 is installed, and/or audio data regarding the speech and/or singing uttered by the performer. etc. can be executed. Furthermore, the server device 30 performs an operation such as distributing an image of a virtual character generated according to the acquired data to each terminal device 20 via the communication network 10 (including various operations described in detail later). can be executed. Alternatively, the server device 30 can function as a web server by running a specific installed application. Thereby, the server device 30 can perform similar operations via the web page sent to each terminal device 20.

さらにまた、サーバ装置30は、「第3の態様」では、インストールされた特定のアプリケーションを実行してアプリケーションサーバとして機能することができる。これにより、サーバ装置30は、スタジオユニット40が設置されたスタジオ等又は他の場所に居る演者の身体に関するデータ及び/又は演者により発せられた発話及び/又は歌唱に関する音声データに従って生成した仮想的なキャラクターの画像を、通信網10を介してスタジオユニット40から取得(受信)するという動作等を実行することができる。さらに、サーバ装置30は、この画像を、通信網10を介して各端末装置20に配信する、という動作等(後に詳述する様々な動作を含む)を実行することもできる。 Furthermore, in the "third aspect", the server device 30 can function as an application server by executing a specific installed application. As a result, the server device 30 can generate virtual data based on the data regarding the body of the performer located in the studio where the studio unit 40 is installed or other locations and/or the audio data regarding the speech and/or singing uttered by the performer. It is possible to perform operations such as acquiring (receiving) an image of a character from the studio unit 40 via the communication network 10. Furthermore, the server device 30 can also perform operations such as distributing this image to each terminal device 20 via the communication network 10 (including various operations described in detail later).

なお、サーバ装置30は、中央処理装置31に代えて又は中央処理装置31とともに、1又はそれ以上のマイクロプロセッサ、及び/又は、グラフィックスプロセッシングユニット(GPU)を含むことができる。 Note that the server device 30 can include one or more microprocessors and/or graphics processing units (GPUs) instead of or together with the central processing unit 31.

2-3.スタジオユニット40のハードウェア構成
スタジオユニット40は、パーソナルコンピュータ等の情報処理装置により実装可能である。スタジオユニット40は、図示はされていないが、上述した端末装置20及びサーバ装置30と同様に、主に、中央処理装置と、主記憶装置と、入出力インタフェイス装置と、入力装置と、補助記憶装置と、出力装置と、を含むことができる。これら装置同士は、データバス及び/又は制御バスにより接続されている。
2-3. Hardware Configuration of Studio Unit 40 The studio unit 40 can be implemented by an information processing device such as a personal computer. Although not shown, the studio unit 40 mainly includes a central processing unit, a main storage device, an input/output interface device, an input device, and an auxiliary device, similar to the terminal device 20 and server device 30 described above. It can include a storage device and an output device. These devices are connected to each other by a data bus and/or a control bus.

スタジオユニット40は、インストールされた特定のアプリケーションを実行して情報処理装置として機能することができる。これにより、スタジオユニット40は、このスタジオユニット40が設置されたスタジオ等又は他の場所に居る演者の身体に関するデータ及び/又は演者により発せられた発話及び/又は歌唱に関する音声データを取得することができる。さらに、スタジオユニット40は、この取得したデータに従って生成した仮想的なキャラクターの画像を、通信網10を介してサーバ装置30に送信することができる。 The studio unit 40 can function as an information processing device by executing a specific installed application. As a result, the studio unit 40 can acquire data regarding the body of the performer in the studio where the studio unit 40 is installed or other locations, and/or audio data regarding the speech and/or singing uttered by the performer. can. Furthermore, the studio unit 40 can transmit the image of the virtual character generated according to the acquired data to the server device 30 via the communication network 10.

3.各装置の機能
次に、端末装置20、サーバ装置30及びスタジオユニット40の各々が有する機能の一例について説明する。
3-1.端末装置20の機能
端末装置20の機能の一例について図3を参照して説明する。図3は、図1に示した端末装置20(サーバ装置30)の機能の一例を模式的に示すブロック図である。
3. Functions of Each Device Next, an example of the functions each of the terminal device 20, server device 30, and studio unit 40 have will be described.
3-1. Functions of terminal device 20
An example of the functions of the terminal device 20 will be described with reference to FIG. 3. FIG. 3 is a block diagram schematically showing an example of the functions of the terminal device 20 (server device 30) shown in FIG. 1.

図3に示すように、端末装置20は、記憶部100と、センサ部110と、変化量取得部120と、識別部140と、決定部150と、画像生成部160と、表示部170と、ユーザインタフェイス部180と、通信部190と、を含むことができる。端末装置20は、さらに、参照値取得部130を含むことができる。 As shown in FIG. 3, the terminal device 20 includes a storage unit 100, a sensor unit 110, a change amount acquisition unit 120, an identification unit 140, a determination unit 150, an image generation unit 160, a display unit 170, A user interface section 180 and a communication section 190 may be included. The terminal device 20 can further include a reference value acquisition unit 130.

(1)記憶部100
記憶部100は、画像の配信及び/又は画像の受信に必要とされる様々な情報を記憶することができる。特に、記憶部100は、対応情報を記憶することができる。対応情報では、予め定められた少なくとも1つの特定動作の各々と、演者の身体における複数の部位のうち変化量が大きい上位少なくとも1つの部位とが、対応付けられる。
(1) Storage unit 100
The storage unit 100 can store various information required for image distribution and/or image reception. In particular, the storage unit 100 can store correspondence information. In the correspondence information, each of at least one predetermined specific motion is associated with at least one region having a large change amount among a plurality of regions on the performer's body.

ここで、予め定められた少なくとも1つの特定動作には、例えば、以下に例示する複数の動作のうちの少なくとも1つが含まれ得る。
(A)演者が実際に表現することが困難な様々な表情(以下「特殊表情」ということがある)のうちの少なくとも1つ (B)身体を使用した様々な動作(両手でハート型を作る動作、及び、両手を用いて手旗信号を表現する動作等)のうちの少なくとも1つ
Here, the at least one predetermined specific operation may include, for example, at least one of a plurality of operations illustrated below.
(A) At least one of various facial expressions that are difficult for the performer to actually express (hereinafter referred to as "special facial expressions") (B) Various movements using the body (making a heart shape with both hands) at least one of the following)

なお、上記(A)に示した特殊表情は、例えば、以下に示す(A1)から(A3)のうちの少なくとも1つの表情を含むことができる。
(A1)顔の形状が漫画のように非現実的に変形した表情
(A2)記号、図形及び/又は色が顔に付加された表情
(A3)喜怒哀楽を含む感情を表現する表情
Note that the special expression shown in (A) above can include, for example, at least one of the expressions (A1) to (A3) shown below.
(A1) An expression in which the shape of the face is unrealistically deformed, like a cartoon. (A2) An expression in which symbols, figures, and/or colors are added to the face. (A3) An expression that expresses emotions, including happiness, anger, sorrow, and happiness.

また、演者の身体における複数の部位は、右目、左目、右眉毛、左眉毛、鼻、口、右耳、左耳、顎、右頬、左頬、首、右肩、左肩、右手、左手、胸、及び/又は、これらの部位のうちの何れかの部位における一部分等を、これらに限定することなく含むことができる。ここで、いずれかの部位における一部分には、例えば、当該部位が右目である場合には、右目の右端部、右目の左端部、右目の中央部、右目の上縁部、及び/又は、右目の下縁部等が含まれ得る。 In addition, multiple parts of the performer's body include the right eye, left eye, right eyebrow, left eyebrow, nose, mouth, right ear, left ear, chin, right cheek, left cheek, neck, right shoulder, left shoulder, right hand, left hand, It may include, without limitation, the breast and/or a portion of any of these areas. Here, the part of any part includes, for example, when the part is the right eye, the right end of the right eye, the left end of the right eye, the center of the right eye, the upper edge of the right eye, and/or the right eye. This may include the lower edges of the eyes, etc.

さらに、対応情報では、予め定められた少なくとも1つの特定動作の各々と、演者の身体における複数の部位のうち変化量が大きい上位少なくとも1つの部位、及び、このような変化量が大きい上位少なくとも1つの部位の上記変化量の大きさに基づく順序とが、対応付けられることも可能である。
なお、対応情報の具体例については後述する。
Furthermore, the correspondence information includes at least one predetermined specific motion, at least one region with the largest amount of change among the plurality of regions on the performer's body, and at least one region with the largest amount of change in the performer's body. It is also possible to associate the order based on the magnitude of the amount of change of the two parts.
Note that a specific example of the correspondence information will be described later.

(2)センサ部110
センサ部110は、様々なタイプのカメラ及び/又はマイクロフォン等のセンサと、このようなセンサにより取得された情報を処理する少なくとも1つのプロセッサと、を含むことができる。センサ部110は、このセンサ部110に対向する演者の身体に関するデータ(画像及び/又は音声等)を取得して、さらにこのデータに対する情報処理を実行することが可能である。
(2) Sensor section 110
The sensor unit 110 may include sensors such as various types of cameras and/or microphones, and at least one processor to process information acquired by such sensors. The sensor section 110 can acquire data (images and/or sounds, etc.) regarding the body of the performer facing the sensor section 110, and further perform information processing on this data.

具体的には、例えば、センサ部110は、まず、様々なタイプのカメラを用いて、単位時間ごとに演者の身体に関する画像データを取得することができる。ここで、単位時間は、ユーザ・演者等によりユーザインタフェイス部180を介して任意のタイミングにおいて任意の長さに設定・変更可能である。さらに、センサ部110は、このように取得した画像データを用いて、単位時間ごとに演者の身体における複数の部位の各々の位置を測定することができる。ここで、複数の部位とは、上記のとおり、右目、左目、右眉毛、左眉毛、鼻、口、右耳、左耳、顎、右頬、左頬、首、右肩、左肩、右手、左手、胸、及び/又は、これらの部位のうちの何れかの部位における一部分等を、これらに限定することなく含むことができる。なお、カメラにより取得された画像データを用いて単位時間ごとに演者の身体における複数の部分の位置を測定する手法としては、当業者にとって周知である様々な手法を用いることが可能である。 Specifically, for example, the sensor unit 110 can first acquire image data regarding the performer's body every unit time using various types of cameras. Here, the unit time can be set or changed to any length at any timing by the user, performer, etc. via the user interface section 180. Furthermore, the sensor unit 110 can measure the position of each of a plurality of parts of the performer's body every unit time using the image data acquired in this way. Here, the multiple parts include the right eye, left eye, right eyebrow, left eyebrow, nose, mouth, right ear, left ear, chin, right cheek, left cheek, neck, right shoulder, left shoulder, right hand, It may include, but is not limited to, the left hand, the chest, and/or a portion of any of these areas. Note that various methods well known to those skilled in the art can be used to measure the positions of multiple parts of the performer's body every unit time using image data acquired by a camera.

例えば、1つの実施形態では、センサ部110は、センサとして、可視光線を撮像するRGBカメラと、近赤外線を撮像する近赤外線カメラと、を含むことができる。このようなカメラとしては、例えばiphone X(登録商標)のトゥルーデプス(True Depth)カメラが利用可能である。なお、トゥルーデプス(True Depth)カメラとしては、https://developer.apple.com/documentation/arkit/arfaceanchorに開示されたカメラを利用することができる。このウェブサイトに記載された事項は、引用によりその全体が本明細書に組み入れられる。 For example, in one embodiment, the sensor unit 110 may include, as sensors, an RGB camera that captures images of visible light, and a near-infrared camera that captures images of near-infrared rays. As such a camera, for example, the True Depth camera of iPhone X (registered trademark) can be used. Note that the camera disclosed at https://developer.apple.com/documentation/arkit/arfaceanchor can be used as the true depth camera. The material described on this website is incorporated herein by reference in its entirety.

RGBカメラに関して、センサ部110は、RGBカメラにより取得された画像をタイムコード(画像を取得した時間を示すコード)に対応付けて単位時間ごとに記録したデータを生成することができる。このデータは、例えばMPEGファイルであり得る。 Regarding the RGB camera, the sensor unit 110 can generate data recorded every unit time by associating an image acquired by the RGB camera with a time code (a code indicating the time at which the image was acquired). This data may be an MPEG file, for example.

さらに、センサ部110は、近赤外線カメラにより取得された所定数(例えば51個)の深度を示す数値(例えば浮動小数点の数値)を上記タイムコードに対応付けて単位時間ごとに記録したデータを生成することができる。このデータは、例えばTSVファイルであり得る。ここで、TSVファイルとは、データ間をタブで区切って複数のデータを記録する形式のファイルである。 Furthermore, the sensor unit 110 generates data recorded every unit time by associating a predetermined number (for example, 51) of numerical values (for example, floating point numerical values) indicating the depth acquired by the near-infrared camera with the above-mentioned time code. can do. This data may be, for example, a TSV file. Here, the TSV file is a file in which a plurality of pieces of data are recorded with data separated by tabs.

近赤外線カメラに関して、具体的には、まず、ドットプロジェクタがドット(点)パターンを含む赤外線レーザーを演者の身体に放射することができる。さらに、近赤外線カメラが、演者の身体に投影され反射した赤外線ドットを捉え、このように捉えた赤外線ドットの画像を生成することができる。センサ部110は、予め登録されているドットプロジェクタにより放射されたドットパターンの画像と、近赤外線カメラにより捉えられた画像とを比較して、両画像における各ポイント(例えば51個のポイント・51個の部位の各々)における位置のずれを用いて各ポイント(各部位)の深度を算出することができる。ここで、各ポイント(各部位)の深度は、各ポイント(各部位)と近赤外線カメラとの間の距離であり得る。センサ部110は、このように算出された深度を示す数値を上記のようにタイムコードに対応付けて単位時間ごとに記録したデータを生成することができる。 Regarding the near-infrared camera, specifically, first, a dot projector can emit an infrared laser including a dot pattern onto the performer's body. Further, a near-infrared camera can capture the infrared dots projected onto and reflected from the performer's body, and generate an image of the infrared dots thus captured. The sensor unit 110 compares the image of the dot pattern emitted by the dot projector registered in advance and the image captured by the near-infrared camera, and calculates each point (for example, 51 points, 51 points) in both images. The depth of each point (each part) can be calculated using the positional shift in each part (in each part). Here, the depth of each point (each part) may be the distance between each point (each part) and the near-infrared camera. The sensor unit 110 can generate data recorded every unit time by associating the numerical value indicating the depth calculated in this manner with the time code as described above.

これにより、センサ部110は、タイムコードに対応付けて、単位時間ごとに、MPEGファイル等の動画と、各部位の位置(座標等)とを、演者の身体に関するデータ(測定データ)として取得することができる。 Thereby, the sensor unit 110 acquires a moving image such as an MPEG file and the position (coordinates, etc.) of each part as data (measured data) regarding the performer's body for each unit time in association with the time code. be able to.

別の実施形態では、センサ部110は、Argumented Facesという技術を利用することができる。Argumented Facesとしては、https://developers.google.com/ar/develop/java/augmented-faces/において開示された情報を利用することができる。このウェブサイトに開示された情報は、引用によりその全体が本明細書に組み入れられる。 In another embodiment, the sensor unit 110 can utilize a technology called Argumented Faces. As Argumented Faces, information disclosed at https://developers.google.com/ar/develop/java/augmented-faces/ can be used. The information disclosed on this website is incorporated herein by reference in its entirety.

Argumented Facesを利用することにより、センサ部110は、カメラにより撮像された画像を用いて、次に示す情報を単位時間ごとに取得することができる。
(1)演者の頭蓋骨の物理的な中心位置、
(2)演者の顔を構成する何百もの頂点を含み、上記中心位置に対して定義される顔メッシュ、及び、
(3)上記(1)及び(2)に基づいて識別された、演者の顔における複数の部位(例えば、右頬、左頬、鼻の頂点)の各々の位置(座標)
By using Argumented Faces, the sensor unit 110 can acquire the following information every unit time using an image captured by a camera.
(1) The physical center position of the performer's skull;
(2) a face mesh that includes hundreds of vertices that make up the performer's face and is defined relative to the center position; and
(3) The position (coordinates) of each of the multiple parts on the performer's face (e.g., right cheek, left cheek, apex of the nose) identified based on (1) and (2) above.

この技術を用いることにより、センサ部110は、単位時間ごとに、演者の上半身(顔等)における複数の部分の各々の位置(座標)を取得することができる。 By using this technique, the sensor unit 110 can acquire the positions (coordinates) of each of a plurality of parts of the performer's upper body (face, etc.) every unit time.

なお、センサ部110は、マイクロフォン等から出力された演者の発話及び/又は歌唱に関する音声データについては、このデータに対して周知の信号処理を行うことにより、音声信号を取得することができる。この音声信号は、例えばMPEGファイル等であって
もよい。
Note that the sensor unit 110 can acquire an audio signal by performing well-known signal processing on the audio data regarding the speaker's speech and/or singing output from a microphone or the like. This audio signal may be, for example, an MPEG file.

(3)変化量取得部120
変化量取得部120は、センサ部110により取得された演者の身体に関するデータ(測定データ)に基づいて、演者の身体における複数の部位の各々の単位時間当たりの変化量を取得することができる。具体的には、変化量取得部120は、例えば、右頬という部位について、第1の単位時間において取得された位置(座標)と、第1の単位時間の次に(直後に)生ずる第2の単位時間において取得された位置(座標)と、の差分をとることができる。これにより、変化量取得部120は、第1の単位時間と第2の単位時間との間において、右頬という部位の変化量を取得することができる。すなわち、変化量取得部120は、右頬という部位の単位時間当たりの変化量を取得することができる。変化量取得部120は、他の部位についても同様にその部位の単位時間当たりの変化量を取得することができる。
(3) Change amount acquisition unit 120
The change amount acquisition unit 120 can acquire the amount of change per unit time of each of a plurality of parts of the performer's body based on the data (measurement data) regarding the performer's body acquired by the sensor unit 110. Specifically, for example, the change amount acquisition unit 120 uses the position (coordinates) acquired in the first unit time and the second position (coordinates) that occurs next (immediately after) the first unit time for a region called the right cheek, for example. It is possible to calculate the difference between the position (coordinates) obtained in the unit time of . Thereby, the change amount obtaining unit 120 can obtain the change amount of the right cheek region between the first unit time and the second unit time. That is, the change amount obtaining unit 120 can obtain the change amount per unit time of the right cheek. The change amount obtaining unit 120 can similarly obtain the change amount per unit time for other parts as well.

各部位の単位時間当たりの変化量は、例えば、0~1.0の間における浮動小数点により表現され得る。
なお、単位時間は、固定、可変又はこれらの組み合わせであってもよい。また、単位時間は、1フレームに相当する時間であってもよい。
The amount of change per unit time of each region can be expressed, for example, by a floating point between 0 and 1.0.
Note that the unit time may be fixed, variable, or a combination thereof. Further, the unit time may be a time corresponding to one frame.

(4)参照値取得部130
参照値取得部130は、センサ部110により取得された演者の身体に関するデータ(測定データ)に基づいて、演者の身体における複数の部位の単位時間当たりの変化量に基づく参照値を取得する。一実施形態では、参照値Rは、次の数式を用いて算出され得る。

Figure 2024029089000002
ここで、xは、前記演者の身体における複数の部位のうちの第i番目の部位の単位時間当たりの変化量である。Nは、部位の総数(2以上)である。この数式により算出される値は、2乗平均平方根(Root Mean Square)と称される。 (4) Reference value acquisition unit 130
The reference value acquisition unit 130 acquires a reference value based on the amount of change per unit time of a plurality of parts of the performer's body based on the data (measured data) regarding the performer's body acquired by the sensor unit 110. In one embodiment, the reference value R may be calculated using the following formula:
Figure 2024029089000002
Here, x i is the amount of change per unit time of the i-th part of the plurality of parts in the performer's body. N is the total number of parts (2 or more). The value calculated by this formula is called the root mean square.

上記参照値は、演者の身体における複数の部位の単位時間当たりの変化量がどの程度かを示す。上記参照値が大きい場合には、演者の身体が予め定められた少なくとも1つの特定動作のうちのいずれかを行ったことが推定され得る。一方、上記参照値が小さい場合には、演者の身体が予め定められた少なくとも1つの特定動作のうちのいずれも行っていないことが推定され得る。 The reference value indicates the amount of change per unit time in a plurality of parts of the performer's body. If the reference value is large, it can be estimated that the performer's body has performed one of at least one predetermined specific motion. On the other hand, if the reference value is small, it can be estimated that the performer's body is not performing any of the at least one predetermined specific motion.

なお、上記参照値は、上記数式に示された2乗平均平方根それ自体であってもよいし、この2乗平均平方根に対して任意の係数を乗ずることにより得られた値であってもよい。 In addition, the above reference value may be the root mean square itself shown in the above formula, or may be a value obtained by multiplying this root mean square by an arbitrary coefficient. .

また、参照値Rは、別の実施形態では、次の数式に示すようなxの平均値であってもよい。

Figure 2024029089000003
なお、ここでも、xは、前記演者の身体における複数の部位のうちの第i番目の部位の単位時間当たりの変化量である。Nは、部位の総数(2以上)である。 Further, in another embodiment, the reference value R may be an average value of x i as shown in the following formula.
Figure 2024029089000003
Note that, also here, x i is the amount of change per unit time of the i-th part of the plurality of parts in the performer's body. N is the total number of parts (2 or more).

(4)識別部140
識別部140は、変化量取得部120により取得された、演者の身体における複数の部位の各々の単位時間当たりの変化量を用いて、複数の部位のうち、単位時間当たりの変化量が大きい上位少なくとも1つの部位を識別することができる。
(4) Identification unit 140
The identification unit 140 uses the amount of change per unit time of each of the plurality of parts of the performer's body acquired by the amount of change acquisition unit 120 to identify the top parts with the largest amount of change per unit time among the plurality of parts. At least one site can be identified.

一実施形態では、識別部140は、参照値取得部130により算出された参照値が閾値を上回る事象が検出された場合に、単位時間当たりの変化量が大きい上位少なくとも1つの部位を識別することができる。変化量が大きい上位少なくとも1つの部位は、N個の部位を含み得る。 In one embodiment, when an event in which the reference value calculated by the reference value acquisition unit 130 exceeds a threshold is detected, the identification unit 140 identifies at least one region with a large change per unit time. I can do it. At least one site with a large variation may include N sites.

(5)決定部150
決定部150は、記憶部100に記憶された上述した対応情報において、識別部140により識別された単位時間当たりの変化量が大きい上位少なくとも1つの部位に対応付けられたいずれか1つの特定動作を、演者が行った動作(検出動作)として決定することができる。
(5) Determination unit 150
The determining unit 150 determines, in the above-mentioned correspondence information stored in the storage unit 100, any one specific action associated with the at least one region with the largest change per unit time identified by the identifying unit 140. , can be determined as an action (detected action) performed by the performer.

さらに、記憶部100が予め定められた少なくとも1つの特定動作の各々と、演者の身体における複数の部位のうち変化量が大きい上位少なくとも1つの部位、及び、このような変化量が大きい上位少なくとも1つの部位の上記変化量の大きさに基づく順序と、を対応付けた対応情報を記憶する場合には、決定部150は、次のような動作を行うことも可能である。具体的には、決定部150は、記憶部100に記憶された上記対応情報において、識別部140により識別された単位時間当たりの変化量が大きい上位少なくとも1つの部位に一致し、かつ、上記変化量の大きさに基づく順序が一致する、いずれか1つの特定動作を、演者が行った動作(検出動作)として決定することができる。 Furthermore, the storage unit 100 stores information about each of at least one predetermined specific motion, at least one region with the largest amount of change among the plurality of regions on the performer's body, and at least one region with the largest amount of change. When storing correspondence information that associates the order based on the magnitude of the amount of change of the two parts, the determining unit 150 can also perform the following operation. Specifically, the determining unit 150 determines that the above-mentioned correspondence information stored in the storage unit 100 matches at least one region with the largest change amount per unit time identified by the identifying unit 140, and that the above-mentioned change Any one specific motion that matches the order based on the magnitude of the amount can be determined as the motion (detected motion) performed by the performer.

なお、決定部150により行われる動作の具体例については後述する。 Note that a specific example of the operation performed by the determining unit 150 will be described later.

(6)画像生成部160
画像生成部160は、センサ部110により取得された演者の身体に関するデータ(測定データ)を用いて、通常は、演者の身体の動作に追従した仮想的なキャラクターのアニメーションを含む動画を生成することができる。例えば、画像生成部160は、演者の身体の動作に追従して、仮想的なキャラクターが真顔を維持して単に瞬きをした動画、仮想的なキャラクターが真顔を維持して単に俯いた動画、及び、仮想的なキャラクターが演者の顔の動作に合わせて口や目を動かした動画等を生成することができる。このような動画の生成は、画像生成部160が、センサ部110により取得された演者の身体に関するデータ(測定データ)に基づいて、例えば、特定の部位(目等)の位置(座標)が変化したことを検出し、そのような変化に基づいて、この特定の部位を描画すること等により実現可能である。また、このような動画の生成は、当業者にとって周知である様々なレンダリング技術を用いることによって実現可能である。
(6) Image generation unit 160
The image generation unit 160 uses the data (measurement data) regarding the performer's body acquired by the sensor unit 110 to generate a video that includes an animation of a virtual character that follows the performer's body movements. I can do it. For example, the image generation unit 160 may generate a video in which the virtual character simply blinks while keeping a straight face, a video in which the virtual character simply looks down while maintaining a straight face, and , it is possible to generate videos, etc. in which a virtual character moves its mouth and eyes in accordance with the performer's facial movements. In order to generate such a moving image, the image generation unit 160 changes the position (coordinates) of a specific part (such as the eyes) based on the data (measurement data) regarding the performer's body acquired by the sensor unit 110. This can be achieved by, for example, detecting the change in the area and drawing this specific part based on such change. Moreover, generation of such a moving image can be realized by using various rendering techniques well known to those skilled in the art.

さらに、画像生成部160は、予め定められた少なくとも1つの特定動作のうち、決定部150により、いずれかの特定動作が実行されたことが決定されたとき(いずれかの特定動作が検出動作として決定されたとき)には、次のような動作を行うことができる。具体的には、画像生成部160は、決定された検出動作に基づいて動作する仮想的なキャラクターのアニメーションを含む動画を生成することができる。例えば、画像生成部160は、まず、上述した特定動作(A1)、(A2)、(A3)及び/又は(B)の各々に対応付けて仮想的なキャラクターをどのように変化及び/又は動作させるかに関する情報を予め保持することができる。次に、画像生成部160は、このように予め保持した情報のうち、決定された検出動作に対応する情報を用いて、仮想的なキャラクターを変化及び/又は動作させたアニメーションを含む動画を生成することができる。また、このような動画の生成もまた、当業者にとって周知である様々なレンダリング技術を用いることによって実現可能である。 Furthermore, when the determining unit 150 determines that any one of the predetermined at least one specific actions has been executed (one of the specific actions is detected as a detected action), the image generating unit 160 ), the following operations can be performed: Specifically, the image generation unit 160 can generate a video including an animation of a virtual character that moves based on the determined detection motion. For example, the image generation unit 160 first determines how the virtual character changes and/or moves in association with each of the above-described specific actions (A1), (A2), (A3), and/or (B). It is possible to hold information in advance regarding whether to do so. Next, the image generation unit 160 uses information corresponding to the determined detection motion from among the information held in advance to generate a video including an animation in which the virtual character changes and/or moves. can do. Additionally, generation of such moving images can also be achieved using various rendering techniques well known to those skilled in the art.

画像生成部160は、このように生成した動画を格納したファイル(例えばMPEGファイル等のファイル)を記憶部100に記憶させることができる。
なお、画像生成部160は、VR(Virtual Reality)に基づく実施形態では、上記のように動作する仮想的なキャラクターが、CG等により形成された仮想空間に配置された画像(動画)を生成することができる。画像生成部160は、AR(Augmented Reality)又はMR(Mixed Reality)に基づく実施形態では、上記のように動作する仮想的なキャラクターが、現実空間に配置された画像(動画)を生成することができる。
The image generation unit 160 can cause the storage unit 100 to store a file (for example, a file such as an MPEG file) that stores the moving image generated in this way.
Note that in an embodiment based on VR (Virtual Reality), the image generation unit 160 generates an image (video) in which a virtual character that moves as described above is placed in a virtual space formed by CG or the like. be able to. In an embodiment based on AR (Augmented Reality) or MR (Mixed Reality), the image generation unit 160 can generate an image (video) in which a virtual character that moves as described above is placed in real space. can.

(7)表示部170
表示部170は、例えば、タッチパネル及び/又はディスプレイパネル等を含むことができる。このような表示部170は、記憶部100に記憶された動画を格納したファイルを再生して表示することができる。
(7) Display section 170
The display unit 170 can include, for example, a touch panel and/or a display panel. Such a display unit 170 can play and display a file containing a moving image stored in the storage unit 100.

(8)ユーザインタフェイス部180
ユーザインタフェイス部180は、タッチパネル、マウス及び/又はキーボード等を含むことができる。このようなユーザインタフェイス部180は、演者(ユーザ)により行われた操作の内容を示す情報を生成することができる。
(8) User interface section 180
The user interface unit 180 may include a touch panel, a mouse, a keyboard, and the like. Such a user interface unit 180 can generate information indicating the content of the operation performed by the performer (user).

(9)通信部190
通信部190は、画像の配信及び/又は画像の受信に必要とされる様々な情報を、通信網10を介してサーバ装置30との間で通信することができる。特に、当該端末装置20が演者(配信ユーザ)の端末装置20として動作する場合には、通信部190は、記憶部100に記憶された動画を、サーバ装置30に送信することができる。当該端末装置20が視聴ユーザの端末装置20として動作する場合には、通信部190は、配信ユーザの端末装置20により配信された動画を、サーバ装置30を介して受信することができる。
(9) Communication department 190
The communication unit 190 can communicate various information required for image distribution and/or image reception with the server device 30 via the communication network 10. In particular, when the terminal device 20 operates as the terminal device 20 of a performer (distribution user), the communication unit 190 can transmit the moving image stored in the storage unit 100 to the server device 30. When the terminal device 20 operates as the viewing user's terminal device 20, the communication unit 190 can receive the video distributed by the distribution user's terminal device 20 via the server device 30.

3-2.サーバ装置30の機能
サーバ装置30の機能の具体例について同じく図3を参照して説明する。サーバ装置30の機能としては、例えば、上述した端末装置20の機能の一部を用いることが可能である。したがって、サーバ装置30が有する構成要素に対する参照符号は、図3において括弧内に示されている。
3-2. Functions of the server device 30 A specific example of the functions of the server device 30 will be described with reference to FIG. 3 as well. As the functions of the server device 30, for example, part of the functions of the terminal device 20 described above can be used. Therefore, reference symbols for components included in the server device 30 are shown in parentheses in FIG. 3.

まず、上述した「第2の態様」では、サーバ装置30は、以下に述べる相違点を除き、記憶部200~通信部290は、それぞれ、端末装置20に関連して説明した記憶部100~通信部190と同一であり得る。 First, in the above-mentioned "second aspect", the server device 30 has the storage section 200 to the communication section 290, respectively, except for the differences described below. may be the same as section 190.

センサ部210に含まれるセンサは、サーバ装置30が設置されるスタジオ等又は他の場所において、演者が演技を行う空間において演者に対向して配置され得る。同様に、表示部270に含まれるディスプレイやタッチパネル等もまた、演者が演技を行う空間において演者に対向して又は演者の近くに配置され得る。 The sensors included in the sensor unit 210 may be placed facing the performer in a space where the performer performs, such as in a studio where the server device 30 is installed or at another location. Similarly, a display, a touch panel, etc. included in the display unit 270 may also be placed facing the performer or near the performer in the space where the performer performs.

通信部290は、各演者に対応付けて記憶部200に記憶された動画を格納したファイルを、通信網10を介して複数の端末装置20に配信することができる。これら複数の端末装置20の各々は、インストールされた所定のアプリケーション(例えば動画視聴用のアプリケーション)を実行して、サーバ装置30に対して所望の動画の配信を要求する信号(リクエスト信号)を送信することができる。これにより、各端末装置20は、この信号に応答したサーバ装置30から所望の動画を当該所定のアプリケーションを介して受信することができる。 The communication unit 290 can distribute a file containing moving images stored in the storage unit 200 in association with each performer to the plurality of terminal devices 20 via the communication network 10. Each of the plurality of terminal devices 20 executes an installed predetermined application (for example, a video viewing application) and transmits a signal (request signal) requesting distribution of a desired video to the server device 30. can do. Thereby, each terminal device 20 can receive a desired moving image from the server device 30 that responded to this signal via the predetermined application.

なお、記憶部200に記憶される様々な情報(動画を格納したファイル等)は、当該サーバ装置30に通信網10を介して通信可能な1又はそれ以上の他のサーバ装置(ストレージ)30に記憶されるようにしてもよい。 Note that various information (files storing videos, etc.) stored in the storage unit 200 is stored in one or more other server devices (storage) 30 that can communicate with the server device 30 via the communication network 10. It may also be stored.

一方、上述した「第1の態様」では、上記「第2の態様」において用いられたセンサ部210~画像生成部260をオプションとして用いることができる。通信部290は、上記のように動作することに加えて、各端末装置20により送信され通信網10から受信した、動画を格納したファイルを、記憶部200に記憶させた上で、複数の端末装置20に対して配信することができる。 On the other hand, in the above-mentioned "first embodiment", the sensor section 210 to image generation section 260 used in the above-mentioned "second embodiment" can be used as options. In addition to operating as described above, the communication unit 290 stores in the storage unit 200 a file storing a moving image transmitted by each terminal device 20 and received from the communication network 10, and then transmits the file to a plurality of terminals. It can be distributed to the device 20.

他方、「第3の態様」では、上記「第2の態様」において用いられたセンサ部210~画像生成部260をオプションとして用いることができる。通信部290は、上記のように動作することに加えて、スタジオユニット40により送信され通信網10から受信した、動画を格納したファイルを、記憶部200に記憶させた上で、複数の端末装置20に対して配信することができる。 On the other hand, in the "third aspect", the sensor unit 210 to image generation unit 260 used in the above-mentioned "second aspect" can be used as options. In addition to operating as described above, the communication unit 290 stores a file storing a moving image transmitted by the studio unit 40 and received from the communication network 10 in the storage unit 200, and then transmits the file to a plurality of terminal devices. It can be distributed to 20 people.

3-3.スタジオユニット40の機能
スタジオユニットは、図3に示した端末装置20又はサーバ装置30と同様の構成を有することにより、端末装置20又はサーバ装置30と同様の動作を行うことが可能である。但し、通信部190(290)は、画像生成部160(260)により生成され記憶部100(200)に記憶された動画を、通信網10を介してサーバ装置30に送信することができる。
3-3. Functions of Studio Unit 40 The studio unit has a configuration similar to that of the terminal device 20 or server device 30 shown in FIG. However, the communication unit 190 (290) can transmit the moving image generated by the image generation unit 160 (260) and stored in the storage unit 100 (200) to the server device 30 via the communication network 10.

特に、センサ部110(210)に含まれるセンサは、スタジオユニット40が設置されるスタジオ等又は他の場所において、演者が演技を行う空間において演者に対向して配置され得る。同様に、表示部170(270)に含まれるディスプレイやタッチパネル等もまた、演者が演技を行う空間において演者に対向して又は演者の近くに配置され得る。 In particular, the sensor included in the sensor section 110 (210) may be placed facing the performer in a space where the performer performs, such as in a studio where the studio unit 40 is installed or in another location. Similarly, the display, touch panel, etc. included in the display unit 170 (270) may also be placed opposite to or near the performer in the space where the performer performs.

4.通信システム1全体の動作
次に、上述した構成を有する通信システム1全体の動作の具体例について、図4を参照して説明する。図4は、図1に示した通信システム1全体において行われる動作の一例を示すフロー図である。
4. Operation of the entire communication system 1 Next, a specific example of the operation of the entire communication system 1 having the above-described configuration will be described with reference to FIG. FIG. 4 is a flow diagram showing an example of operations performed in the entire communication system 1 shown in FIG.

まず、ステップ(以下「ST」という。)402において、第1の態様の場合、端末装置20(の画像生成部160)が、演者の身体に関するデータ(測定データ)を用いて、仮想的なキャラクターのアニメーションを含む動画を生成することができる。第2の態様の場合には、サーバ装置30(の画像生成部260)が同様の動作を実行することができる。第3の態様の場合には、スタジオユニット40が同様の動作を実行することができる。 First, in step (hereinafter referred to as "ST") 402, in the case of the first aspect, the terminal device 20 (the image generation unit 160) creates a virtual character using data (measurement data) regarding the performer's body. It is possible to generate videos containing animations. In the case of the second aspect, (the image generation unit 260 of) the server device 30 can perform similar operations. In the case of the third aspect, the studio unit 40 can perform similar operations.

ST404において、第1の態様の場合、端末装置20(の通信部190)は、生成した動画をサーバ装置30に送信することができる。第2の態様の場合、サーバ装置30(の通信部290)は、ST404を実行しないか、又は、生成した動画を別のサーバ装置30に送信することができる。第3の態様の場合、スタジオユニット40は、生成した動画をサーバ装置30に送信することができる。なお、ST402及びST404において実行される動作の具体例については、図5等を参照して後述する。 In ST404, in the case of the first aspect, (the communication unit 190 of) the terminal device 20 can transmit the generated video to the server device 30. In the case of the second aspect, (the communication unit 290 of) the server device 30 may not execute ST404 or may transmit the generated video to another server device 30. In the case of the third aspect, the studio unit 40 can transmit the generated video to the server device 30. Note that specific examples of operations executed in ST402 and ST404 will be described later with reference to FIG. 5 and the like.

ST406において、第1の態様の場合、サーバ装置30(の通信部290)は、端末装置20から受信した動画を他の端末装置20に送信することができる。第2の態様の場合、サーバ装置30(又は別のサーバ装置30)(の通信部290)は、端末装置20から受信した動画を他の端末装置20に送信することができる。第3の態様の場合、サーバ装置30(の通信部290)は、スタジオユニット40から受信した動画を他の端末装置20に送信することができる。 In ST406, in the case of the first aspect, (the communication unit 290 of) the server device 30 can transmit the video received from the terminal device 20 to another terminal device 20. In the case of the second aspect, the server device 30 (or another server device 30) (the communication unit 290) can transmit the video received from the terminal device 20 to the other terminal device 20. In the case of the third aspect, (the communication unit 290 of) the server device 30 can transmit the video received from the studio unit 40 to another terminal device 20.

ST408において、第1の態様及び第3の態様の場合、他の端末装置20(の表示部170)は、サーバ装置30により送信された動画を受信してその端末装置20のディスプレイ等又はその端末装置20に接続されたディスプレイ等に表示することができる。第2の態様の場合、他の端末装置20(の表示部170)は、サーバ装置30又は別のサーバ装置30により送信された動画を受信してその端末装置20のディスプレイ等又はその端末装置20に接続されたディスプレイ等に表示することができる。 In ST408, in the case of the first aspect and the third aspect, the other terminal device 20 (the display unit 170 of) receives the video transmitted by the server device 30 and displays the display of the terminal device 20 or the terminal. It can be displayed on a display connected to the device 20 or the like. In the case of the second aspect, the other terminal device 20 (the display unit 170 of) receives the video transmitted by the server device 30 or another server device 30 and displays the display of the terminal device 20 or the like or the display unit 170 of the other terminal device 20. can be displayed on a display connected to the

ST410において、動作が継続されるかが判断される。動作が継続されると判断された場合には、処理は上述したST402に戻る。一方、動作が継続されないと判断された場合には、処理は終了する。 In ST410, it is determined whether the operation is to be continued. If it is determined that the operation is to be continued, the process returns to ST402 described above. On the other hand, if it is determined that the operation is not to be continued, the process ends.

なお、図4は、説明の簡略化のために、ST402~ST408に示された動作が順次実行される様子を示している。しかし、実際には、ST402~ST408は、相互に並行して実行され得る。 Note that FIG. 4 shows a state in which the operations shown in ST402 to ST408 are executed sequentially for the purpose of simplifying the explanation. However, in reality, ST402 to ST408 may be executed in parallel.

5.端末装置20等により行われる動画の生成及び送信に関する動作
次に、図4を参照して説明した動作のうち、ST402及びST404において端末装置20により行われる動画の生成及び送信に関する動作の具体的な例について、図5を参照して説明する。図5は、図4に示した動作のうち動画の生成及び送信に関する動作の一例を示すフロー図である。
5. Operations related to video generation and transmission performed by terminal device 20 etc.Next , among the operations described with reference to FIG. 4, specific operations related to video generation and transmission performed by terminal device 20 in ST402 and ST404 An example will be described with reference to FIG. FIG. 5 is a flow diagram illustrating an example of the operations related to the generation and transmission of a moving image among the operations illustrated in FIG. 4.

以下、説明を簡単にするために、動画を生成する主体が端末装置20である場合(すなわち、第1の態様の場合)に着目する。しかし、動画を生成する主体は、サーバ装置30であってもよい(第2の態様の場合)。また、動画を生成する主体は、スタジオユニット40であってもよい(第3の態様の場合)。 Hereinafter, in order to simplify the explanation, attention will be paid to the case where the entity that generates the moving image is the terminal device 20 (that is, the case of the first aspect). However, the entity that generates the video may be the server device 30 (in the case of the second aspect). Furthermore, the entity that generates the moving image may be the studio unit 40 (in the case of the third aspect).

まず、前提として、ST502において、端末装置20(の記憶部100)は、予め定められた少なくとも1つの特定動作の各々と、演者の身体における複数の部位のうち変化量が大きい上位少なくとも1つの部位と、を対応付けた対応情報を保持している。記憶部100に記憶される対応情報は、以下に例示する対応情報であってもよい。
・当該端末装置20により生成された対応情報
・専門家、技術者又は他のユーザにより生成されサーバ装置30等から有償若しくは無償で送信された対応情報
・他のユーザの端末装置20から直接的に又はサーバ装置30等を介して間接的に送信された対応情報
なお、後述するように、端末装置20は、保持している対応情報を更新することも可能である。
First, as a premise, in ST502, the terminal device 20 (storage unit 100) stores each of at least one predetermined specific motion and at least one region with the largest change amount among the plurality of regions in the performer's body. It holds correspondence information that associates and. The correspondence information stored in the storage unit 100 may be the correspondence information illustrated below.
- Compatibility information generated by the relevant terminal device 20 - Compatibility information generated by an expert, engineer, or other user and sent from the server device 30 etc. for a fee or free of charge - Directly from another user's terminal device 20 or correspondence information indirectly transmitted via the server device 30 or the like. Note that, as described later, the terminal device 20 can also update the correspondence information it holds.

図6は、図1に示した通信システムにおいて用いられる対応情報の一例を模式的に示す図である。図6に例示される対応情報は、各特定動作に対して、単位時間当たりの変化量が大きい上位例えば6つの部位を対応付けることができる。上位6つの部位は、例えば第1の部位~第6の部位を含むことができる。第1の部位~第6の部位は、単位時間当たりの変化量の大きい順序に従って並べられている。すなわち、第1の部位の単位時間当たりの変化量が最大であり、第6の部位の単位時間当たりの変化量が最小である。 FIG. 6 is a diagram schematically showing an example of correspondence information used in the communication system shown in FIG. 1. The correspondence information illustrated in FIG. 6 can associate each specific motion with, for example, six top regions with the largest amount of change per unit time. The top six sites can include, for example, the first to sixth sites. The first to sixth regions are arranged in order of increasing amount of change per unit time. That is, the amount of change per unit time in the first region is the largest, and the amount of change per unit time in the sixth region is the smallest.

図6に示される対応情報は、一例として、「怒り顔」という特定動作に、単位時間当たりの変化量が大きい上位6つの部位を対応付けることができる。第1の部位~第6の部位は、それぞれ、「口の右端部」、「口の左端部」、「右目の中央部」、「左目の中央部」、「右眉毛の右端部」及び「左眉毛の左端部」であり得る。 The correspondence information shown in FIG. 6 can, for example, associate the specific action of "angry face" with the top six body parts with the largest amount of change per unit time. The first part to the sixth part are respectively "right end of the mouth", "left end of the mouth", "center of the right eye", "center of the left eye", "right end of the right eyebrow", and " It may be the left end of the left eyebrow.

また、図6に示す対応情報は、別の例として、「バツ目」という特定動作に、単位時間当たりの変化量が大きい上位6つの部位を対応付けることができる。第1の部位~第6の部位は、それぞれ、「右目の右端部」、「左目の左端部」、「右眉毛の右端部」、「左眉毛の左端部」、「右眉毛の左端部」及び「左眉毛の右端部」であり得る。 Further, as another example, the correspondence information shown in FIG. 6 can associate the specific action "cross out" with the top six parts having the largest amount of change per unit time. The first part to the sixth part are "the right end of the right eye", "the left end of the left eye", "the right end of the right eyebrow", "the left end of the left eyebrow", and "the left end of the right eyebrow", respectively. and "the right end of the left eyebrow."

なお、図6には、対応情報が、各特定動作に対して、例えば6つの部位を対応付けている。しかし、対応情報は、複数の特定動作に対して、異なる数の部位を対応付けることも可能である。 Note that in FIG. 6, the correspondence information associates, for example, six parts with each specific motion. However, the correspondence information can also associate different numbers of parts with a plurality of specific actions.

図5に戻り、ST504において、端末装置20(の画像生成部160)は、ST402に関連して説明したとおり、演者の身体に関するデータ(測定データ)を用いて、仮想的なキャラクターのアニメーションを含む動画を生成することができる。生成された動画の一例が図7Aに示されている。動画700には、演者の仮想的なキャラクター(「アバター」といわれることもある)702が含まれ得る。動画700に含まれ得る仮想的なキャラクター702は、CGなどによって構成される仮想な空間に配置され得るし、現実空間に配置され得る。仮想的なキャラクター702は、ST504では、演者の身体の動作に追従して変化することができる。例えば、端末装置20に対向する演者が瞬きをすることに応答して、動画700に含まれる仮想的なキャラクター702もまた瞬きをするように動作する。さらに、端末装置20(の表示部170)は、このように生成された動画700を演者に提示すべく表示することができる。 Returning to FIG. 5, in ST504, the terminal device 20 (image generation unit 160) generates an animation of a virtual character using data (measurement data) regarding the performer's body, as described in relation to ST402. Videos can be generated. An example of the generated video is shown in FIG. 7A. The video 700 may include a virtual character (sometimes referred to as an "avatar") 702 of a performer. A virtual character 702 that may be included in the moving image 700 may be placed in a virtual space made of CG or the like, or may be placed in a real space. In ST504, the virtual character 702 can change to follow the performer's body movements. For example, in response to the performer facing the terminal device 20 blinking, the virtual character 702 included in the video 700 also blinks. Furthermore, the terminal device 20 (the display unit 170) can display the video 700 generated in this way to present it to the performer.

図5に戻り、同じくST504において、端末装置20(の通信部190)は、このような動画700をサーバ装置30に送信することができる。これにより、サーバ装置30に接続された他の視聴ユーザの端末装置20(の表示部170)もまた、この動画700を表示部に表示することができる。 Returning to FIG. 5, also in ST504, (the communication unit 190 of) the terminal device 20 can transmit such a moving image 700 to the server device 30. Thereby, the terminal devices 20 (of the display units 170) of other viewing users connected to the server device 30 can also display this video 700 on their display units.

次に、ST506において、端末装置20(の変化量取得部120)は、単位時間ごとに、複数の部位の各々の変化量を取得することができる。次に、ST508において、端末装置20(の参照値取得部130)は、ST506において取得した各部位の単位時間当たりの変化量を用いて、複数の部位の単位時間当たりの変化量に基づく参照値Rを取得することができる。ここで、参照値Rの取得の対象とされる「複数の部位」は、一実施形態では、演者の身体における予め定められた複数の部位の全体であり得る。別の実施形態では、参照値Rの取得の対象とされる「複数の部位」は、演者の身体における予め定められた複数の部位のうちの一部(例えば代表的な2以上の部位等)であり得る。 Next, in ST506, the terminal device 20 (change amount acquisition unit 120) can acquire the change amount of each of the plurality of parts for each unit time. Next, in ST508, the terminal device 20 (reference value acquisition unit 130) uses the amount of change per unit time of each part acquired in ST506 to obtain a reference value based on the amount of change per unit time of the plurality of parts. It is possible to obtain R. Here, in one embodiment, the "plurality of parts" from which the reference value R is obtained may be the entirety of a plurality of predetermined parts of the performer's body. In another embodiment, the "multiple parts" from which the reference value R is obtained is a part of a plurality of predetermined parts (for example, two or more representative parts) of the performer's body. It can be.

次に、ST510において、端末装置20(の例えば参照値取得部130)は、ST508において取得した参照値Rが閾値以下である場合には、演者が何らの特定動作を行わなかったと推定することができる。この結果、処理は上述したST504に戻る。 Next, in ST510, the terminal device 20 (for example, the reference value acquisition unit 130) can estimate that the performer did not perform any specific action if the reference value R acquired in ST508 is less than or equal to the threshold. can. As a result, the process returns to ST504 described above.

一方、ST510において、端末装置20(の例えば参照値取得部130)は、ST508において取得した参照値Rが閾値を上回っている場合には、演者が何らの特定動作を行ったと推定することができる。この結果、処理はST512に移行する。 On the other hand, in ST510, the terminal device 20 (for example, the reference value acquisition unit 130) can estimate that the performer has performed any specific action if the reference value R acquired in ST508 exceeds the threshold. . As a result, the process moves to ST512.

ST512において、端末装置20(の識別部140)は、例えば上述したST506において取得された複数の部位の単位時間当たりの変化量を用いて、これら複数の部位のうち、変化量が大きい上位M個の部位を識別することができる。ここで、Mは、自然数であり、1以上かつN以下となる範囲で任意に設定可能である。Mを大きく(又は小さく)設定することにより、後述するST516において決定される検出動作の正確性が増加(又は減少)し得る。 In ST512, the terminal device 20 (identification unit 140) uses, for example, the amount of change per unit time of the plurality of parts obtained in ST506 described above, to identify the top M parts with the largest amount of change among the plurality of parts. The parts of the body can be identified. Here, M is a natural number and can be arbitrarily set within a range of 1 or more and N or less. By setting M large (or small), the accuracy of the detection operation determined in ST516, which will be described later, may increase (or decrease).

また、一実施形態では、端末装置20(の識別部140)は、変化量が大きい上位M個の部位を、予め決められたM個の部位の中から識別することができる。これにより、端末装置20(の識別部140)は、変化量が大きい上位M個の部位を識別する際に、上記予め決められたM個の部位の各々の変化量同士を比較すればよい。したがって、端末装置20(の識別部140)は、変化量が大きい上位M個の部位を、より高速に識別することができる。 Furthermore, in one embodiment, the terminal device 20 (the identification unit 140 of the terminal device 20) can identify the top M parts with the largest amount of change from among the predetermined M parts. Thereby, the terminal device 20 (identification unit 140) only needs to compare the amount of change of each of the predetermined M portions when identifying the top M portions with the largest amount of change. Therefore, the terminal device 20 (the identification unit 140 of the terminal device 20) can more quickly identify the top M parts with the largest amount of change.

さらに、一実施形態では、端末装置20(の識別部140)は、このように識別されたM個の部位を、変化量の大きさに従った順序に並べ替える(ソートする)ことができる。 Furthermore, in one embodiment, (the identification unit 140 of) the terminal device 20 can rearrange (sort) the M parts identified in this way into an order according to the magnitude of the amount of change.

次に、ST514において、端末装置20(の決定部150)は、記憶部100に記憶されている対応情報に含まれた少なくとも1つの特定動作の中に、ST512において「識別されたM個の部位に対応付けられた特定動作」が存在するかを、判定することができる。ここで、「識別されたM個の部位に対応付けられた特定動作」は、例えば以下に示す特定動作(1)~特定動作(4)のうち少なくとも1つを含むことができる。
(1)識別されたM個の部位と完全に同一なM個の部位が対応情報において対応付けられている特定動作。
(2)識別されたM個の部位のうち変化量が大きい上位L個の部位と完全に同一なL個の部位が対応情報において対応付けられている特定動作(但し、Lは、1以上かつM以下の自然数である)。
(3)上記(1)に示した特定動作であって、さらに、当該特定動作に対して対応付けられたM個の部位のうち上位少なくとも1個の部位の変化量の大きさに従った順序が、識別されたM個の部位のうち上位少なくとも1個の部位の変化量の大きさに従った順序と一致する特定動作。なお、この特定動作(3)に対応付けられた少なくとも1個の部位の順序は、識別されたM個の部位の順序に、完全に一致する又は部分的に(近似的に)一致する、ということができる。
(4)上記(2)に示した特定動作であって、さらに、当該特定動作に対して対応付けられたL個の部位のうち上位少なくとも1個の部位の変化量の大きさに従った順序が、識別されたM個の部位のうち上位少なくとも1個の部位の変化量の大きさに従った順序と一致する特定動作。なお、この特定動作(4)に対応付けられた少なくとも1個の部位の順序は、識別されたM個の部位の順序に、完全に一致する又は部分的に(近似的に)一致する、ということができる。
Next, in ST514, terminal device 20 (determining unit 150 of It is possible to determine whether there is a "specific action associated with". Here, the "specific motions associated with the M identified parts" can include, for example, at least one of the following specific motions (1) to (4).
(1) A specific operation in which M parts that are completely the same as the identified M parts are associated in correspondence information.
(2) A specific operation in which L parts that are completely the same as the top L parts with the largest amount of change among the M parts identified are matched in the correspondence information (however, L is 1 or more and is a natural number less than or equal to M).
(3) The specific motion shown in (1) above, further in an order according to the magnitude of change in at least one top region among the M regions associated with the specific motion. is the specific motion that matches the order according to the magnitude of change of at least one top region among the M identified regions. Note that the order of at least one part associated with this specific action (3) is said to completely match or partially (approximately) match the order of the identified M parts. be able to.
(4) The specific motion shown in (2) above, further in an order according to the magnitude of change in at least one top region among the L regions associated with the specific motion. is the specific motion that matches the order according to the magnitude of change of at least one top region among the M identified regions. Note that the order of at least one part associated with this specific action (4) is said to completely match or partially (approximately) match the order of the identified M parts. be able to.

特定動作(1)~特定動作(4)について具体例を挙げて説明する。
ST512において識別された上位M個の部位が、部位1、部位3、部位2である場合を考える(M=3)。ここで、各部位の変化量は、この順序で小さくなる。すなわち、部位1は、変化量が最大の部位であり、部位2は、変化量が最小の部位である。
Specific operations (1) to (4) will be explained using specific examples.
Consider a case where the top M parts identified in ST512 are part 1, part 3, and part 2 (M=3). Here, the amount of change in each part becomes smaller in this order. That is, part 1 is the part with the largest amount of change, and part 2 is the part with the smallest amount of change.

特定動作(1)に着目する。
記憶部100に記憶された対応情報に含まれた特定動作のうち、例えば、以下の部位が以下の順序で対応付けられた特定動作は、特定動作(1)に該当し得る。
・部位1、部位3、部位2
・部位1、部位2、部位3
・部位2、部位3、部位1
・部位2、部位1、部位3
・部位3、部位1、部位2
・部位3、部位2、部位1
・部位1、部位3、部位2、部位10
・部位1、部位3、部位2、部位21等
Focus is on specific action (1).
Among the specific actions included in the correspondence information stored in the storage unit 100, for example, a specific action in which the following parts are associated in the following order may correspond to the specific action (1).
Part 1, Part 3, Part 2
Part 1, Part 2, Part 3
・Part 2, Part 3, Part 1
・Part 2, Part 1, Part 3
・Part 3, Part 1, Part 2
・Part 3, Part 2, Part 1
Part 1, Part 3, Part 2, Part 10
Part 1, part 3, part 2, part 21, etc.

特定動作(2)に着目する。
記憶部100に記憶された対応情報に含まれた特定動作のうち、例えば、以下の部位が以下の順序で対応付けられた特定動作は、特定動作(2)に該当し得る。
・部位1、部位3、部位2(L=3)
・部位1、部位3、部位2、部位12(L=3)
・部位3、部位2、部位1、部位18(L=3)
・部位3、部位16、部位1、部位2(L=3)
・部位2、部位1、部位3(L=3)
・部位2、部位34、部位1、部位18、部位3(L=3)
・部位89、部位3、部位2(L=3)
・部位1、部位3、部位8(L=2)
・部位1、部位3、部位8、部位12(L=2)
・部位1、部位55、部位24、部位3(L=2)
・部位22、部位1、部位9、部位3(L=2)
・部位1、部位9、部位12(L=1)
・部位1、部位8、部位14、部位22(L=1)
・部位15、部位25、部位1(L=1)等
Let's focus on specific action (2).
Among the specific actions included in the correspondence information stored in the storage unit 100, for example, a specific action in which the following parts are associated in the following order may correspond to the specific action (2).
Part 1, part 3, part 2 (L=3)
Part 1, part 3, part 2, part 12 (L=3)
・Part 3, Part 2, Part 1, Part 18 (L=3)
・Part 3, Part 16, Part 1, Part 2 (L=3)
・Part 2, part 1, part 3 (L=3)
・Part 2, part 34, part 1, part 18, part 3 (L=3)
・Part 89, part 3, part 2 (L=3)
Part 1, part 3, part 8 (L=2)
Part 1, part 3, part 8, part 12 (L=2)
Part 1, part 55, part 24, part 3 (L=2)
Part 22, part 1, part 9, part 3 (L=2)
Part 1, part 9, part 12 (L=1)
Part 1, part 8, part 14, part 22 (L=1)
・Part 15, part 25, part 1 (L=1), etc.

特定動作(3)に着目する。
記憶部100に記憶された対応情報に含まれた特定動作のうち、例えば、以下の部位が以下の順序で対応付けられた特定動作は、特定動作(3)に該当し得る。
・部位1、部位3、部位2
・部位1、部位3、部位2、部位6
・部位1、部位3、部位10、部位2
・部位1、部位2、部位3
・部位1、部位15、部位11、部位3、部位2等
Let's focus on specific action (3).
Among the specific actions included in the correspondence information stored in the storage unit 100, for example, a specific action in which the following parts are associated in the following order may correspond to the specific action (3).
Part 1, Part 3, Part 2
Part 1, Part 3, Part 2, Part 6
Part 1, Part 3, Part 10, Part 2
Part 1, Part 2, Part 3
Part 1, Part 15, Part 11, Part 3, Part 2, etc.

特定動作(4)に着目する。
記憶部100に記憶された対応情報に含まれた特定動作のうち、例えば、以下の部位が以下の順序で対応付けられた特定動作は、特定動作(4)に該当し得る。
・部位1、部位3、部位2(L=3)
・部位1、部位3、部位2、部位12(L=3)
・部位1、部位3、部位8(L=2)
・部位1、部位3、部位8、部位12(L=2)
・部位1、部位55、部位24、部位3(L=2)
・部位22、部位1、部位9、部位3(L=2)
・部位1、部位9、部位12(L=1)
・部位1、部位8、部位14、部位22(L=1)
・部位15、部位25、部位1(L=1)等
Let's focus on specific action (4).
Among the specific actions included in the correspondence information stored in the storage unit 100, for example, a specific action in which the following parts are associated in the following order may correspond to the specific action (4).
Part 1, part 3, part 2 (L=3)
Part 1, part 3, part 2, part 12 (L=3)
Part 1, part 3, part 8 (L=2)
Part 1, part 3, part 8, part 12 (L=2)
Part 1, part 55, part 24, part 3 (L=2)
Part 22, part 1, part 9, part 3 (L=2)
Part 1, part 9, part 12 (L=1)
Part 1, part 8, part 14, part 22 (L=1)
・Part 15, part 25, part 1 (L=1), etc.

ST514において、端末装置20(の決定部150)が、上述したような「識別されたM個の部位に対応付けられた特定動作」が存在しないと判定した場合には、処理は上述したST504に戻る。なお、この場合、別の実施形態では、端末装置20は、M個の部位を(M+α)個の部位に増加させて、再度ST512及びST514を順次実行することができる。ここで、αは1以上の自然数である。 In ST514, if the terminal device 20 (determining unit 150) determines that there is no "specific action associated with the M identified parts" as described above, the process returns to ST504 described above. return. In this case, in another embodiment, the terminal device 20 can increase the number of M parts to (M+α) parts and sequentially execute ST512 and ST514 again. Here, α is a natural number of 1 or more.

一方、ST514において、端末装置20(の決定部150)が、上述したような「識別されたM個の部位に対応付けられた特定動作」又は「識別された(M+α)個の部位に対応付けられた特定動作」が存在すると判定した場合には、処理はST516に移行する。ST516において、端末装置20(の決定部150)は、このような「識別されたM個の部位に対応付けられた特定動作」又は「識別された(M+α)個の部位に対応付けられた特定動作」を、演者が行った特定動作(検出動作)として決定することができる。なお、端末装置20(の決定部150)は、このような「識別されたM個の部位に対応付けられた特定動作」又は「識別された(M+α)個の部位に対応付けられた特定動作」が対応情報の中に複数含まれている場合には、これら複数の特定動作のうち最適な特定動作を検出動作として決定することができる。最適な特定動作とは、例えば、これら複数の特定動作のうち、ST512において識別されたM個の部位が最も近似した順序で対応付けられた特定動作であり得る。 On the other hand, in ST514, the terminal device 20 (the determining unit 150 of the If it is determined that there is a specified specific action, the process moves to ST516. In ST516, the terminal device 20 (determining section 150 of "motion" can be determined as a specific motion (detected motion) performed by the performer. Note that the terminal device 20 (determining unit 150 of the terminal device 20) determines such "specific actions associated with the M identified parts" or "specific actions associated with the (M+α) identified parts." ” is included in the correspondence information, the optimal specific motion among the plurality of specific motions can be determined as the detection motion. The optimal specific motion may be, for example, a specific motion in which the M parts identified in ST512 are most closely matched among the plurality of specific motions.

次に、ST518において、端末装置20(の画像生成部160)は、ST516において決定された検出動作に基づいて動作する仮想的なキャラクターのアニメーションを含む動画を生成することができる。ST516において決定された検出動作が、例えば、図6に例示された「怒り顔」である場合には、端末装置20(の画像生成部160)は、図7Bに示すように、仮想的なキャラクター702の表情を怒った表情に変化させた動画700を生成することができる。また、ST516において決定された検出動作が、例えば、図6に例示された「バツ目」である場合には、端末装置20(の画像生成部160)は、図7Cに示すように、仮想的なキャラクター702の表情を、バツ目といわれる表情(両目が記号により表現され口が矩形により表現される表情)に変化させた動画700を生成することができる。さらに、端末装置20(の表示部170)は、このように生成された動画700を演者に提示すべく表示することができる。 Next, in ST518, the terminal device 20 (image generation unit 160) can generate a video including an animation of a virtual character that moves based on the detected motion determined in ST516. If the detection action determined in ST516 is, for example, the "angry face" illustrated in FIG. It is possible to generate a video 700 in which the facial expression of 702 is changed to an angry facial expression. Furthermore, if the detection operation determined in ST516 is, for example, "cross-out" as illustrated in FIG. It is possible to generate a moving image 700 in which the facial expression of a character 702 is changed to a so-called cross-eyed expression (an expression in which both eyes are represented by symbols and the mouth is represented by a rectangle). Furthermore, the terminal device 20 (the display unit 170) can display the video 700 generated in this way to present it to the performer.

同じくST518において、端末装置20(の通信部190)は、このように生成された動画700をサーバ装置30に送信することができる。これにより、サーバ装置30に接続された他の視聴ユーザの端末装置20(の表示部170)もまた、この動画700を表示部に表示することができる。 Similarly, in ST518, (the communication unit 190 of) the terminal device 20 can transmit the video 700 generated in this way to the server device 30. Thereby, the terminal devices 20 (of the display units 170) of other viewing users connected to the server device 30 can also display this video 700 on their display units.

この後、一実施形態では、処理は上述したST504に戻ることができる。
別の実施形態では、処理は、図5で例示されるように上述したST502に戻ることもできる。ST502では、端末装置20は、記憶部100に記憶されている対応情報を更新することができる。
After this, in one embodiment, the process can return to ST504 described above.
In another embodiment, the process may return to ST502 described above as illustrated in FIG. 5. In ST502, the terminal device 20 can update the correspondence information stored in the storage section 100.

例えば、ST516において決定された検出動作に基づいて生成された動画700が、ST518において端末装置20(の表示部170)により表示されたときに、この動画700をモニターする演者等はその検出動作(決定された特定動作)が適切ではないと感じることがあり得る。この場合、演者等は、端末装置20(のユーザインタフェイス部180)を介して、本来演者等が意図していた特定動作を指定することができる。 For example, when the video 700 generated based on the detection motion determined in ST516 is displayed on (the display unit 170 of) the terminal device 20 in ST518, the performer or the like who monitors this video 700 may You may feel that the specific action (determined) is not appropriate. In this case, the performer or the like can specify the specific action originally intended by the performer or the like via (the user interface section 180 of) the terminal device 20.

このような指定が演者等により行われた場合には、端末装置20(の画像生成部160及び表示部170)は、検出動作に基づいて動画700を生成することを中止することができる。さらに、端末装置20は、上述したST504におけると同様に、演者の身体に関するデータ(測定データ)に基づいて動画700を生成して表示することができる。このように演者等の意図が反映された動画700がサーバ装置30等に送信され得る。 When such a designation is made by a performer or the like, the terminal device 20 (the image generation unit 160 and the display unit 170) can stop generating the moving image 700 based on the detection operation. Further, the terminal device 20 can generate and display the moving image 700 based on the data (measured data) regarding the performer's body, as in ST504 described above. In this way, the moving image 700 that reflects the intentions of the performer or the like can be transmitted to the server device 30 or the like.

さらにまた、このような指定が演者等により行われた場合には、かかる指定に関する情報に基づいて、端末装置20は、記憶部100に記憶されている対応情報を更新することができる。
例えば、検出動作が図6に例示した「バツ目」であったにも関わらず、演者等が適切な特定動作として図6に例示した「怒り顔」を指定した場合を考える。この場合には、端末装置20は、「怒り顔」という特定動作に対して、第1の部位~第6の部位に対して、それぞれ、「右目の右端部」、「左目の左端部」、「右眉毛の右端部」、「左眉毛の左端部」、「右眉毛の左端部」及び「左眉毛の右端部」を対応付けるように、図6に例示した対応情報を更新することができる。或いはまた、端末装置20は、「怒り顔」という特定動作に対して、ST512において識別された上位M個の部位それ自体を、又は、ST512において識別された上位M個の部位のうちの少なくとも一部の部位を、対応付けるように、図6に例示した対応情報を更新することもできる。
Furthermore, when such a designation is made by a performer or the like, the terminal device 20 can update the correspondence information stored in the storage unit 100 based on information regarding the designation.
For example, consider a case where the performer or the like specifies "angry face" as shown in FIG. 6 as an appropriate specific action even though the detected action is "crossed out" as shown in FIG. In this case, the terminal device 20 selects "right end of right eye", "left end of left eye", "right end of right eye", "left end of left eye", and The correspondence information illustrated in FIG. 6 can be updated so that "right end of right eyebrow", "left end of left eyebrow", "left end of right eyebrow", and "right end of left eyebrow" are associated. Alternatively, the terminal device 20 may select the top M parts themselves identified in ST512 or at least one of the top M parts identified in ST512 for the specific action of "angry face". It is also possible to update the correspondence information illustrated in FIG. 6 so that the parts of the parts are associated with each other.

なお、ST512~ST514に示した動作を常に又は頻繁に実行することは、端末装置20の消費電力の増加、端末装置20のバッテリーの消耗、及び/又は、端末装置20の処理速度の低下等に繋がる可能性がある。そこで、このような可能性を少なくとも部分的に抑えるために、図5に示した例では、複数の部位の変化量に基づく参照値Rが閾値を上回った場合に、演者により何らかの特定動作が行われた可能性があるとの推定に基づいて、端末装置20は、ST512~ST514に示した動作を実行している。別言すれば、図5に示した例では、複数の部位の変化量に基づく参照値Rが閾値以下である場合には、演者により何らの特定動作も行われていない可能性があるとの推定に基づいて、端末装置20は、ST512~ST514に示した動作を回避している。 Note that constantly or frequently performing the operations shown in ST512 to ST514 may increase the power consumption of the terminal device 20, drain the battery of the terminal device 20, and/or reduce the processing speed of the terminal device 20. There is a possibility that it will be connected. Therefore, in order to at least partially suppress such a possibility, in the example shown in FIG. The terminal device 20 executes the operations shown in ST512 to ST514 based on the estimation that there is a possibility that the terminal device 20 has received a message. In other words, in the example shown in FIG. 5, if the reference value R based on the amount of change in multiple parts is below the threshold value, there is a possibility that the performer has not performed any specific movement. Based on the estimation, the terminal device 20 avoids the operations shown in ST512 to ST514.

なお、別の実施形態では、端末装置20は、ST512~ST514に示した動作を常に又は頻繁に実行することも可能である。この場合には、ST508及びST510に示した動作が省略され得る。 Note that in another embodiment, the terminal device 20 may always or frequently perform the operations shown in ST512 to ST514. In this case, the operations shown in ST508 and ST510 may be omitted.

さらに、図5に示した例では、ST512において用いられる複数の部位の単位時間当たりの変化量は、ST506において取得された複数の部位の単位時間当たりの変化量である場合について説明した。しかし、ST512において用いられる複数の部位の単位時間当たりの変化量は、以下に例示する変化量のうちの少なくとも1つの変化量の総和であってもよい。
・ST506において取得された複数の部位の単位時間当たりの変化量(以下便宜上この単位時間を「基準単位時間」という。)
・基準単位時間の後に生じた少なくとも1つの単位時間に得られた複数の部位の変化量
・基準単位時間の前に生じた少なくとも1つの単位時間に得られた複数の部位の変化量
Furthermore, in the example shown in FIG. 5, a case has been described in which the amount of change per unit time of the plurality of parts used in ST512 is the amount of change per unit time of the plurality of parts obtained in ST506. However, the amount of change per unit time of the plurality of parts used in ST512 may be the sum of the amounts of change of at least one of the amounts of change illustrated below.
・Amount of change per unit time of multiple body parts acquired in ST506 (hereinafter, for convenience, this unit time will be referred to as "reference unit time")
・Amount of change in multiple parts obtained in at least one unit time that occurred after the reference unit time ・Amount of change in multiple parts obtained in at least one unit time that occurred before the reference unit time

6.対応情報の更新方法
次に、端末装置20等により記憶される対応情報の更新方法の具体例について説明する。
端末装置20等により記憶される対応情報は、例えば、以下の3つのタイミングにおいて更新され得る。
(1)初期利用時
(2)毎日の初回利用時
(3)外れ値の発生時
6. Method for updating correspondence information Next, a specific example of a method for updating correspondence information stored in the terminal device 20 and the like will be described.
The correspondence information stored by the terminal device 20 and the like can be updated, for example, at the following three timings.
(1) At the time of initial use (2) At the time of first use every day (3) When an outlier occurs

まず、上記(1)「初期利用時」について説明する。 演者Aは、通信システム1により提供されるサービスを利用する際には、通信システム1により予め用意された対応情報(例えば他の演者により更新された対応情報)を使用することも可能である。しかし、演者Aの端末装置20は、他の演者により更新された対応情報を利用した場合には、演者Aの意図しない動作(表情)を検出動作として決定する可能性がある。したがって、端末装置20は、演者(ユーザ)ごとに、対応情報をカスタマイズすることが重要である。このようにカスタマイズを行う理由は、同一の表情をしようとしても、演者によって、それぞれ、顔の撮影状態、顔における変化量の大きい部位、及び、これらの部位の変化量の大きさに基づく順位が異なるからである。 First, the above (1) "initial use" will be explained. When using the service provided by the communication system 1, the performer A can also use correspondence information prepared in advance by the communication system 1 (for example, correspondence information updated by another performer). However, when the terminal device 20 of performer A uses correspondence information updated by another performer, there is a possibility that performer A's unintended motion (facial expression) may be determined as a detected motion. Therefore, it is important for the terminal device 20 to customize correspondence information for each performer (user). The reason why customization is performed in this way is that even if performers try to make the same facial expressions, each performer has a different ranking based on the state of the face, the parts of the face that change the most, and the magnitude of the changes in these parts. This is because they are different.

例えば、演者Aが「右ウインク」の表情を作るとき、演者Aの変化量が大きい上位複数個(例えば3個)の部位は、変化量の大きい順に、例えば、(i)右眉、(ii)右目の上瞼、(iii)右目の下瞼、となり得る。ところが、演者Bが同一の「右ウインク」の表情を作るとき、演者Bの変化量が大きい上位複数個(例えば3個)の部位は、変化量の大きい順に、例えば、(i)右目の上瞼、(ii)右眉、(iii)右目の下瞼と、なり得る。この場合、演者Aの端末装置20は、演者Bの端末装置20により更新された対応情報をそのまま用いると、演者Aが右ウインクをしても、右ウインクを検出動作として決定できない可能性が高い。 For example, when performer A makes a "right wink" facial expression, performer A's top multiple (for example, 3) parts with the largest amount of change are arranged in descending order of the amount of change, such as (i) right eyebrow, (ii) ) upper eyelid of the right eye; (iii) lower eyelid of the right eye. However, when performer B makes the same "right wink" facial expression, performer B's top multiple (for example, 3) parts with the largest amount of change are ranked in descending order of the amount of change, such as (i) above the right eye; It can be the eyelid, (ii) the right eyebrow, and (iii) the lower eyelid of the right eye. In this case, if performer A's terminal device 20 uses the correspondence information updated by performer B's terminal device 20 as is, there is a high possibility that performer A's right wink cannot be determined as a detection motion even if performer A winks to the right. .

そこで、各演者は、通信システム1により提供されるサービスを初めて利用する際に、アバターオブジェクトに反映される特定動作(特殊表情等)ごとに、端末装置20を用いて、自身の表情を登録することができる(これがターゲットに対する教師情報になる)。具体的には、例えば、端末装置20は、例えば主要な特定動作(特殊表情等)ごとに、その特定動作に関する指示を表示し、演者は、その指示に従ってその特定動作を演ずることができる。これにより、端末装置20は、各特定動作と、その特定動作に対応する変化量の大きい上位少なくとも1個の部位と、を対応付けた対応情報を生成(更新)することができる。この対応情報は、図5におけるST514において上述したように用いられ得る。さらには、端末装置20は、上記指示に従って演者が作った表情(質問情報)、及び、特定動作(解答情報)を、教師情報として利用して、その演者に対応する学習モデルを生成することができる。かかる学習モデルは、例えば、演者の表情を入力したときに、特定動作を出力するように動作することができる。 Therefore, when using the service provided by the communication system 1 for the first time, each performer uses the terminal device 20 to register his or her facial expressions for each specific action (such as a special facial expression) reflected in the avatar object. (This becomes the teacher information for the target). Specifically, for example, the terminal device 20 displays instructions regarding each major specific motion (such as a special facial expression), and the performer can perform the specific motion according to the instructions. Thereby, the terminal device 20 can generate (update) correspondence information that associates each specific motion with at least one region having a large change amount corresponding to the specific motion. This correspondence information can be used as described above in ST514 in FIG. Furthermore, the terminal device 20 can generate a learning model corresponding to the performer by using the facial expressions (question information) and specific actions (answer information) made by the performer in accordance with the above instructions as teacher information. can. For example, such a learning model can operate so as to output a specific action when a performer's facial expression is input.

次に、上記(2)「毎日の初回利用時」について説明する。
同一の演者が、同一の特定動作を行っているつもりであっても、端末装置20により検出される、身体(顔等)における変化量の大きい部位、及び、これらの部位の変化量の大きさに基づく順位は、日によって相違し得る可能性がある。これは、演者の髪型、疲労、撮影環境、及び、カメラと身体(顔等)との位置関係を含む様々な要因に起因し得る。
そこで、各演者は、毎日、最初に利用するとき(例えば毎朝)、アバターオブジェクトに反映される特定動作(特殊表情等)ごとに、端末装置20を用いて、自身の表情を登録することができる(これが上記(1)の場合と同様にターゲットに対する教師情報になる)。
Next, the above (2) "daily first use" will be explained.
Even if the same performer intends to perform the same specific action, the parts of the body (face, etc.) that have a large amount of change detected by the terminal device 20 and the magnitude of the amount of change in these parts The ranking based on the ranking may vary from day to day. This can be caused by various factors including the performer's hairstyle, fatigue, shooting environment, and the positional relationship between the camera and the body (face, etc.).
Therefore, each performer can use the terminal device 20 to register his or her facial expressions for each specific action (special facial expression, etc.) reflected in the avatar object when using the device for the first time each day (for example, every morning). (This becomes the teacher information for the target as in the case (1) above).

端末装置20は、一実施形態では、上記(1)で行われるものと同様の学習を行うことができる。また、端末装置20は、より好ましい実施形態では、単に、演者が作った表情と出力すべき特定動作(特殊表情等)とを対応付けて学習を行うだけでなく、以下の要素を教師情報(質問情報及び解答情報)として用いて学習を行うことができる。
(i)演者が作った表情(質問情報)
(ii)演者の髪型(質問情報)
(iii)演者の疲労度(質問情報)
なお、この疲労度は、例えば、顔のパーツの変化量から判定してもよい(注目すべき部位は変わらないが、最大最小のレンジが狭くなる。すなわち、疲労度が大きい程、注目すべき部位の変化量の最大値と最小値との間の差が小さくなり得る一方、疲労度が小さい程、注目すべき部位の変化量の最大値と最小値との間の差が大きくなり得る)
(iv)撮影環境、例えば、カメラと身体(顔等)との位置関係等(質問情報)
(v)シチュエーション及び/又は目的
シチュエーションや目的によって、演者が、「今回は、この顔は使わない」と判断して、当該特定動作を判定対象から外すことができる。これにより、キャラクタの設計上、演者が使用したくない表情も明らかになる。なお、シチュエーションや目的とは、例えば、どのような仮想空間(カラオケ、ステージ、ライブ会場等)であるかを意味し得る。
(vi)特定動作(解答情報)
In one embodiment, the terminal device 20 can perform the same learning as that performed in (1) above. Furthermore, in a more preferred embodiment, the terminal device 20 not only learns by simply associating the facial expressions made by the performer with specific movements to be output (special facial expressions, etc.), but also learns the following elements from teacher information ( (question information and answer information) can be used for learning.
(i) Facial expressions made by the performer (question information)
(ii) Performer's hairstyle (question information)
(iii) Performer's fatigue level (question information)
Note that this degree of fatigue may be determined, for example, from the amount of change in the parts of the face (the parts to be noted do not change, but the maximum and minimum range becomes narrower. In other words, the greater the degree of fatigue (While the difference between the maximum and minimum changes in a region may become smaller, the smaller the degree of fatigue, the larger the difference between the maximum and minimum changes in a region of interest.)
(iv) Shooting environment, such as the positional relationship between the camera and the body (face, etc.) (question information)
(v) Situation and/or Purpose Depending on the situation or purpose, the performer may decide that ``I will not use this face this time'' and exclude the specific action from being judged. This also reveals facial expressions that the performer does not want to use due to the design of the character. Note that the situation and purpose may mean, for example, what kind of virtual space (karaoke, stage, live venue, etc.) it is.
(vi) Specific movement (answer information)

したがって、演者が当該サービスを使い続けているうちに、演者に対するターゲットへの判定は収束していく。すなわち、演者は、当該サービスを使い続けていくうちに、演者が意図した特定動作がアバターオブジェクトに反映され易くなっていく。 Therefore, as the performer continues to use the service, the determination of the performer as a target converges. That is, as the performer continues to use the service, the specific action intended by the performer becomes more likely to be reflected in the avatar object.

なお、上記(2)の学習は、意図しない特定動作(特殊表情等)がアバターオブジェクトにより発動されたときに、演者による端末装置20に対する操作によって実行されてもよい。例えば、端末装置20が、演者が意図しない特殊表情Aをアバターオブジェクトに発動させたときに、演者は、本来発動させたかった特殊表情Bをアバターオブジェクトに発動させるよう、端末装置20に対する操作により優先順位を明確に設定してもよい。この場合、端末装置20は、特殊表情Aと特殊表情Bとが近い判定にあるが、優先して特殊表情Bを判定させるための学習情報を保管することができる(この更新に関する処理は、PCのキーボードの文字変換が、使われ続けていくうちにカスタマイズされるものと同様の処理である。よって、ここではその詳細な処理に関する説明は省略される)。なお、対応情報の生成(更新)は、毎日の初回利用時に実行されることに限定されず、例えば、端末20での動画配信用アプリケーションの利用時間の間隔が一定時間以上空いたと判定されたときに実行されてもよい。 Note that the above learning (2) may be performed by the performer's operation on the terminal device 20 when an unintended specific action (such as a special facial expression) is performed by the avatar object. For example, when the terminal device 20 causes the avatar object to perform a special facial expression A that the performer did not intend, the performer may give priority to the avatar object by operating the terminal device 20 so that the avatar object activates the special facial expression B that the performer originally wanted to activate. The ranking may be clearly set. In this case, the terminal device 20 can store learning information for determining special expression B preferentially, even though special expression A and special expression B are determined to be close. This process is similar to the character conversion of the keyboard, which is customized as it continues to be used. Therefore, a detailed explanation of the process will be omitted here.) Note that the generation (update) of the correspondence information is not limited to being executed at the time of the first use every day, but for example, when it is determined that the interval between the usage times of the video distribution application on the terminal 20 is longer than a certain period of time. may be executed.

次に、上記(3)「外れ値の発生時」について説明する。
顔における変化量の大きい上位3個の部位が、変化量の大きい順に、(i)上唇、(ii)下唇、(iii)眉、であるときに、端末装置20は、表情「あ」を作るように設定されている(演者が、「あああ」と発音しても、「あーあ」と発音しても、同一の表情「あ」がアバターオブジェクトに反映される)とする。ここで、演者が「あれ~」と発音したときに、変化量が大きい上位3個の部位が、変化量の大きい順に、(i)上唇、(iii)眉、
(ii)下唇、となり、割り当てるべき特殊表情がないと判定されたとする。
Next, the above (3) "when an outlier occurs" will be explained.
When the top three parts of the face with the largest amount of change are (i) upper lip, (ii) lower lip, and (iii) eyebrows in descending order of the amount of change, the terminal device 20 displays the expression "a". (Whether the performer pronounces ``aaa'' or ``aah'', the same facial expression ``a'' is reflected on the avatar object.) Here, when the performer pronounces "Are~", the top three parts with the largest amount of change are (i) upper lip, (iii) eyebrow,
(ii) lower lip, and it is determined that there is no special expression to be assigned.

この場合、端末装置20によるユーザインタフェイスを介した問いかけに対して、演者が、default(通常の表情)であると入力すれば、表情判定は終了する(端末装置20は、次回の閾値越えまで待機する)。一方、端末装置20によるユーザインタフェイスを介した問いかけに対して、演者が、新たな特殊表情を登録することができる。この場合、顔における変化量の大きい上位3個の部位が、変化量の大きい順に、(i)上唇、(iii)眉、(ii)下唇であるときに、端末装置20は、新たな特殊表情(あれ~)を発動可能となる。 In this case, if the performer inputs the default (normal expression) in response to a question from the terminal device 20 via the user interface, the facial expression determination ends. stand by). On the other hand, the performer can register a new special facial expression in response to a question from the terminal device 20 via the user interface. In this case, when the top three parts of the face with the largest amounts of change are (i) upper lip, (iii) eyebrows, and (ii) lower lip in descending order of the amount of change, the terminal device 20 determines the new special feature. It becomes possible to activate facial expressions (that...).

この判定は、「外れ値」としての判定として、入力値と各評価関数に対する距離関数(各要素の2乗和)で評価できる。例えば、表情Aの評価関数fA(xi)、及び、表情Bの評価関数fB(xi)があり(他にdefault表情fDefault(xi)などがある)、いずれの関数fA(),fB()からも十分遠く、かつ、fDefault()として判定除外にならなかった表情が、新規の表情として、端末装置20により演者に対して提案され得る。逆に、安定したターゲットへの判定を優先させる判断を、閾値として、演者が、例えば0~1等の範囲の数値を、ユーザインタフェイスに表示されるスライド等を操作して、設定可能である。
例えば、初期状態では、微笑fA、笑い(小)fB、及び、笑い(中)fCがターゲットとして登録されている局面を考える。端末装置20は、例えば動画の配信中に、いずれかの部位の変化量が大きく外れる現象を検出した場合に、ユーザインタフェイスを介して、新規に「新しい表情状態を登録」する旨を演者に提案することができる。これにより、演者は、「大笑い」を登録することができる。以後、端末装置20は、新しいターゲット及び評価関数fD()を判定ループに加えることができる。
This determination can be made using a distance function (sum of squares of each element) between the input value and each evaluation function as a determination as an "outlier". For example, there is an evaluation function fA(xi) for facial expression A and an evaluation function fB(xi) for facial expression B (there is also a default facial expression fDefault(xi), etc.), and from which function fA(), fB(), Facial expressions that are sufficiently far away and are not excluded from the determination as fDefault() can be proposed to the performer by the terminal device 20 as new facial expressions. On the other hand, the performer can set a threshold value that prioritizes judgment on stable targets by operating a slide or the like displayed on the user interface, for example, using a numerical value in the range of 0 to 1. .
For example, consider a situation in which smile fA, smile (small) fB, and smile (medium) fC are registered as targets in the initial state. For example, when the terminal device 20 detects a phenomenon in which the amount of change in any part deviates significantly during video distribution, the terminal device 20 instructs the performer to newly "register a new facial expression state" via the user interface. I can make suggestions. This allows the performer to register "loud laughter". Thereafter, the terminal device 20 can add a new target and evaluation function fD() to the determination loop.

演者が上記(1)~上記(3)を実装した端末装置20を使い続けているうちに、この端末装置20による特定動作(特殊表情等)の発動は、個別のユーザにカスタマイズ化されて収束し得る。 As the performer continues to use the terminal device 20 that implements the above (1) to (3), the activation of specific actions (such as special facial expressions) by the terminal device 20 will be customized to each individual user and will converge. It is possible.

アルゴリズム(評価関数及びデータテーブル)の更新は、基本的には、演者の操作に基づいて端末装置20が再帰的に評価関数及びデータテーブル(対応情報)を保存していくことで収束する。新規の判定関数は、演者が当該サービスを利用することによって登録が可能である。これは、開発者側が新規にアルゴリズムを記述する必要がないため、「自律的に学習する」と呼ぶことができるが、演者から提供される教師情報に基づいている。この評価関数及びデータセットは、演者ごとの学習結果と呼ぶことができ、サイズも小さく、個人情報を含まないため、サービス運営者が収集してアルゴリズムの平均化や最適化に利用可能である。 The updating of the algorithm (evaluation function and data table) basically converges as the terminal device 20 recursively stores the evaluation function and data table (correspondence information) based on the performer's operations. A new determination function can be registered by the performer using the service. This can be called "autonomous learning" because the developer does not need to write a new algorithm, but it is based on the teacher information provided by the performer. These evaluation functions and data sets can be called learning results for each performer, are small in size, and do not include personal information, so service operators can collect them and use them for averaging and optimizing algorithms.

7.変形例
通信システム1において予め定められる少なくとも1つの特定動作には、演者により行われる第1の動作と、この第1の動作の後により長い時間をおいて演者により行われる第2の動作と、によって識別される特定動作が含まれ得る。例えば、拍手という特定動作は、両手の掌が相互に距離をおいて配置される第1の動作と、この第1の動作の後に両手の掌が相互に当接する第2の動作と、によって識別され得る。
7. At least one specific action predetermined in the modified communication system 1 includes a first action performed by the performer, a second action performed by the performer after a longer period of time after this first action, may include specific operations identified by. For example, a specific action of clapping can be identified by a first action in which the palms of both hands are placed at a distance from each other, and a second action in which the palms of both hands touch each other after this first action. can be done.

この場合には、端末装置20は、記憶部100に記憶される対応情報において、「拍手」という特定動作に対して、第1の動作について変化量が大きい上位少なくとも1つの部位と、第2の動作について変化量が大きい上位少なくとも1つの部位と、を対応付けることができる。さらに、端末装置20は、参照値Rが閾値を上回った場合に(ST510)、まず、1又はそれ以上の単位時間を含み得る第1の単位時間について、変化量が大きい上位X1個の部位を識別することができる(ST512を準用)。次に、端末装置20は、対応情報の中に、このように識別された上位X1個の部位に対応する第1の動作が存在するかを判定することができる(ST514を準用)。ここで、X1は任意の自然数である。さらに、端末装置20は、第1の単位時間の後に生し、1又はそれ以上の単位時間を含み得る第2の単位時間について、変化量が大きい上位X2個の部位を識別することができる(ST512を準用)。ここで、X2もまた任意の自然数である。次に、端末装置20は、対応情報の中に、このように識別された上位X2個の部位に対応する第2の動作が存在するかを判定することができる(ST514を準用)。対応情報の中に、上位X1個の部位に対応する第1の動作が存在し、かつ、上位X2個の部位に対応する第2の動作が存在する場合に、端末装置20は、第1の動作及び第2の動作を含む特定動作(拍手等)を検出動作として決定することができる(ST516を準用)。 In this case, in the correspondence information stored in the storage unit 100, the terminal device 20 identifies at least one region with the highest variation in the first motion and the second region with respect to the specific motion of “clap”. At least one region with a large change in motion can be associated with the region. Furthermore, when the reference value R exceeds the threshold (ST510), the terminal device 20 first selects the top can be identified (ST512 applied mutatis mutandis). Next, the terminal device 20 can determine whether there is a first action corresponding to the top X1 parts identified in this way in the correspondence information (ST514 is applied mutatis mutandis). Here, X1 is an arbitrary natural number. Furthermore, the terminal device 20 can identify the top X2 parts with the largest amount of change for the second unit time that occurs after the first unit time and may include one or more unit times ( ST512 applied mutatis mutandis). Here, X2 is also an arbitrary natural number. Next, the terminal device 20 can determine whether there is a second action corresponding to the top X2 parts identified in this way in the correspondence information (ST514 is applied mutatis mutandis). If there is a first action corresponding to the top X1 parts in the correspondence information and a second action corresponding to the top X2 parts, the terminal device 20 A specific motion (such as applause) including the motion and the second motion can be determined as the detected motion (ST516 is applied mutatis mutandis).

対応情報は、図6で示されるようなデータテーブルである代わりに、例えば、判定すべき特定動作ごとに用意された評価関数を複数含むアルゴリズムであってもよい。このアルゴリズムは、特定動作の各々と、変位量が大きい上位少なくとも一つの部位とを対応付けた情報と扱われ得る。 Instead of being a data table as shown in FIG. 6, the correspondence information may be, for example, an algorithm including a plurality of evaluation functions prepared for each specific motion to be determined. This algorithm can be treated as information that associates each specific motion with at least one top region with a large amount of displacement.

また、図4及び図5等を参照して説明した様々な実施形態では、本件出願に開示された技術が、一例として、動画の生成に適用されている。しかし、本件出願に開示された技術は、メール、メッセンジャー及びワードプロセッサ等を含む様々なアプリケーションに対して、並びに、ウェブサイト及びSNS等の様々なサービスに対して、適用可能である。この場合には、ST518では、端末装置20は、決定された検出動作に対応する絵文字及び/又は顔文字等を表示することができる。
さらに、本件出願に開示された技術は、ゲームアプリケーション及びゲームサービスにも適用可能である。この場合には、ST518では、端末装置20は、決定された検出動作に基づいてゲームオブジェクトの動作を制御することができる。
Furthermore, in the various embodiments described with reference to FIGS. 4, 5, etc., the technology disclosed in the present application is applied, as an example, to generation of a moving image. However, the technology disclosed in the present application is applicable to various applications including email, messengers, word processors, etc., and to various services such as websites and SNS. In this case, in ST518, the terminal device 20 can display a pictogram and/or emoticon corresponding to the determined detection operation.
Furthermore, the technology disclosed in this application is also applicable to game applications and game services. In this case, in ST518, the terminal device 20 can control the motion of the game object based on the determined detection motion.

さらに、図4及び図5等を参照して説明した様々な実施形態では、演者に対向する端末装置20(これに代えてサーバ装置30又はスタジオユニット40であってもよい。以降、これらを総称して「端末装置20等」という。)が、演者の身体に関するデータ(測定データ)の取得から動画の送信まで至る処理すべてを行う場合について説明した。しかし、演者に対向する端末装置20等は、演者の身体に関するデータの取得を行う必要はあるが、その後の動作は、端末装置20等以外の装置により実行され得る。 Furthermore, in the various embodiments described with reference to FIGS. 4, 5, etc., the terminal device 20 facing the performer (instead, the server device 30 or the studio unit 40 may be used. Hereinafter, these will be collectively referred to as A case has been described in which the terminal device 20 (hereinafter referred to as "terminal device 20, etc.") performs all the processing from acquiring data (measurement data) regarding the performer's body to transmitting the moving image. However, although the terminal device 20 or the like facing the performer needs to acquire data regarding the performer's body, subsequent operations may be performed by a device other than the terminal device 20 or the like.

一例では、端末装置20等が演者の身体に関するデータを取得した後、端末装置20等は、ST506、ST508、ST510、ST512、ST514及びST516のうち、少なくとも1つのステップを実行し、このステップ以外のステップは、端末装置20等に接続される1又はそれ以上の他の装置により実行され得る。例えば、演者の身体に関するデータの取得までが端末装置20等により実行され、ST506~ST518(動画の生成まで)のステップが、1又はそれ以上の他の装置により単独で又は分担して実行され得る。或いはまた、ST506までのステップが端末装置20等により実行され、ST508~ST518(動画の生成まで)のステップが、1又はそれ以上の他の装置により単独で又は分担して実行され得る。これにより、演者に対向する端末装置20等に必要とされる演算リソース及び消費電力等を抑えることができる。
いずれの場合にも、端末装置20等は、途中までのステップを実行することにより得られ、その後のステップの実行のために必要とされるデータ/情報を、1又はそれ以上の他の装置に送信する必要がある。
In one example, after the terminal device 20, etc. acquires data regarding the performer's body, the terminal device 20, etc. executes at least one step among ST506, ST508, ST510, ST512, ST514, and ST516, and performs steps other than this step. The steps may be performed by one or more other devices connected to terminal device 20 or the like. For example, the steps up to the acquisition of data regarding the performer's body may be executed by the terminal device 20, etc., and the steps ST506 to ST518 (up to generation of the video) may be executed by one or more other devices alone or in a shared manner. . Alternatively, the steps up to ST506 may be executed by the terminal device 20 or the like, and the steps ST508 to ST518 (up to the generation of the moving image) may be executed by one or more other devices alone or in a shared manner. This makes it possible to reduce the calculation resources, power consumption, etc. required for the terminal device 20 and the like facing the performer.
In either case, the terminal device 20 or the like transfers data/information obtained by performing an intermediate step and required for performing a subsequent step to one or more other devices. Need to send.

なお、上記「1又はそれ以上の他の装置」は、第1の態様~第3の態様の各々において以下の装置を含むことができる。
・サーバ装置30及び/又は視聴ユーザの端末装置20等(第1の態様及び第3の態様の場合)
・他のサーバ装置30及び/又は視聴ユーザの端末装置20等(第2の態様の場合)
ここで、上記「1又はそれ以上の他の装置」が視聴ユーザの端末装置20を含み、当該視聴ユーザの端末装置20がST518(動画の生成まで)を実行する方式は、「クライアントレンダリング」方式と称されることがある。
Note that the above-mentioned "one or more other devices" can include the following devices in each of the first to third aspects.
- Server device 30 and/or viewing user's terminal device 20, etc. (in the case of the first aspect and the third aspect)
- Other server devices 30 and/or viewing user's terminal devices 20, etc. (in the case of the second aspect)
Here, the above-mentioned "one or more other devices" includes the viewing user's terminal device 20, and the method by which the viewing user's terminal device 20 executes ST518 (up to video generation) is the "client rendering" method. It is sometimes called.

また、図4及び図5等を参照して説明した実施形態では、対応情報が、少なくとも1つの特定動作の各々と、演者の身体における複数の部位のうち変化量が大きい上位少なくとも1つの部位と、を対応付けるだけでなく、少なくとも1つの特定動作の各々と、変化量が大きい上位少なくとも1つの部位の変化量の大きさに基づく順序と、を対応付ける場合について説明した。しかし、別の実施形態では、対応情報は、少なくとも1つの特定動作の各々と、演者の身体における複数の部位のうち変化量が大きい上位少なくとも1つの部位と、を対応付ける一方、少なくとも1つの特定動作の各々と、変化量が大きい上位少なくとも1つの部位の変化量の大きさに基づく順序と、を対応付けないことも可能である。 Furthermore, in the embodiments described with reference to FIGS. 4, 5, etc., the correspondence information is associated with each of at least one specific movement and at least one of the parts of the performer's body having the largest amount of change. , but also the case where each of at least one specific motion is associated with an order based on the magnitude of the amount of change of at least one region having a large amount of change has been described. However, in another embodiment, the correspondence information associates each of the at least one specific motion with at least one region having the largest amount of change among the plurality of regions on the performer's body, while at least one of the at least one specific motion It is also possible not to associate each of them with the order based on the magnitude of the amount of change of at least one region with a large amount of change.

この場合、端末装置20は、ST512を実行する必要はない。端末装置20は、ST514において、記憶部100に記憶されている対応情報に含まれた少なくとも1つの特定動作の中に、ST512において「識別されたM個の部位に対応付けられた特定動作」(又は「識別された(M+α)個の部位に対応付けられた特定動作」)が存在するかを、判定することができる。ここで、「識別されたM個の部位に対応付けられた特定動作」は、例えば上述した特定動作(1)及び特定動作(2)のうち少なくとも一方を含むことができる。 In this case, the terminal device 20 does not need to execute ST512. In ST514, the terminal device 20 determines that "specific actions associated with the M identified body parts" ( Alternatively, it can be determined whether a "specific motion associated with (M+α) identified parts" exists. Here, the "specific motion associated with the M identified parts" can include, for example, at least one of the above-described specific motion (1) and specific motion (2).

また、上述した様々な実施形態は、矛盾の生じない限りにおいて、相互に組み合わせて用いられ得る。 Further, the various embodiments described above can be used in combination with each other unless a contradiction occurs.

以上説明したように、様々な実施形態では、演者(ユーザ)の身体に関するデータに基づいて、単位時間当たりの変化量が大きい上位少なくとも1つの部位を識別した後、この上位少なくとも1つの部位に対して予め対応付けられた特定動作を、演者により実行された特定動作として検出することができる。これにより、簡単にかつ高速に演者により実行された特定動作を検出することができるので、演算リソース及び消費電力等を抑えることができる。 As described above, in various embodiments, after identifying at least one region with the largest amount of change per unit time based on data regarding the performer's (user's) body, It is possible to detect a specific motion that is associated in advance as a specific motion performed by the performer. As a result, it is possible to easily and quickly detect a specific action performed by a performer, thereby reducing computational resources, power consumption, and the like.

さらに、演者の複数の部位の単位時間当たりの変化量に基づく参照値が閾値を上回った場合に、単位時間当たりの変化量が大きい上位少なくとも1つの部位を識別すること、及び、この上位少なくとも1つの部位に対して予め対応付けられた特定動作を検出することを実行することができる。これにより、演算リソース及び消費電力等をさらに抑えることができる。 Furthermore, when a reference value based on the amount of change per unit time of a plurality of parts of the performer exceeds a threshold value, at least one part having the largest amount of change per unit time is identified; It is possible to detect a specific motion that is previously associated with one body part. Thereby, calculation resources, power consumption, etc. can be further reduced.

したがって、様々な実施形態によれば、演者の動作に基づいた画像を新たな手法により表示することができる。 Therefore, according to various embodiments, images based on a performer's actions can be displayed in a new manner.

8.付記
第1の態様に係るコンピュータプログラムは、「少なくとも1つのプロセッサにより実行されることにより、少なくとも1つの特定動作の各々と、演者の身体における複数の部位のうち変化量が大きい上位少なくとも1つの部位と、を対応付けた情報を保持し、演者の身体に関する測定データを用いて、単位時間当たりの該演者の身体における複数の部位の変化量に基づく参照値を取得し、前記参照値が閾値を上回る事象を検出した場合に、前記測定データを用いて前記演者の身体における単位時間当たりの変化量が大きい上位少なくとも1つの部位を識別し、前記情報を用いて、前記少なくとも1つの特定動作のうち、識別された前記単位時間当たりの変化量が大きい上位少なくとも1つの部位に対応付けられたいずれか1つの特定動作を、検出動作として決定する、ように前記プロセッサを機能させる」ことができる。
第2の態様に係るコンピュータプログラムにあっては、上記第1の態様において「前記情報が、前記少なくとも1つの特定動作の各々と、演者の身体における複数の部位のうち変化量が大きい上位少なくとも1つの部位、及び、該変化量が大きい上位少なくとも1つの部位の前記変化量の大きさに基づく順序と、を対応付け、前記情報を用いて、前記少なくとも1つの特定動作のうち、識別された前記単位時間当たりの変化量が大きい上位少なくとも1つの部位、及び、前記変化量の大きさに基づく順序が一致するいずれか1つの特定動作を、検出動作として決定する、ように前記プロセッサを機能させる」構成を採用することができる。
第3の態様に係るコンピュータプログラムにあっては、上記第1の態様又は上記第2の態様において「前記測定データを用いて前記演者の身体における単位時間当たりの変化量が大きい上位少なくとも1つの部位を識別し、前記少なくとも1つの特定動作のうち、識別された前記単位時間当たりの変化量が大きい上位少なくとも1つの部位に対応付けられたいずれか1つの特定動作を、第1の検出動作として決定した後、前記少なくとも1つの特定動作のうち、識別された前記単位時間当たりの変化量が大きい上位少なくとも1つの部位に対応付けられたいずれか1つの特定動作を、第2の検出動作として決定し、前記第1の検出動作及び前記第2の検出動作に基づいて最終的な検出動作を決定する、ように前記プロセッサを機能させる」構成を採用することができる。
第4の態様に係るコンピュータプログラムにあっては、上記第1の態様から上記第3の態様のいずれかにおいて「前記複数の部位がN個の部位である場合、前記参照値が、

Figure 2024029089000004
という数式を用いて算出され、ここで、xは、前記演者の身体における複数の部位のうちの第i番目の部位の単位時間当たりの変化量である」構成を採用することができる。
第5の態様に係るコンピュータプログラムにあっては、上記第1の態様から上記第4の態様のいずれかにおいて「前記少なくとも1つの特定動作の各々は、該特定動作に対応付けられた前記変化量が大きい上位少なくとも1つの部位を用いて表現される」構成を採用することができる。
第6の態様に係るコンピュータプログラムにあっては、上記第5の態様において「前記変化量が大きい上位少なくとも1つの部位の各々は、目、眉毛、鼻、口、耳、顎、頬、首、肩、手及び胸を含む群から選択される」構成を採用することができる。
第7の態様に係るコンピュータプログラムにあっては、上記第1の態様から上記第の態様のいずれかにおいて「決定された前記検出動作に基づいて画像を生成する、ように前記プロセッサを機能させる」構成を採用することができる。
第8の態様に係るコンピュータプログラムにあっては、上記第7の態様において「前記画像が、絵文字、アバターオブジェクト、及び/又は、ゲームオブジェクトを含む」構成を採用することができる。
第9の態様に係るコンピュータプログラムは、「少なくとも1つのプロセッサにより実行されることにより、少なくとも1つの特定動作の各々と、演者の身体における複数の部位のうち変化量が大きい上位少なくとも1つの部位と、を対応付けた情報を記憶し、演者の端末装置から受信した該演者の身体に関する測定データを用いて、単位時間当たりの該演者の身体における複数の部位の変化量に基づく参照値を取得し、前記参照値が閾値を上回る事象を検出した場合に、前記測定データを用いて前記演者の身体における単位時間当たりの変化量が大きい上位少なくとも1つの部位を識別し、前記情報を用いて、前記少なくとも1つの特定動作のうち、識別された前記単位時間当たりの変化量が大きい上位少なくとも1つの部位に対応付けられたいずれか1つの特定動作を、検出動作として決定する、ように前記プロセッサを機能させる」ことができる。
第10の態様に係るコンピュータプログラムにあっては、上記第9の態様において「前記測定データを前記演者の端末装置から通信回線を介して受信する、ように前記プロセッサを機能させる」構成を採用することができる。
第11の態様に係るコンピュータプログラムにあっては、上記第1の態様から上記第10の態様のいずれかにおいて「前記少なくとも1つのプロセッサが、中央処理装置(CPU)、マイクロプロセッサ、及び/又は、グラフィックスプロセッシングユニット(GPU)を含む」構成を採用することができる。
第12の態様に係るコンピュータプログラムにあっては、上記第1の態様から上記第11の態様のいずれかにおいて「前記少なくとも1つのプロセッサが、スマートフォン、タブレット、携帯電話又はパーソナルコンピュータに搭載される」構成を採用することができる。
第13の態様に係る方法は、「コンピュータにより読み取り可能な命令を実行する少なくとも1つのプロセッサにより実行される方法であって、該プロセッサが前記命令を実行することにより、少なくとも1つの特定動作の各々と、演者の身体における複数の部位のうち変化量が大きい上位少なくとも1つの部位と、を対応付けた情報を記憶し、演者の身体に関する測定データを用いて、単位時間当たりの該演者の身体における複数の部位の変化量に基づく参照値を取得し、前記参照値が閾値を上回る事象を検出した場合に、前記測定データを用いて前記演者の身体における単位時間当たりの変化量が大きい上位少なくとも1つの部位を識別し、前記情報を用いて、前記少なくとも1つの特定動作のうち、識別された前記単位時間当たりの変化量が大きい上位少なくとも1つの部位に対応付けられたいずれか1つの特定動作を、検出動作として決定する」ことができる。
第14の態様に係る方法にあっては、上記第13の態様において「前記少なくとも1つのプロセッサが、中央処理装置(CPU)、マイクロプロセッサ、及び/又は、グラフィックスプロセッシングユニット(GPU)を含む」構成を採用することができる。
第15の態様に係る方法にあっては、上記第13の態様又は上記第14の態様において「前記少なくとも1つのプロセッサが、スマートフォン、タブレット、携帯電話、パーソナルコンピュータ、又は、サーバ装置に搭載される」構成を採用することができる。
第16の態様に係るサーバ装置は、「少なくとも1つのプロセッサを具備し、該プロセッサが、コンピュータにより読み取り可能な命令を実行することにより、少なくとも1つの特定動作の各々と、演者の身体における複数の部位のうち変化量が大きい上位少なくとも1つの部位と、を対応付けた情報を記憶し、演者の身体に関する測定データを用いて、単位時間当たりの該演者の身体における複数の部位の変化量に基づく参照値を取得し、前記参照値が閾値を上回る事象を検出した場合に、前記測定データを用いて前記演者の身体における単位時間当たりの変化量が大きい上位少なくとも1つの部位を識別し、前記情報
を用いて、前記少なくとも1つの特定動作のうち、識別された前記単位時間当たりの変化量が大きい上位少なくとも1つの部位に対応付けられたいずれか1つの特定動作を、検出動作として決定する」ことができる。
第17の態様に係るサーバ装置にあっては、上記第16の態様において「前記測定データを前記演者の端末装置から通信回線を介して受信する」構成を採用することができる。
第18の態様に係るサーバ装置にあっては、上記第16の態様又は上記第17の態様において「前記少なくとも1つのプロセッサが、中央処理装置(CPU)、マイクロプロセッサ、及び/又は、グラフィックスプロセッシングユニット(GPU)を含む」構成を採用することができる。 8. Supplementary Note The computer program according to the first aspect is ``executed by at least one processor to perform each of at least one specific motion and at least one area having the largest amount of change among a plurality of areas in the performer's body. and a reference value based on the amount of change in a plurality of parts of the performer's body per unit time is obtained using measured data regarding the performer's body, and the reference value exceeds the threshold value. If an event exceeding the above is detected, the measurement data is used to identify at least one region of the performer's body having a large amount of change per unit time, and the information is used to identify the top at least one region of the performer's body that exhibits a large amount of change per unit time. , the processor can be operated to determine, as the detected operation, any one specific operation associated with at least one of the identified regions having a large amount of change per unit time.
In the computer program according to the second aspect, in the first aspect, "the information includes each of the at least one specific motion and at least one of the top parts of the performer's body having the largest amount of change". and an order based on the magnitude of the amount of change of at least one region with the largest amount of change, and using the information, the identified part of the at least one specific motion is The processor is made to function so as to determine, as a detection operation, at least one region with a large amount of change per unit time, and any one specific operation that matches the order based on the magnitude of the amount of change. configuration can be adopted.
In the computer program according to the third aspect, in the first aspect or the second aspect, "the measurement data is used to identify at least one top region of the performer's body that has a large amount of change per unit time. and determining, as a first detected motion, any one of the at least one specific motion that is associated with the at least one region with the highest identified change amount per unit time. Then, among the at least one specific motion, any one of the identified motions associated with the at least one region with the largest change per unit time is determined as a second detected motion. , the processor is operated to determine a final detection operation based on the first detection operation and the second detection operation.
In the computer program according to the fourth aspect, in any one of the first aspect to the third aspect, "If the plurality of parts are N parts, the reference value is
Figure 2024029089000004
where x i is the amount of change per unit time of the i-th part of the plurality of parts in the performer's body.
In the computer program according to the fifth aspect, in any one of the first to fourth aspects, "Each of the at least one specific action is the amount of change associated with the specific action." It is possible to adopt a configuration in which the expression is expressed using at least one region with a large value.
In the computer program according to the sixth aspect, in the fifth aspect, "Each of the at least one region having a large amount of change is eyes, eyebrows, nose, mouth, ears, chin, cheeks, neck, "selected from the group including shoulders, hands, and chest" configurations may be employed.
In a computer program according to a seventh aspect, in any one of the first to third aspects, "the processor is caused to function to generate an image based on the determined detection operation". configuration can be adopted.
In the computer program according to the eighth aspect, it is possible to employ the configuration in the seventh aspect that "the image includes a pictogram, an avatar object, and/or a game object".
The computer program according to the ninth aspect is characterized in that the computer program is executed by at least one processor to perform each of at least one specific motion and at least one region having a large amount of change among the plurality of regions in the performer's body. , and obtains a reference value based on the amount of change in a plurality of parts of the performer's body per unit time using measurement data regarding the performer's body received from the performer's terminal device. , when an event in which the reference value exceeds a threshold is detected, using the measurement data to identify at least one top region of the performer's body with a large amount of change per unit time, and using the information to identify the The processor is configured to determine, as a detected motion, one of the at least one specific motions that is associated with at least one identified region having a large change per unit time. It is possible to “make someone do something”.
A computer program according to a tenth aspect employs a configuration in which the processor is made to function to receive the measurement data from the performer's terminal device via a communication line in the ninth aspect. be able to.
In the computer program according to the eleventh aspect, in any one of the first to tenth aspects, "the at least one processor is a central processing unit (CPU), a microprocessor, and/or A configuration including a graphics processing unit (GPU) can be adopted.
In the computer program according to the twelfth aspect, in any of the first to eleventh aspects, "the at least one processor is installed in a smartphone, a tablet, a mobile phone, or a personal computer." configuration can be adopted.
The method according to the thirteenth aspect is "a method performed by at least one processor that executes computer-readable instructions, wherein the processor executes each of the at least one specific operation. and at least one region with the largest change amount among the plurality of regions in the performer's body, and using measurement data regarding the performer's body, the performer's body per unit time is stored. When a reference value based on the amount of change in a plurality of body parts is obtained and an event in which the reference value exceeds a threshold is detected, at least one of the performers' body having the largest amount of change per unit time is determined using the measurement data. and using the information, select one of the at least one specific motion that is associated with at least one of the identified regions having the largest amount of change per unit time. , can be determined as a detection operation.
In the method according to the fourteenth aspect, in the thirteenth aspect, "the at least one processor includes a central processing unit (CPU), a microprocessor, and/or a graphics processing unit (GPU)." configuration can be adopted.
In the method according to the fifteenth aspect, in the thirteenth aspect or the fourteenth aspect, "the at least one processor is installed in a smartphone, a tablet, a mobile phone, a personal computer, or a server device. ” configuration can be adopted.
The server device according to the sixteenth aspect is provided with the following: “The server device includes at least one processor, and by executing computer-readable instructions, the server device performs each of the at least one specific operation and the plurality of operations in the performer's body. Among the parts, at least one part with the largest amount of change is stored, and using measurement data regarding the performer's body, it is based on the amount of change in the plurality of parts of the performer's body per unit time. When a reference value is obtained and an event in which the reference value exceeds a threshold is detected, the measurement data is used to identify at least one region of the performer's body having a large amount of change per unit time, and the information is of the at least one specific motion, which is associated with the at least one region with the largest identified change per unit time, as the detected motion." I can do it.
In the server device according to the seventeenth aspect, it is possible to adopt a configuration in which the measurement data is received from the performer's terminal device via a communication line in the sixteenth aspect.
In the server device according to the eighteenth aspect, in the sixteenth aspect or the seventeenth aspect, “the at least one processor is a central processing unit (CPU), a microprocessor, and/or a graphics processing unit (GPU)" can be adopted.

20(20A~20C) 端末装置
30(30A~30C) サーバ装置
40(40A及び40B) スタジオユニット
100(200) 記憶部
110(210) センサ部
120(220) 変化量取得部
130(230) 参照値取得部
140(240) 識別部
150(250) 決定部
160(260) 画像生成部
170(270) 表示部
180(280) ユーザインタフェイス部
190(290) 通信部
20 (20A to 20C) Terminal device 30 (30A to 30C) Server device 40 (40A and 40B) Studio unit 100 (200) Storage section 110 (210) Sensor section 120 (220) Change amount acquisition section 130 (230) Reference value Acquisition unit 140 (240) Identification unit 150 (250) Determination unit 160 (260) Image generation unit 170 (270) Display unit 180 (280) User interface unit 190 (290) Communication unit

Claims (1)

少なくとも1つのプロセッサにより実行されることにより、
少なくとも1つの特定動作の各々と、演者の身体における複数の部位のうち変化量が大きい上位少なくとも1つの部位と、を対応付けた情報を保持し、
演者の身体に関する測定データを用いて、単位時間当たりの該演者の身体における複数の部位の変化量に基づく参照値を取得し、
前記参照値が閾値を上回る事象を検出した場合に、
前記測定データを用いて前記演者の身体における単位時間当たりの変化量が大きい上位少なくとも1つの部位を識別し、
前記情報を用いて、前記少なくとも1つの特定動作のうち、識別された前記単位時間当たりの変化量が大きい上位少なくとも1つの部位に対応付けられたいずれか1つの特定動作を、検出動作として決定する、
ように前記プロセッサを機能させる、ことを特徴とするコンピュータプログラム。
being executed by at least one processor;
retaining information associating each of at least one specific movement with at least one region having the largest amount of change among the plurality of regions in the performer's body;
Using measurement data regarding the performer's body, obtain a reference value based on the amount of change in a plurality of parts of the performer's body per unit time,
When detecting an event in which the reference value exceeds a threshold,
using the measurement data to identify at least one region of the performer's body with a large amount of change per unit time;
Using the information, any one of the at least one specific motion that is associated with the at least one identified region having the largest amount of change per unit time is determined as a detected motion. ,
A computer program for causing the processor to function as described above.
JP2023217320A 2020-03-04 2023-12-22 Computer programs, methods and server devices Pending JP2024029089A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023217320A JP2024029089A (en) 2020-03-04 2023-12-22 Computer programs, methods and server devices

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2020036922A JP7184835B2 (en) 2020-03-04 2020-03-04 Computer program, method and server device
JP2022187290A JP7418709B2 (en) 2020-03-04 2022-11-24 Computer programs, methods and server devices
JP2023217320A JP2024029089A (en) 2020-03-04 2023-12-22 Computer programs, methods and server devices

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2022187290A Division JP7418709B2 (en) 2020-03-04 2022-11-24 Computer programs, methods and server devices

Publications (1)

Publication Number Publication Date
JP2024029089A true JP2024029089A (en) 2024-03-05

Family

ID=77668682

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2020036922A Active JP7184835B2 (en) 2020-03-04 2020-03-04 Computer program, method and server device
JP2022187290A Active JP7418709B2 (en) 2020-03-04 2022-11-24 Computer programs, methods and server devices
JP2023217320A Pending JP2024029089A (en) 2020-03-04 2023-12-22 Computer programs, methods and server devices

Family Applications Before (2)

Application Number Title Priority Date Filing Date
JP2020036922A Active JP7184835B2 (en) 2020-03-04 2020-03-04 Computer program, method and server device
JP2022187290A Active JP7418709B2 (en) 2020-03-04 2022-11-24 Computer programs, methods and server devices

Country Status (1)

Country Link
JP (3) JP7184835B2 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4291963B2 (en) * 2000-04-13 2009-07-08 富士フイルム株式会社 Image processing method
JP2013065112A (en) * 2011-09-15 2013-04-11 Omron Corp Gesture recognition device, electronic apparatus, control method of gesture recognition device, control program, and recording medium
JP6316540B2 (en) * 2012-04-13 2018-04-25 三星電子株式会社Samsung Electronics Co.,Ltd. Camera device and control method thereof
JP6460862B2 (en) * 2014-03-20 2019-01-30 国立研究開発法人産業技術総合研究所 Gesture recognition device, system and program thereof
JP6993291B2 (en) * 2018-05-17 2022-01-13 株式会社日立製作所 Computer and emotion estimation method

Also Published As

Publication number Publication date
JP7184835B2 (en) 2022-12-06
JP7418709B2 (en) 2024-01-22
JP2021140409A (en) 2021-09-16
JP2023022157A (en) 2023-02-14

Similar Documents

Publication Publication Date Title
US20220124140A1 (en) Communication assistance system, communication assistance method, and image control program
JP7408068B2 (en) Computer program, server device and method
US20210312684A1 (en) Avatar customization for optimal gaze discrimination
US11829524B2 (en) Moving content between a virtual display and an extended reality environment
CN111432267B (en) Video adjusting method and device, electronic equipment and storage medium
CN112379812A (en) Simulation 3D digital human interaction method and device, electronic equipment and storage medium
KR102148151B1 (en) Intelligent chat based on digital communication network
WO2022252866A1 (en) Interaction processing method and apparatus, terminal and medium
JP2023103335A (en) Computer program, server device, terminal device, and display method
JP2021068404A (en) Facial expression generation system for avatar and facial expression generation method for avatar
US20220300728A1 (en) True size eyewear experience in real time
JP7418709B2 (en) Computer programs, methods and server devices
US20230120037A1 (en) True size eyewear in real time
WO2002097732A1 (en) Method for producing avatar using image data and agent system with the avatar
JP2022081115A (en) Computer program, method, and server device
CN115426505B (en) Preset expression special effect triggering method based on face capture and related equipment
JP7162737B2 (en) Computer program, server device, terminal device, system and method
JP2022104554A (en) Computer program, method, and server
JP2023072110A (en) Information processing device, control program and control method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231222

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231222