JP2023103317A - Live communication system using character - Google Patents

Live communication system using character Download PDF

Info

Publication number
JP2023103317A
JP2023103317A JP2023076603A JP2023076603A JP2023103317A JP 2023103317 A JP2023103317 A JP 2023103317A JP 2023076603 A JP2023076603 A JP 2023076603A JP 2023076603 A JP2023076603 A JP 2023076603A JP 2023103317 A JP2023103317 A JP 2023103317A
Authority
JP
Japan
Prior art keywords
character
viewing
distributor
unit
terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023076603A
Other languages
Japanese (ja)
Inventor
大地 塚本
Daichi Tsukamoto
周 伊藤
Shu Ito
徹 井上
Toru Inoue
朋 坪田
Tomo TSUBOTA
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Iriam Inc
Original Assignee
Iriam Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Iriam Inc filed Critical Iriam Inc
Priority to JP2023076603A priority Critical patent/JP2023103317A/en
Publication of JP2023103317A publication Critical patent/JP2023103317A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Information Transfer Between Computers (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Telephone Function (AREA)
  • Telephonic Communication Services (AREA)

Abstract

To achieve, in particular, rich and smooth non-verbal communication in communication via characters.SOLUTION: A live communication system including a distribution terminal operated by a distributor and a viewing terminal operated by a viewer is assumed. The distribution terminal takes an image of a distributor and generates movement information indicating a characteristic of movement of the distributor. Also, the distribution terminal receives a voice message from the distributor and transmits the movement information and the voice message to the viewing terminal. The viewing terminal displays a character as a moving image, moves the character according to the movement information, and outputs the voice message in tune with the movement of the character.SELECTED DRAWING: Figure 7

Description

特許法第30条第2項適用申請有り 平成30年9月18日に、Apple Inc.のTestFlight(https://developer.apple.com/jp/testflight/)、において公開。 Patent Law Article 30, Paragraph 2 application filed On September 18, 2018, Apple Inc. at TestFlight (https://developer.apple.com/jp/testflight/).

特許法第30条第2項適用申請有り 平成30年10月4日に、https://itunes.apple.com/jp/app/iriam-%E3%82%A4%E3%83%AA%E3%82%A2%E3%83%A0/id1358057296?mt=8、において公開。 Patent Law Article 30, Paragraph 2 application filed On October 4, 2018, https://itunes. apple. com/jp/app/iriam-%E3%82%A4%E3%83%AA%E3%82%A2%E3%83%A0/id1358057296? Published at mt=8.

特許法第30条第2項適用申請有り 平成30年10月4日に、https://play.google.com/store/apps/details?id=jp.co.duo7.vr.iriam、において公開。Patent Act Article 30, Paragraph 2 application filed On October 4, 2018, https://play. google. com/store/apps/details? id=jp. co. duo7. vr. Published in iriam.

特許法第30条第2項適用申請有り 平成30年10月4日に、https://iriam.com/およびhttps://twitter.com/iriam_official、において公開。 Patent Act Article 30, Paragraph 2 application filed On October 4, 2018, https://iriam. com/ and https://twitter.com/. Published at com/iriam_official.

本発明は、通信ネットワークを介した視覚的なコミュニケーション技術、に関する。 The present invention relates to visual communication technology over communication networks.

スマートフォンの普及にともない、SNS(Social Networking Service)を介したコミュニケーションが一般化している。SNSでは、テキストだけでなく写真や動画像などさまざまなコンテンツを気軽に共有できる。SNSは、人と人との「絆(つながり)」を強く感じさせるツールである。 Communication via SNS (Social Networking Service) has become popular with the spread of smartphones. On SNS, not only text but also various contents such as photos and videos can be easily shared. SNS is a tool that makes people feel a strong bond (connection) between people.

一方、コンピュータゲームの分野においては、ユーザがキャラクタ(コンピュータ)と会話をしながらプレイするゲームも多い。ユーザは、現実には存在しないキャラクタに対して強い思い入れをもつことが多い。 On the other hand, in the field of computer games, there are many games in which the user plays while conversing with a character (computer). Users often have a strong attachment to characters that do not exist in reality.

特開2012-231281号公報JP 2012-231281 A

キャラクタは、ゲームデザイナーによってつくられた仮想的存在であり、人間のような実在感をもたない。その一方、キャラクタは、非実在感に起因する独特の魅力をもつ。本発明者らは、キャラクタ特有の魅力と人間特有の「リアルなつながり」の双方を取り込むことにより、新しいコミュニケーション方法を提案できるのではないかと考えた。 A character is a virtual entity created by a game designer and does not have a sense of reality like a human being. On the other hand, characters have a unique charm due to their unreality. The inventors of the present invention thought that it would be possible to propose a new communication method by incorporating both character-specific charm and human-specific "real connection".

具体的には、配信者(人間)と視聴者(人間)の会話を想定する。配信者は、ちょうどテレビアニメの声優のようにキャラクタの代弁者となり、キャラクタを通して視聴者と会話する。このようなコミュニケーションを想定した場合、キャラクタは、配信者の言葉だけでなく、配信者の気持ちや態度を豊かに円滑に表現できることが望ましい。 Specifically, a conversation between a distributor (human) and a viewer (human) is assumed. The distributor becomes a spokesperson for the character just like a voice actor in TV animation, and converses with viewers through the character. Assuming such communication, it is desirable that the character can express not only the words of the distributor but also the feelings and attitudes of the distributor in a rich and smooth manner.

本発明は、上記認識に基づいて完成された発明であり、その主たる目的は、キャラクタを介したコミュニケーションにおいて、特に、豊かで円滑な非言語コミュニケーションを実現するための技術、を提供することにある。 The present invention is an invention completed based on the above recognition, and its main purpose is to provide a technique for realizing rich and smooth non-verbal communication, especially in communication via characters.

本発明のある態様におけるライブ通信システムは、配信者により操作される配信端末と視聴者により操作される視聴端末を含む。
配信端末は、配信者を撮像する撮像部と、配信者の撮像画像から、配信者の動作の特徴を示す動作情報を生成する動作情報生成部と、配信者から第1メッセージを受け付ける第1メッセージ取得部と、動作情報および第1メッセージを送信する送信部と、を備える。
視聴端末は、動作情報および第1メッセージを受信する受信部と、視聴端末の画面にキャラクタを動画表示させ、動作情報に応じてキャラクタを動作させる視聴キャラクタ表示部と、キャラクタの動作に合わせて第1メッセージを出力する第1メッセージ出力部と、を備える。
A live communication system in one aspect of the present invention includes a distribution terminal operated by a distributor and a viewing terminal operated by a viewer.
The distribution terminal includes an imaging unit that captures an image of the distributor, an action information generation unit that generates action information indicating characteristics of the action of the distributor from the captured image of the distributor, a first message acquisition unit that receives a first message from the distributor, and a transmission unit that transmits the action information and the first message.
The viewing terminal includes a receiving section for receiving motion information and a first message, a viewing character display section for displaying a moving image of a character on the screen of the viewing terminal and causing the character to move according to the motion information, and a first message output section for outputting the first message in accordance with the motion of the character.

本発明のある態様における配信端末は、複数の視聴者により操作される複数の視聴端末と接続される。配信端末は、配信者を撮像する撮像部と、配信者の撮像画像から、配信者の動作の特徴を示す動作情報を生成する動作情報生成部と、配信者から第1メッセージを受け付ける第1メッセージ取得部と、動作情報および第1メッセージを送信する送信部と、複数の視聴端末から第2メッセージを受信する受信部と、第2メッセージを配信者に対して出力する第2メッセージ出力部と、を備える。
第2メッセージ出力部は、複数の視聴端末から受信した複数の第2メッセージを配信者に対して順番に表示させる。
A distribution terminal in one aspect of the present invention is connected to a plurality of viewing terminals operated by a plurality of viewers. The distribution terminal includes an imaging unit that captures an image of the distributor, an action information generation unit that generates action information indicating characteristics of the action of the distributor from the captured image of the distributor, a first message acquisition unit that receives a first message from the distributor, a transmission unit that transmits the action information and the first message, a reception unit that receives second messages from a plurality of viewing terminals, and a second message output unit that outputs the second message to the distributor.
The second message output unit sequentially displays the plurality of second messages received from the plurality of viewing terminals to the distributor.

本発明によれば、キャラクタを介した豊かなコミュニケーションを実現しやすくなる。 According to the present invention, it becomes easier to realize rich communication through characters.

ライブ通信システムのハードウェア構成図である。1 is a hardware configuration diagram of a live communication system; FIG. ライブ通信システムによる会話サービスを説明するための模式図である。FIG. 2 is a schematic diagram for explaining a conversation service by a live communication system; FIG. 配信端末およびサーバの機能ブロック図である。3 is a functional block diagram of a delivery terminal and server; FIG. 視聴端末の機能ブロック図である。3 is a functional block diagram of a viewing terminal; FIG. キャラクタ選択画面の画面図である。It is a screen figure of a character selection screen. 視聴端末に表示される視聴者会話画面の画面図である。FIG. 10 is a screen diagram of a viewer conversation screen displayed on the viewing terminal; 配信端末に表示される配信者会話画面の画面図である。FIG. 11 is a screen diagram of a distributor conversation screen displayed on the distribution terminal; 配信端末および視聴端末の双方においてキャラクタを表示させる処理のシーケンス図である。FIG. 10 is a sequence diagram of processing for displaying a character on both the delivery terminal and the viewing terminal; 配信者が体を傾けたときのキャラクタを示す画面図である。FIG. 10 is a screen diagram showing a character when the distributor leans his or her body; 配信者が表情を変化させたときのキャラクタを示す画面図である。FIG. 11 is a screen diagram showing a character when the distributor changes the facial expression; 特定表情をするときのキャラクタを示す画面図である。FIG. 11 is a screen diagram showing a character when making a specific facial expression; 手を振るときのキャラクタを示す画面図である。FIG. 11 is a screen diagram showing a character waving his hand; 視聴者が装飾アイテムを選択するときの画面図である。FIG. 10 is a screen diagram when a viewer selects a decoration item; アイテム格納部のデータ構造図である。4 is a data structure diagram of an item storage unit; FIG. キャラクタが装飾アイテムを着用したときの画面図である。FIG. 10 is a screen diagram when a character wears a decoration item; キャラクタに装飾アイテムをプレゼントし、キャラクタが装飾アイテムを着用する処理過程を示すシーケンス図である。FIG. 10 is a sequence diagram showing a process of giving a decoration item to a character and wearing the decoration item by the character.

図1は、ライブ通信システム100のハードウェア構成図である。
ライブ通信システム100においては、サーバ102に対して、複数の配信端末104a、104b・・・104m(以下、まとめて言うときや特に区別しないときには「配信端末104」と総称する)および複数の視聴端末108a、108b・・・108n(以下、まとめて言うときや特に区別しないときには「視聴端末108」と総称する)がインターネット106を介して接続される。配信端末104および視聴端末108としては、スマートフォンを想定しているが、ラップトップPCなどの汎用コンピュータであってもよい。
FIG. 1 is a hardware configuration diagram of a live communication system 100. As shown in FIG.
In the live communication system 100, a server 102 is connected to a plurality of distribution terminals 104a, 104b, . A smartphone is assumed as the distribution terminal 104 and the viewing terminal 108, but a general-purpose computer such as a laptop PC may also be used.

配信端末104を使用するユーザを「配信者」とよぶ。視聴端末108を使用するユーザを「視聴者」とよぶ。配信者がサービスの提供者となり、視聴者がサービスの享受者となる。 A user who uses the distribution terminal 104 is called a "distributor". A user using the viewing terminal 108 is called a "viewer". The distributor becomes the service provider, and the viewer becomes the service beneficiary.

図2は、ライブ通信システム100による会話サービスを説明するための模式図である。
本実施形態においては、1つの配信端末104に対して多数の視聴端末108が同時接続できる。以下、1対多通信を前提として説明する。図2は、1人の配信者110に対して、3人の視聴者112a、112b、112c(以下、まとめて言うときや特に区別しないときには「視聴者112」と総称する)がグループで会話をする状況を想定している。
FIG. 2 is a schematic diagram for explaining a conversation service provided by the live communication system 100. As shown in FIG.
In this embodiment, a large number of viewing terminals 108 can be simultaneously connected to one distribution terminal 104 . The following description assumes one-to-many communication. FIG. 2 assumes a situation in which three viewers 112a, 112b, and 112c (hereinafter collectively referred to as “viewers 112” when collectively referred to or when not distinguished) are having a group conversation with one distributor 110.

配信者110にはあらかじめキャラクタが対応づけられる。配信端末104には配信者110に対応づけられる配信キャラクタ114aが表示される。視聴端末108にも視聴キャラクタ114bが表示される。配信キャラクタ114aと視聴キャラクタ114bはまったく同じキャラクタである。以下、配信キャラクタ114aと視聴キャラクタ114bを特に区別しないときには単に「キャラクタ114」とよぶ。 A character is associated with the distributor 110 in advance. A distribution character 114 a associated with the distributor 110 is displayed on the distribution terminal 104 . A viewing character 114 b is also displayed on the viewing terminal 108 . The delivery character 114a and the viewing character 114b are exactly the same character. Hereinafter, when the delivery character 114a and the viewing character 114b are not particularly distinguished, they are simply referred to as "character 114".

配信者110が配信端末104の前でしゃべると、その音声データは視聴端末108に一斉送信される。配信端末104は配信者の口の動きを検出し、配信キャラクタ114aの口も動かす。また、これに連動して、視聴端末108は視聴キャラクタ114bの口も動かす。視聴者112には、配信者ではなく、あたかも視聴キャラクタ114bが自らの意思でしゃべっているように見える。いわば、配信者110は「声優」としてキャラクタ114の代弁者となる。以下、配信者110により入力される音声メッセージを「第1メッセージ」とよぶ。 When the distributor 110 speaks in front of the distribution terminal 104 , the voice data is broadcast to the viewing terminal 108 . The distribution terminal 104 detects the movement of the distributor's mouth, and also moves the mouth of the distribution character 114a. In conjunction with this, the viewing terminal 108 also moves the mouth of the viewing character 114b. To the viewer 112, it seems as if the viewing character 114b is speaking of his/her own will, not the distributor. In other words, the distributor 110 becomes a spokesperson for the character 114 as a "voice actor". Hereinafter, the voice message input by the distributor 110 will be referred to as "first message".

視聴者112は、テキストにて視聴端末108にメッセージ(以下、「第2メッセージ」とよぶ)を入力する。第2メッセージは、配信端末104および視聴端末108に一斉送信される。視聴者112は、視聴キャラクタ114bの話を聞きながら、第2メッセージを入力することでキャラクタ114(配信者110)と会話する。 The viewer 112 inputs a message (hereinafter referred to as a "second message") to the viewing terminal 108 in text. The second message is broadcast to distribution terminal 104 and viewing terminal 108 . The viewer 112 converses with the character 114 (distributor 110) by inputting the second message while listening to the viewing character 114b.

キャラクタ114の基本設定(キャラクタ114の容姿や表情変化の豊かさなど)と配信者110の声質や会話力によって、キャラクタ114の個性がかたちづくられる。 The individuality of the character 114 is formed by the basic settings of the character 114 (such as the appearance of the character 114 and the richness of facial expression changes) and the voice quality and conversational ability of the distributor 110 .

図3は、配信端末104およびサーバ102の機能ブロック図である。
配信端末104およびサーバ102の各構成要素は、CPU(Central Processing Unit)および各種コプロセッサなどの演算器、メモリやストレージといった記憶装置、それらを連結する有線または無線の通信線を含むハードウェアと、記憶装置に格納され、演算器に処理命令を供給するソフトウェアによって実現される。コンピュータプログラムは、デバイスドライバ、オペレーティングシステム、それらの上位層に位置する各種アプリケーションプログラム、また、これらのプログラムに共通機能を提供するライブラリによって構成されてもよい。以下に説明する各ブロックは、ハードウェア単位の構成ではなく、機能単位のブロックを示している。
視聴端末108についても同様である。
FIG. 3 is a functional block diagram of distribution terminal 104 and server 102 .
Each component of the distribution terminal 104 and the server 102 is implemented by hardware including computing units such as a CPU (Central Processing Unit) and various coprocessors, storage devices such as memory and storage, wired or wireless communication lines connecting them, and software stored in the storage device and supplying processing instructions to the computing units. A computer program may consist of a device driver, an operating system, various application programs located in their higher layers, and a library that provides common functions to these programs. Each block described below represents a functional block rather than a hardware configuration.
The same is true for the viewing terminal 108 .

(配信端末104)
配信端末104は、ユーザインタフェース処理部116、撮像部118、データ処理部120、通信部122およびデータ格納部124を含む。
通信部122は、通信処理を担当する。撮像部118は、配信者110を撮像する。ユーザインタフェース処理部116は、配信者110からの操作を受け付けるほか、画像表示や音声出力など、ユーザインタフェースに関する処理を担当する。データ格納部124はキャラクタ114の画像データを含む各種データを格納する。データ処理部120は、通信部122、ユーザインタフェース処理部116、撮像部118により取得されたデータおよびデータ格納部124に格納されているデータに基づいて各種処理を実行する。データ処理部120は、ユーザインタフェース処理部116、撮像部118、通信部122およびデータ格納部124のインタフェースとしても機能する。
(Distribution terminal 104)
Distribution terminal 104 includes user interface processing unit 116 , imaging unit 118 , data processing unit 120 , communication unit 122 and data storage unit 124 .
The communication unit 122 is in charge of communication processing. The imaging unit 118 images the distributor 110 . The user interface processing unit 116 receives operations from the distributor 110, and is in charge of user interface processing such as image display and audio output. The data storage unit 124 stores various data including image data of the character 114 . The data processing unit 120 executes various processes based on the data acquired by the communication unit 122 , the user interface processing unit 116 and the imaging unit 118 and the data stored in the data storage unit 124 . The data processing unit 120 also functions as an interface for the user interface processing unit 116 , imaging unit 118 , communication unit 122 and data storage unit 124 .

通信部122は、送信部148と受信部150を含む。 Communication unit 122 includes a transmitting unit 148 and a receiving unit 150 .

ユーザインタフェース処理部116は、配信者110からの入力を受け付ける入力部126と配信者110に各種情報を出力する出力部128を含む。
入力部126は、動作検出部130、第1メッセージ取得部132、ボタン選択部134および着用アイテム選択部136を含む。動作検出部130は、撮像部118を介して配信者110の表情や体の動きを検出する。第1メッセージ取得部132は、第1メッセージ(音声メッセージ)を取得する。ボタン選択部134は、「表情ボタン(後述)」の選択を受け付ける。着用アイテム選択部136は、キャラクタ114に着用させる「装飾アイテム(後述)」の選択を受け付ける。
User interface processing unit 116 includes an input unit 126 that receives input from distributor 110 and an output unit 128 that outputs various types of information to distributor 110 .
Input unit 126 includes motion detection unit 130 , first message acquisition unit 132 , button selection unit 134 and wearing item selection unit 136 . The motion detection unit 130 detects facial expressions and body motions of the distributor 110 via the imaging unit 118 . The first message acquisition unit 132 acquires a first message (voice message). Button selection unit 134 accepts selection of an “expression button (described later)”. Wearing item selection unit 136 receives selection of a “decorative item (described later)” to be worn by character 114 .

出力部128は、配信キャラクタ表示部138、第2メッセージ出力部140およびボタン表示部142を含む。
配信キャラクタ表示部138は配信端末104に配信キャラクタ114aを表示させる。第2メッセージ出力部140は視聴者112による第2メッセージ(テキストメッセージ)を配信端末104に表示させる。ボタン表示部142は表情ボタンを表示させる。
Output unit 128 includes distribution character display unit 138 , second message output unit 140 and button display unit 142 .
The distribution character display unit 138 causes the distribution terminal 104 to display the distribution character 114a. The second message output unit 140 causes the distribution terminal 104 to display a second message (text message) from the viewer 112 . The button display unit 142 displays facial expression buttons.

データ処理部120は、動作情報生成部144および特定表情判定部146を含む。
動作情報生成部144は、動作検出部130の検出結果から「動作情報」を生成する。動作情報とは、配信者110の表情を示す特徴ベクトル(例:眉の角度、目や口の開度を示す数値、配信者110と配信端末104との相対的な位置関係(前後左右)を示す数値など、配信者110の動作状態を示す数値データである。特定表情判定部146は、キャラクタ114にさせるべき「特定表情」を判定する。特定表情とは、キャラクタ114の顔を漫画的に表現した表情であるが詳細は後述する。
Data processing unit 120 includes motion information generating unit 144 and specific facial expression determining unit 146 .
The motion information generation unit 144 generates “motion information” from the detection result of the motion detection unit 130 . The action information is numerical data indicating the motion state of the distributor 110, such as feature vectors indicating the facial expression of the distributor 110 (eg, eyebrow angle, numerical values indicating the degree of opening of the eyes and mouth, numerical values indicating the relative positional relationship between the distributor 110 and the distribution terminal 104 (front, back, left, and right). The specific facial expression determination unit 146 determines a "specific facial expression" that the character 114 should be given. .

(サーバ102)
サーバ102は、通信部152、ライブ制御部154およびデータ格納部156を含む。
通信部152は、通信処理を担当する。データ格納部156は各種データを格納する。ライブ制御部154は、通信部152により取得されたデータおよびデータ格納部156に格納されているデータに基づいて配信端末104と視聴端末108のコミュニケーションを仲介・統括する。ライブ制御部154は、通信部152およびデータ格納部156のインタフェースとしても機能する。
(server 102)
Server 102 includes communication unit 152 , live control unit 154 and data storage unit 156 .
The communication unit 152 is in charge of communication processing. The data storage unit 156 stores various data. The live control unit 154 mediates and controls communication between the distribution terminal 104 and the viewing terminal 108 based on the data acquired by the communication unit 152 and the data stored in the data storage unit 156 . Live control unit 154 also functions as an interface for communication unit 152 and data storage unit 156 .

データ格納部156は、複数のキャラクタ114のデータを格納するキャラクタ格納部158とキャラクタ114が保有する装飾アイテムを格納するアイテム格納部160を含む。アイテム格納部160のデータ構造は図14に関連して後述する。 The data storage unit 156 includes a character storage unit 158 storing data of a plurality of characters 114 and an item storage unit 160 storing decoration items possessed by the characters 114 . The data structure of the item store 160 will be described later with reference to FIG.

図4は、視聴端末108の機能ブロック図である。
視聴端末108は、ユーザインタフェース処理部162、データ処理部166、通信部164およびデータ格納部168を含む。
通信部164は、通信処理を担当する。ユーザインタフェース処理部162は、視聴者112からの操作を受け付けるほか、画像表示や音声出力など、ユーザインタフェースに関する処理を担当する。データ格納部168はキャラクタ114の画像データを含む各種データを格納する。配信端末104と視聴端末108はどちらもキャラクタ114のデータをそれぞれ格納する。データ処理部166は、通信部164およびユーザインタフェース処理部162により取得されたデータおよびデータ格納部168に格納されているデータに基づいて各種処理を実行する。データ処理部166は、ユーザインタフェース処理部162、通信部164およびデータ格納部168のインタフェースとしても機能する。
FIG. 4 is a functional block diagram of the viewing terminal 108. As shown in FIG.
The viewing terminal 108 includes a user interface processing section 162 , a data processing section 166 , a communication section 164 and a data storage section 168 .
The communication unit 164 is in charge of communication processing. The user interface processing unit 162 receives operations from the viewer 112, and is in charge of user interface processing such as image display and audio output. A data storage unit 168 stores various data including image data of the character 114 . Both the distribution terminal 104 and the viewing terminal 108 store data of the character 114 respectively. The data processing unit 166 executes various processes based on the data acquired by the communication unit 164 and the user interface processing unit 162 and the data stored in the data storage unit 168 . Data processing unit 166 also functions as an interface for user interface processing unit 162 , communication unit 164 and data storage unit 168 .

通信部122は、送信部186と受信部190を含む。 Communication unit 122 includes a transmitting unit 186 and a receiving unit 190 .

ユーザインタフェース処理部162は、視聴者112からの入力を受け付ける入力部170と視聴者112に各種情報を出力する出力部172を含む。
入力部170は、第2メッセージ取得部174、キャラクタ選択部176および提供アイテム選択部178を含む。第2メッセージ取得部174は、第2メッセージ(テキストメッセージ)を取得する。キャラクタ選択部176は、会話対象となるキャラクタ114の選択を受け付ける。提供アイテム選択部178はキャラクタ114にプレゼントしたい装飾アイテムの選択を受け付ける。
The user interface processing unit 162 includes an input unit 170 that receives input from the viewer 112 and an output unit 172 that outputs various information to the viewer 112 .
Input unit 170 includes second message acquisition unit 174 , character selection unit 176 and provided item selection unit 178 . The second message acquisition unit 174 acquires a second message (text message). Character selection unit 176 accepts selection of character 114 to be a conversation target. The provided item selection unit 178 accepts selection of a decoration item to be presented to the character 114 .

出力部172は、視聴キャラクタ表示部180、第1メッセージ出力部182および第2メッセージ出力部184を含む。
視聴キャラクタ表示部180は、視聴端末108に視聴キャラクタ114bを表示させる。第1メッセージ出力部182は配信者110による第1メッセージを視聴端末108から音声出力する。第2メッセージ出力部184は視聴者112による第2メッセージを視聴端末108に画面表示させる。
Output unit 172 includes viewing character display unit 180 , first message output unit 182 and second message output unit 184 .
The viewing character display unit 180 causes the viewing terminal 108 to display the viewing character 114b. The first message output unit 182 outputs the first message from the distributor 110 by voice from the viewing terminal 108 . The second message output unit 184 causes the viewing terminal 108 to display the second message from the viewer 112 on the screen.

図5は、キャラクタ選択画面194の画面図である。
ライブ通信サービスの開始時において、サーバ102のライブ制御部154は、視聴端末108にキャラクタ選択画面194を表示させる。視聴者112は、視聴端末108に表示されたキャラクタ選択画面194において会話したい視聴キャラクタ114b(配信者110)を選ぶ。ライブ制御部154は、会話可能な状態(スタンバイ状態)にある配信者110に対応するキャラクタ114を会話可能なキャラクタとしてキャラクタ選択画面194に提示する。
FIG. 5 is a screen diagram of the character selection screen 194. As shown in FIG.
At the start of the live communication service, the live control unit 154 of the server 102 causes the viewing terminal 108 to display the character selection screen 194 . The viewer 112 selects the viewing character 114 b (distributor 110 ) with which he/she wishes to converse on the character selection screen 194 displayed on the viewing terminal 108 . The live control unit 154 presents the character 114 corresponding to the distributor 110 in a conversationable state (standby state) on the character selection screen 194 as a conversationable character.

キャラクタ選択画面194は、複数のキャラクタボタン192a、192b(視聴キャラクタ114b1、114b2)を表示する。キャラクタ選択部176は視聴キャラクタ114bの選択を受け付ける。
以下、視聴者112はキャラクタボタン192aを選択し、視聴キャラクタ114b1との会話を楽しむものとして説明する。
The character selection screen 194 displays a plurality of character buttons 192a, 192b (viewing characters 114b1, 114b2). The character selection unit 176 accepts selection of the viewing character 114b.
In the following description, it is assumed that the viewer 112 selects the character button 192a and enjoys conversation with the viewing character 114b1.

図6は、視聴端末108に表示される視聴者会話画面196の画面図である。
視聴端末108の視聴キャラクタ表示部180は、おしゃべりの相手として選ばれた視聴キャラクタ114b1を動画表示させる。視聴者112は、視聴キャラクタ114b1との会話を楽しむ。視聴者112からは配信者110の姿が見えることはない。視聴端末108の第1メッセージ出力部182は、視聴キャラクタ114b1を担当する配信者110からの音声(第1メッセージ)を出力する。視聴者112は、テキストにより視聴キャラクタ114b1へのメッセージ(第2メッセージ)を入力する。サーバ102は、第1メッセージおよび第2メッセージを配信端末104、視聴端末108の間で共有させる。
FIG. 6 is a screen diagram of a viewer conversation screen 196 displayed on the viewing terminal 108. As shown in FIG.
The viewing character display unit 180 of the viewing terminal 108 displays a moving image of the viewing character 114b1 selected as the chat partner. The viewer 112 enjoys conversation with the viewing character 114b1. The viewer 112 cannot see the distributor 110 . The first message output unit 182 of the viewing terminal 108 outputs the voice (first message) from the distributor 110 in charge of the viewing character 114b1. The viewer 112 inputs a message (second message) to the viewing character 114b1 by text. Server 102 shares the first message and the second message between distribution terminal 104 and viewing terminal 108 .

第2メッセージ出力部184はメッセージ領域198に第2メッセージをテキスト表示させる。1人の配信者110が複数の視聴者112と同時並行にて会話する方式であるため、サーバ102は各視聴者112の第2メッセージを配信端末104および複数の視聴者112に一斉配信する。視聴者112は、メッセージ領域198により自分の第2メッセージだけでなく他の視聴者112の第2メッセージも視認できる。第2メッセージ出力部184は第2メッセージを受信順に並べて表示させる。 The second message output unit 184 causes the message area 198 to display the second message as text. Since one distributor 110 converses with a plurality of viewers 112 simultaneously, the server 102 distributes the second message of each viewer 112 to the distribution terminal 104 and the plurality of viewers 112 all at once. Viewers 112 can view not only their own secondary messages but also the secondary messages of other viewers 112 through message area 198 . The second message output unit 184 arranges and displays the second messages in order of reception.

視聴者112は、プレゼントボタン200を選択することにより、視聴キャラクタ114b1に対して装飾アイテムをプレゼントできる(図13以降に関連して後述)。 The viewer 112 can present a decoration item to the viewing character 114b1 by selecting the present button 200 (described later in connection with FIG. 13 and subsequent figures).

図7は、配信端末104に表示される配信者会話画面206の画面図である。
図7に示す配信者会話画面206は、配信キャラクタ114a1(視聴キャラクタ114b1に対応)を担当する配信者110の配信端末104に表示される。配信キャラクタ表示部138は、配信キャラクタ114a1を動画表示させる。視聴キャラクタ114b1と配信キャラクタ114aは同一キャラクタであり、動きも同じである。配信者110は、自らの分身である配信キャラクタ114a1の動きを配信端末104にて確認しながら複数の視聴者112(視聴キャラクタ114b1を会話の相手として選んだ視聴者112)と会話する。配信者110は、配信端末104に向かって音声にて第1メッセージを入力する。送信部148は第1メッセージをサーバ102に送信し、サーバ102のライブ制御部154は第1メッセージを複数の視聴端末108に配信する。
FIG. 7 is a screen diagram of a distributor conversation screen 206 displayed on the distribution terminal 104. As shown in FIG.
The distributor conversation screen 206 shown in FIG. 7 is displayed on the distribution terminal 104 of the distributor 110 in charge of the distribution character 114a1 (corresponding to the viewing character 114b1). The delivery character display unit 138 displays the delivery character 114a1 as a moving image. The viewing character 114b1 and the delivery character 114a are the same character and have the same movement. The distributor 110 converses with a plurality of viewers 112 (the viewers 112 who have selected the viewing character 114b1 as a conversation partner) while confirming the movement of the distribution character 114a1, which is their alter ego, on the distribution terminal 104. The distributor 110 inputs the first message by voice toward the distribution terminal 104 . The transmission unit 148 transmits the first message to the server 102 , and the live control unit 154 of the server 102 distributes the first message to the plurality of viewing terminals 108 .

第2メッセージ出力部140は、視聴者112からの第2メッセージをメッセージ領域198に時系列順にて表示させる。配信者110はメッセージ領域198に次々に表示される第2メッセージをみながら不特定多数の視聴者112に話しかける。配信端末104のカメラ208(撮像部118)は、配信者110を撮像する。動作検出部130は、撮像画像から配信者110の表情および動作を検出し、動作情報生成部144は動作情報を生成する。配信キャラクタ表示部138は、動作情報に基づいて配信キャラクタ114a1の動きを決定する。また、詳細は後述するが視聴キャラクタ114b1も同じ動作情報に基づいて視聴端末108にて動画表示される。 Second message output unit 140 displays second messages from viewer 112 in message area 198 in chronological order. The distributor 110 speaks to an unspecified number of viewers 112 while watching the second messages displayed one after another in the message area 198 . Camera 208 (imaging unit 118 ) of distribution terminal 104 captures image of distributor 110 . The motion detection unit 130 detects the expression and motion of the distributor 110 from the captured image, and the motion information generation unit 144 generates motion information. The delivery character display unit 138 determines the motion of the delivery character 114a1 based on the motion information. The viewing character 114b1 is also displayed as a moving image on the viewing terminal 108 based on the same motion information, although the details will be described later.

ボタン表示部142は、複数の表情ボタン202a(大笑い)、202b(満面の笑み)、202c(不機嫌)、202d(困惑)(以下、まとめて「表情ボタン202」とよぶ)を表示させる。ボタン選択部134が表情ボタン202の選択を検出したとき、特定表情判定部146は表情ボタン202に対応する「特定表情」に選ぶ(図11に関連して後述)。また、配信者110がバイバイ領域204をタッチしたときには、キャラクタ114は手を振る動作を行う(図12に関連して後述)。 The button display unit 142 displays a plurality of expression buttons 202a (big laugh), 202b (full smile), 202c (displeased), and 202d (confused) (hereinafter collectively referred to as "expression buttons 202"). When the button selection unit 134 detects that the facial expression button 202 has been selected, the specific facial expression determination unit 146 selects the "specific facial expression" corresponding to the facial expression button 202 (described later with reference to FIG. 11). Also, when the distributor 110 touches the bye-bye area 204, the character 114 makes a wave motion (described later with reference to FIG. 12).

図8は、配信端末104および視聴端末108の双方においてキャラクタ114を表示させる処理のシーケンス図である。
配信端末104の動作検出部130は、配信者110の動作を検出する(S10)。動作情報生成部144は、動作情報を生成する(S12)。動作情報は、配信者110の表情、体の角度、配信者110の撮像部118からの遠近、バイバイ領域204へのタッチの有無、表情ボタン202の選択結果、などを示す数値データである(S12)。
FIG. 8 is a sequence diagram of processing for displaying character 114 on both distribution terminal 104 and viewing terminal 108 .
The motion detector 130 of the distribution terminal 104 detects the motion of the distributor 110 (S10). The motion information generator 144 generates motion information (S12). The action information is numerical data indicating the facial expression of the distributor 110, the angle of the body, the perspective of the distributor 110 from the imaging unit 118, whether or not the bye-bye area 204 has been touched, the selection result of the facial expression button 202, and the like (S12).

配信端末104の送信部148は、サーバ102経由にて、各視聴端末108に動作情報を送信する(S14)。配信キャラクタ表示部138は、動作情報に基づいて配信キャラクタ114a1の動画像を生成し(S16)、配信端末104に配信キャラクタ114a1を動画表示させる(S18)。 The transmission unit 148 of the distribution terminal 104 transmits the motion information to each viewing terminal 108 via the server 102 (S14). The distribution character display unit 138 generates a moving image of the distribution character 114a1 based on the action information (S16), and causes the distribution terminal 104 to display the distribution character 114a1 as a moving image (S18).

一方、視聴端末108の視聴キャラクタ表示部180も、受信された動作情報に基づいて視聴キャラクタ114b1の動画像を生成し(S20)、視聴端末108に視聴キャラクタ114b1を動画表示させる(S22)。 On the other hand, the viewing character display unit 180 of the viewing terminal 108 also generates a moving image of the viewing character 114b1 based on the received action information (S20), and causes the viewing terminal 108 to display the viewing character 114b1 as a moving image (S22).

配信キャラクタ114a1と視聴キャラクタ114b1は、同一のキャラクタであり、かつ、同一の動作情報に基づいて動きが決まるため、配信端末104および視聴端末108それぞれにおいて配信キャラクタ114a1と視聴キャラクタ114bは同じ姿にて同じ動作を行う。 Since the delivery character 114a1 and the viewing character 114b1 are the same character and their motions are determined based on the same action information, the delivery character 114a1 and the viewing character 114b perform the same actions in the same form in the delivery terminal 104 and the viewing terminal 108, respectively.

配信端末104は、キャラクタ114の動画像(キャラクタ画像)そのものを視聴端末108に送信しているのではなく、キャラクタ114の動作を定義する動作情報のみを送信している。動画像そのものを送信するよりも送信データ量が少ないため、配信キャラクタ114a1と視聴キャラクタ114b1それぞれの動きを速やかに連動させやすい。いいかえれば、動作情報が配信キャラクタ114a1の動きとして反映されるまでの時間と、同じ動作情報が視聴キャラクタ114b1の動きとして反映されるまでの時間の差分が小さいため、視聴者112はキャラクタ114(配信者110)との快適な会話を楽しむことができる。 The distribution terminal 104 does not transmit the moving image (character image) itself of the character 114 to the viewing terminal 108 , but transmits only action information defining the action of the character 114 . Since the amount of data to be transmitted is smaller than that of transmitting the moving image itself, it is easy to quickly link the movements of the distribution character 114a1 and the viewing character 114b1. In other words, the viewer 112 can enjoy comfortable conversation with the character 114 (distributor 110) because the difference between the time until the movement information is reflected as the movement of the delivery character 114a1 and the time until the same movement information is reflected as the movement of the viewing character 114b1 is small.

第1メッセージ(音声メッセージ)と動作情報は一体化して配信端末104から視聴端末108に送信されてもよい。この場合には、視聴キャラクタ表示部180は、視聴キャラクタ114b1の動作と音声メッセージがずれにくくなる。また、動画像そのものではなく、動画像を決定するための動作情報を送信することは、インターネット106に対する通信負荷を抑制する上でも有効である。 The first message (voice message) and the action information may be integrated and transmitted from the distribution terminal 104 to the viewing terminal 108 . In this case, the viewing character display unit 180 makes it difficult for the motion of the viewing character 114b1 to deviate from the voice message. Also, transmitting the motion information for determining the moving image instead of the moving image itself is effective in suppressing the communication load on the Internet 106 .

図9は、配信者110が体を傾けたときのキャラクタ114を示す画面図である。
配信者110が体を左右に傾けると、動作検出部130は体の傾斜を検出する。動作情報生成部144は、傾斜角および傾斜方向を動作情報に含める。視聴キャラクタ表示部180は、動作情報にしたがって、視聴キャラクタ114b1を傾斜させる。配信キャラクタ表示部138も、同じ動作情報にしたがって配信キャラクタ114a1を傾斜させる。このように、配信者110が体を左右に傾けると、配信側と視聴側双方のキャラクタ114は配信者110に合わせて体を傾ける。配信者110が体を前後に傾けたときにも、キャラクタ114は同様にして体を前後させる。動作検出部130は、配信者110の前傾後傾を撮像画像に映る配信者110の大きさから認識すればよい。
FIG. 9 is a screen diagram showing the character 114 when the distributor 110 leans over.
When the distributor 110 tilts his body to the left or right, the motion detection unit 130 detects the body tilt. The motion information generator 144 includes the tilt angle and the tilt direction in the motion information. The viewing character display unit 180 tilts the viewing character 114b1 according to the action information. The distribution character display unit 138 also tilts the distribution character 114a1 according to the same action information. In this way, when the distributor 110 tilts his body to the left or right, the characters 114 on both the distributor side and the viewer side tilt their bodies to match the distributor 110 . When the distributor 110 tilts his body back and forth, the character 114 similarly tilts his body back and forth. The motion detection unit 130 may recognize forward tilting and backward tilting of the distributor 110 from the size of the distributor 110 appearing in the captured image.

一般的には、体の傾斜に人間の心理が現れるといわれる。たとえば、会話に興味をもっているときに人間は前傾姿勢(聞こうという体勢)になりやすく、動揺しているときには体は左右に揺れるともいわれる。配信者110の体の動きをキャラクタ114にも反映させることにより、視聴者112はキャラクタ114(配信者110)の心理を感じ取ることができる。 Generally, it is said that human psychology appears in the inclination of the body. For example, it is said that when people are interested in conversation, they tend to lean forward (the posture of listening), and when they are upset, their bodies sway from side to side. By reflecting the body movement of the distributor 110 on the character 114, the viewer 112 can sense the psychology of the character 114 (distributor 110).

図10は、配信者110が表情を変化させたときのキャラクタ114を示す画面図である。
配信者110が表情を変化させるとき、動作検出部130は配信者110の表情、具体的には、目の大きさ、口の形、眉毛の角度、眉間のシワの深さや方向などを検出する。動作情報生成部144は、これらの検出値に基づいて表情を定義する特徴ベクトルを生成する。特徴ベクトルは動作情報の一部となる。配信者110が片目をつぶったとき(ウィンク)、視聴キャラクタ表示部180は視聴キャラクタ114b1をウィンクさせる。配信キャラクタ114a1についても同様である。
FIG. 10 is a screen diagram showing the character 114 when the distributor 110 changes the expression.
When the distributor 110 changes his facial expression, the action detection unit 130 detects the facial expression of the distributor 110, specifically, the size of the eyes, the shape of the mouth, the angle of the eyebrows, the depth and direction of wrinkles between the eyebrows, and the like. The motion information generator 144 generates feature vectors that define facial expressions based on these detection values. The feature vector becomes part of the motion information. When the distributor 110 closes one eye (wink), the viewing character display unit 180 winks the viewing character 114b1. The same applies to the distribution character 114a1.

このほかにも、舌を出す、口角を上げるなど、さまざまな表情を特徴ベクトル(動作情報)で数値表現することにより、配信者110の表情もキャラクタ114に反映させることができる。配信者110が微笑むときにはキャラクタ114も微笑む。配信者110が口をすぼめるとキャラクタ114も口をすぼめる。配信者110の表情とキャラクタ114の表情を連動させることにより、視聴者112はキャラクタ114の存在をいっそう身近に感じることができる。 In addition, the facial expression of the distributor 110 can also be reflected on the character 114 by numerically expressing various facial expressions such as sticking out the tongue and raising the corners of the mouth with feature vectors (motion information). When the broadcaster 110 smiles, the character 114 also smiles. When the broadcaster 110 purses his mouth, the character 114 also purses his mouth. By linking the facial expression of the distributor 110 and the facial expression of the character 114, the viewer 112 can feel the presence of the character 114 even closer.

なお、キャラクタ114によって、配信者110の動きに対する追従性が異なる。たとえば、視聴キャラクタ114b1は表情がゆたかなキャラクタであり、配信者110の表情のちょっとした変化も大きく反映されるとしてもよい。一方、視聴キャラクタ114b2は冷静沈着なキャラクタであり、配信者110の表情が大きく変化してもあまりその表情が変化しないとしてもよい。 Note that the followability to the movement of the distributor 110 differs depending on the character 114 . For example, viewing character 114b1 may be a character with a rich facial expression, and even a slight change in the facial expression of distributor 110 may be greatly reflected. On the other hand, the viewing character 114b2 is a calm and composed character, and even if the distributor's 110 facial expression changes greatly, the facial expression may not change much.

より具体的には、配信者110の口角が5ポイントだけ上がったとき、視聴キャラクタ114b1の口角は10ポイントだけ上がり、視聴キャラクタ114b2の口角は2ポイントしか上がらないとしてもよい。体を大きく動かしやすいアクティブなキャラクタ114がいてもよいし、舌を出すことはない淑やかなキャラクタ114がいてもよい。このように、動作情報がキャラクタ114の動きとしてどの程度まで反映されるかは、キャラクタ114によって異なる。キャラクタ114の個性は、キャラクタ114の有する基本設定と配信者110の個性(表情および会話力)によって形作られる。 More specifically, when the corner of the mouth of the broadcaster 110 increases by 5 points, the angle of the mouth of the viewing character 114b1 increases by 10 points, and the angle of the mouth of the viewing character 114b2 increases by only 2 points. There may be an active character 114 that can easily move its body, or there may be a graceful character 114 that does not stick out its tongue. As described above, the extent to which action information is reflected as the movement of the character 114 differs depending on the character 114 . The personality of the character 114 is formed by the basic settings of the character 114 and the personality of the distributor 110 (facial expression and speaking ability).

図11は、特定表情をするときのキャラクタ114を示す画面図である。
配信者110は、表情ボタン202により特定表情(漫画的に表現される表情)を選択する。図11は、視聴キャラクタ114b1がぐっと目をつぶっているときの特定表情を示している。キャラクタ114は、二次元の漫画として表現されるため、人間にはできないけれども漫画では一般的な表現とされるさまざまな特定表情を示すことができる。たとえば、キャラクタ114が怒っていることを示すときには「怒り」の漫画的表象としてキャラクタ114の頭から「煙」を出してもよいし、こめかみに「青筋」を浮き上がらせてもよいし、キャラクタ114の顔を真っ赤にしてもよいし、眉をつり上がらせてもよい。キャラクタ114の困惑を示すときには、キャラクタ114の顔を真っ青にしてもよいし、キャラクタ114の顔に「汗」を表示してもよい。このように特定表情をいわゆる「漫符」として表現してもよい。涙や大爆笑など、人間にはできない表情あるいは人間が簡単には示せない大きな表情を特定表情の画像パターンとして用意してもよい。表情ボタン202が選択されたときには、特定表情判定部146は表情ボタン202に対応する特定表情を示す表情IDを送信部148から視聴端末108に送信させる。視聴キャラクタ表示部180は、表情IDに対応して視聴キャラクタ114b1の表情を特定表情に変化させる。配信キャラクタ114a1の表情も表情IDに応じて特定表情に変化する。
FIG. 11 is a screen diagram showing the character 114 when making a specific facial expression.
The distributor 110 selects a specific facial expression (a cartoon-like facial expression) using the facial expression button 202 . FIG. 11 shows a specific facial expression when the viewing character 114b1 closes his eyes. Since the character 114 is expressed as a two-dimensional cartoon, it can show various specific facial expressions that are not possible for humans, but are commonly expressed in cartoons. For example, to indicate that the character 114 is angry, "smoke" may be emitted from the head of the character 114 as a cartoon representation of "anger", "blue streaks" may be raised on the temples, the face of the character 114 may be bright red, or the eyebrows may be raised. To indicate that the character 114 is confused, the face of the character 114 may be made completely blue, or "sweat" may be displayed on the face of the character 114 . In this way, a specific facial expression may be expressed as a so-called "comic symbol". A facial expression that is impossible for a human being, such as tears or a burst of laughter, or a large facial expression that is not easily shown by a human being may be prepared as an image pattern of a specific facial expression. When the facial expression button 202 is selected, the specific facial expression determination unit 146 causes the transmission unit 148 to transmit the facial expression ID indicating the specific facial expression corresponding to the facial expression button 202 to the viewing terminal 108 . The viewing character display unit 180 changes the facial expression of the viewing character 114b1 to a specific facial expression in correspondence with the facial expression ID. The facial expression of the distribution character 114a1 also changes to a specific facial expression according to the facial expression ID.

キャラクタ114は、人間(配信者110)にはできないが漫画ではおなじみの特定表情を実現できるため、人間では不可能な非語的コミュニケーションを実現できる。 The character 114 can realize a specific facial expression familiar to comics, which is not possible for humans (distributor 110), and thus can realize non-verbal communication that is impossible for humans.

図12は、手を振るときのキャラクタ114を示す画面図である。
配信者110がバイバイ領域204(図7参照)をタッチしたとき、動作情報生成部144は「手振り」を示す情報(以下、「バイバイ情報」とよぶ)を動作情報に含める。視聴キャラクタ表示部180は、バイバイ情報を受信したときには、視聴キャラクタ114b1に手を振る動作を実行させる。
FIG. 12 is a screen diagram showing the character 114 waving his hand.
When the distributor 110 touches the bye-bye area 204 (see FIG. 7), the motion information generator 144 includes information indicating a "hand gesture" (hereinafter referred to as "bye-bye information") in the motion information. When receiving the bye-bye information, the viewing character display unit 180 causes the viewing character 114b1 to perform a hand waving motion.

図13は、視聴者112が装飾アイテムを選択するときの画面図である。
視聴者112がプレゼントボタン200をタッチしたとき、視聴端末108の出力部172は提供アイテム選択領域210を表示させる。提供アイテム選択領域210は、視聴者112が保有する、または、購入可能な装飾アイテム212を一覧表示する。装飾アイテム212は、キャラクタ114が着用可能な衣服やアクセサリを示す画像である。
FIG. 13 is a screen diagram when the viewer 112 selects a decoration item.
When the viewer 112 touches the present button 200, the output unit 172 of the viewing terminal 108 causes the provided item selection area 210 to be displayed. The provided item selection area 210 displays a list of decorative items 212 owned by the viewer 112 or available for purchase. The decoration item 212 is an image representing clothes and accessories that the character 114 can wear.

視聴者112は、キャラクタ114にプレゼントしたい装飾アイテム212を提供アイテム選択領域210から選択する。提供アイテム選択部178は、装飾アイテム212の選択を検出する。このとき、出力部172は選択された装飾アイテム212がキャラクタ114に「おひねり」として投げ込まれるアニメーションを表示してもよい。また、視聴キャラクタ表示部180は、装飾アイテム212がプレゼントされたときに視聴キャラクタ114b1が驚いたり、喜んだりする表情を表示してもよい。 The viewer 112 selects a decoration item 212 to be presented to the character 114 from the provided item selection area 210 . The provided item selection unit 178 detects selection of the decoration item 212 . At this time, the output unit 172 may display an animation in which the selected decoration item 212 is thrown into the character 114 as a “twist”. In addition, the viewing character display unit 180 may display a surprised or delighted expression of the viewing character 114b1 when the decoration item 212 is presented.

図14は、アイテム格納部160のデータ構造図である。
サーバ102のアイテム格納部160は、キャラクタ114(配信者110)が保有する装飾アイテム212を管理する。図14によれば、キャラクタID(CID)=C01のキャラクタ114(以下、「キャラクタ114(C01)」のように表記する)は、装飾アイテム212(M01)、装飾アイテム212(M02)等の多数の装飾アイテム212を保有している。いわば、アイテム格納部160はキャラクタ114ごとの「衣装ケース」である。
FIG. 14 is a data structure diagram of the item storage unit 160. As shown in FIG.
The item storage unit 160 of the server 102 manages the decoration items 212 owned by the character 114 (distributor 110). According to FIG. 14, the character 114 with character ID (CID)=C01 (hereinafter referred to as “character 114 (C01)”) has many decoration items 212 such as decoration item 212 (M01) and decoration item 212 (M02). In other words, the item storage section 160 is a “clothing case” for each character 114 .

キャラクタ114(配信者110)が視聴者112から装飾アイテム212をもらったとき、ライブ制御部154はキャラクタ114に装飾アイテム212を対応づけて登録する。図14によれば、キャラクタ114(C01)は、視聴者112(P13)から2018年11月8日に装飾アイテム212(M02)をもらっている。また、キャラクタ114(C01)は、視聴者112(P24)から装飾アイテム212(M01)と装飾アイテム212(M03)をプレゼントされている。したがって、視聴者112(P24)は、キャラクタ114(C01)を応援する気持ちを強く持っていると推測できる。 When the character 114 (distributor 110) receives the decoration item 212 from the viewer 112, the live control unit 154 associates the decoration item 212 with the character 114 and registers it. According to FIG. 14, character 114 (C01) received decoration item 212 (M02) on Nov. 8, 2018 from viewer 112 (P13). Also, the character 114 (C01) is presented with a decoration item 212 (M01) and a decoration item 212 (M03) from the viewer 112 (P24). Therefore, it can be inferred that the viewer 112 (P24) has a strong desire to support the character 114 (C01).

どのキャラクタ114(配信者110)がどの視聴者112からどのような装飾アイテム212をどのくらいもらっているかにより、キャラクタ114の人気や支持層を確認できる。 Depending on which character 114 (distributor 110) receives what kind of decoration item 212 and how much from which viewer 112, the popularity and support level of the character 114 can be confirmed.

図15は、キャラクタ114が装飾アイテム212を着用したときの画面図である。
配信者110は、保有している装飾アイテム212を選んでキャラクタ114に着用させることができる。視聴者112は、多数の視聴者112(ファン)からプレゼントされた多数の装飾アイテム212のうち、自分がプレゼントした装飾アイテム212をキャラクタ114が着用してくれれば、自分の真心がキャラクタ114に通じたかのような満足感を味わえる。配信者110も装飾アイテム212をキャラクタ114に着用させることにより、視聴者112(ファン)たちの期待に応える楽しみを味わえる。また、視聴者112は、装飾アイテム212をプレゼントすることにより、お気に入りのキャラクタ114のファッションの変化を楽しむことができる。配信者110は、キャラクタ114に複数の装飾アイテム212を同時に着用することでコーディネートを楽しんでもよい。
FIG. 15 is a screen view when the character 114 wears the decoration item 212. As shown in FIG.
The distributor 110 can select a decoration item 212 that the distributor 110 possesses and allow the character 114 to wear the decoration item 212 . If the character 114 wears the decoration item 212 that the viewer 112 presents among a large number of decoration items 212 presented by a large number of viewers 112 (fans), the viewer 112 can feel satisfaction as if his sincerity was communicated to the character 114.例文帳に追加The broadcaster 110 can also have fun meeting the expectations of the viewers 112 (fans) by having the character 114 wear the decorative item 212 . Also, the viewer 112 can enjoy changing the fashion of the favorite character 114 by presenting the decoration item 212 . The distributor 110 may enjoy coordination by wearing a plurality of decorative items 212 on the character 114 at the same time.

図16は、キャラクタ114に装飾アイテム212をプレゼントし、キャラクタ114が装飾アイテム212を着用する処理過程を示すシーケンス図である。
視聴者112は、提供アイテム選択領域210において装飾アイテム212を選択する。着用アイテム選択部136は、装飾アイテム212の選択を検出する(S30)。送信部148は、装飾アイテム212を特定するアイテムIDをサーバ102に送信する(S32)。サーバ102の通信部152は、配信端末104に対して装飾アイテム212がプレゼントされた旨を通知する(S34)。また、ライブ制御部154は装飾アイテム212をアイテム格納部160に登録する(S36)。以上の処理過程により、視聴者112からキャラクタ114に装飾アイテム212がプレゼントされる。
FIG. 16 is a sequence diagram showing the process of giving the decoration item 212 to the character 114 and wearing the decoration item 212 on the character 114 .
The viewer 112 selects the decoration item 212 in the provided item selection area 210 . The wearing item selection unit 136 detects the selection of the decoration item 212 (S30). The transmission unit 148 transmits the item ID specifying the decoration item 212 to the server 102 (S32). The communication unit 152 of the server 102 notifies the distribution terminal 104 that the decorative item 212 has been presented (S34). Also, the live control unit 154 registers the decoration item 212 in the item storage unit 160 (S36). Through the above process, the viewer 112 presents the decoration item 212 to the character 114 .

配信者110は、ライブ通信の開始に際して、キャラクタ114に着用させたい装飾アイテム212を選択する。まず、配信者110はサーバ102から装飾アイテム212の保有リストを取得する(S38)。配信端末104の着用アイテム選択部136は、着用アイテム選択画面(不図示)から装飾アイテム212の選択を受付ける(S40)。配信端末104の送信部148は選択された装飾アイテム212のアイテムIDをサーバ102に送信する(S42)。サーバ102は、アイテムIDをすべての視聴端末108に通知する(S44)。 The distributor 110 selects the decoration item 212 that the character 114 wants to wear when starting the live communication. First, the distributor 110 acquires a possession list of the decoration items 212 from the server 102 (S38). Wearing item selection unit 136 of distribution terminal 104 receives selection of decoration item 212 from a wearing item selection screen (not shown) (S40). The transmission unit 148 of the distribution terminal 104 transmits the item ID of the selected decoration item 212 to the server 102 (S42). The server 102 notifies the item ID to all viewing terminals 108 (S44).

配信キャラクタ表示部138は、キャラクタ配信キャラクタ114aに装飾アイテム212を着用させた画像を生成し(S46)、配信端末104に表示させる(S48)。また、視聴端末108の視聴キャラクタ表示部180も、キャラクタ視聴キャラクタ114bに装飾アイテム212を着用させた画像を生成し(S50)、配信端末104に表示させる(S52)。 The distribution character display unit 138 generates an image in which the character distribution character 114a wears the decoration item 212 (S46), and displays it on the distribution terminal 104 (S48). The viewing character display unit 180 of the viewing terminal 108 also generates an image in which the character viewing character 114b wears the decoration item 212 (S50), and causes the delivery terminal 104 to display the image (S52).

<総括>
以上、実施形態に基づいて、ライブ通信システム100について説明した。
配信端末104は、キャラクタ114の動画像そのものではなく、動作情報を視聴端末108に送信する。視聴端末108は、動作情報に基づいてキャラクタ114の動画像をローカルに生成する。動作情報のデータ量は動画像のデータ量に比べると格段に小さいため、視聴者112はキャラクタ114(配信者110)とリアルタイム性の高い会話を楽しむことができる。
<Summary>
The live communication system 100 has been described above based on the embodiments.
The distribution terminal 104 transmits motion information to the viewing terminal 108 instead of the moving image of the character 114 itself. The viewing terminal 108 locally generates a moving image of the character 114 based on the action information. Since the data amount of action information is much smaller than the data amount of moving images, the viewer 112 can enjoy highly real-time conversation with the character 114 (distributor 110).

通信スループットが高いため、ライブ通信システム100においては、1人の配信者110と複数の視聴者112が同時並行的に会話を楽しめる。このため、1人のキャラクタ114を囲んで複数の視聴者112で楽しむトークセッションのような場をつくることができる。配信者110も多数の視聴者112から話題を提供されるため、話の接ぎ穂をつかみやすくなると考えられる。 Due to the high communication throughput, in the live communication system 100, one broadcaster 110 and multiple viewers 112 can enjoy conversations in parallel. Therefore, it is possible to create a place such as a talk session in which a plurality of viewers 112 enjoy one character 114 . Since the distributor 110 is also provided with topics from a large number of viewers 112, it is thought that it will be easier to grasp the stem of the story.

キャラクタ114は、配信者110の声だけでなく、体の動きや表情といった非言語的コミュニケーションも可能であるため、視聴者112はキャラクタ114の存在をいっそう身近に感じやすくなる。キャラクタ114は、本質的には仮想的な存在であるが、配信者110の言葉や態度を反映させることにより、仮想でありながら実在性を感じさせるような特有の存在感を発揮できる。 The character 114 can communicate not only with the voice of the distributor 110 but also with non-verbal communication such as body movements and facial expressions. The character 114 is essentially a virtual existence, but by reflecting the words and attitude of the distributor 110, it can exhibit a unique presence that makes it feel real even though it is virtual.

視聴者112は、複数のキャラクタ114(配信者110)の中からおしゃべりをしたい相手を自由に選ぶ。配信者110は、自分の担当するキャラクタ114を指名してくれた視聴者112の数、あるいは、視聴者112から提供される装飾アイテム212によりキャラクタ114の人気を感じることができる。このような人気を感じさせる仕組みは、配信者110がサービス精神や会話力を向上させる動機づけになると考えられる。 A viewer 112 freely selects a partner with whom he/she wants to chat from among a plurality of characters 114 (distributors 110). The broadcaster 110 can sense the popularity of the character 114 from the number of viewers 112 who nominated the character 114 that he or she is in charge of, or from the decoration items 212 provided by the viewers 112 . Such a popular mechanism is considered to motivate the distributor 110 to improve their service spirit and conversation ability.

視聴者112は、装飾アイテム212によりキャラクタ114への愛情を示すことができる。配信者110は、自分の化身であるキャラクタ114に装飾アイテム212を着用させることで視聴者112に感謝を示すことができる。また、視聴者112はキャラクタ114が自分のプレゼントした装飾アイテム212を着用してくれれば、多数の視聴者112から自分が選ばれたかのような優越感やキャラクタ114に対して気持ちが通じたかのような親近感を味わうことができる。 A viewer 112 can show affection for the character 114 through a decorative item 212 . The broadcaster 110 can show appreciation to the viewers 112 by having the character 114 , which is an incarnation of himself, wear the decoration item 212 . Also, if the character 114 puts on the decoration item 212 presented by the viewer 112, the viewer 112 can enjoy a feeling of superiority as if he/she was selected from a large number of viewers 112 and a feeling of intimacy as if the character 114 was connected.

なお、本発明は上記実施形態や変形例に限定されるものではなく、要旨を逸脱しない範囲で構成要素を変形して具体化することができる。上記実施形態や変形例に開示されている複数の構成要素を適宜組み合わせることにより種々の発明を形成してもよい。また、上記実施形態や変形例に示される全構成要素からいくつかの構成要素を削除してもよい。 It should be noted that the present invention is not limited to the above-described embodiments and modifications, and can be embodied by modifying constituent elements without departing from the scope of the invention. Various inventions may be formed by appropriately combining a plurality of constituent elements disclosed in the above embodiments and modifications. Also, some components may be deleted from all the components shown in the above embodiments and modifications.

[変形例]
<メッセージ>
本実施形態においては、第1メッセージは音声、第2メッセージはテキストであるとして説明した。変形例として、第1メッセージはテキストであってもよいし、第2メッセージは音声であってもよい。また、スタンプ画像や絵文字など、アイコン画像によりメッセージを伝えてもよい。
[Modification]
<Message>
In the present embodiment, it has been described that the first message is voice and the second message is text. Alternatively, the first message may be text and the second message may be voice. Also, a message may be conveyed by an icon image such as a stamp image or a pictogram.

<手の動作>
本実施形態においては、キャラクタ114が手を振る動作について説明した。手をつかった動作としては、このほかにも、両手を合わせて「お願い」をするポーズ、手を上げて「やめろ」を示すポーズ、両手を上げる「バンザイ」のポーズなど、さまざまなポーズをキャラクタ114させてもよい。
<Hand movements>
In this embodiment, the action of the character 114 waving his hand has been described. As motions using hands, the character 114 may be made to take various poses such as a pose of putting both hands together to say "please", a pose of raising hands to indicate "stop", and a pose of "banzai" raising both hands.

本実施形態においては、配信者110がバイバイ領域204をタッチしたとき、キャラクタ114が手を振るとして説明した。変形例として、動作検出部130は配信者110の手の動きを検出してもよい。動作情報生成部144は、配信者110の手の動きを動作情報に含めてもよい。そして、配信キャラクタ表示部138と視聴キャラクタ表示部180は動作情報に合わせてキャラクタ114の手を動かしてもよい。 In the present embodiment, it has been described that the character 114 waves when the distributor 110 touches the bye-bye area 204 . As a modification, the motion detection unit 130 may detect hand motions of the distributor 110 . The motion information generation unit 144 may include hand motions of the distributor 110 in the motion information. Then, the delivery character display unit 138 and the viewing character display unit 180 may move the hand of the character 114 in accordance with the action information.

<体の動き>
本実施形態においては、撮像画像から配信者110の体の動きを検出するとして説明した。変形例として、配信者110はボタン等の入力インタフェースにより、キャラクタ114の動作を指示してもよい。たとえば、うつむく、首をかしげる、身震い、ジャンプなどさまざまなアクションを入力インタフェースから指示してもよい。
<Body movement>
In the present embodiment, it has been described that the movement of the body of the distributor 110 is detected from the captured image. As a modification, the distributor 110 may instruct the action of the character 114 using an input interface such as a button. For example, various actions such as looking down, tilting the head, trembling, jumping, etc. may be instructed from the input interface.

<特定表情>
本実施形態においては、配信者110は表情ボタン202により特定表情を表示させるとして説明した。変形例として、配信者110は、自らの表情により特定表情を指示してもよい。たとえば、配信者110が両目を強くつぶったとき、特定表情判定部146は図11に示したような「目つぶりの特定表情」を実行するための表情条件が成立したと判定してもよい。このときには「目つぶり特定表情」を示す表情IDが配信端末104から視聴端末108に送信され、視聴キャラクタ表示部180はキャラクタ114の表情を「目つぶりの特定表情」に変化させる。目つぶりが1秒以上継続する、口を開けたときの大きさが閾値以上、などさまざまな表情条件を設定しておき、複数の表情条件それぞれに特定表情を対応づけてもよい。表情だけでなく、配信者110のポーズを検出することによって、キャラクタ114に得意なポーズ(キメのポーズ)をさせてもよい。
<Specific expression>
In the present embodiment, it has been described that the distributor 110 causes the facial expression button 202 to display a specific facial expression. As a modification, the distributor 110 may indicate a specific facial expression using his or her own facial expression. For example, when the distributor 110 strongly closes both eyes, the specific facial expression determination unit 146 may determine that the facial expression condition for executing the "specific facial expression with closed eyes" as shown in FIG. 11 is satisfied. At this time, the facial expression ID indicating the "closed eyes specific facial expression" is transmitted from the distribution terminal 104 to the viewing terminal 108, and the viewing character display unit 180 changes the facial expression of the character 114 to the "closed eyes specific facial expression". A variety of facial expression conditions may be set, such as keeping the eyes closed for one second or longer, or opening the mouth to a size greater than a threshold, and a specific facial expression may be associated with each of a plurality of facial expression conditions. By detecting not only the facial expression but also the pose of the distributor 110, the character 114 may be made to take a pose that he is good at (fine pose).

<キャリブレーション>
配信端末104のデータ処理部120は、配信者110の表情補正(キャリブレーション)を実行する「キャリブレーション実行部」を更に備えてもよい。配信者110には表情が豊かな人もいれば表情の変化が乏しい人もいる。キャリブレーション実行部は、配信者110の新規登録にあたっては「大きな声で、あいうえお、としゃべってください」「体を揺らしてください」などさまざまな動作指示を行い、動作検出部130はこの動作指示に対する配信者110の動きを検出してもよい。たとえば、「あ」と発声するとき、配信者110aは大きく口を開ける場合には、キャリブレーション実行部は、配信者110aについてはある程度大きく口を開けたときしかキャラクタ114も大きく口を開けないように設定してもよい。また、配信者110bは大きく口を開けない場合、配信者110bについては少し口を開けたときでもキャラクタ114は大きく口を開けるように設定してもよい。このような制御方法によれば、配信者110ごとの動きの差異を吸収し、配信者110の動きに合わせてキャラクタ114を適切に変化させることができる。
<Calibration>
The data processing unit 120 of the distribution terminal 104 may further include a “calibration execution unit” that performs facial expression correction (calibration) of the distributor 110 . Some of the distributors 110 have rich facial expressions, while others have poor facial expressions. When the distributor 110 is newly registered, the calibration execution unit may issue various operation instructions such as ``speak out loud'' and ``shake your body'', and the action detection unit 130 may detect the movement of the distributor 110 in response to the action instructions. For example, if the distributor 110a opens his mouth wide when uttering "ah", the calibration execution unit may set the character 114 to open its mouth wide only when the distributor 110a opens his mouth wide to some extent. Also, if the distributor 110b does not open his mouth wide, the character 114 may be set to open his mouth wide even when the distributor 110b opens his mouth slightly. According to such a control method, it is possible to absorb the difference in movement for each distributor 110 and appropriately change the character 114 according to the movement of the distributor 110 .

<その他>
視聴者112から装飾アイテム212がキャラクタ114に提供されたとき、キャラクタ114はすぐに装飾アイテム212を着用してもよい。本実施形態においては、配信端末104と視聴端末108の通信をサーバ102が中継するとして説明したが、配信端末104と視聴端末108はピア・ツー・ピア(P2P)にて直接通信してもよい。また、配信端末104の第2メッセージ取得部174は、配信者110の声質を変換して視聴端末108に伝えるためのボイスチェンジャーを備えてもよい。
<Others>
When the decoration item 212 is provided to the character 114 by the viewer 112, the character 114 may wear the decoration item 212 immediately. In the present embodiment, the server 102 relays communication between the distribution terminal 104 and the viewing terminal 108, but the distribution terminal 104 and the viewing terminal 108 may communicate directly via peer-to-peer (P2P). Also, the second message acquisition unit 174 of the distribution terminal 104 may include a voice changer for converting the voice quality of the distributor 110 and transmitting it to the viewing terminal 108 .

100 ライブ通信システム、102 サーバ、104 配信端末、106 インターネット、108 視聴端末、110 配信者、112 視聴者、114 キャラクタ、114a 配信キャラクタ、114b 視聴キャラクタ、116 ユーザインタフェース処理部、118 撮像部、120 データ処理部、122 通信部、124 データ格納部、126 入力部、128 出力部、130 動作検出部、132 第1メッセージ取得部、134 ボタン選択部、136 着用アイテム選択部、138 配信キャラクタ表示部、140 第2メッセージ出力部、142 ボタン表示部、144 動作情報生成部、146 特定表情判定部、148 送信部、150 受信部、152 通信部、154 ライブ制御部、156 データ格納部、158 キャラクタ格納部、160 アイテム格納部、162 ユーザインタフェース処理部、164 通信部、166 データ処理部、168 データ格納部、170 入力部、172 出力部、174 第2メッセージ取得部、176 キャラクタ選択部、178 提供アイテム選択部、180 視聴キャラクタ表示部、182 第1メッセージ出力部、184 第2メッセージ出力部、186 送信部、190 受信部、192 キャラクタボタン、194 キャラクタ選択画面、196 視聴者会話画面、198 メッセージ領域、200 プレゼントボタン、202 表情ボタン、204 バイバイ領域、206 配信者会話画面、208 カメラ、210 提供アイテム選択領域、212 装飾アイテム 100 live communication system, 102 server, 104 distribution terminal, 106 Internet, 108 viewing terminal, 110 distributor, 112 viewer, 114 character, 114a distribution character, 114b viewing character, 116 user interface processing unit, 118 imaging unit, 120 data processing unit, 122 communication unit, 124 data storage unit, 126 input unit, 128 output unit, 130 motion detection Section 132 First Message Acquisition Section 134 Button Selection Section 136 Wearing Item Selection Section 138 Distributed Character Display Section 140 Second Message Output Section 142 Button Display Section 144 Action Information Generation Section 146 Specific Facial Expression Judgment Section 148 Transmission Section 150 Reception Section 152 Communication Section 154 Live Control Section 156 Data Storage Section 158 Character Storage Section 160 Item Storage Section 16 2 user interface processing unit 164 communication unit 166 data processing unit 168 data storage unit 170 input unit 172 output unit 174 second message acquisition unit 176 character selection unit 178 provided item selection unit 180 viewing character display unit 182 first message output unit 184 second message output unit 186 transmission unit 190 reception unit 192 character button 194 character selection screen 19 6 viewer conversation screen, 198 message area, 200 present button, 202 expression button, 204 bye-bye area, 206 broadcaster conversation screen, 208 camera, 210 provided item selection area, 212 decoration item

Claims (12)

配信者により操作される配信端末と視聴者により操作される視聴端末を含み、
前記配信端末は、
配信者を撮像する撮像部と、
配信者の撮像画像から、配信者の動作の特徴を示す動作情報を生成する動作情報生成部と、
配信者から第1メッセージを受け付ける第1メッセージ取得部と、
前記動作情報および前記第1メッセージを送信する送信部と、を備え、
前記視聴端末は、
前記動作情報および前記第1メッセージを受信する受信部と、
前記視聴端末の画面にキャラクタを動画表示させ、前記動作情報に応じて前記キャラクタを動作させる視聴キャラクタ表示部と、
前記キャラクタの動作に合わせて前記第1メッセージを出力する第1メッセージ出力部と、を備えることを特徴とするライブ通信システム。
Including the distribution terminal operated by the distributor and the viewing terminal operated by the viewer,
The delivery terminal is
an imaging unit that captures an image of a distributor;
a motion information generation unit that generates motion information indicating features of the motion of the distributor from the captured image of the distributor;
a first message obtaining unit that receives a first message from a distributor;
a transmission unit that transmits the operation information and the first message;
The viewing terminal is
a receiver that receives the motion information and the first message;
a viewing character display unit that displays a moving image of a character on the screen of the viewing terminal and moves the character according to the motion information;
and a first message output unit that outputs the first message in accordance with the action of the character.
前記配信端末は、
前記配信端末の画面にキャラクタを動画表示させ、前記動作情報に応じて前記キャラクタを動作させる配信キャラクタ表示部、を更に備え、
前記送信部は、前記動作情報の送信に際しては、前記キャラクタの動画データを前記視聴端末への送信対象とはせず、
前記配信端末および前記視聴端末は、前記動作情報に基づいてそれぞれ独自にキャラクタを動画表示させることを特徴とする請求項1に記載のライブ通信システム。
The delivery terminal is
a distribution character display unit that displays a moving image of the character on the screen of the distribution terminal and moves the character according to the movement information;
wherein, when transmitting the motion information, the transmitting unit does not transmit moving image data of the character to the viewing terminal;
2. The live communication system according to claim 1, wherein said distribution terminal and said viewing terminal independently display a moving image of a character based on said motion information.
前記配信端末は、複数の前記視聴端末と同時接続され、
前記配信端末の送信部は、前記動作情報および前記第1メッセージを複数の前記視聴端末に同時送信し、
前記視聴端末は、前記視聴者から第2メッセージを受け付ける第2メッセージ取得部、を更に備え、
前記配信端末は、
前記第2メッセージを受信する受信部と、
前記第2メッセージを前記配信者に対して出力する第2メッセージ出力部と、を更に備え、
前記第2メッセージ出力部は、複数の視聴端末から受信した複数の第2メッセージを前記配信者に対して順番に表示させることを特徴とする請求項1または2に記載のライブ通信システム。
the distribution terminal is simultaneously connected to a plurality of the viewing terminals;
the transmission unit of the distribution terminal simultaneously transmits the operation information and the first message to the plurality of viewing terminals;
The viewing terminal further comprises a second message acquisition unit that receives a second message from the viewer,
The delivery terminal is
a receiver that receives the second message;
a second message output unit that outputs the second message to the distributor,
3. The live communication system according to claim 1, wherein the second message output unit sequentially displays a plurality of second messages received from a plurality of viewing terminals to the distributor.
前記配信端末の動作情報生成部は、配信者の顔画像から、配信者の表情を示す特徴ベクトルを前記動作情報として設定し、
前記視聴端末の視聴キャラクタ表示部は、前記特徴ベクトルに基づいてキャラクタの表情を変化させることを特徴とする請求項1から3のいずれかに記載のライブ通信システム。
The motion information generating unit of the delivery terminal sets, as the motion information, a feature vector indicating the facial expression of the deliverer from the face image of the deliverer,
4. The live communication system according to any one of claims 1 to 3, wherein the viewing character display unit of the viewing terminal changes the facial expression of the character based on the feature vector.
前記視聴端末の視聴キャラクタ表示部は、配信者の表情を示す特徴ベクトルが所定の表情条件を満たしたときには、前記キャラクタの表情をあらかじめ定められた特定表情に変化させることを特徴とする請求項4に記載のライブ通信システム。 5. The live communication system according to claim 4, wherein the viewing character display unit of the viewing terminal changes the facial expression of the character to a predetermined specific facial expression when the feature vector indicating the facial expression of the broadcaster satisfies a predetermined facial expression condition. 前記配信端末の動作情報生成部は、配信者の前後および左右の動きを検出することにより、配信者と前記配信端末の相対位置を前記動作情報として設定し、
前記視聴端末の視聴キャラクタ表示部は、前記相対位置に基づいて前記視聴端末の画面における前記キャラクタの位置およびサイズの双方または一方を変化させることを特徴とする請求項1から5のいずれかに記載のライブ通信システム。
The motion information generating unit of the distribution terminal sets the relative positions of the distributor and the distribution terminal as the motion information by detecting forward, backward, and lateral movements of the distributor, and
6. The live communication system according to claim 1, wherein the viewing character display unit of the viewing terminal changes both or one of the position and size of the character on the screen of the viewing terminal based on the relative position.
前記配信端末は、複数の表情ボタンを前記配信端末に表示させるボタン表示部、を更に備え、
前記配信端末の送信部は、更に、前記複数の表情ボタンのうち選択された表情ボタンを識別する表情IDを前記視聴端末に送信し、
前記視聴端末の受信部は、前記表情IDを受信し、
前記視聴端末の視聴キャラクタ表示部は、前記表情IDに対応する特定表情に前記キャラクタの表情を変化させることを特徴とする請求項1から6のいずれかに記載のライブ通信システム。
The distribution terminal further comprises a button display unit for displaying a plurality of facial expression buttons on the distribution terminal,
The transmission unit of the distribution terminal further transmits to the viewing terminal a facial expression ID that identifies the facial expression button selected from the plurality of facial expression buttons,
The receiving unit of the viewing terminal receives the facial expression ID,
7. The live communication system according to claim 1, wherein the viewing character display unit of the viewing terminal changes the facial expression of the character to a specific facial expression corresponding to the facial expression ID.
前記視聴端末は、
視聴者から、複数のキャラクタのうちのいずれかを選択を受け付けるキャラクタ選択部、を更に備え、
前記視聴端末の視聴キャラクタ表示部は、前記選択されたキャラクタに応じて、前記動作情報に応じたキャラクタの動作量を変化させることを特徴とする請求項1から7のいずれかに記載のライブ通信システム。
The viewing terminal is
further comprising a character selection unit that accepts selection of one of the plurality of characters from the viewer;
8. The live communication system according to any one of claims 1 to 7, wherein the viewing character display unit of the viewing terminal changes the movement amount of the character according to the movement information in accordance with the selected character.
前記配信端末の動作情報生成部は、更に、手の動きを前記動作情報として設定し、
前記視聴端末の視聴キャラクタ表示部は、手の動きを示す動作情報が受信されたとき、キャラクタに手を振る動作をさせることを特徴とする請求項1から8のいずれかに記載のライブ通信システム。
The motion information generating unit of the distribution terminal further sets hand motion as the motion information,
9. The live communication system according to any one of claims 1 to 8, wherein the viewing character display unit of the viewing terminal causes the character to make a hand-waving motion when motion information indicating a hand motion is received.
前記視聴端末は、
視聴者から装飾アイテムの選択を受け付ける提供アイテム選択部と、
前記選択された装飾アイテムを前記配信端末に送信する送信部と、を更に備え、
前記配信端末は、
前記視聴端末から、装飾アイテムを識別するアイテムIDを受信する受信部と、
視聴者から受け取った複数の装飾アイテムのうち、配信者による装飾アイテムの選択を受け付ける着用アイテム選択部と、を更に備え、
前記配信端末の送信部は、前記選択された装飾アイテムのアイテムIDを前記視聴端末に送信し、
前記視聴端末の受信部は、前記視聴端末からアイテムIDを受信し、
前記視聴端末の視聴キャラクタ表示部は、前記受信されたアイテムIDに対応する装飾アイテムを前記キャラクタの衣装として追加した上で前記キャラクタを表示させることを特徴とする請求項1または2に記載のライブ通信システム。
The viewing terminal is
a provision item selection unit that receives a selection of a decoration item from a viewer;
a transmission unit that transmits the selected decoration item to the distribution terminal;
The delivery terminal is
a receiving unit that receives an item ID that identifies a decoration item from the viewing terminal;
a wearing item selection unit that receives selection of a decoration item by the distributor from among the plurality of decoration items received from the viewer;
the transmission unit of the distribution terminal transmits an item ID of the selected decoration item to the viewing terminal;
The receiving unit of the viewing terminal receives an item ID from the viewing terminal,
3. The live communication system according to claim 1, wherein the viewing character display unit of the viewing terminal displays the character after adding the decoration item corresponding to the received item ID as a costume of the character.
複数の視聴者により操作される複数の視聴端末と接続され、
配信者を撮像する撮像部と、
配信者の撮像画像から、配信者の動作の特徴を示す動作情報を生成する動作情報生成部と、
配信者から第1メッセージを受け付ける第1メッセージ取得部と、
前記動作情報および前記第1メッセージを送信する送信部と、
前記複数の視聴端末から第2メッセージを受信する受信部と、
前記第2メッセージを前記配信者に対して出力する第2メッセージ出力部と、を備え、
前記第2メッセージ出力部は、前記複数の視聴端末から受信した複数の第2メッセージを配信者に対して順番に表示させることを特徴とする配信端末。
connected to multiple viewing terminals operated by multiple viewers,
an imaging unit that captures an image of a distributor;
a motion information generation unit that generates motion information indicating features of the motion of the distributor from the captured image of the distributor;
a first message obtaining unit that receives a first message from a distributor;
a transmitter configured to transmit the motion information and the first message;
a receiving unit that receives a second message from the plurality of viewing terminals;
a second message output unit that outputs the second message to the distributor,
The distribution terminal, wherein the second message output unit sequentially displays the plurality of second messages received from the plurality of viewing terminals to the distributor.
配信者を撮像する機能と、
配信者の撮像画像から、配信者の動作の特徴を示す動作情報を生成する機能と、
配信者から第1メッセージを受け付ける機能と、
前記動作情報および前記第1メッセージを送信する機能と、を配信端末において発揮させる第1のプログラムと、
前記動作情報および前記第1メッセージを受信する機能と、
視聴端末の画面にキャラクタを動画表示させ、前記動作情報に応じて前記キャラクタを動作させる機能と、
前記キャラクタの動作に合わせて前記第1メッセージを出力する機能と、を視聴端末において発揮させる第2のプログラムと、を含むことを特徴とするライブ通信プログラム。
A function to image the distributor,
A function of generating motion information indicating characteristics of the motion of the distributor from the captured image of the distributor;
a function of accepting a first message from a distributor;
a first program that causes a distribution terminal to perform a function of transmitting the operation information and the first message;
a function of receiving said operational information and said first message;
a function of displaying a moving image of a character on the screen of the viewing terminal and moving the character according to the movement information;
A live communication program, comprising: a function of outputting the first message in accordance with the action of the character;
JP2023076603A 2019-01-10 2023-05-08 Live communication system using character Pending JP2023103317A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023076603A JP2023103317A (en) 2019-01-10 2023-05-08 Live communication system using character

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019002271A JP7277145B2 (en) 2019-01-10 2019-01-10 Live communication system with characters
JP2023076603A JP2023103317A (en) 2019-01-10 2023-05-08 Live communication system using character

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019002271A Division JP7277145B2 (en) 2019-01-10 2019-01-10 Live communication system with characters

Publications (1)

Publication Number Publication Date
JP2023103317A true JP2023103317A (en) 2023-07-26

Family

ID=71667775

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019002271A Active JP7277145B2 (en) 2019-01-10 2019-01-10 Live communication system with characters
JP2023076603A Pending JP2023103317A (en) 2019-01-10 2023-05-08 Live communication system using character

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2019002271A Active JP7277145B2 (en) 2019-01-10 2019-01-10 Live communication system with characters

Country Status (1)

Country Link
JP (2) JP7277145B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7261207B2 (en) * 2020-10-20 2023-04-19 株式会社タカラトミー Information processing system and information processing method
JP7253269B2 (en) * 2020-10-29 2023-04-06 株式会社EmbodyMe Face image processing system, face image generation information providing device, face image generation information providing method, and face image generation information providing program

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3593067B2 (en) 2001-07-04 2004-11-24 沖電気工業株式会社 Information terminal device with image communication function and image distribution system
JP3950802B2 (en) 2003-01-31 2007-08-01 株式会社エヌ・ティ・ティ・ドコモ Face information transmission system, face information transmission method, face information transmission program, and computer-readable recording medium
CN103647922A (en) 2013-12-20 2014-03-19 百度在线网络技术(北京)有限公司 Virtual video call method and terminals
WO2018142494A1 (en) 2017-01-31 2018-08-09 株式会社 ニコン Display control system and display control method
JP6261787B2 (en) 2017-02-22 2018-01-17 株式会社 ディー・エヌ・エー System, method, and program for supporting sales of products

Also Published As

Publication number Publication date
JP7277145B2 (en) 2023-05-18
JP2020113857A (en) 2020-07-27

Similar Documents

Publication Publication Date Title
JP6700463B2 (en) Filtering and parental control methods for limiting visual effects on head mounted displays
JP6244593B1 (en) Information processing method, apparatus, and program for causing computer to execute information processing method
US9818225B2 (en) Synchronizing multiple head-mounted displays to a unified space and correlating movement of objects in the unified space
JP7094216B2 (en) A video distribution system, video distribution method, and video distribution program that live-distributes videos containing animations of character objects generated based on the movements of distribution users.
US10438394B2 (en) Information processing method, virtual space delivering system and apparatus therefor
US20240056653A1 (en) Video distribution system for live distributing video containing animation of character object generated based on motion of distributor user, distribution method, and storage medium storing video distribution program
JP2023103317A (en) Live communication system using character
US20190025586A1 (en) Information processing method, information processing program, information processing system, and information processing apparatus
JP2024045446A (en) Program, information processing device, information processing system, and information processing method
US20220297006A1 (en) Program, method, and terminal device
JP2021152785A (en) Video application program, video object rendering method, video distribution system, video distribution server, and video distribution method
JP2023126237A (en) Live communication system using character
JP2018124981A (en) Information processing method, information processing device and program causing computer to execute information processing method
JP2019106220A (en) Program executed by computer to provide virtual space via head mount device, method, and information processing device
JP2023095862A (en) Program and information processing method
CN112115398A (en) Virtual space providing system, virtual space providing method, and program
EP4023311A1 (en) Program, method, and information processing terminal
JP2021077388A (en) Video distribution system, video distribution method, and video distribution program
JP7041484B2 (en) Programs, information processing devices, information processing systems, and information processing methods
JP2021053182A (en) Program, method and delivery terminal
JP2020042357A (en) Program, information processing device, and method
US20230298240A1 (en) Control program for terminal device, terminal device, control method for terminal device, control program for server device, server device, and control method for server device
JP7379427B2 (en) Video distribution system, video distribution method, and video distribution program for live distribution of videos including character object animations generated based on the movements of distribution users
JP6828106B1 (en) Video distribution system, video distribution method and video distribution program
US20230315370A1 (en) Control program for terminal device, terminal device, control method for terminal device, control program for server device, server device, and control method for server device

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20230511

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20230511

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230605

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230605

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20230915