JP2023071712A - System for animated cartoon distribution, method, and program - Google Patents

System for animated cartoon distribution, method, and program Download PDF

Info

Publication number
JP2023071712A
JP2023071712A JP2023019795A JP2023019795A JP2023071712A JP 2023071712 A JP2023071712 A JP 2023071712A JP 2023019795 A JP2023019795 A JP 2023019795A JP 2023019795 A JP2023019795 A JP 2023019795A JP 2023071712 A JP2023071712 A JP 2023071712A
Authority
JP
Japan
Prior art keywords
distribution
user
input
users
avatars
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023019795A
Other languages
Japanese (ja)
Inventor
康伸 佐々木
Yasunobu Sasaki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
DeNA Co Ltd
Original Assignee
DeNA Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by DeNA Co Ltd filed Critical DeNA Co Ltd
Priority to JP2023019795A priority Critical patent/JP2023071712A/en
Publication of JP2023071712A publication Critical patent/JP2023071712A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To promote activation of animation distribution.
SOLUTION: An animation distribution server 10 according to an embodiment provides an animation distribution service for distributing an animated cartoon provided by a distribution user to multiple viewing users via a user terminal 30. Since the sever 10 renders each avatar on the basis of each three-dimensional model for multiple avatars corresponding to multiple users who conduct joint distribution of an animated cartoon as well as controlling each motion of the multiple avatars on the basis of information inputted from each of the multiple users, respectively, and generates an animated cartoon corresponding to a virtual space in which the multiple avatars are included, for example, even when a user who feels resistance to publish his/her natural face is included in, it is possible to conduct joint distribution of an animated cartoon by multiple users easily, as a result, activation of animation distribution can be promoted.
SELECTED DRAWING: Figure 1
COPYRIGHT: (C)2023,JPO&INPIT

Description

本発明は、動画を配信するためのシステム、方法、及びプログラムに関するものである。 The present invention relates to a system, method, and program for distributing moving images.

従来、ユーザが動画の配信を行うためのシステムが提供されており、こうしたシステムを介して配信される動画には、ユーザ自身が被写体として出演する動画(自撮り動画)が含まれる(例えば、特許文献1を参照)。例えば、ユーザは、スマートフォン及びパソコン等が有するカメラ及びマイクを介してユーザ自身の画像及び音声が含まれる動画を撮影し、撮影した動画を複数の視聴者に対して配信することができる。 Conventionally, systems have been provided for users to distribute moving images, and the moving images distributed through such systems include moving images (self-portrait moving images) in which the user himself/herself appears as a subject (for example, patent See reference 1). For example, a user can capture a video containing his or her own image and voice through a camera and microphone of a smartphone, a personal computer, or the like, and distribute the captured video to a plurality of viewers.

特開2017-121036号公報JP 2017-121036 A

しかしながら、こうした動画の配信を希望するユーザの中には、不特定多数の視聴者に素顔を公開することに対して抵抗を感じるユーザも存在し得る。例えば、自撮り動画の配信に慣れているユーザの動画に一般の視聴者等が参加するコラボ配信は、動画配信サービスの活性化を促進し得るが、こうした一般の視聴者は、素顔の公開に対して抵抗を感じやすいと考えられる。そこで、例えば、ユーザ自身に代えて、ユーザのアバターが登場する動画のコラボ配信を手軽に行うことができると有用であると考えられる。 However, among the users who wish to receive such moving images, there may be users who are reluctant to disclose their true faces to an unspecified number of viewers. For example, collaborative distribution in which general viewers participate in videos of users who are accustomed to distributing selfie videos may promote the activation of video distribution services, but such general viewers may They are likely to feel resistance. Therefore, for example, it would be useful to be able to easily perform collaborative distribution of videos in which the user's avatar appears instead of the user himself/herself.

本発明の実施形態は、動画配信の活性化を促進することを目的の一つとする。本発明の実施形態の他の目的は、本明細書全体を参照することにより明らかとなる。 One object of the embodiments of the present invention is to promote activation of video distribution. Other objects of embodiments of the present invention will become apparent upon review of the specification as a whole.

本発明の一実施形態に係るシステムは、動画を配信するためのシステムであって、複数のユーザの各々のアバターの画像情報を少なくとも記憶する1又は複数の記憶装置と、1又は複数のコンピュータプロセッサと、を備え、前記1又は複数のコンピュータプロセッサは、読取可能な命令の実行に応じて、動画の共同配信を行う第1及び第2のユーザに対応する第1及び第2のアバターが含まれる仮想空間に対応する動画を生成する処理と、生成した動画を複数の視聴ユーザの各々に対して提供する処理と、を実行し、前記動画を生成する処理は、前記第1及び第2のアバターを、前記1又は複数の記憶装置に記憶されている前記第1及び第2のアバターの画像情報に少なくとも基づいて描画すること、及び、前記第1及び第2のアバターを、前記第1及び第2のユーザによって第1及び第2のユーザ端末を介してそれぞれ入力される入力情報に少なくとも基づいて前記仮想空間において動作させることを含む。 A system according to one embodiment of the present invention is a system for distributing moving images, comprising one or more storage devices for storing at least image information of avatars of each of a plurality of users, and one or more computer processors. and wherein the one or more computer processors, in response to execution of readable instructions, include first and second avatars corresponding to first and second users co-distributing a video. a process of generating a moving image corresponding to the virtual space; and a process of providing the generated moving image to each of a plurality of viewing users; based on at least the image information of the first and second avatars stored in the one or more storage devices; and rendering the first and second avatars the first and second operating in the virtual space based at least on input information input by two users via first and second user terminals, respectively.

本発明の一実施形態に係る方法は、複数のユーザの各々のアバターの画像情報を少なくとも記憶する1又は複数の記憶装置にアクセス可能な1又は複数のコンピュータによって実行され、動画を配信するための方法であって、動画の共同配信を行う第1及び第2のユーザに対応する第1及び第2のアバターが含まれる仮想空間に対応する動画を生成するステップと、生成した動画を複数の視聴ユーザの各々に対して提供するステップと、を備え、前記動画を生成するステップは、前記第1及び第2のアバターを、前記1又は複数の記憶装置に記憶されている前記第1及び第2のアバターの画像情報に少なくとも基づいて描画すること、及び、前記第1及び第2のアバターを、前記第1及び第2のユーザによって第1及び第2のユーザ端末を介してそれぞれ入力される入力情報に少なくとも基づいて前記仮想空間において動作させることを含む。 A method according to an embodiment of the present invention is executed by one or more computers accessible to one or more storage devices for storing at least image information of avatars of each of a plurality of users, for distributing moving images. A method, comprising the steps of: generating a moving image corresponding to a virtual space including first and second avatars corresponding to first and second users for joint distribution of the moving image; and viewing the generated moving image a plurality of times. and providing each of the users, wherein the step of generating the moving image includes the first and second avatars stored in the one or more storage devices. and rendering the first and second avatars based on at least the image information of the avatars of the input entered by the first and second users via the first and second user terminals, respectively operating in the virtual space based at least on the information;

本発明の一実施形態に係るプログラムは、動画を配信するためのプログラムであって、複数のユーザの各々のアバターの画像情報を少なくとも記憶する1又は複数の記憶装置にアクセス可能な1又は複数のコンピュータ上での実行に応じて、前記1又は複数のコンピュータに、動画の共同配信を行う第1及び第2のユーザに対応する第1及び第2のアバターが含まれる仮想空間に対応する動画を生成する処理と、生成した動画を複数の視聴ユーザの各々に対して提供する処理と、を実行させ、前記動画を生成する処理は、前記第1及び第2のアバターを、前記1又は複数の記憶装置に記憶されている前記第1及び第2のアバターの画像情報に少なくとも基づいて描画すること、及び、前記第1及び第2のアバターを、前記第1及び第2のユーザによって第1及び第2のユーザ端末を介してそれぞれ入力される入力情報に少なくとも基づいて前記仮想空間において動作させることを含む。 A program according to an embodiment of the present invention is a program for distributing a moving image, comprising one or more storage devices that can access one or more storage devices that store at least image information of avatars of each of a plurality of users. In response to execution on a computer, the one or more computers are provided with a video corresponding to a virtual space containing first and second avatars corresponding to first and second users who jointly distribute videos. and a process of providing the generated moving image to each of a plurality of viewing users. drawing based on at least image information of the first and second avatars stored in a storage device; and drawing the first and second avatars by the first and second users. operating in the virtual space based at least on input information respectively input via a second user terminal;

本発明の様々な実施形態は、動画配信の活性化を促進し得る。 Various embodiments of the present invention may facilitate the activation of video distribution.

本発明の一実施形態に係る動画配信サーバ10を含むネットワークの構成を概略的に示す構成図。1 is a configuration diagram schematically showing the configuration of a network including a video distribution server 10 according to one embodiment of the present invention; FIG. 動画配信サーバ10が有する機能を概略的に示すブロック図。FIG. 2 is a block diagram schematically showing functions possessed by a video distribution server 10; FIG. ユーザ情報テーブル411において管理される情報を例示する図。4 is a diagram exemplifying information managed in a user information table 411; FIG. 配信情報テーブル412において管理される情報を例示する図。4 is a diagram illustrating information managed in a distribution information table 412; FIG. 個別の動画配信が行われる際に動画配信サーバ10が実行する処理を例示するフロー図。FIG. 5 is a flowchart illustrating processing executed by the video distribution server 10 when individual video distribution is performed; ライブ動画の配信中において行われる通信を説明するための図。FIG. 4 is a diagram for explaining communication performed during distribution of a live moving image; 視聴用画面60を例示する図。FIG. 6 is a view exemplifying a viewing screen 60; 配信ユーザ端末30のカメラを介して入力される入力画像50を模式的に例示する図。FIG. 4 is a diagram schematically exemplifying an input image 50 input via a camera of a distribution user terminal 30; 配信用画面70を例示する図。The figure which illustrates the screen 70 for distribution. 視聴ユーザによる参加要求に応じて動画配信サーバ10が実行する処理を例示するフロー図。FIG. 10 is a flowchart illustrating processing executed by the video distribution server 10 in response to a participation request from a viewing user; 参加要求通知オブジェクト80を例示する図。FIG. 4 is a diagram illustrating a participation request notification object 80; FIG. コラボ配信の期間中において行われる通信を説明するための図。FIG. 10 is a diagram for explaining communication that takes place during the period of collaboration distribution; コラボ配信の期間中における視聴用画面60を例示する図。FIG. 11 is a diagram exemplifying a viewing screen 60 during a period of collaboration distribution; 他の実施形態のコラボ配信の期間中において行われる通信を説明するための図。FIG. 11 is a diagram for explaining communication performed during collaboration distribution according to another embodiment; 更に他の実施形態のコラボ配信の期間中において行われる通信を説明するための図。FIG. 13 is a diagram for explaining communication performed during collaboration distribution according to yet another embodiment;

以下、図面を参照しながら、本発明の実施形態について説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は、本発明の一実施形態に係る動画配信サーバ10を含むネットワークの構成を概略的に示す構成図である。動画配信サーバ10は、図示するように、インターネット等の通信ネットワーク20を介してユーザ端末30と通信可能に接続されている。図1においては、1つのユーザ端末30のみが図示されているが、サーバ10は、複数のユーザ端末30と通信可能に接続されている。サーバ10は、配信ユーザが提供する動画を複数の視聴ユーザに配信するための動画配信サービスを、ユーザ端末30を介して提供する。本実施形態において、ユーザ端末30のユーザは、配信ユーザとして動画を配信することができ、また、視聴ユーザとして、他のユーザによって配信される動画を視聴することもできる。 FIG. 1 is a configuration diagram schematically showing the configuration of a network including a video distribution server 10 according to one embodiment of the present invention. As illustrated, the moving picture distribution server 10 is communicably connected to a user terminal 30 via a communication network 20 such as the Internet. Although only one user terminal 30 is illustrated in FIG. 1 , the server 10 is communicably connected to a plurality of user terminals 30 . The server 10 provides, via the user terminal 30, a video distribution service for distributing a video provided by a distribution user to a plurality of viewing users. In this embodiment, the user of the user terminal 30 can distribute moving images as a distribution user, and can also view moving images distributed by other users as a viewing user.

動画配信サーバ10は、一般的なコンピュータとして構成されており、図1に示すように、コンピュータプロセッサ11と、メインメモリ12と、入出力I/F13と、通信I/F14と、ストレージ(記憶装置)15とを備え、これらの各構成要素が図示しないバス等を介して電気的に接続されている。 The moving image distribution server 10 is configured as a general computer, and as shown in FIG. ) 15, and these constituent elements are electrically connected via a bus or the like (not shown).

コンピュータプロセッサ11は、CPU又はGPU等として構成され、ストレージ15等に記憶されている様々なプログラムをメインメモリ12に読み込んで、当該プログラムに含まれる各種の命令を実行する。メインメモリ12は、例えば、DRAM等によって構成される。 The computer processor 11 is configured as a CPU, GPU, or the like, reads various programs stored in the storage 15 or the like into the main memory 12, and executes various instructions included in the programs. The main memory 12 is composed of, for example, a DRAM.

入出力I/F13は、ユーザ等との間で情報をやり取りするための各種の入出力装置を含む。入出力I/F13は、例えば、キーボード、ポインティングデバイス(例えば、マウス、タッチパネル等)等の情報入力装置、マイクロフォン等の音声入力装置、カメラ等の画像入力装置を含む。また、入出力I/F13は、ディスプレイ等の画像出力装置、スピーカー等の音声出力装置を含む。 The input/output I/F 13 includes various input/output devices for exchanging information with a user or the like. The input/output I/F 13 includes, for example, information input devices such as keyboards and pointing devices (for example, mice, touch panels, etc.), voice input devices such as microphones, and image input devices such as cameras. The input/output I/F 13 includes an image output device such as a display and an audio output device such as a speaker.

通信I/F14は、ネットワークアダプタ等のハードウェア、各種の通信用ソフトウェア、及びこれらの組み合わせとして実装され、通信ネットワーク20等を介した有線又は無線の通信を実現できるように構成されている。 The communication I/F 14 is implemented as hardware such as a network adapter, various types of communication software, or a combination thereof, and is configured to enable wired or wireless communication via the communication network 20 or the like.

ストレージ15は、例えば磁気ディスク、フラッシュメモリ等によって構成される。ストレージ15は、オペレーティングシステムを含む様々なプログラム、及び各種データ等を記憶する。 The storage 15 is composed of, for example, a magnetic disk, flash memory, or the like. The storage 15 stores various programs including an operating system, various data, and the like.

本実施形態において、動画配信サーバ10は、それぞれが上述したハードウェア構成を有する複数のコンピュータを用いて構成され得る。例えば、動画配信サーバ10は、1又は複数のサーバ装置によって構成され得る。 In this embodiment, the video distribution server 10 can be configured using a plurality of computers each having the hardware configuration described above. For example, the video distribution server 10 may be configured by one or more server devices.

このように構成された動画配信サーバ10は、ウェブサーバ及びアプリケーションサーバとしての機能を有し、ユーザ端末30にインストールされているウェブブラウザ及びその他のアプリケーション(例えば、動画配信サービス用のアプリケーション)からの要求に応答して各種の処理を実行し、当該処理の結果に応じた画面データ(例えば、HTMLデータ又は制御データ等)をユーザ端末30に送信する。ユーザ端末30では、受信したデータに基づくウェブページ又はその他の画面が表示される。 The moving image distribution server 10 configured in this way has functions as a web server and an application server, and is capable of receiving information from a web browser and other applications (for example, an application for a moving image distribution service) installed in the user terminal 30. Various processes are executed in response to the request, and screen data (for example, HTML data, control data, or the like) corresponding to the results of the processes are transmitted to the user terminal 30 . The user terminal 30 displays a web page or other screen based on the received data.

ユーザ端末30は、一般的なコンピュータとして構成されており、図1に示すように、コンピュータプロセッサ31と、メインメモリ32と、入出力I/F33と、通信I/F34と、ストレージ(記憶装置)35とを備え、これらの各構成要素が図示しないバス等を介して電気的に接続されている。 The user terminal 30 is configured as a general computer, and as shown in FIG. 35, and these constituent elements are electrically connected via a bus or the like (not shown).

コンピュータプロセッサ31は、CPU又はGPU等として構成され、ストレージ35等に記憶されている様々なプログラムをメインメモリ32に読み込んで、当該プログラムに含まれる各種の命令を実行する。メインメモリ32は、例えば、DRAM等によって構成される。 The computer processor 31 is configured as a CPU, GPU, or the like, reads various programs stored in the storage 35 or the like into the main memory 32, and executes various instructions included in the programs. The main memory 32 is composed of, for example, a DRAM.

入出力I/F33は、ユーザ等との間で情報をやり取りするための各種の入出力装置である。入出力I/F33は、例えば、キーボード、ポインティングデバイス(例えば、マウス、タッチパネル等)等の情報入力装置、マイクロフォン等の音声入力装置、カメラ等の画像入力装置を含む。また、入出力I/F33は、ディスプレイ等の画像出力装置、スピーカー等の音声出力装置を含む。 The input/output I/F 33 is various input/output devices for exchanging information with a user or the like. The input/output I/F 33 includes, for example, information input devices such as keyboards and pointing devices (for example, mice and touch panels), voice input devices such as microphones, and image input devices such as cameras. The input/output I/F 33 includes an image output device such as a display and an audio output device such as a speaker.

通信I/F34は、ネットワークアダプタ等のハードウェア、各種の通信用ソフトウェア、及びこれらの組み合わせとして実装され、通信ネットワーク20等を介した有線又は無線の通信を実現できるように構成されている。 The communication I/F 34 is implemented as hardware such as a network adapter, various types of communication software, or a combination thereof, and is configured to enable wired or wireless communication via the communication network 20 or the like.

ストレージ35は、例えば磁気ディスク又はフラッシュメモリ等によって構成される。ストレージ35は、オペレーティングシステムを含む様々なプログラム及び各種データ等を記憶する。ストレージ35が記憶するプログラムは、アプリケーションマーケット等からダウンロードされてインストールされ得る。 The storage 35 is configured by, for example, a magnetic disk or flash memory. The storage 35 stores various programs including an operating system, various data, and the like. A program stored in the storage 35 can be downloaded from an application market or the like and installed.

本実施形態において、ユーザ端末30は、スマートフォン、タブレット端末、ウェアラブルデバイス、及びパーソナルコンピュータ等として構成され得る。 In this embodiment, the user terminal 30 may be configured as a smart phone, tablet terminal, wearable device, personal computer, or the like.

このように構成されたユーザ端末30のユーザは、ストレージ35等にインストールされているウェブブラウザ又はその他のアプリケーションを介した動画配信サーバ10との通信を実行することによって、サーバ10が提供する動画配信サービスを利用することができる。 A user of the user terminal 30 configured as described above can communicate with the video distribution server 10 via a web browser or other application installed in the storage 35 or the like, thereby performing video distribution provided by the server 10 . can use the service.

次に、本実施形態の動画配信サーバ10が有する機能について説明する。図2は、動画配信サーバ10が有する機能を概略的に示すブロック図である。サーバ10は、図示するように、様々な情報を記憶及び管理する情報記憶管理部41と、動画配信サービスの基本機能を制御する基本機能制御部43と、動画の配信を制御する動画配信制御部45とを有する。これらの機能は、コンピュータプロセッサ11及びメインメモリ12等のハードウェア、並びに、ストレージ15等に記憶されている各種プログラムやデータ等が協働して動作することによって実現され、例えば、メインメモリ12に読み込まれたプログラムに含まれる命令をコンピュータプロセッサ11が実行することによって実現される。また、図2に示す機能の一部又は全部は、サーバ10とユーザ端末30とが協働することによって実現され、又は、ユーザ端末30によって実現され得る。 Next, functions of the video distribution server 10 of this embodiment will be described. FIG. 2 is a block diagram schematically showing the functions of the video distribution server 10. As shown in FIG. As illustrated, the server 10 includes an information storage management unit 41 that stores and manages various information, a basic function control unit 43 that controls basic functions of the video distribution service, and a video distribution control unit that controls video distribution. 45. These functions are realized by the cooperative operation of hardware such as the computer processor 11 and the main memory 12, and various programs and data stored in the storage 15 and the like. It is implemented by the computer processor 11 executing instructions included in the loaded program. Also, part or all of the functions shown in FIG.

動画配信サーバ10の情報記憶管理部41は、ストレージ15等において様々な情報を記憶及び管理する。情報記憶管理部41は、例えば、図2に示すように、動画配信サービスのユーザに関する情報を管理するユーザ情報テーブル411と、個別の動画配信に関する情報を管理する配信情報テーブル412とを有するように構成され得る。 The information storage management unit 41 of the video distribution server 10 stores and manages various information in the storage 15 or the like. For example, as shown in FIG. 2, the information storage management unit 41 has a user information table 411 that manages information about users of the video distribution service and a distribution information table 412 that manages information about individual video distributions. can be configured.

また、本実施形態において、情報記憶管理部41は、図2に示すように、3DモデルDB413を有する。当該DB413は、ユーザのアバターを三次元仮想空間において描画(レンダリング)するための複数の3Dモデル(画像情報)を格納する。 Moreover, in this embodiment, the information storage management part 41 has 3D model DB413, as shown in FIG. The DB 413 stores a plurality of 3D models (image information) for drawing (rendering) the user's avatar in the 3D virtual space.

動画配信サーバ10の基本機能制御部43は、動画配信サービスの基本機能の制御に関する様々な処理を実行する。例えば、基本機能制御部43は、基本機能に関する様々な画面のHTMLデータ又は制御データをユーザ端末30に送信し、ユーザ端末30で表示される当該画面を介したユーザによる操作入力に応答して様々な処理を実行し、当該処理の結果に応じたHTMLデータ又は制御データをユーザ端末30に送信する。基本機能制御部43によって制御される基本機能は、例えば、ログイン認証(ユーザ認証)、課金制御、ユーザ管理(例えば、ユーザ情報テーブル411の更新等)を含む。 The basic function control unit 43 of the video distribution server 10 executes various processes related to control of the basic functions of the video distribution service. For example, the basic function control unit 43 transmits HTML data or control data of various screens related to the basic functions to the user terminal 30, and responds to user operation input via the screens displayed on the user terminal 30 to perform various operations. processing, and transmits HTML data or control data according to the result of the processing to the user terminal 30 . Basic functions controlled by the basic function control unit 43 include, for example, login authentication (user authentication), billing control, and user management (for example, updating the user information table 411, etc.).

動画配信サーバ10の動画配信制御部45は、動画の配信の制御に関する様々な処理を実行する。本実施形態において、動画配信制御部45は、動画の共同配信(コラボ配信)を行う複数のユーザに対応する複数のアバターが含まれる仮想空間に対応する動画を生成し、生成した動画を複数の視聴ユーザの各々に対して提供するように構成されている。例えば、動画配信制御部45は、生成した動画を、複数の視聴ユーザの各々のユーザ端末30に対して送信するように構成される。 The moving image distribution control unit 45 of the moving image distribution server 10 executes various processes related to controlling the distribution of moving images. In this embodiment, the video distribution control unit 45 generates a video corresponding to a virtual space including a plurality of avatars corresponding to a plurality of users who perform joint video distribution (collaborative distribution), and distributes the generated video to a plurality of users. It is configured to be provided to each viewing user. For example, the video distribution control unit 45 is configured to transmit the generated video to the user terminals 30 of each of the plurality of viewing users.

本実施形態において、動画配信制御部45は、動画の共同配信を行う複数のユーザに対応する複数のアバターの各々を、3DモデルDB413において格納されている3Dモデルに基づいて描画するように構成されている。例えば、動画配信制御部45は、動画の共同配信を開始する際に、共同配信を行う複数のユーザの各々を特定し、特定した各ユーザのアバターに対応する3Dモデルを特定し、特定した3Dモデルを3DモデルDB413から取得するように構成される。各ユーザのアバターに対応する3Dモデルを特定するための情報は、例えば、ユーザ情報テーブル411において管理される。 In this embodiment, the moving image distribution control unit 45 is configured to draw each of a plurality of avatars corresponding to a plurality of users who perform joint distribution of moving images based on 3D models stored in the 3D model DB 413. ing. For example, when co-distributing a video is started, the video distribution control unit 45 identifies each of a plurality of users who perform joint distribution, identifies a 3D model corresponding to each identified user's avatar, and identifies a 3D model corresponding to the avatar of each identified user. It is configured to obtain the model from the 3D model DB 413 . Information for specifying the 3D model corresponding to each user's avatar is managed in the user information table 411, for example.

また、動画配信制御部45は、複数のアバターの各々を、対応するユーザによってユーザ端末30を介して入力される入力情報に少なくとも基づいて仮想空間において動作させるように構成されている。 Also, the video distribution control unit 45 is configured to cause each of the plurality of avatars to operate in the virtual space based at least on input information input via the user terminal 30 by the corresponding user.

このように、本実施形態における動画配信サーバ10は、動画の共同配信を行う複数のユーザに対応する複数のアバターの各々の3Dモデルに基づいて各アバターを描画すると共に、当該複数のユーザによってそれぞれ入力される入力情報に基づいて当該複数のアバターの各々の動作を制御し、これらの複数のアバターが含まれる仮想空間に対応する動画を生成して配信するから、例えば、素顔を公開することに対して抵抗を感じるユーザが含まれる場合であっても、複数のユーザによる動画の共同配信を手軽に行うことが可能であり、この結果、動画配信の活性化が促進され得る。 In this way, the video distribution server 10 in the present embodiment draws each avatar based on the 3D model of each of the avatars corresponding to the users who jointly distribute the video, and each avatar is drawn by the users. The motion of each of the plurality of avatars is controlled based on the input information to be input, and a video corresponding to the virtual space containing the plurality of avatars is generated and distributed. Even if some users are reluctant to do so, it is possible for a plurality of users to easily perform joint distribution of moving images, and as a result, activation of moving image distribution can be promoted.

本実施形態において、アバターを動作させるために入力される入力情報は、様々な情報を含み、例えば、ユーザ端末30のタッチパネルに対する操作情報、又は、物理コントローラに対する操作情報等を含む。また、例えば、当該入力情報は、ユーザ端末30のカメラを介して入力される画像を含み、この場合、動画配信制御部45は、当該入力される画像に含まれるユーザの姿勢に基づいてアバターを動作させるように構成され得る。例えば、動画配信制御部45は、動画の共同配信を行う複数のユーザの各々のユーザ端末30から、当該ユーザ端末30のカメラを介して入力(撮影)される画像を受信し、受信した画像に含まれるユーザの姿勢(ボーン)を検出し、検出したユーザの姿勢に基づいて(例えば、ユーザの姿勢と連動するように)対応するアバターの動作を制御するように構成される。画像に含まれるユーザの姿勢の検出は、例えば、公知の人物姿勢推定技術を適用して実現することができる。また、動画配信制御部45は、入力される画像に含まれるユーザの身体の1又は複数の所定の部位(例えば、顔及び両手等)の画像における配置に少なくとも基づいてアバターを動作させるように構成され得る。こうした構成は、現実のユーザの動きに基づいてアバターを動作させることを可能とする。 In this embodiment, the input information that is input to operate the avatar includes various information, such as operation information for the touch panel of the user terminal 30 or operation information for the physical controller. Also, for example, the input information includes an image input via the camera of the user terminal 30, and in this case, the video distribution control unit 45 creates an avatar based on the user's posture included in the input image. can be configured to operate. For example, the moving image distribution control unit 45 receives an image input (captured) via the camera of the user terminal 30 from each user terminal 30 of each of a plurality of users who perform joint distribution of moving images, and converts the received image to It is configured to detect the pose (bone) of the included user and control the motion of the corresponding avatar based on the detected user pose (eg, in conjunction with the user's pose). Detection of the user's posture included in the image can be realized by applying a known human posture estimation technique, for example. In addition, the moving image distribution control unit 45 is configured to operate the avatar based at least on the arrangement in the image of one or more predetermined parts of the user's body (e.g., face, hands, etc.) included in the input image. can be Such a configuration allows the avatar to act based on real user movements.

また、動画配信制御部45は、動画の共同配信を行う複数のユーザの各々によってユーザ端末30を介して入力される音声を含む動画を生成するように構成され得る。例えば、動画配信制御部45は、動画の共同配信を行う複数のユーザの各々のユーザ端末30から、当該ユーザ端末30のマイクを介して入力される音声を受信し、受信した音声が含まれる動画を生成するように構成される。こうした構成は、動画の共同配信を行う各ユーザによって入力される音声を含む動画の配信を可能とする。 In addition, the video distribution control unit 45 can be configured to generate a video including audio input via the user terminal 30 by each of a plurality of users who jointly distribute the video. For example, the moving image distribution control unit 45 receives audio input through the microphone of each user terminal 30 of each user terminal 30 of a plurality of users who perform joint distribution of moving images, is configured to generate Such a configuration enables distribution of moving images including audio input by each user who co-distributes moving images.

この場合、動画配信制御部45は、動画の共同配信を行う複数のユーザの各々によって入力される音声に基づいて対応するアバターの口の動きを制御するように構成され得る。例えば、動画配信制御部45は、特定のユーザによる音声の入力がある期間は、当該特定のユーザのアバターの口を所定のルールに従って動作させる一方、当該特定のユーザによる音声の入力がない期間は、当該特定のユーザのアバターの口を静止させるように構成される。こうした構成は、アバターの口の動きを、現実のユーザの口の動きに近づけることを支援する。 In this case, the video distribution control unit 45 may be configured to control mouth movements of corresponding avatars based on voices input by each of a plurality of users who jointly distribute videos. For example, the moving picture distribution control unit 45 operates the mouth of the avatar of the specific user according to a predetermined rule during a period when there is voice input by the specific user, while during a period when there is no voice input by the specific user , is configured to freeze the mouth of that particular user's avatar. Such a configuration helps bring the avatar's mouth movements closer to the real user's mouth movements.

また、動画配信制御部45は、アバターの仮想空間における位置に少なくとも基づいて、対応するユーザによって入力される音声の音量を制御するように構成され得る。例えば、動画配信制御部45は、仮想空間における仮想カメラとアバターとの間の距離が近いほど(又は、遠いほど)、対応するユーザによって入力される音声の音量が大きくなる(又は、小さくなる)ように動画を生成する。また、例えば、動画配信制御部45は、仮想空間における仮想カメラとアバターとの間の位置関係に基づいて、対応するユーザによって入力される音声の左側スピーカー用及び右側スピーカー用それぞれの音量を制御する(例えば、アバターが仮想カメラの左側に位置する場合に、対応する音声の左側用の音量を、右側用の音量と比較して大きくする等)ように構成される。こうした構成は、仮想空間におけるアバターの位置に応じた音量で音声を出力することを可能とする。 In addition, the video distribution control unit 45 may be configured to control the volume of audio input by the corresponding user based at least on the position of the avatar in the virtual space. For example, the video distribution control unit 45 increases (or decreases) the volume of the voice input by the corresponding user as the distance between the virtual camera and the avatar in the virtual space is shorter (or longer). Generate a video like Also, for example, the video distribution control unit 45 controls the volume of each of the left speaker and the right speaker of the audio input by the corresponding user based on the positional relationship between the virtual camera and the avatar in the virtual space. (For example, when the avatar is positioned on the left side of the virtual camera, the volume of the corresponding audio for the left side is increased compared to the volume for the right side, etc.). Such a configuration makes it possible to output sound with a volume corresponding to the position of the avatar in the virtual space.

次に、このような機能を有する本実施形態の動画配信サーバ10の具体例について説明する。この例において、サーバ10は、ユーザがリアルタイムで動画を配信するためのライブ動画配信サービスを提供する。図3は、この例において、ユーザ情報テーブル411において管理される情報を例示する。ユーザ情報テーブル411は、ライブ動画配信サービスのユーザに関する情報を管理し、この例では、図示するように、個別のユーザを識別する「ユーザアカウント」に対応付けて、当該ユーザのアバターに関する情報である「アバター情報」、ライブ動画の配信履歴に関する情報である「配信履歴情報」、ライブ動画の視聴履歴に関する情報である「視聴履歴情報」等の情報を管理する。 Next, a specific example of the video distribution server 10 of this embodiment having such functions will be described. In this example, the server 10 provides a live video distribution service for users to distribute videos in real time. FIG. 3 illustrates information managed in the user information table 411 in this example. The user information table 411 manages information about users of the live video distribution service, and in this example, as illustrated, is information about the user's avatar in association with a "user account" that identifies an individual user. It manages information such as "avatar information", "distribution history information" that is information about distribution history of live videos, and "viewing history information" that is information about viewing history of live videos.

アバター情報は、3DモデルDB413に格納されている複数の3Dモデルのうちユーザによって予め選択されている3Dモデルを特定する情報を含む。3DモデルDB413に格納されている複数の3Dモデルは、相互に外観が異なる複数のアバターにそれぞれ対応しており、ユーザは、これらの複数の3Dモデルの中から所望の3Dモデルを、自身のアバターの3Dモデルとして予め選択することができる。 The avatar information includes information specifying a 3D model preselected by the user from among multiple 3D models stored in the 3D model DB 413 . A plurality of 3D models stored in the 3D model DB 413 correspond to a plurality of avatars having mutually different appearances. can be pre-selected as a 3D model of

図4は、この例において、配信情報テーブル412において管理される情報を例示する。配信情報テーブル412は、個別の動画配信に関する情報を管理し、この例では、図示するように、個別の動画配信を識別する「配信ID」に対応付けて、動画を配信する配信ユーザを識別する「配信ユーザアカウント」、この動画配信に参加する参加ユーザを識別する「参加ユーザアカウント」、「配信状況情報」等の情報を管理する。配信状況情報は、同時視聴者数、延べ視聴者数、及び、配信を開始してからの経過時間等の情報を含む。 FIG. 4 illustrates information managed in the distribution information table 412 in this example. The distribution information table 412 manages information about individual video distributions, and in this example, as illustrated, identifies distribution users who distribute videos in association with "distribution IDs" that identify individual video distributions. It manages information such as "distribution user accounts", "participating user accounts" for identifying participating users participating in this video distribution, and "distribution status information". The distribution status information includes information such as the number of simultaneous viewers, the total number of viewers, and the elapsed time from the start of distribution.

図5は、この例において、個別の動画配信が行われる際に動画配信サーバ10が実行する処理を例示するフロー図である。ユーザは、例えば、ユーザ端末30において表示される画面を介して、動画配信の開始を指示することができる。サーバ10は、まず、図示するように、配信ユーザのアバターの3Dモデルを3DモデルDB413から取得する(ステップS100)。配信ユーザのアバターの3Dモデルを特定する情報は、ユーザ情報テーブル411のアバター情報において管理されている。 FIG. 5 is a flow diagram illustrating processing executed by the moving image distribution server 10 when individual moving image distribution is performed in this example. The user can instruct the start of video distribution via a screen displayed on the user terminal 30, for example. The server 10 first acquires the 3D model of the distribution user's avatar from the 3D model DB 413, as illustrated (step S100). Information specifying the 3D model of the distribution user's avatar is managed in the avatar information of the user information table 411 .

配信ユーザの3Dモデルを取得すると、サーバ10は、配信終了となる迄の間(ステップS130においてNO)、配信ユーザのユーザ端末30(以下、「配信ユーザ端末30」と言うことがある。)から、カメラを介して入力される入力画像、及び、マイクを介して入力される入力音声を受信し、受信した入力画像及び入力音声に基づいて動画を生成及び送信する処理を繰り返す(ステップS110、S120)。 After obtaining the 3D model of the distribution user, the server 10, until the distribution is completed (NO in step S130), transmits the 3D model from the distribution user's user terminal 30 (hereinafter sometimes referred to as "distribution user terminal 30"). , an input image input via a camera and an input sound input via a microphone are received, and a process of generating and transmitting a moving image based on the received input image and input sound is repeated (steps S110 and S120). ).

図6は、ライブ動画の配信中において、配信ユーザ端末30、動画配信サーバ10、及び複数の視聴ユーザのユーザ端末30(以下、「視聴ユーザ端末30」と言うことがある。)の間で行われる通信を説明するための図である。図示するように、配信ユーザ端末30から動画配信サーバ10に対して、配信ユーザ端末30のカメラを介して入力される入力画像、及び、マイクを介して入力される入力音声が送信される。動画配信サーバ10は、受信する入力画像及び入力音声に基づいて動画を生成し、生成した動画を配信ユーザ端末30及び複数の視聴ユーザ端末30の各々にそれぞれ送信する。配信ユーザ端末30及び複数の視聴ユーザ端末30の各々は、受信した動画を表示する。 FIG. 6 shows the process performed between the distribution user terminal 30, the video distribution server 10, and the user terminals 30 of a plurality of viewing users (hereinafter sometimes referred to as "viewing user terminals 30") during distribution of a live video. FIG. 4 is a diagram for explaining communication that is carried out; As illustrated, an input image input via the camera of the distribution user terminal 30 and an input sound input via the microphone are transmitted from the distribution user terminal 30 to the video distribution server 10 . The moving picture distribution server 10 generates a moving picture based on the received input image and input sound, and transmits the generated moving picture to each of the distribution user terminal 30 and the plurality of viewing user terminals 30 . Each of the distribution user terminal 30 and the plurality of viewing user terminals 30 displays the received video.

図7は、動画配信サーバ10によって生成された動画を受信する視聴ユーザ端末30において表示される視聴用画面60を例示する。当該画面60は、図示するように、画面全体において、仮想空間100を表示し、画面下端の左側に位置するコメント入力領域62と、当該領域62の上側に位置するコメント表示領域63と、画面下端の右側に位置する参加ボタン64とが、当該仮想空間100に重ねて配置されている。コメント入力領域62を介して視聴ユーザがコメントを入力すると、入力されたコメントが、コメント表示領域63において表示される。また、視聴ユーザが、参加ボタン64を選択すると、視聴中のライブ動画への参加要求が行われる。ライブ動画への参加要求の詳細については後述する。 FIG. 7 illustrates a viewing screen 60 displayed on the viewing user terminal 30 that receives the moving image generated by the moving image distribution server 10 . As shown, the screen 60 displays the virtual space 100 over the entire screen, and includes a comment input area 62 located on the left side of the bottom edge of the screen, a comment display area 63 located above the area 62, and a comment display area 63 located above the area 62 and the bottom edge of the screen. A participation button 64 located on the right side of the is arranged so as to be superimposed on the virtual space 100 . When the viewing user inputs a comment via the comment input area 62 , the input comment is displayed in the comment display area 63 . Also, when the viewing user selects the participation button 64, a request for participation in the live video being viewed is made. The details of the request to participate in the live video will be described later.

この例において、動画配信サーバ10によって生成される動画は、仮想空間100に対応する。当該仮想空間100は、図7に示すように、略中央にステージ102を有し、ステージ102上には、配信ユーザのアバター110が配置されている。当該アバター110は、配信ユーザのアバターの3Dモデルに基づいて描画される。また、当該アバター110は、配信ユーザ端末30から受信する入力画像に基づいて、その動作が制御され、具体的には、当該入力画像における配信ユーザの顔及び両手の配置に基づいて、その動作が制御される。 In this example, the video generated by the video distribution server 10 corresponds to the virtual space 100. FIG. As shown in FIG. 7, the virtual space 100 has a stage 102 substantially in the center, and an avatar 110 of the broadcast user is arranged on the stage 102 . The avatar 110 is rendered based on a 3D model of the broadcast user's avatar. In addition, the avatar 110 is controlled based on the input image received from the distribution user terminal 30. controlled.

図8は、配信ユーザ端末30から受信する入力画像50を模式的に例示する。図示するように、この例では、配信ユーザの右手RHの手の平には、第1の色(例えば、赤色)の円形のマーカーMK1が設けられており、配信ユーザの左手LHの手の平には、第2の色(例えば、黄色)の円形のマーカーMK2が設けられている。これらのマーカーMK1、2は、例えば、手の平に貼り付けるステッカーとして構成され、当該ステッカーは、例えば、ライブ動画配信サービスの提供事業者等によってユーザに提供される。また、マーカーMK1、2は、例えば、手の平にインク等で直接描かれる。この場合、例えば、ライブ動画配信サービスの提供事業者等が配布するインストラクションに従って、ユーザが、両手の手の平にマーカーMK1、2をそれぞれ描く。 FIG. 8 schematically illustrates an input image 50 received from the distribution user terminal 30. As shown in FIG. As shown, in this example, a circular marker MK1 of a first color (for example, red) is provided on the palm of the distribution user's right hand RH, and a first color marker MK1 is provided on the distribution user's left hand LH palm. A circular marker MK2 of two colors (eg yellow) is provided. These markers MK1 and 2 are, for example, configured as stickers to be attached to the palms of the hands, and the stickers are provided to users by, for example, providers of live video distribution services. Also, the markers MK1 and MK2 are drawn directly with ink or the like, for example, on the palm of the hand. In this case, for example, the user draws markers MK1 and 2 on the palms of both hands according to instructions distributed by a live video distribution service provider or the like.

図8に示すように、この例では、ユーザの顔FCは、当該顔FCの輪郭を囲う矩形の検出領域DA1として検出及び認識される。また、ユーザの両手RH、LHは、当該両手RH、LHの各々の手の平に設けられているマーカーMK1、2の輪郭を囲う矩形の検出領域DA2、DA3としてそれぞれ検出及び認識される。こうした顔FC、及び、両手RH、LH(マーカーMK1、2)の認識は、公知の物体追跡技術を用いて実現され、例えば、機械学習を介して生成された学習済みモデルを用いて実現される。 As shown in FIG. 8, in this example, the user's face FC is detected and recognized as a rectangular detection area DA1 surrounding the outline of the face FC. Both hands RH and LH of the user are detected and recognized as rectangular detection areas DA2 and DA3 surrounding the contours of the markers MK1 and MK2 provided on the palms of the hands RH and LH, respectively. Recognition of such face FC and both hands RH and LH (markers MK1, 2) is realized using known object tracking technology, for example, using a trained model generated via machine learning. .

このように、配信ユーザ端末30から受信する入力画像におけるユーザの顔及び両手を認識すると、これらの顔及び両手の配置に連動するように、アバター110の動作が制御される。例えば、配信ユーザが万歳の姿勢を取ると、入力画像に含まれる配信ユーザの顔及び両手の配置が万歳の姿勢に対応する配置となり、仮想空間100におけるアバター110は、万歳の姿勢となるようにその動作が制御される。 In this way, when the user's face and hands are recognized in the input image received from the distribution user terminal 30, the action of the avatar 110 is controlled in conjunction with the arrangement of the face and both hands. For example, when the distribution user takes a banzai posture, the arrangement of the distribution user's face and both hands included in the input image becomes an arrangement corresponding to the banzai posture, and the avatar 110 in the virtual space 100 assumes the banzai posture. Its operation is controlled.

また、この例において、動画配信サーバ10によって生成される動画は、配信ユーザ端末30から受信する入力音声(配信ユーザの声)を含む。この例において、当該入力音声に基づいて、アバター110の口の動きを制御するようにしても良い。 Also, in this example, the moving image generated by the moving image distribution server 10 includes the input voice (voice of the distribution user) received from the distribution user terminal 30 . In this example, the movement of the mouth of the avatar 110 may be controlled based on the input voice.

図9は、配信ユーザ端末30において表示される配信用画面70を例示する。当該画面70は、図示するように、上述した視聴用画面60と同様に、画面全体において、仮想空間100を表示し、画面下端の左側に位置するコメント入力領域72と、当該領域72の上側に位置するコメント表示領域73とが重ねて配置されている。また、配信用画面70の画面下端の右側には、視聴用画面60における参加ボタン64に代えて、配信停止ボタン74が仮想空間100に重ねて配置されている。当該配信停止ボタン74は、ライブ動画の配信を停止するためのオブジェクトである。 FIG. 9 exemplifies a distribution screen 70 displayed on the distribution user terminal 30 . As shown in the drawing, the screen 70 displays the virtual space 100 on the entire screen in the same manner as the viewing screen 60 described above. Positioned comment display area 73 is overlapped. Also, instead of the participation button 64 in the viewing screen 60 , a distribution stop button 74 is superimposed on the virtual space 100 on the right side of the lower end of the distribution screen 70 . The distribution stop button 74 is an object for stopping the distribution of live moving images.

配信ユーザは、例えば、スマートフォンとして構成されるユーザ端末30のインカメラの前で身体を動かすことによって、当該インカメラを介して入力(撮影)される入力画像を介してアバター110を操作しつつ、当該ユーザ端末30において表示される配信用画面70を介して、アバター110が含まれる仮想空間100に対応する動画を閲覧することができる。 For example, the distribution user operates the avatar 110 via an input image input (captured) via the in-camera by moving the body in front of the in-camera of the user terminal 30 configured as a smartphone, A moving image corresponding to the virtual space 100 including the avatar 110 can be viewed via the distribution screen 70 displayed on the user terminal 30 .

ここで、ライブ動画に視聴ユーザが参加する際の動作について説明する。この例において、視聴ユーザは、視聴用画面60の参加ボタン64を選択することによって、視聴中のライブ動画に対する参加要求を行うことができる。図10は、視聴ユーザによる参加要求に応じて、動画配信サーバ10が実行する処理を例示するフロー図である。参加ボタン64が選択されると、サーバ10は、まず、図示するように、視聴ユーザによる参加要求を配信ユーザに通知する(ステップS200)。 Here, the operation when a viewing user participates in a live video will be described. In this example, the viewing user can request participation in the live video being viewed by selecting the participation button 64 on the viewing screen 60 . FIG. 10 is a flow diagram illustrating processing executed by the video distribution server 10 in response to a participation request from a viewing user. When the participation button 64 is selected, the server 10 first notifies the distribution user of the participation request by the viewing user, as shown in the figure (step S200).

図11は、視聴ユーザによる参加ボタン64の選択に応じて、配信ユーザ端末30において表示される参加要求通知オブジェクト80を例示する。当該オブジェクト80は、特定のユーザ(図11の例では、ユーザA)から参加要求があった旨を通知すると共に、当該参加要求を許可するための許可ボタン82と、当該参加要求を拒否するための拒否ボタン84とが配置されている。参加要求通知オブジェクト80は、配信用画面70上に重ねて表示される。 FIG. 11 exemplifies a participation request notification object 80 displayed on the distribution user terminal 30 in response to selection of the participation button 64 by the viewing user. The object 80 notifies that a specific user (user A in the example of FIG. 11) has requested participation, and has a permit button 82 for permitting the participation request and a refusal button 84 is arranged. The participation request notification object 80 is superimposed on the distribution screen 70 and displayed.

そして、サーバ10は、配信ユーザによって許可ボタン82が選択された場合には(ステップS210においてYES)、参加要求を行った視聴ユーザ(参加ユーザ)のアバターの3Dモデルを3DモデルDB413から取得し(ステップS220)、参加ユーザが参加した動画の配信(コラボ配信)を開始する(ステップS230)。なお、配信ユーザによって拒否ボタン84が選択された場合には(ステップS210においてNO)、参加要求が拒否されたので、ステップS220、S230の処理はスキップされる。 Then, when the distribution user selects the permission button 82 (YES in step S210), the server 10 acquires the 3D model of the avatar of the viewing user (participating user) who made the participation request from the 3D model DB 413 ( Step S220), and start distribution (collaboration distribution) of the video in which the participating users have participated (step S230). Note that if the distributing user selects the refusal button 84 (NO in step S210), the request for participation has been refused, so the processes of steps S220 and S230 are skipped.

図12は、コラボ配信の期間中において、配信ユーザ端末30、参加ユーザのユーザ端末30(以下、「参加ユーザ端末30」と言うことがある。)、動画配信サーバ10、及び複数の視聴ユーザ端末30の間で行われる通信を説明するための図である。図示するように、コラボ配信の期間中においては、配信ユーザ端末30から動画配信サーバ10に対して、入力画像及び入力音声が送信されると共に、参加ユーザ端末30から動画配信サーバ10に対して、参加ユーザ端末30のカメラを介して入力される入力画像、及び、マイクを介して入力される入力音声が送信される。動画配信サーバ10は、配信ユーザ端末30及び参加ユーザ端末30からそれぞれ受信する入力画像及び入力音声に基づいて動画を生成し、生成した動画を配信ユーザ端末30、参加ユーザ端末30及び複数の視聴ユーザ端末30の各々にそれぞれ送信する。配信ユーザ端末30、参加ユーザ端末30及び複数の視聴ユーザ端末30の各々は、受信した動画を表示する。 FIG. 12 shows a distribution user terminal 30, a participating user's user terminal 30 (hereinafter sometimes referred to as "participating user terminal 30"), a video distribution server 10, and a plurality of viewing user terminals during a period of collaboration distribution. 30 is a diagram for explaining communication performed between 30. FIG. As shown in the figure, during the collaboration delivery period, input images and input sounds are transmitted from the delivery user terminals 30 to the video delivery server 10, and from the participating user terminals 30 to the video delivery server 10, An input image input through the camera of the participating user terminal 30 and an input sound input through the microphone are transmitted. The moving image distribution server 10 generates a moving image based on the input image and the input sound received from the distributing user terminal 30 and the participating user terminals 30, respectively, and distributes the generated moving image to the distributing user terminal 30, the participating user terminals 30 and a plurality of viewing users. It transmits to each of the terminals 30 respectively. Each of the distribution user terminal 30, the participating user terminals 30, and the plurality of viewing user terminals 30 displays the received video.

この例において、コラボ配信の期間中に動画配信サーバ10によって生成される動画は、仮想空間100において参加ユーザのアバターが追加されている。図13は、コラボ配信の期間中における視聴用画面60を例示する。図示するように、コラボ配信の期間中においては、配信ユーザのアバター110のステージ102上における位置が若干左方向にスライドし、参加ユーザのアバター112が、当該アバター110の右側に並ぶように新たに配置(追加)されている。当該アバター112は、参加ユーザのアバターの3Dモデルに基づいて描画され、参加ユーザ端末30から受信する入力画像に基づいて、配信ユーザのアバター110と同様に、その動作が制御される。 In this example, the video generated by the video distribution server 10 during the collaboration distribution has the avatars of the participating users added in the virtual space 100 . FIG. 13 exemplifies the viewing screen 60 during the collaboration delivery period. As shown in the figure, during the collaboration delivery period, the position of the delivery user's avatar 110 on the stage 102 slides slightly to the left, and the participating user's avatar 112 is newly aligned to the right of the avatar 110. placed (added). The avatar 112 is drawn based on the 3D model of the participating user's avatar, and its action is controlled based on the input image received from the participating user terminal 30 in the same way as the distribution user's avatar 110 .

また、コラボ配信の期間中において、動画配信サーバ10によって生成される動画は、配信ユーザ端末30から受信する配信ユーザの入力音声に加えて、参加ユーザ端末30から受信する参加ユーザの入力音声(参加ユーザの声)を含む。この例において、アバター110、112の仮想空間100における位置に基づいて、配信ユーザ、参加ユーザそれぞれの入力音声の音量を制御するようにしても良い。例えば、ステージ102上において左側にアバター110が位置する配信ユーザの入力音声は、右側スピーカー用の音量と比較して左側スピーカー用の音量が大きくなるようにする一方、これとは反対に、ステージ102上において右側にアバター112が位置する参加ユーザの入力音声は、左側スピーカー用の音量と比較して右側スピーカー用の音量が大きくなるようにしても良い。 In addition, during the collaboration distribution period, the video generated by the video distribution server 10 includes the input voices of the participating users received from the participating user terminals 30 (participation user's voice). In this example, based on the positions of the avatars 110 and 112 in the virtual space 100, the volumes of the input voices of the distribution users and the participating users may be controlled. For example, the input audio of a broadcast user whose avatar 110 is positioned on the left side of stage 102 will have a louder volume for the left speaker compared to the volume for the right speaker, while, conversely, the volume for the left speaker will be greater than the volume for the right speaker. The input voice of the participating user whose avatar 112 is positioned on the right side of the top may be louder for the right speaker than for the left speaker.

このように、この例では、配信ユーザ及び参加ユーザの各々のアバターが含まれる仮想空間に対応する動画を手軽に生成して複数の視聴ユーザに配信することが可能である。なお、この例では、コラボ配信の期間中において、視聴用画面60の参加ボタン64は選択できないように構成されており、参加ユーザの数は1人に制限されている。しかしながら、本実施形態の他の例では、2以上の参加ユーザが参加するコラボ配信が可能とされ得る。 Thus, in this example, it is possible to easily generate a video corresponding to the virtual space in which the avatars of the distribution users and the participating users are included, and distribute the video to a plurality of viewing users. In this example, the participation button 64 on the viewing screen 60 cannot be selected during the collaboration delivery period, and the number of participating users is limited to one. However, in other examples of this embodiment, a collaborative delivery involving two or more participating users may be enabled.

以上説明した本実施形態に係る動画配信サーバ10は、動画の共同配信を行う複数のユーザに対応する複数のアバターの各々の3Dモデルに基づいて各アバターを描画すると共に、当該複数のユーザによってそれぞれ入力される入力情報(例えば、ユーザ端末30のカメラを介して入力される入力画像)に基づいて当該複数のアバターの各々の動作を制御し、これらの複数のアバターが含まれる仮想空間に対応する動画を生成して配信するから、例えば、素顔を公開することに対して抵抗を感じるユーザが含まれる場合であっても、複数のユーザによる動画の共同配信を手軽に行うことが可能であり、この結果、動画配信の活性化が促進され得る。 The moving image distribution server 10 according to the present embodiment described above draws each avatar based on the 3D model of each of the plurality of avatars corresponding to the plurality of users who perform joint distribution of moving images, and the plurality of users respectively Based on the input information (for example, the input image input via the camera of the user terminal 30), the operation of each of the plurality of avatars is controlled, and the virtual space in which the plurality of avatars are included is supported. Since a moving image is generated and distributed, for example, even if there are users who are reluctant to disclose their real faces, it is possible to easily perform joint distribution of moving images by a plurality of users, As a result, activation of video distribution can be promoted.

上述した実施形態では、動画配信サーバ10が動画の生成を行うようにしたが、本発明の他の実施形態において、動画の生成は、配信ユーザ端末30において行われ得る。図14は、当該他の実施形態において、コラボ配信の期間中に、配信ユーザ端末30、参加ユーザ端末30、動画配信サーバ10、及び複数の視聴ユーザ端末30の間で行われる通信を説明するための図である。図示するように、この実施形態においては、配信ユーザ端末30から動画配信サーバ10に対して、入力画像のみが送信されると共に、参加ユーザ端末30から動画配信サーバ10に対して、入力画像及び入力音声が送信される。動画配信サーバ10は、配信ユーザ端末30及び参加ユーザ端末30からそれぞれ受信する各入力画像を解析し、各入力画像におけるユーザの顔及び両手の配置に関する配置情報を取得する。そして、動画配信サーバ10は、取得した配置情報(配信ユーザ)及び配置情報(参加ユーザ)、並びに、参加ユーザ端末30から受信した入力音声を配信ユーザ端末30に送信する。配信ユーザ端末30は、動画配信サーバ10から受信した配置情報(配信ユーザ)、配置情報(参加ユーザ)、及び入力音声(参加ユーザ)、並びに、配信ユーザ端末30における入力音声に基づいて動画を生成し、生成した動画を、動画配信サーバ10を経由して、参加ユーザ端末30及び複数の視聴ユーザ端末30の各々に送信する。なお、配信ユーザ端末30は、コラボ配信の開始前において、配信ユーザ及び参加ユーザそれぞれのアバターの3Dモデルを3DモデルDB413から取得する。 In the above-described embodiment, the moving picture distribution server 10 generates the moving picture, but in another embodiment of the present invention, the distribution user terminal 30 may generate the moving picture. FIG. 14 is for explaining the communication performed between the distribution user terminals 30, the participating user terminals 30, the video distribution server 10, and the plurality of viewing user terminals 30 during the collaboration distribution period in this other embodiment. is a diagram. As illustrated, in this embodiment, only the input image is transmitted from the distribution user terminal 30 to the moving image distribution server 10, and the input image and the input image are transmitted from the participating user terminal 30 to the moving image distribution server 10. Audio is sent. The moving image distribution server 10 analyzes each input image received from each of the distribution user terminal 30 and the participating user terminal 30, and obtains arrangement information regarding the arrangement of the user's face and both hands in each input image. Then, the moving image distribution server 10 transmits the obtained arrangement information (distribution users) and arrangement information (participating users), and the input voice received from the participating user terminals 30 to the distribution user terminals 30 . The distribution user terminal 30 generates a video based on the arrangement information (distribution user), the arrangement information (participating user), and the input voice (participating user) received from the video distribution server 10, and the input voice in the delivery user terminal 30. Then, the generated video is transmitted to each of the participating user terminals 30 and the plurality of viewing user terminals 30 via the video distribution server 10 . Note that the distribution user terminal 30 acquires the 3D models of the avatars of the distribution user and the participating users from the 3D model DB 413 before starting the collaboration distribution.

また、動画の生成が配信ユーザ端末30において行われる上記実施形態において、各入力画像の解析、及び、上記配置情報の取得は、配信ユーザ端末30及び参加ユーザ端末30の各々において行われ得る。この場合、参加ユーザ端末30から動画配信サーバ10に対して、配置情報及び入力音声が送信される。動画配信サーバ10は、参加ユーザ端末30から受信した配置情報及び入力音声を配信ユーザ端末30に送信する。配信ユーザ端末30は、動画配信サーバ10から受信した配置情報(参加ユーザ)及び入力音声(参加ユーザ)、並びに、配信ユーザ端末30における配置情報(配信ユーザ)及び入力音声(配信ユーザ)に基づいて動画を生成し、生成した動画を、動画配信サーバ10を経由して、複数の視聴ユーザ端末30の各々に送信する。 Further, in the above-described embodiment in which the moving image is generated in the distribution user terminal 30, the analysis of each input image and the acquisition of the arrangement information may be performed in each of the distribution user terminal 30 and the participating user terminals 30. In this case, the arrangement information and the input voice are transmitted from the participating user terminal 30 to the video distribution server 10 . The moving image distribution server 10 transmits the arrangement information and the input audio received from the participating user terminals 30 to the distribution user terminals 30 . Based on the arrangement information (participating users) and the input audio (participating users) received from the video distribution server 10, and the arrangement information (distribution users) and the input audio (distribution users) in the distribution user terminal 30, the distribution user terminal 30 A moving image is generated, and the generated moving image is transmitted to each of a plurality of viewing user terminals 30 via the moving image distribution server 10. - 特許庁

また、本発明の更に他の実施形態において、動画の生成は、配信ユーザ端末30、参加ユーザ端末30、及び、複数の視聴ユーザ端末30の各々において行われ得る。図15は、当該実施形態において、コラボ配信の期間中に、配信ユーザ端末30、参加ユーザ端末30、動画配信サーバ10、及び複数の視聴ユーザ端末30の間で行われる通信を説明するための図である。図示するように、この実施形態においては、配信ユーザ端末30及び参加ユーザ端末30から動画配信サーバ10に対して、入力画像及び入力音声が送信される。動画配信サーバ10は、配信ユーザ端末30及び参加ユーザ端末30からそれぞれ受信する各入力画像を解析し、各入力画像におけるユーザの顔及び両手の配置に関する配置情報を取得する。そして、動画配信サーバ10は、取得した配置情報(配信ユーザ)及び配置情報(参加ユーザ)、並びに、参加ユーザ端末30から受信した入力音声を配信ユーザ端末30に送信し、配信ユーザ端末30は、動画配信サーバ10から受信した配置情報(配信ユーザ)、配置情報(参加ユーザ)、及び入力音声(参加ユーザ)、並びに、配信ユーザ端末30における入力音声に基づいて動画を生成する。また、動画配信サーバ10は、取得した配置情報(配信ユーザ)及び配置情報(参加ユーザ)、並びに、配信ユーザ端末30から受信した入力音声を参加ユーザ端末30に送信し、参加ユーザ端末30は、動画配信サーバ10から受信した配置情報(配信ユーザ)、配置情報(参加ユーザ)、及び入力音声(配信ユーザ)、並びに、参加ユーザ端末30における入力音声に基づいて動画を生成する。さらに、動画配信サーバ10は、取得した配置情報(配信ユーザ)及び配置情報(参加ユーザ)、並びに、配信ユーザ端末30及び参加ユーザ端末30からそれぞれ受信した入力音声を複数の視聴ユーザ端末30の各々に送信し、各視聴ユーザ端末30は、動画配信サーバ10から受信した配置情報(配信ユーザ)、配置情報(参加ユーザ)、入力音声(配信ユーザ)、及び入力音声(参加ユーザ)に基づいて動画を生成する。なお、配信ユーザ端末30、参加ユーザ端末30、及び複数の視聴ユーザ端末30の各々は、コラボ配信の開始前において、配信ユーザ及び参加ユーザそれぞれのアバターの3Dモデルを3DモデルDB413から取得する。 Also, in still another embodiment of the present invention, the generation of moving images may be performed in each of the distribution user terminal 30 , the participating user terminals 30 , and the plurality of viewing user terminals 30 . FIG. 15 is a diagram for explaining communication between the distribution user terminal 30, the participating user terminals 30, the video distribution server 10, and the plurality of viewing user terminals 30 during the collaboration distribution period in this embodiment. is. As illustrated, in this embodiment, input images and input sounds are transmitted from the distribution user terminals 30 and the participating user terminals 30 to the video distribution server 10 . The moving image distribution server 10 analyzes each input image received from each of the distribution user terminal 30 and the participating user terminal 30, and obtains arrangement information regarding the arrangement of the user's face and both hands in each input image. Then, the video distribution server 10 transmits the obtained arrangement information (distribution users) and arrangement information (participating users) and the input voice received from the participating user terminal 30 to the distribution user terminal 30, and the distribution user terminal 30 A video is generated based on the arrangement information (distribution user), the arrangement information (participating user), and the input voice (participating user) received from the video delivery server 10 and the input voice in the delivery user terminal 30 . In addition, the video distribution server 10 transmits the acquired arrangement information (distribution users) and arrangement information (participating users), and the input voice received from the distribution user terminals 30 to the participating user terminals 30, and the participating user terminals 30 A moving image is generated based on the arrangement information (distribution user), the arrangement information (participating user), and the input sound (distributing user) received from the moving picture distribution server 10 and the input sound at the participating user terminal 30 . Furthermore, the video distribution server 10 sends the acquired arrangement information (distribution users) and arrangement information (participating users), and the input voices received from the distribution user terminals 30 and the participating user terminals 30 to each of the plurality of viewing user terminals 30. , and each viewing user terminal 30 transmits the video based on the arrangement information (distribution user), the arrangement information (participating user), the input audio (distributing user), and the input audio (participating user) received from the video distribution server 10 to generate Note that each of the distribution user terminal 30, the participating user terminal 30, and the plurality of viewing user terminals 30 acquires the 3D models of the avatars of the distribution users and the participating users from the 3D model DB 413 before starting the collaboration distribution.

上述した実施形態では、複数のユーザのアバターの画像情報(3Dモデル)を、動画配信サーバ10(3DモデルDB413)において管理するようにしたが、本発明の他の実施形態において、こうしたアバターの画像情報の少なくとも一部は、サーバ10以外の装置おいて管理され、例えば、ユーザ端末30において管理され得る。 In the above-described embodiment, image information (3D models) of avatars of a plurality of users is managed in the video distribution server 10 (3D model DB 413). At least part of the information may be managed in a device other than the server 10, for example, in the user terminal 30. FIG.

本明細書で説明された処理及び手順は、明示的に説明されたもの以外にも、ソフトウェア、ハードウェアまたはこれらの任意の組み合わせによって実現される。例えば、本明細書で説明される処理及び手順は、集積回路、揮発性メモリ、不揮発性メモリ、磁気ディスク等の媒体に、当該処理及び手順に相当するロジックを実装することによって実現される。また、本明細書で説明された処理及び手順は、当該処理・手順に相当するコンピュータプログラムとして実装し、各種のコンピュータに実行させることが可能である。 The processes and procedures described herein, other than those explicitly described, may be implemented in software, hardware, or any combination thereof. For example, the processes and procedures described herein are implemented by implementing logic corresponding to the processes and procedures in media such as integrated circuits, volatile memory, non-volatile memory, magnetic disks, and the like. Moreover, the processes and procedures described in this specification can be implemented as computer programs corresponding to the processes and procedures, and can be executed by various computers.

本明細書中で説明された処理及び手順が単一の装置、ソフトウェア、コンポーネント、モジュールによって実行される旨が説明されたとしても、そのような処理または手順は複数の装置、複数のソフトウェア、複数のコンポーネント、及び/又は複数のモジュールによって実行され得る。また、本明細書において説明されたソフトウェアおよびハードウェアの要素は、それらをより少ない構成要素に統合して、またはより多い構成要素に分解することによって実現することも可能である。 Although the processes and procedures described herein are described as being performed by a single device, software, component or module, such processes or procedures may be performed by multiple devices, software, components or modules. and/or by multiple modules. Also, the software and hardware elements described herein can be implemented by aggregating them into fewer components or by decomposing them into more components.

本明細書において、発明の構成要素が単数もしくは複数のいずれか一方として説明された場合、又は、単数もしくは複数のいずれとも限定せずに説明された場合であっても、文脈上別に解すべき場合を除き、当該構成要素は単数又は複数のいずれであってもよい。 In this specification, even if the components of the invention are described as either singular or plural, or are described without being limited to either singular or plural, when the context requires otherwise , the component may be singular or plural.

10 動画配信サーバ
11 コンピュータプロセッサ
30 ユーザ端末
41 情報記憶管理部
411 ユーザ情報テーブル
412 配信情報テーブル
413 3DモデルDB
43 基本機能制御部
45 動画配信制御部
50 入力画像
60 視聴用画面
70 配信用画面
100 仮想空間
110 配信ユーザのアバター
112 参加ユーザのアバター
10 moving image distribution server 11 computer processor 30 user terminal 41 information storage management unit 411 user information table 412 distribution information table 413 3D model DB
43 Basic function control unit 45 Video distribution control unit 50 Input image 60 Viewing screen 70 Distribution screen 100 Virtual space 110 Distribution user avatar 112 Participating user avatar

Claims (10)

動画を配信するためのシステムであって、
複数のユーザの各々のアバターの画像情報を少なくとも記憶する1又は複数の記憶装置と、1又は複数のコンピュータプロセッサと、を備え、
前記1又は複数のコンピュータプロセッサは、読取可能な命令の実行に応じて、
動画の共同配信を行う第1及び第2のユーザに対応する第1及び第2のアバターが含まれる仮想空間に対応する動画を生成する処理と、
生成した動画を複数の視聴ユーザの各々に対して提供する処理と、を実行し、
前記動画を生成する処理は、前記第1及び第2のアバターを、前記1又は複数の記憶装置に記憶されている前記第1及び第2のアバターの画像情報に少なくとも基づいて描画すること、及び、前記第1及び第2のアバターを、前記第1及び第2のユーザによって第1及び第2のユーザ端末を介してそれぞれ入力される入力情報に少なくとも基づいて前記仮想空間において動作させることを含む、
システム。
A system for distributing video,
One or more storage devices for storing at least image information of each avatar of a plurality of users, and one or more computer processors,
The one or more computer processors, in response to executing readable instructions,
A process of generating a video corresponding to a virtual space including first and second avatars corresponding to first and second users who perform video joint distribution;
a process of providing the generated moving image to each of a plurality of viewing users;
The process of generating the moving image draws the first and second avatars based at least on image information of the first and second avatars stored in the one or more storage devices; and causing the first and second avatars to act in the virtual space based at least on input information input by the first and second users via first and second user terminals, respectively. ,
system.
前記入力情報は、カメラを介して入力される画像を含み、
前記動画を生成する処理は、前記入力される画像に含まれる前記第1又は第2のユーザの姿勢に少なくとも基づいて前記第1又は第2のアバターを動作させることを含む、
請求項1のシステム。
The input information includes an image input via a camera,
The process of generating the moving image includes moving the first or second avatar based at least on the posture of the first or second user included in the input image.
The system of Claim 1.
前記動画を生成する処理は、前記入力される画像に含まれる前記第1又は第2のユーザの身体の1又は複数の所定の部位の前記入力される画像における配置に少なくとも基づいて前記第1又は第2のアバターを動作させることを含む、
請求項2のシステム。
The process of generating the moving image is performed based on at least the arrangement of one or more predetermined parts of the body of the first or second user included in the input image in the input image. activating a second avatar;
3. The system of claim 2.
前記動画を生成する処理は、前記第1又は第2のユーザによって前記第1又は第2のユーザ端末のマイクを介して入力される音声を含む動画を生成することを含む、
請求項1ないし3何れかのシステム。
The process of generating the moving image includes generating a moving image including audio input by the first or second user via a microphone of the first or second user terminal,
4. The system of any one of claims 1-3.
前記動画を生成する処理は、前記入力される音声に少なくとも基づいて前記第1又は第2のアバターの口の動きを制御することを含む、
請求項4のシステム。
The process of generating the moving image includes controlling movement of the mouth of the first or second avatar based at least on the input sound.
5. The system of claim 4.
前記動画を生成する処理は、前記第1又は第2のアバターの前記仮想空間における位置に少なくとも基づいて、前記第1又は第2のユーザによって入力される音声の音量を制御することを含む、
請求項1ないし5何れかのシステム。
The process of generating the moving image includes controlling the volume of the audio input by the first or second user based at least on the position of the first or second avatar in the virtual space.
6. The system of any one of claims 1-5.
前記動画を生成する処理は、前記第1又は第2のユーザ端末において実行される、
請求項1ないし6何れかのシステム。
The process of generating the moving image is executed at the first or second user terminal,
7. The system of any one of claims 1-6.
前記動画を生成する処理は、前記複数の視聴ユーザの各々のユーザ端末において実行される、
請求項1ないし6何れかのシステム。
the process of generating the moving image is executed in a user terminal of each of the plurality of viewing users;
7. The system of any one of claims 1-6.
複数のユーザの各々のアバターの画像情報を少なくとも記憶する1又は複数の記憶装置にアクセス可能な1又は複数のコンピュータによって実行され、動画を配信するための方法であって、
動画の共同配信を行う第1及び第2のユーザに対応する第1及び第2のアバターが含まれる仮想空間に対応する動画を生成するステップと、
生成した動画を複数の視聴ユーザの各々に対して提供するステップと、を備え、
前記動画を生成するステップは、前記第1及び第2のアバターを、前記1又は複数の記憶装置に記憶されている前記第1及び第2のアバターの画像情報に少なくとも基づいて描画すること、及び、前記第1及び第2のアバターを、前記第1及び第2のユーザによって第1及び第2のユーザ端末を介してそれぞれ入力される入力情報に少なくとも基づいて前記仮想空間において動作させることを含む、
方法。
1. A method for distributing a moving image, executed by one or more computers accessible to one or more storage devices storing at least image information of each avatar of a plurality of users, comprising:
generating a video corresponding to a virtual space including first and second avatars corresponding to first and second users who jointly distribute videos;
providing the generated video to each of a plurality of viewing users;
The step of generating the moving image draws the first and second avatars based at least on image information of the first and second avatars stored in the one or more storage devices; and causing the first and second avatars to act in the virtual space based at least on input information input by the first and second users via first and second user terminals, respectively. ,
Method.
動画を配信するためのプログラムであって、
複数のユーザの各々のアバターの画像情報を少なくとも記憶する1又は複数の記憶装置にアクセス可能な1又は複数のコンピュータ上での実行に応じて、前記1又は複数のコンピュータに、
動画の共同配信を行う第1及び第2のユーザに対応する第1及び第2のアバターが含まれる仮想空間に対応する動画を生成する処理と、
生成した動画を複数の視聴ユーザの各々に対して提供する処理と、を実行させ、
前記動画を生成する処理は、前記第1及び第2のアバターを、前記1又は複数の記憶装置に記憶されている前記第1及び第2のアバターの画像情報に少なくとも基づいて描画すること、及び、前記第1及び第2のアバターを、前記第1及び第2のユーザによって第1及び第2のユーザ端末を介してそれぞれ入力される入力情報に少なくとも基づいて前記仮想空間において動作させることを含む、
プログラム。
A program for distributing videos,
Upon execution on one or more computers accessible to one or more storage devices for storing at least image information of each avatar of a plurality of users, to said one or more computers,
A process of generating a video corresponding to a virtual space including first and second avatars corresponding to first and second users who perform video joint distribution;
a process of providing the generated video to each of a plurality of viewing users;
The process of generating the moving image draws the first and second avatars based at least on image information of the first and second avatars stored in the one or more storage devices; and causing the first and second avatars to act in the virtual space based at least on input information input by the first and second users via first and second user terminals, respectively. ,
program.
JP2023019795A 2018-05-22 2023-02-13 System for animated cartoon distribution, method, and program Pending JP2023071712A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023019795A JP2023071712A (en) 2018-05-22 2023-02-13 System for animated cartoon distribution, method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018098338A JP7228338B2 (en) 2018-05-22 2018-05-22 System, method and program for distributing videos
JP2023019795A JP2023071712A (en) 2018-05-22 2023-02-13 System for animated cartoon distribution, method, and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018098338A Division JP7228338B2 (en) 2018-05-22 2018-05-22 System, method and program for distributing videos

Publications (1)

Publication Number Publication Date
JP2023071712A true JP2023071712A (en) 2023-05-23

Family

ID=68727038

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018098338A Active JP7228338B2 (en) 2018-05-22 2018-05-22 System, method and program for distributing videos
JP2023019795A Pending JP2023071712A (en) 2018-05-22 2023-02-13 System for animated cartoon distribution, method, and program

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2018098338A Active JP7228338B2 (en) 2018-05-22 2018-05-22 System, method and program for distributing videos

Country Status (1)

Country Link
JP (2) JP7228338B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7098676B2 (en) * 2020-03-24 2022-07-11 グリー株式会社 Video application program, video object drawing method, video distribution system, video distribution server and video distribution method
JP7159244B2 (en) * 2020-06-08 2022-10-24 株式会社バーチャルキャスト CONTENT DELIVERY SYSTEM, CONTENT DELIVERY METHOD, COMPUTER PROGRAM
JP6974550B1 (en) * 2020-07-17 2021-12-01 グリー株式会社 Computer programs, methods, and server equipment
JP2022132896A (en) 2021-03-01 2022-09-13 トヨタ自動車株式会社 Virtual space sharing system, virtual space sharing method and virtual space sharing program
JP7333528B2 (en) * 2021-12-23 2023-08-25 グリー株式会社 Program, information processing method and information processing apparatus

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1021215A (en) * 1996-06-28 1998-01-23 Ritsumeikan Method and device for generating cyber space
JP2000194876A (en) * 1998-12-25 2000-07-14 Atr Media Integration & Communications Res Lab Virtual space sharing device
JP2014225801A (en) * 2013-05-16 2014-12-04 株式会社ニコン Conference system, conference method and program
JP2015184689A (en) * 2014-03-20 2015-10-22 株式会社Mugenup Moving image generation device and program
JP6469279B1 (en) * 2018-04-12 2019-02-13 株式会社バーチャルキャスト Content distribution server, content distribution system, content distribution method and program

Also Published As

Publication number Publication date
JP7228338B2 (en) 2023-02-24
JP2019204244A (en) 2019-11-28

Similar Documents

Publication Publication Date Title
JP7228338B2 (en) System, method and program for distributing videos
EP3754992A1 (en) Immersive interactive remote participation in live entertainment
JP6546886B2 (en) System, method, and program for distributing digital content
CN111527525A (en) Mixed reality service providing method and system
EP3954111A1 (en) Multiuser asymmetric immersive teleconferencing
US20170316186A1 (en) Methods and Systems for Controlling Access to Virtual Reality Media Content
JP6001757B1 (en) System, method, and program for distributing digital content
WO2020138107A1 (en) Video streaming system, video streaming method, and video streaming program for live streaming of video including animation of character object generated on basis of motion of streaming user
JP2024050721A (en) Information processing device, information processing method, and computer program
CN108986192B (en) Data processing method and device for live broadcast
CA2941333A1 (en) Virtual conference room
US10289193B2 (en) Use of virtual-reality systems to provide an immersive on-demand content experience
JP2023065376A (en) Method, system and non-transitory computer-readable recording medium for audio feedback during live broadcast
JP7134298B2 (en) Video distribution system, video distribution method and video distribution program
WO2017029918A1 (en) System, method and program for displaying moving image with specific field of view
KR20200067537A (en) System and method for providing a virtual environmental conference room
US10575030B2 (en) System, method, and program for distributing video
JP2022058643A (en) System, method and program for distributing video
CN112492328B (en) Virtual room creating method, device, terminal and storage medium
WO2019033556A1 (en) Virtual game live streaming method, electronic device and storage medium
JP5878671B1 (en) System, method, and program for distributing digital content
JP7373599B2 (en) Systems, methods and programs for creating videos
JP2022171661A (en) System, method, and program for creating moving image
JP5878938B2 (en) Distribution system, distribution method, distribution program
JP2023527624A (en) Computer program and avatar expression method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230213

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230308

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240405