JP2019204244A - System for animated cartoon distribution, method, and program - Google Patents

System for animated cartoon distribution, method, and program Download PDF

Info

Publication number
JP2019204244A
JP2019204244A JP2018098338A JP2018098338A JP2019204244A JP 2019204244 A JP2019204244 A JP 2019204244A JP 2018098338 A JP2018098338 A JP 2018098338A JP 2018098338 A JP2018098338 A JP 2018098338A JP 2019204244 A JP2019204244 A JP 2019204244A
Authority
JP
Japan
Prior art keywords
distribution
moving image
user
input
avatars
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018098338A
Other languages
Japanese (ja)
Other versions
JP7228338B2 (en
Inventor
康伸 佐々木
Yasunobu Sasaki
康伸 佐々木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
DeNA Co Ltd
Original Assignee
DeNA Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by DeNA Co Ltd filed Critical DeNA Co Ltd
Priority to JP2018098338A priority Critical patent/JP7228338B2/en
Publication of JP2019204244A publication Critical patent/JP2019204244A/en
Priority to JP2023019795A priority patent/JP2023071712A/en
Application granted granted Critical
Publication of JP7228338B2 publication Critical patent/JP7228338B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Transfer Between Computers (AREA)
  • Processing Or Creating Images (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

To promote activation of animation distribution.SOLUTION: An animation distribution server 10 according to an embodiment provides an animation distribution service for distributing an animated cartoon provided by a distribution user to multiple viewing users via a user terminal 30. Since the sever 10 renders each avatar on the basis of each three-dimensional model for multiple avatars corresponding to multiple users who conduct joint distribution of an animated cartoon as well as controlling each motion of the multiple avatars on the basis of information inputted from each of the multiple users, respectively, and generates an animated cartoon corresponding to a virtual space in which the multiple avatars are included, for example, even when a user who feels resistance to publish his/her natural face is included in, it is possible to conduct joint distribution of an animated cartoon by multiple users easily, as a result, activation of animation distribution can be promoted.SELECTED DRAWING: Figure 1

Description

本発明は、動画を配信するためのシステム、方法、及びプログラムに関するものである。   The present invention relates to a system, method, and program for distributing moving images.

従来、ユーザが動画の配信を行うためのシステムが提供されており、こうしたシステムを介して配信される動画には、ユーザ自身が被写体として出演する動画(自撮り動画)が含まれる(例えば、特許文献1を参照)。例えば、ユーザは、スマートフォン及びパソコン等が有するカメラ及びマイクを介してユーザ自身の画像及び音声が含まれる動画を撮影し、撮影した動画を複数の視聴者に対して配信することができる。   2. Description of the Related Art Conventionally, a system for distributing a moving image by a user has been provided, and a moving image distributed through such a system includes a moving image (self-shooting moving image) in which the user himself / herself appears as a subject (for example, a patent) Reference 1). For example, the user can shoot a moving image including the user's own image and sound through a camera and a microphone included in a smartphone, a personal computer, and the like, and can distribute the captured moving image to a plurality of viewers.

特開2017−121036号公報JP 2017-121036 A

しかしながら、こうした動画の配信を希望するユーザの中には、不特定多数の視聴者に素顔を公開することに対して抵抗を感じるユーザも存在し得る。例えば、自撮り動画の配信に慣れているユーザの動画に一般の視聴者等が参加するコラボ配信は、動画配信サービスの活性化を促進し得るが、こうした一般の視聴者は、素顔の公開に対して抵抗を感じやすいと考えられる。そこで、例えば、ユーザ自身に代えて、ユーザのアバターが登場する動画のコラボ配信を手軽に行うことができると有用であると考えられる。   However, among users who wish to distribute such moving images, there may be users who feel resistance to opening their faces to an unspecified number of viewers. For example, collaborative distribution in which general viewers participate in videos of users who are accustomed to distributing self-shooting videos can promote the activation of video distribution services. It is thought that resistance is easily felt. Therefore, for example, instead of the user himself / herself, it is considered useful if the collaborative distribution of the moving image in which the user's avatar appears can be easily performed.

本発明の実施形態は、動画配信の活性化を促進することを目的の一つとする。本発明の実施形態の他の目的は、本明細書全体を参照することにより明らかとなる。   An object of the embodiment of the present invention is to promote activation of moving image distribution. Other objects of the embodiments of the present invention will become apparent by referring to the entire specification.

本発明の一実施形態に係るシステムは、動画を配信するためのシステムであって、複数のユーザの各々のアバターの画像情報を少なくとも記憶する1又は複数の記憶装置と、1又は複数のコンピュータプロセッサと、を備え、前記1又は複数のコンピュータプロセッサは、読取可能な命令の実行に応じて、動画の共同配信を行う第1及び第2のユーザに対応する第1及び第2のアバターが含まれる仮想空間に対応する動画を生成する処理と、生成した動画を複数の視聴ユーザの各々に対して提供する処理と、を実行し、前記動画を生成する処理は、前記第1及び第2のアバターを、前記1又は複数の記憶装置に記憶されている前記第1及び第2のアバターの画像情報に少なくとも基づいて描画すること、及び、前記第1及び第2のアバターを、前記第1及び第2のユーザによって第1及び第2のユーザ端末を介してそれぞれ入力される入力情報に少なくとも基づいて前記仮想空間において動作させることを含む。   A system according to an embodiment of the present invention is a system for distributing moving images, and includes at least one storage device that stores at least image information of each avatar of a plurality of users, and one or more computer processors. And the one or more computer processors include first and second avatars corresponding to the first and second users who jointly distribute the video in response to execution of a readable instruction. The process of generating a moving image corresponding to the virtual space and the process of providing the generated moving image to each of a plurality of viewing users and generating the moving image are the first and second avatars. And drawing the first and second avatars based on at least the image information of the first and second avatars stored in the one or more storage devices. Comprises operating in said virtual space based on at least the first and second first and second input information input through the respective user terminal by the user.

本発明の一実施形態に係る方法は、複数のユーザの各々のアバターの画像情報を少なくとも記憶する1又は複数の記憶装置にアクセス可能な1又は複数のコンピュータによって実行され、動画を配信するための方法であって、動画の共同配信を行う第1及び第2のユーザに対応する第1及び第2のアバターが含まれる仮想空間に対応する動画を生成するステップと、生成した動画を複数の視聴ユーザの各々に対して提供するステップと、を備え、前記動画を生成するステップは、前記第1及び第2のアバターを、前記1又は複数の記憶装置に記憶されている前記第1及び第2のアバターの画像情報に少なくとも基づいて描画すること、及び、前記第1及び第2のアバターを、前記第1及び第2のユーザによって第1及び第2のユーザ端末を介してそれぞれ入力される入力情報に少なくとも基づいて前記仮想空間において動作させることを含む。   A method according to an embodiment of the present invention is performed by one or more computers accessible to one or more storage devices that store at least image information of avatars of each of a plurality of users, for delivering moving images. A method for generating a video corresponding to a virtual space including first and second avatars corresponding to first and second users who perform joint video distribution, and viewing the generated video in a plurality of ways Providing to each of the users, wherein the step of generating the moving image includes the first and second stored in the one or more storage devices, the first and second avatars. And drawing the first and second avatars via the first and second user terminals by the first and second users. Te comprises operating in said virtual space based on at least the input information inputted respectively.

本発明の一実施形態に係るプログラムは、動画を配信するためのプログラムであって、複数のユーザの各々のアバターの画像情報を少なくとも記憶する1又は複数の記憶装置にアクセス可能な1又は複数のコンピュータ上での実行に応じて、前記1又は複数のコンピュータに、動画の共同配信を行う第1及び第2のユーザに対応する第1及び第2のアバターが含まれる仮想空間に対応する動画を生成する処理と、生成した動画を複数の視聴ユーザの各々に対して提供する処理と、を実行させ、前記動画を生成する処理は、前記第1及び第2のアバターを、前記1又は複数の記憶装置に記憶されている前記第1及び第2のアバターの画像情報に少なくとも基づいて描画すること、及び、前記第1及び第2のアバターを、前記第1及び第2のユーザによって第1及び第2のユーザ端末を介してそれぞれ入力される入力情報に少なくとも基づいて前記仮想空間において動作させることを含む。   The program which concerns on one Embodiment of this invention is a program for delivering a moving image, Comprising: One or several which can access one or several memory | storage devices which memorize | store at least the image information of each avatar of several users A video corresponding to a virtual space including first and second avatars corresponding to the first and second users who perform joint distribution of the video on the one or a plurality of computers according to execution on the computer. A process of generating and a process of providing the generated moving image to each of a plurality of viewing users, and the process of generating the moving image includes: the first and second avatars; Rendering based on at least the image information of the first and second avatars stored in the storage device; and the first and second avatars are rendered as the first and second users. Based at least on the input information input through the respective first and second user terminals by comprises operating in said virtual space.

本発明の様々な実施形態は、動画配信の活性化を促進し得る。   Various embodiments of the present invention may facilitate activation of video distribution.

本発明の一実施形態に係る動画配信サーバ10を含むネットワークの構成を概略的に示す構成図。The block diagram which shows schematically the structure of the network containing the moving image delivery server 10 which concerns on one Embodiment of this invention. 動画配信サーバ10が有する機能を概略的に示すブロック図。The block diagram which shows roughly the function which the moving image delivery server 10 has. ユーザ情報テーブル411において管理される情報を例示する図。The figure which illustrates the information managed in the user information table 411. 配信情報テーブル412において管理される情報を例示する図。The figure which illustrates the information managed in the delivery information table 412. 個別の動画配信が行われる際に動画配信サーバ10が実行する処理を例示するフロー図。The flowchart which illustrates the process which the moving image delivery server 10 performs when individual moving image delivery is performed. ライブ動画の配信中において行われる通信を説明するための図。The figure for demonstrating the communication performed during the delivery of a live moving image. 視聴用画面60を例示する図。The figure which illustrates viewing screen 60. 配信ユーザ端末30のカメラを介して入力される入力画像50を模式的に例示する図。The figure which illustrates typically the input image 50 input via the camera of the delivery user terminal 30. FIG. 配信用画面70を例示する図。The figure which illustrates screen 70 for distribution. 視聴ユーザによる参加要求に応じて動画配信サーバ10が実行する処理を例示するフロー図。The flowchart which illustrates the process which the video delivery server 10 performs according to the participating request by a viewing-and-listening user. 参加要求通知オブジェクト80を例示する図。The figure which illustrates the participation request notification object 80. コラボ配信の期間中において行われる通信を説明するための図。The figure for demonstrating the communication performed during the period of collaboration delivery. コラボ配信の期間中における視聴用画面60を例示する図。The figure which illustrates the screen 60 for viewing during the period of collaboration delivery. 他の実施形態のコラボ配信の期間中において行われる通信を説明するための図。The figure for demonstrating the communication performed during the period of the collaboration delivery of other embodiment. 更に他の実施形態のコラボ配信の期間中において行われる通信を説明するための図。The figure for demonstrating the communication performed during the period of the collaboration delivery of other embodiment.

以下、図面を参照しながら、本発明の実施形態について説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は、本発明の一実施形態に係る動画配信サーバ10を含むネットワークの構成を概略的に示す構成図である。動画配信サーバ10は、図示するように、インターネット等の通信ネットワーク20を介してユーザ端末30と通信可能に接続されている。図1においては、1つのユーザ端末30のみが図示されているが、サーバ10は、複数のユーザ端末30と通信可能に接続されている。サーバ10は、配信ユーザが提供する動画を複数の視聴ユーザに配信するための動画配信サービスを、ユーザ端末30を介して提供する。本実施形態において、ユーザ端末30のユーザは、配信ユーザとして動画を配信することができ、また、視聴ユーザとして、他のユーザによって配信される動画を視聴することもできる。   FIG. 1 is a configuration diagram schematically showing a configuration of a network including a moving image distribution server 10 according to an embodiment of the present invention. As shown in the figure, the moving image distribution server 10 is connected to a user terminal 30 through a communication network 20 such as the Internet so as to be communicable. Although only one user terminal 30 is illustrated in FIG. 1, the server 10 is connected to be able to communicate with a plurality of user terminals 30. The server 10 provides a moving image distribution service for distributing a moving image provided by a distribution user to a plurality of viewing users via the user terminal 30. In the present embodiment, the user of the user terminal 30 can distribute a moving image as a distribution user, and can also view a moving image distributed by another user as a viewing user.

動画配信サーバ10は、一般的なコンピュータとして構成されており、図1に示すように、コンピュータプロセッサ11と、メインメモリ12と、入出力I/F13と、通信I/F14と、ストレージ(記憶装置)15とを備え、これらの各構成要素が図示しないバス等を介して電気的に接続されている。   The moving image distribution server 10 is configured as a general computer, and as shown in FIG. 1, a computer processor 11, a main memory 12, an input / output I / F 13, a communication I / F 14, a storage (storage device) These components are electrically connected via a bus (not shown) or the like.

コンピュータプロセッサ11は、CPU又はGPU等として構成され、ストレージ15等に記憶されている様々なプログラムをメインメモリ12に読み込んで、当該プログラムに含まれる各種の命令を実行する。メインメモリ12は、例えば、DRAM等によって構成される。   The computer processor 11 is configured as a CPU, a GPU, or the like, reads various programs stored in the storage 15 or the like into the main memory 12, and executes various instructions included in the programs. The main memory 12 is configured by, for example, a DRAM.

入出力I/F13は、ユーザ等との間で情報をやり取りするための各種の入出力装置を含む。入出力I/F13は、例えば、キーボード、ポインティングデバイス(例えば、マウス、タッチパネル等)等の情報入力装置、マイクロフォン等の音声入力装置、カメラ等の画像入力装置を含む。また、入出力I/F13は、ディスプレイ等の画像出力装置、スピーカー等の音声出力装置を含む。   The input / output I / F 13 includes various input / output devices for exchanging information with a user or the like. The input / output I / F 13 includes, for example, an information input device such as a keyboard and a pointing device (for example, a mouse and a touch panel), a voice input device such as a microphone, and an image input device such as a camera. The input / output I / F 13 includes an image output device such as a display and an audio output device such as a speaker.

通信I/F14は、ネットワークアダプタ等のハードウェア、各種の通信用ソフトウェア、及びこれらの組み合わせとして実装され、通信ネットワーク20等を介した有線又は無線の通信を実現できるように構成されている。   The communication I / F 14 is implemented as hardware such as a network adapter, various types of communication software, and combinations thereof, and is configured to realize wired or wireless communication via the communication network 20 or the like.

ストレージ15は、例えば磁気ディスク、フラッシュメモリ等によって構成される。ストレージ15は、オペレーティングシステムを含む様々なプログラム、及び各種データ等を記憶する。   The storage 15 is configured by, for example, a magnetic disk, a flash memory, or the like. The storage 15 stores various programs including an operating system, various data, and the like.

本実施形態において、動画配信サーバ10は、それぞれが上述したハードウェア構成を有する複数のコンピュータを用いて構成され得る。例えば、動画配信サーバ10は、1又は複数のサーバ装置によって構成され得る。   In the present embodiment, the moving image distribution server 10 can be configured using a plurality of computers each having the hardware configuration described above. For example, the moving image distribution server 10 may be configured by one or a plurality of server devices.

このように構成された動画配信サーバ10は、ウェブサーバ及びアプリケーションサーバとしての機能を有し、ユーザ端末30にインストールされているウェブブラウザ及びその他のアプリケーション(例えば、動画配信サービス用のアプリケーション)からの要求に応答して各種の処理を実行し、当該処理の結果に応じた画面データ(例えば、HTMLデータ又は制御データ等)をユーザ端末30に送信する。ユーザ端末30では、受信したデータに基づくウェブページ又はその他の画面が表示される。   The moving image distribution server 10 configured as described above has functions as a web server and an application server, and is provided from a web browser and other applications (for example, an application for moving image distribution service) installed in the user terminal 30. Various processes are executed in response to the request, and screen data (for example, HTML data or control data) corresponding to the result of the process is transmitted to the user terminal 30. On the user terminal 30, a web page or other screen based on the received data is displayed.

ユーザ端末30は、一般的なコンピュータとして構成されており、図1に示すように、コンピュータプロセッサ31と、メインメモリ32と、入出力I/F33と、通信I/F34と、ストレージ(記憶装置)35とを備え、これらの各構成要素が図示しないバス等を介して電気的に接続されている。   The user terminal 30 is configured as a general computer, and as shown in FIG. 1, a computer processor 31, a main memory 32, an input / output I / F 33, a communication I / F 34, and a storage (storage device). 35, and these components are electrically connected via a bus or the like (not shown).

コンピュータプロセッサ31は、CPU又はGPU等として構成され、ストレージ35等に記憶されている様々なプログラムをメインメモリ32に読み込んで、当該プログラムに含まれる各種の命令を実行する。メインメモリ32は、例えば、DRAM等によって構成される。   The computer processor 31 is configured as a CPU, GPU, or the like, reads various programs stored in the storage 35 or the like into the main memory 32, and executes various instructions included in the programs. The main memory 32 is configured by, for example, a DRAM.

入出力I/F33は、ユーザ等との間で情報をやり取りするための各種の入出力装置である。入出力I/F33は、例えば、キーボード、ポインティングデバイス(例えば、マウス、タッチパネル等)等の情報入力装置、マイクロフォン等の音声入力装置、カメラ等の画像入力装置を含む。また、入出力I/F33は、ディスプレイ等の画像出力装置、スピーカー等の音声出力装置を含む。   The input / output I / F 33 is various input / output devices for exchanging information with a user or the like. The input / output I / F 33 includes, for example, an information input device such as a keyboard and a pointing device (for example, a mouse and a touch panel), a voice input device such as a microphone, and an image input device such as a camera. The input / output I / F 33 includes an image output device such as a display and an audio output device such as a speaker.

通信I/F34は、ネットワークアダプタ等のハードウェア、各種の通信用ソフトウェア、及びこれらの組み合わせとして実装され、通信ネットワーク20等を介した有線又は無線の通信を実現できるように構成されている。   The communication I / F 34 is implemented as hardware such as a network adapter, various types of communication software, and combinations thereof, and is configured to realize wired or wireless communication via the communication network 20 or the like.

ストレージ35は、例えば磁気ディスク又はフラッシュメモリ等によって構成される。ストレージ35は、オペレーティングシステムを含む様々なプログラム及び各種データ等を記憶する。ストレージ35が記憶するプログラムは、アプリケーションマーケット等からダウンロードされてインストールされ得る。   The storage 35 is configured by, for example, a magnetic disk or a flash memory. The storage 35 stores various programs including the operating system, various data, and the like. The program stored in the storage 35 can be downloaded from an application market or the like and installed.

本実施形態において、ユーザ端末30は、スマートフォン、タブレット端末、ウェアラブルデバイス、及びパーソナルコンピュータ等として構成され得る。   In the present embodiment, the user terminal 30 can be configured as a smartphone, a tablet terminal, a wearable device, a personal computer, or the like.

このように構成されたユーザ端末30のユーザは、ストレージ35等にインストールされているウェブブラウザ又はその他のアプリケーションを介した動画配信サーバ10との通信を実行することによって、サーバ10が提供する動画配信サービスを利用することができる。   The user of the user terminal 30 configured as described above performs video distribution provided by the server 10 by executing communication with the video distribution server 10 via a web browser or other application installed in the storage 35 or the like. You can use the service.

次に、本実施形態の動画配信サーバ10が有する機能について説明する。図2は、動画配信サーバ10が有する機能を概略的に示すブロック図である。サーバ10は、図示するように、様々な情報を記憶及び管理する情報記憶管理部41と、動画配信サービスの基本機能を制御する基本機能制御部43と、動画の配信を制御する動画配信制御部45とを有する。これらの機能は、コンピュータプロセッサ11及びメインメモリ12等のハードウェア、並びに、ストレージ15等に記憶されている各種プログラムやデータ等が協働して動作することによって実現され、例えば、メインメモリ12に読み込まれたプログラムに含まれる命令をコンピュータプロセッサ11が実行することによって実現される。また、図2に示す機能の一部又は全部は、サーバ10とユーザ端末30とが協働することによって実現され、又は、ユーザ端末30によって実現され得る。   Next, functions that the moving image distribution server 10 of this embodiment has will be described. FIG. 2 is a block diagram schematically showing functions of the moving image distribution server 10. As illustrated, the server 10 includes an information storage management unit 41 that stores and manages various types of information, a basic function control unit 43 that controls basic functions of the video distribution service, and a video distribution control unit that controls video distribution. 45. These functions are realized by the cooperation of hardware such as the computer processor 11 and the main memory 12 and various programs and data stored in the storage 15, for example, in the main memory 12. This is realized by the computer processor 11 executing instructions included in the read program. 2 may be realized by the cooperation of the server 10 and the user terminal 30, or may be realized by the user terminal 30.

動画配信サーバ10の情報記憶管理部41は、ストレージ15等において様々な情報を記憶及び管理する。情報記憶管理部41は、例えば、図2に示すように、動画配信サービスのユーザに関する情報を管理するユーザ情報テーブル411と、個別の動画配信に関する情報を管理する配信情報テーブル412とを有するように構成され得る。   The information storage management unit 41 of the moving image distribution server 10 stores and manages various information in the storage 15 and the like. For example, as shown in FIG. 2, the information storage management unit 41 includes a user information table 411 that manages information related to a user of the video distribution service, and a distribution information table 412 that manages information related to individual video distribution. Can be configured.

また、本実施形態において、情報記憶管理部41は、図2に示すように、3DモデルDB413を有する。当該DB413は、ユーザのアバターを三次元仮想空間において描画(レンダリング)するための複数の3Dモデル(画像情報)を格納する。   Moreover, in this embodiment, the information storage management part 41 has 3D model DB413, as shown in FIG. The DB 413 stores a plurality of 3D models (image information) for drawing (rendering) a user's avatar in a three-dimensional virtual space.

動画配信サーバ10の基本機能制御部43は、動画配信サービスの基本機能の制御に関する様々な処理を実行する。例えば、基本機能制御部43は、基本機能に関する様々な画面のHTMLデータ又は制御データをユーザ端末30に送信し、ユーザ端末30で表示される当該画面を介したユーザによる操作入力に応答して様々な処理を実行し、当該処理の結果に応じたHTMLデータ又は制御データをユーザ端末30に送信する。基本機能制御部43によって制御される基本機能は、例えば、ログイン認証(ユーザ認証)、課金制御、ユーザ管理(例えば、ユーザ情報テーブル411の更新等)を含む。   The basic function control unit 43 of the video distribution server 10 executes various processes related to control of the basic functions of the video distribution service. For example, the basic function control unit 43 transmits HTML data or control data of various screens related to the basic function to the user terminal 30, and in response to an operation input by the user via the screen displayed on the user terminal 30. This process is executed, and HTML data or control data corresponding to the result of the process is transmitted to the user terminal 30. The basic functions controlled by the basic function control unit 43 include, for example, login authentication (user authentication), billing control, and user management (for example, update of the user information table 411).

動画配信サーバ10の動画配信制御部45は、動画の配信の制御に関する様々な処理を実行する。本実施形態において、動画配信制御部45は、動画の共同配信(コラボ配信)を行う複数のユーザに対応する複数のアバターが含まれる仮想空間に対応する動画を生成し、生成した動画を複数の視聴ユーザの各々に対して提供するように構成されている。例えば、動画配信制御部45は、生成した動画を、複数の視聴ユーザの各々のユーザ端末30に対して送信するように構成される。   The moving image distribution control unit 45 of the moving image distribution server 10 executes various processes related to moving image distribution control. In the present embodiment, the moving image distribution control unit 45 generates a moving image corresponding to a virtual space including a plurality of avatars corresponding to a plurality of users who perform joint distribution (collaborative distribution) of moving images. It is comprised so that it may provide with respect to each viewing user. For example, the moving image distribution control unit 45 is configured to transmit the generated moving image to the user terminals 30 of a plurality of viewing users.

本実施形態において、動画配信制御部45は、動画の共同配信を行う複数のユーザに対応する複数のアバターの各々を、3DモデルDB413において格納されている3Dモデルに基づいて描画するように構成されている。例えば、動画配信制御部45は、動画の共同配信を開始する際に、共同配信を行う複数のユーザの各々を特定し、特定した各ユーザのアバターに対応する3Dモデルを特定し、特定した3Dモデルを3DモデルDB413から取得するように構成される。各ユーザのアバターに対応する3Dモデルを特定するための情報は、例えば、ユーザ情報テーブル411において管理される。   In the present embodiment, the moving image distribution control unit 45 is configured to draw each of a plurality of avatars corresponding to a plurality of users who perform joint distribution of moving images based on the 3D model stored in the 3D model DB 413. ing. For example, when starting the joint distribution of the moving image, the moving image distribution control unit 45 identifies each of a plurality of users performing the joint distribution, identifies a 3D model corresponding to each identified user's avatar, and identifies the identified 3D. The model is configured to be acquired from the 3D model DB 413. Information for specifying the 3D model corresponding to each user's avatar is managed in the user information table 411, for example.

また、動画配信制御部45は、複数のアバターの各々を、対応するユーザによってユーザ端末30を介して入力される入力情報に少なくとも基づいて仮想空間において動作させるように構成されている。   In addition, the moving image distribution control unit 45 is configured to operate each of the plurality of avatars in the virtual space based at least on input information input via the user terminal 30 by the corresponding user.

このように、本実施形態における動画配信サーバ10は、動画の共同配信を行う複数のユーザに対応する複数のアバターの各々の3Dモデルに基づいて各アバターを描画すると共に、当該複数のユーザによってそれぞれ入力される入力情報に基づいて当該複数のアバターの各々の動作を制御し、これらの複数のアバターが含まれる仮想空間に対応する動画を生成して配信するから、例えば、素顔を公開することに対して抵抗を感じるユーザが含まれる場合であっても、複数のユーザによる動画の共同配信を手軽に行うことが可能であり、この結果、動画配信の活性化が促進され得る。   As described above, the moving image distribution server 10 according to the present embodiment draws each avatar based on each 3D model of a plurality of avatars corresponding to a plurality of users who perform joint distribution of moving images, and the plurality of users respectively Since each of the plurality of avatars is controlled based on the input information to be input, and a moving image corresponding to a virtual space including the plurality of avatars is generated and distributed, for example, the real face is disclosed. Even when a user who feels resistance is included, it is possible to easily perform joint distribution of moving images by a plurality of users. As a result, activation of moving image distribution can be promoted.

本実施形態において、アバターを動作させるために入力される入力情報は、様々な情報を含み、例えば、ユーザ端末30のタッチパネルに対する操作情報、又は、物理コントローラに対する操作情報等を含む。また、例えば、当該入力情報は、ユーザ端末30のカメラを介して入力される画像を含み、この場合、動画配信制御部45は、当該入力される画像に含まれるユーザの姿勢に基づいてアバターを動作させるように構成され得る。例えば、動画配信制御部45は、動画の共同配信を行う複数のユーザの各々のユーザ端末30から、当該ユーザ端末30のカメラを介して入力(撮影)される画像を受信し、受信した画像に含まれるユーザの姿勢(ボーン)を検出し、検出したユーザの姿勢に基づいて(例えば、ユーザの姿勢と連動するように)対応するアバターの動作を制御するように構成される。画像に含まれるユーザの姿勢の検出は、例えば、公知の人物姿勢推定技術を適用して実現することができる。また、動画配信制御部45は、入力される画像に含まれるユーザの身体の1又は複数の所定の部位(例えば、顔及び両手等)の画像における配置に少なくとも基づいてアバターを動作させるように構成され得る。こうした構成は、現実のユーザの動きに基づいてアバターを動作させることを可能とする。   In this embodiment, the input information input in order to operate an avatar contains various information, for example, the operation information with respect to the touch panel of the user terminal 30, the operation information with respect to a physical controller, etc. Further, for example, the input information includes an image input via the camera of the user terminal 30. In this case, the moving image distribution control unit 45 selects an avatar based on the posture of the user included in the input image. Can be configured to operate. For example, the moving image distribution control unit 45 receives an image input (captured) via the camera of the user terminal 30 from each of the user terminals 30 of a plurality of users who perform joint distribution of moving images, and converts the received image into the received image. The user's posture (bone) included is detected, and the operation of the corresponding avatar is controlled based on the detected user's posture (for example, in conjunction with the user's posture). Detection of the user's posture included in the image can be realized, for example, by applying a known human posture estimation technique. In addition, the moving image distribution control unit 45 is configured to operate the avatar based at least on the arrangement in the image of one or more predetermined parts (for example, the face and both hands) of the user's body included in the input image. Can be done. Such a configuration makes it possible to operate the avatar based on the actual movement of the user.

また、動画配信制御部45は、動画の共同配信を行う複数のユーザの各々によってユーザ端末30を介して入力される音声を含む動画を生成するように構成され得る。例えば、動画配信制御部45は、動画の共同配信を行う複数のユーザの各々のユーザ端末30から、当該ユーザ端末30のマイクを介して入力される音声を受信し、受信した音声が含まれる動画を生成するように構成される。こうした構成は、動画の共同配信を行う各ユーザによって入力される音声を含む動画の配信を可能とする。   In addition, the moving image distribution control unit 45 may be configured to generate a moving image including sound that is input via the user terminal 30 by each of a plurality of users who perform joint distribution of moving images. For example, the moving image distribution control unit 45 receives sound input from the user terminals 30 of each of a plurality of users who perform joint distribution of moving images through the microphone of the user terminal 30, and includes the received sound. Is configured to generate Such a configuration enables distribution of moving images including sound input by each user who performs joint distribution of moving images.

この場合、動画配信制御部45は、動画の共同配信を行う複数のユーザの各々によって入力される音声に基づいて対応するアバターの口の動きを制御するように構成され得る。例えば、動画配信制御部45は、特定のユーザによる音声の入力がある期間は、当該特定のユーザのアバターの口を所定のルールに従って動作させる一方、当該特定のユーザによる音声の入力がない期間は、当該特定のユーザのアバターの口を静止させるように構成される。こうした構成は、アバターの口の動きを、現実のユーザの口の動きに近づけることを支援する。   In this case, the moving image distribution control unit 45 may be configured to control the movement of the corresponding avatar's mouth based on the sound input by each of a plurality of users who perform the joint distribution of moving images. For example, the moving image distribution control unit 45 operates the avatar's mouth of the specific user according to a predetermined rule during a period when the voice is input by the specific user, while the period when there is no voice input by the specific user. The mouth of the specific user's avatar is configured to be stationary. Such a configuration helps to bring the movement of the avatar's mouth closer to the movement of the actual user's mouth.

また、動画配信制御部45は、アバターの仮想空間における位置に少なくとも基づいて、対応するユーザによって入力される音声の音量を制御するように構成され得る。例えば、動画配信制御部45は、仮想空間における仮想カメラとアバターとの間の距離が近いほど(又は、遠いほど)、対応するユーザによって入力される音声の音量が大きくなる(又は、小さくなる)ように動画を生成する。また、例えば、動画配信制御部45は、仮想空間における仮想カメラとアバターとの間の位置関係に基づいて、対応するユーザによって入力される音声の左側スピーカー用及び右側スピーカー用それぞれの音量を制御する(例えば、アバターが仮想カメラの左側に位置する場合に、対応する音声の左側用の音量を、右側用の音量と比較して大きくする等)ように構成される。こうした構成は、仮想空間におけるアバターの位置に応じた音量で音声を出力することを可能とする。   Moreover, the moving image delivery control part 45 may be comprised so that the volume of the audio | voice input by the corresponding user may be controlled based at least on the position in the virtual space of the avatar. For example, as the distance between the virtual camera and the avatar in the virtual space is closer (or farther), the moving image distribution control unit 45 increases (or decreases) the volume of the voice input by the corresponding user. To produce a video. In addition, for example, the moving image distribution control unit 45 controls the volume of each of the left speaker and the right speaker for the sound input by the corresponding user based on the positional relationship between the virtual camera and the avatar in the virtual space. (For example, when the avatar is positioned on the left side of the virtual camera, the volume for the left side of the corresponding voice is increased as compared with the volume for the right side). Such a configuration makes it possible to output sound at a volume corresponding to the position of the avatar in the virtual space.

次に、このような機能を有する本実施形態の動画配信サーバ10の具体例について説明する。この例において、サーバ10は、ユーザがリアルタイムで動画を配信するためのライブ動画配信サービスを提供する。図3は、この例において、ユーザ情報テーブル411において管理される情報を例示する。ユーザ情報テーブル411は、ライブ動画配信サービスのユーザに関する情報を管理し、この例では、図示するように、個別のユーザを識別する「ユーザアカウント」に対応付けて、当該ユーザのアバターに関する情報である「アバター情報」、ライブ動画の配信履歴に関する情報である「配信履歴情報」、ライブ動画の視聴履歴に関する情報である「視聴履歴情報」等の情報を管理する。   Next, a specific example of the moving image distribution server 10 of this embodiment having such a function will be described. In this example, the server 10 provides a live video distribution service for a user to distribute a video in real time. FIG. 3 illustrates information managed in the user information table 411 in this example. The user information table 411 manages information related to the user of the live video distribution service. In this example, the user information table 411 is information related to the user's avatar in association with a “user account” that identifies an individual user as illustrated. Information such as “avatar information”, “distribution history information” that is information related to the distribution history of live video, and “viewing history information” that is information related to the viewing history of live video is managed.

アバター情報は、3DモデルDB413に格納されている複数の3Dモデルのうちユーザによって予め選択されている3Dモデルを特定する情報を含む。3DモデルDB413に格納されている複数の3Dモデルは、相互に外観が異なる複数のアバターにそれぞれ対応しており、ユーザは、これらの複数の3Dモデルの中から所望の3Dモデルを、自身のアバターの3Dモデルとして予め選択することができる。   The avatar information includes information for specifying a 3D model selected in advance by the user from among a plurality of 3D models stored in the 3D model DB 413. The plurality of 3D models stored in the 3D model DB 413 correspond to a plurality of avatars having different appearances from each other, and the user selects a desired 3D model from among the plurality of 3D models. The 3D model can be selected in advance.

図4は、この例において、配信情報テーブル412において管理される情報を例示する。配信情報テーブル412は、個別の動画配信に関する情報を管理し、この例では、図示するように、個別の動画配信を識別する「配信ID」に対応付けて、動画を配信する配信ユーザを識別する「配信ユーザアカウント」、この動画配信に参加する参加ユーザを識別する「参加ユーザアカウント」、「配信状況情報」等の情報を管理する。配信状況情報は、同時視聴者数、延べ視聴者数、及び、配信を開始してからの経過時間等の情報を含む。   FIG. 4 illustrates information managed in the distribution information table 412 in this example. The distribution information table 412 manages information related to individual video distribution, and in this example, as illustrated, the distribution information table 412 identifies a distribution user who distributes a video in association with a “distribution ID” that identifies individual video distribution. Information such as “distribution user account”, “participating user account” for identifying participating users participating in the video distribution, “distribution status information”, and the like are managed. The distribution status information includes information such as the number of simultaneous viewers, the total number of viewers, and the elapsed time since the start of distribution.

図5は、この例において、個別の動画配信が行われる際に動画配信サーバ10が実行する処理を例示するフロー図である。ユーザは、例えば、ユーザ端末30において表示される画面を介して、動画配信の開始を指示することができる。サーバ10は、まず、図示するように、配信ユーザのアバターの3Dモデルを3DモデルDB413から取得する(ステップS100)。配信ユーザのアバターの3Dモデルを特定する情報は、ユーザ情報テーブル411のアバター情報において管理されている。   FIG. 5 is a flowchart illustrating the process executed by the moving image distribution server 10 when individual moving image distribution is performed in this example. For example, the user can instruct the start of moving image distribution via a screen displayed on the user terminal 30. First, as illustrated, the server 10 acquires a 3D model of the distribution user's avatar from the 3D model DB 413 (step S100). Information for specifying the 3D model of the distribution user avatar is managed in the avatar information of the user information table 411.

配信ユーザの3Dモデルを取得すると、サーバ10は、配信終了となる迄の間(ステップS130においてNO)、配信ユーザのユーザ端末30(以下、「配信ユーザ端末30」と言うことがある。)から、カメラを介して入力される入力画像、及び、マイクを介して入力される入力音声を受信し、受信した入力画像及び入力音声に基づいて動画を生成及び送信する処理を繰り返す(ステップS110、S120)。   When the 3D model of the distribution user is acquired, the server 10 is from the distribution user terminal 30 (hereinafter, referred to as “distribution user terminal 30”) until the distribution ends (NO in step S130). The input image input through the camera and the input sound input through the microphone are received, and the process of generating and transmitting the moving image based on the received input image and input sound is repeated (steps S110 and S120). ).

図6は、ライブ動画の配信中において、配信ユーザ端末30、動画配信サーバ10、及び複数の視聴ユーザのユーザ端末30(以下、「視聴ユーザ端末30」と言うことがある。)の間で行われる通信を説明するための図である。図示するように、配信ユーザ端末30から動画配信サーバ10に対して、配信ユーザ端末30のカメラを介して入力される入力画像、及び、マイクを介して入力される入力音声が送信される。動画配信サーバ10は、受信する入力画像及び入力音声に基づいて動画を生成し、生成した動画を配信ユーザ端末30及び複数の視聴ユーザ端末30の各々にそれぞれ送信する。配信ユーザ端末30及び複数の視聴ユーザ端末30の各々は、受信した動画を表示する。   6 is performed between the distribution user terminal 30, the video distribution server 10, and the user terminals 30 of a plurality of viewing users (hereinafter may be referred to as “viewing user terminal 30”) during the distribution of the live video. It is a figure for demonstrating said communication. As illustrated, an input image input via the camera of the distribution user terminal 30 and an input sound input via a microphone are transmitted from the distribution user terminal 30 to the moving image distribution server 10. The moving image distribution server 10 generates a moving image based on the received input image and input sound, and transmits the generated moving image to each of the distribution user terminal 30 and the plurality of viewing user terminals 30. Each of the distribution user terminal 30 and the plurality of viewing user terminals 30 displays the received moving image.

図7は、動画配信サーバ10によって生成された動画を受信する視聴ユーザ端末30において表示される視聴用画面60を例示する。当該画面60は、図示するように、画面全体において、仮想空間100を表示し、画面下端の左側に位置するコメント入力領域62と、当該領域62の上側に位置するコメント表示領域63と、画面下端の右側に位置する参加ボタン64とが、当該仮想空間100に重ねて配置されている。コメント入力領域62を介して視聴ユーザがコメントを入力すると、入力されたコメントが、コメント表示領域63において表示される。また、視聴ユーザが、参加ボタン64を選択すると、視聴中のライブ動画への参加要求が行われる。ライブ動画への参加要求の詳細については後述する。   FIG. 7 illustrates a viewing screen 60 displayed on the viewing user terminal 30 that receives the moving image generated by the moving image distribution server 10. As shown in the figure, the screen 60 displays the virtual space 100 on the entire screen, a comment input area 62 positioned on the left side of the lower end of the screen, a comment display area 63 positioned on the upper side of the area 62, and a lower end of the screen. The participation button 64 located on the right side of the virtual space 100 is arranged so as to overlap the virtual space 100. When the viewing user inputs a comment via the comment input area 62, the input comment is displayed in the comment display area 63. When the viewing user selects the participation button 64, a request to participate in the live video being viewed is made. Details of the request for participation in the live video will be described later.

この例において、動画配信サーバ10によって生成される動画は、仮想空間100に対応する。当該仮想空間100は、図7に示すように、略中央にステージ102を有し、ステージ102上には、配信ユーザのアバター110が配置されている。当該アバター110は、配信ユーザのアバターの3Dモデルに基づいて描画される。また、当該アバター110は、配信ユーザ端末30から受信する入力画像に基づいて、その動作が制御され、具体的には、当該入力画像における配信ユーザの顔及び両手の配置に基づいて、その動作が制御される。   In this example, the moving image generated by the moving image distribution server 10 corresponds to the virtual space 100. As shown in FIG. 7, the virtual space 100 has a stage 102 at a substantially center, and a distribution user's avatar 110 is arranged on the stage 102. The avatar 110 is drawn based on the 3D model of the distribution user's avatar. The operation of the avatar 110 is controlled based on the input image received from the distribution user terminal 30. Specifically, the operation of the avatar 110 is controlled based on the distribution user's face and the arrangement of both hands in the input image. Be controlled.

図8は、配信ユーザ端末30から受信する入力画像50を模式的に例示する。図示するように、この例では、配信ユーザの右手RHの手の平には、第1の色(例えば、赤色)の円形のマーカーMK1が設けられており、配信ユーザの左手LHの手の平には、第2の色(例えば、黄色)の円形のマーカーMK2が設けられている。これらのマーカーMK1、2は、例えば、手の平に貼り付けるステッカーとして構成され、当該ステッカーは、例えば、ライブ動画配信サービスの提供事業者等によってユーザに提供される。また、マーカーMK1、2は、例えば、手の平にインク等で直接描かれる。この場合、例えば、ライブ動画配信サービスの提供事業者等が配布するインストラクションに従って、ユーザが、両手の手の平にマーカーMK1、2をそれぞれ描く。   FIG. 8 schematically illustrates an input image 50 received from the distribution user terminal 30. As shown in the figure, in this example, the palm of the right hand RH of the distribution user is provided with a circular marker MK1 of the first color (for example, red), and the palm of the palm of the left hand LH of the distribution user is A circular marker MK2 of two colors (for example, yellow) is provided. These markers MK1 and MK2, for example, are configured as stickers to be attached to the palm of the hand, and the stickers are provided to the user by, for example, a provider of a live video distribution service. The markers MK1 and MK2 are directly drawn with ink or the like on the palm of the hand, for example. In this case, for example, the user draws the markers MK1 and MK2 on the palms of both hands according to the instructions distributed by the provider of the live video distribution service.

図8に示すように、この例では、ユーザの顔FCは、当該顔FCの輪郭を囲う矩形の検出領域DA1として検出及び認識される。また、ユーザの両手RH、LHは、当該両手RH、LHの各々の手の平に設けられているマーカーMK1、2の輪郭を囲う矩形の検出領域DA2、DA3としてそれぞれ検出及び認識される。こうした顔FC、及び、両手RH、LH(マーカーMK1、2)の認識は、公知の物体追跡技術を用いて実現され、例えば、機械学習を介して生成された学習済みモデルを用いて実現される。   As shown in FIG. 8, in this example, the user's face FC is detected and recognized as a rectangular detection area DA1 surrounding the outline of the face FC. In addition, the user's hands RH and LH are detected and recognized as rectangular detection areas DA2 and DA3 surrounding the contours of the markers MK1 and MK2 provided on the palms of the hands RH and LH, respectively. Such recognition of the face FC and both hands RH and LH (markers MK1 and MK2) is realized using a known object tracking technique, for example, using a learned model generated through machine learning. .

このように、配信ユーザ端末30から受信する入力画像におけるユーザの顔及び両手を認識すると、これらの顔及び両手の配置に連動するように、アバター110の動作が制御される。例えば、配信ユーザが万歳の姿勢を取ると、入力画像に含まれる配信ユーザの顔及び両手の配置が万歳の姿勢に対応する配置となり、仮想空間100におけるアバター110は、万歳の姿勢となるようにその動作が制御される。   As described above, when the user's face and both hands in the input image received from the distribution user terminal 30 are recognized, the operation of the avatar 110 is controlled so as to be interlocked with the arrangement of these faces and both hands. For example, when the distribution user takes the ancestry attitude, the arrangement of the distribution user's face and both hands included in the input image is an arrangement corresponding to the ancestry attitude, and the avatar 110 in the virtual space 100 becomes the ancestry attitude. Its operation is controlled.

また、この例において、動画配信サーバ10によって生成される動画は、配信ユーザ端末30から受信する入力音声(配信ユーザの声)を含む。この例において、当該入力音声に基づいて、アバター110の口の動きを制御するようにしても良い。   In this example, the moving image generated by the moving image distribution server 10 includes input sound (distribution user's voice) received from the distribution user terminal 30. In this example, the movement of the mouth of the avatar 110 may be controlled based on the input voice.

図9は、配信ユーザ端末30において表示される配信用画面70を例示する。当該画面70は、図示するように、上述した視聴用画面60と同様に、画面全体において、仮想空間100を表示し、画面下端の左側に位置するコメント入力領域72と、当該領域72の上側に位置するコメント表示領域73とが重ねて配置されている。また、配信用画面70の画面下端の右側には、視聴用画面60における参加ボタン64に代えて、配信停止ボタン74が仮想空間100に重ねて配置されている。当該配信停止ボタン74は、ライブ動画の配信を停止するためのオブジェクトである。   FIG. 9 illustrates a distribution screen 70 displayed on the distribution user terminal 30. As shown in the drawing, the screen 70 displays the virtual space 100 on the entire screen, like the viewing screen 60 described above, and a comment input area 72 located on the left side of the lower end of the screen and an upper side of the area 72. The comment display area 73 is arranged so as to overlap. In addition, on the right side of the lower end of the distribution screen 70, a distribution stop button 74 is arranged in the virtual space 100 in place of the participation button 64 on the viewing screen 60. The distribution stop button 74 is an object for stopping the distribution of the live video.

配信ユーザは、例えば、スマートフォンとして構成されるユーザ端末30のインカメラの前で身体を動かすことによって、当該インカメラを介して入力(撮影)される入力画像を介してアバター110を操作しつつ、当該ユーザ端末30において表示される配信用画面70を介して、アバター110が含まれる仮想空間100に対応する動画を閲覧することができる。   For example, the distribution user moves the body in front of the in-camera of the user terminal 30 configured as a smartphone, and operates the avatar 110 via an input image input (photographed) through the in-camera. A moving image corresponding to the virtual space 100 including the avatar 110 can be viewed through the distribution screen 70 displayed on the user terminal 30.

ここで、ライブ動画に視聴ユーザが参加する際の動作について説明する。この例において、視聴ユーザは、視聴用画面60の参加ボタン64を選択することによって、視聴中のライブ動画に対する参加要求を行うことができる。図10は、視聴ユーザによる参加要求に応じて、動画配信サーバ10が実行する処理を例示するフロー図である。参加ボタン64が選択されると、サーバ10は、まず、図示するように、視聴ユーザによる参加要求を配信ユーザに通知する(ステップS200)。   Here, an operation when a viewing user participates in a live video will be described. In this example, the viewing user can make a participation request for the live video being viewed by selecting the participation button 64 on the viewing screen 60. FIG. 10 is a flowchart illustrating processing executed by the video distribution server 10 in response to a participation request from a viewing user. When the participation button 64 is selected, the server 10 first notifies the distribution user of a participation request by the viewing user, as shown (step S200).

図11は、視聴ユーザによる参加ボタン64の選択に応じて、配信ユーザ端末30において表示される参加要求通知オブジェクト80を例示する。当該オブジェクト80は、特定のユーザ(図11の例では、ユーザA)から参加要求があった旨を通知すると共に、当該参加要求を許可するための許可ボタン82と、当該参加要求を拒否するための拒否ボタン84とが配置されている。参加要求通知オブジェクト80は、配信用画面70上に重ねて表示される。   FIG. 11 illustrates the participation request notification object 80 displayed on the distribution user terminal 30 in response to the selection of the participation button 64 by the viewing user. The object 80 notifies that there has been a participation request from a specific user (user A in the example of FIG. 11), and rejects the participation request and a permission button 82 for permitting the participation request. Refusal button 84 is arranged. The participation request notification object 80 is displayed so as to be superimposed on the distribution screen 70.

そして、サーバ10は、配信ユーザによって許可ボタン82が選択された場合には(ステップS210においてYES)、参加要求を行った視聴ユーザ(参加ユーザ)のアバターの3Dモデルを3DモデルDB413から取得し(ステップS220)、参加ユーザが参加した動画の配信(コラボ配信)を開始する(ステップS230)。なお、配信ユーザによって拒否ボタン84が選択された場合には(ステップS210においてNO)、参加要求が拒否されたので、ステップS220、S230の処理はスキップされる。   Then, when the permission button 82 is selected by the distribution user (YES in step S210), the server 10 acquires a 3D model of the viewing user (participating user) avatar who has requested to participate from the 3D model DB 413 ( Step S220), the distribution (collaboration distribution) of the moving image in which the participating user has participated is started (Step S230). If reject button 84 is selected by the distribution user (NO in step S210), the participation request is rejected, so the processes in steps S220 and S230 are skipped.

図12は、コラボ配信の期間中において、配信ユーザ端末30、参加ユーザのユーザ端末30(以下、「参加ユーザ端末30」と言うことがある。)、動画配信サーバ10、及び複数の視聴ユーザ端末30の間で行われる通信を説明するための図である。図示するように、コラボ配信の期間中においては、配信ユーザ端末30から動画配信サーバ10に対して、入力画像及び入力音声が送信されると共に、参加ユーザ端末30から動画配信サーバ10に対して、参加ユーザ端末30のカメラを介して入力される入力画像、及び、マイクを介して入力される入力音声が送信される。動画配信サーバ10は、配信ユーザ端末30及び参加ユーザ端末30からそれぞれ受信する入力画像及び入力音声に基づいて動画を生成し、生成した動画を配信ユーザ端末30、参加ユーザ端末30及び複数の視聴ユーザ端末30の各々にそれぞれ送信する。配信ユーザ端末30、参加ユーザ端末30及び複数の視聴ユーザ端末30の各々は、受信した動画を表示する。   FIG. 12 shows a distribution user terminal 30, a user terminal 30 of a participating user (hereinafter also referred to as “participating user terminal 30”), a video distribution server 10, and a plurality of viewing user terminals during a collaboration distribution period. FIG. 3 is a diagram for explaining communication performed between 30; As shown in the figure, during the collaboration distribution period, an input image and an input sound are transmitted from the distribution user terminal 30 to the video distribution server 10, and from the participating user terminal 30 to the video distribution server 10. An input image input via the camera of the participating user terminal 30 and an input sound input via the microphone are transmitted. The moving image distribution server 10 generates a moving image based on the input image and the input sound received from the distribution user terminal 30 and the participating user terminal 30, respectively, and the generated moving image is distributed to the distribution user terminal 30, the participating user terminal 30, and a plurality of viewing users. It transmits to each of the terminals 30. Each of the distribution user terminal 30, the participating user terminal 30, and the plurality of viewing user terminals 30 displays the received moving image.

この例において、コラボ配信の期間中に動画配信サーバ10によって生成される動画は、仮想空間100において参加ユーザのアバターが追加されている。図13は、コラボ配信の期間中における視聴用画面60を例示する。図示するように、コラボ配信の期間中においては、配信ユーザのアバター110のステージ102上における位置が若干左方向にスライドし、参加ユーザのアバター112が、当該アバター110の右側に並ぶように新たに配置(追加)されている。当該アバター112は、参加ユーザのアバターの3Dモデルに基づいて描画され、参加ユーザ端末30から受信する入力画像に基づいて、配信ユーザのアバター110と同様に、その動作が制御される。   In this example, the avatar of the participating user is added to the moving image generated by the moving image distribution server 10 during the collaboration distribution period in the virtual space 100. FIG. 13 illustrates a viewing screen 60 during the collaboration distribution period. As shown in the figure, during the collaboration distribution period, the position of the distribution user's avatar 110 on the stage 102 slightly slides to the left, and the participating user's avatar 112 is newly aligned to the right side of the avatar 110. Arranged (added). The avatar 112 is drawn based on the 3D model of the participating user's avatar, and its operation is controlled based on the input image received from the participating user terminal 30 in the same manner as the avatar 110 of the distribution user.

また、コラボ配信の期間中において、動画配信サーバ10によって生成される動画は、配信ユーザ端末30から受信する配信ユーザの入力音声に加えて、参加ユーザ端末30から受信する参加ユーザの入力音声(参加ユーザの声)を含む。この例において、アバター110、112の仮想空間100における位置に基づいて、配信ユーザ、参加ユーザそれぞれの入力音声の音量を制御するようにしても良い。例えば、ステージ102上において左側にアバター110が位置する配信ユーザの入力音声は、右側スピーカー用の音量と比較して左側スピーカー用の音量が大きくなるようにする一方、これとは反対に、ステージ102上において右側にアバター112が位置する参加ユーザの入力音声は、左側スピーカー用の音量と比較して右側スピーカー用の音量が大きくなるようにしても良い。   In addition, during the collaborative distribution period, the moving image generated by the moving image distribution server 10 includes the input voice of the participating user received from the participating user terminal 30 (participation) in addition to the input voice of the distributing user received from the distributing user terminal 30. User voice). In this example, based on the positions of the avatars 110 and 112 in the virtual space 100, the volume of the input voice of each of the distribution user and the participating user may be controlled. For example, the input voice of the distribution user whose avatar 110 is located on the left side on the stage 102 is set to have a louder left speaker volume compared to the right speaker volume. The input voice of the participating user whose avatar 112 is located on the right side in the upper side may have a volume for the right speaker that is higher than the volume for the left speaker.

このように、この例では、配信ユーザ及び参加ユーザの各々のアバターが含まれる仮想空間に対応する動画を手軽に生成して複数の視聴ユーザに配信することが可能である。なお、この例では、コラボ配信の期間中において、視聴用画面60の参加ボタン64は選択できないように構成されており、参加ユーザの数は1人に制限されている。しかしながら、本実施形態の他の例では、2以上の参加ユーザが参加するコラボ配信が可能とされ得る。   As described above, in this example, it is possible to easily generate a moving image corresponding to a virtual space including the avatars of the distribution user and the participating user and distribute it to a plurality of viewing users. In this example, the participation button 64 on the viewing screen 60 cannot be selected during the collaboration distribution period, and the number of participating users is limited to one. However, in another example of the present embodiment, collaboration distribution in which two or more participating users participate may be possible.

以上説明した本実施形態に係る動画配信サーバ10は、動画の共同配信を行う複数のユーザに対応する複数のアバターの各々の3Dモデルに基づいて各アバターを描画すると共に、当該複数のユーザによってそれぞれ入力される入力情報(例えば、ユーザ端末30のカメラを介して入力される入力画像)に基づいて当該複数のアバターの各々の動作を制御し、これらの複数のアバターが含まれる仮想空間に対応する動画を生成して配信するから、例えば、素顔を公開することに対して抵抗を感じるユーザが含まれる場合であっても、複数のユーザによる動画の共同配信を手軽に行うことが可能であり、この結果、動画配信の活性化が促進され得る。   The video delivery server 10 according to the present embodiment described above draws each avatar based on each 3D model of a plurality of avatars corresponding to a plurality of users who perform joint delivery of the videos, and the plurality of users respectively. The operation of each of the plurality of avatars is controlled based on input information (for example, an input image input through the camera of the user terminal 30), and corresponds to a virtual space including the plurality of avatars. Since a video is generated and distributed, for example, even when a user who feels resistance to publishing a face is included, it is possible to easily perform joint distribution of a video by a plurality of users, As a result, activation of video distribution can be promoted.

上述した実施形態では、動画配信サーバ10が動画の生成を行うようにしたが、本発明の他の実施形態において、動画の生成は、配信ユーザ端末30において行われ得る。図14は、当該他の実施形態において、コラボ配信の期間中に、配信ユーザ端末30、参加ユーザ端末30、動画配信サーバ10、及び複数の視聴ユーザ端末30の間で行われる通信を説明するための図である。図示するように、この実施形態においては、配信ユーザ端末30から動画配信サーバ10に対して、入力画像のみが送信されると共に、参加ユーザ端末30から動画配信サーバ10に対して、入力画像及び入力音声が送信される。動画配信サーバ10は、配信ユーザ端末30及び参加ユーザ端末30からそれぞれ受信する各入力画像を解析し、各入力画像におけるユーザの顔及び両手の配置に関する配置情報を取得する。そして、動画配信サーバ10は、取得した配置情報(配信ユーザ)及び配置情報(参加ユーザ)、並びに、参加ユーザ端末30から受信した入力音声を配信ユーザ端末30に送信する。配信ユーザ端末30は、動画配信サーバ10から受信した配置情報(配信ユーザ)、配置情報(参加ユーザ)、及び入力音声(参加ユーザ)、並びに、配信ユーザ端末30における入力音声に基づいて動画を生成し、生成した動画を、動画配信サーバ10を経由して、参加ユーザ端末30及び複数の視聴ユーザ端末30の各々に送信する。なお、配信ユーザ端末30は、コラボ配信の開始前において、配信ユーザ及び参加ユーザそれぞれのアバターの3Dモデルを3DモデルDB413から取得する。   In the embodiment described above, the moving image distribution server 10 generates the moving image. However, in another embodiment of the present invention, the moving image generation can be performed in the distribution user terminal 30. FIG. 14 illustrates communication performed between the distribution user terminal 30, the participating user terminal 30, the video distribution server 10, and the plurality of viewing user terminals 30 during the collaboration distribution period in the other embodiment. FIG. As shown in the figure, in this embodiment, only the input image is transmitted from the distribution user terminal 30 to the video distribution server 10, and the input image and the input are input from the participating user terminal 30 to the video distribution server 10. Audio is transmitted. The moving image distribution server 10 analyzes each input image received from each of the distribution user terminal 30 and the participating user terminal 30, and acquires arrangement information regarding the user's face and both hands in each input image. Then, the moving image distribution server 10 transmits the acquired arrangement information (distribution user) and arrangement information (participating user) and the input voice received from the participating user terminal 30 to the distribution user terminal 30. The distribution user terminal 30 generates a moving image based on the arrangement information (distribution user), arrangement information (participating user), and input voice (participating user) received from the moving picture distribution server 10 and the input voice in the distribution user terminal 30. Then, the generated moving image is transmitted to each of the participating user terminals 30 and the plurality of viewing user terminals 30 via the moving image distribution server 10. The distribution user terminal 30 acquires the 3D model of the distribution user and the participating user from the 3D model DB 413 before the collaboration distribution is started.

また、動画の生成が配信ユーザ端末30において行われる上記実施形態において、各入力画像の解析、及び、上記配置情報の取得は、配信ユーザ端末30及び参加ユーザ端末30の各々において行われ得る。この場合、参加ユーザ端末30から動画配信サーバ10に対して、配置情報及び入力音声が送信される。動画配信サーバ10は、参加ユーザ端末30から受信した配置情報及び入力音声を配信ユーザ端末30に送信する。配信ユーザ端末30は、動画配信サーバ10から受信した配置情報(参加ユーザ)及び入力音声(参加ユーザ)、並びに、配信ユーザ端末30における配置情報(配信ユーザ)及び入力音声(配信ユーザ)に基づいて動画を生成し、生成した動画を、動画配信サーバ10を経由して、複数の視聴ユーザ端末30の各々に送信する。   Further, in the above-described embodiment in which the generation of the moving image is performed in the distribution user terminal 30, the analysis of each input image and the acquisition of the arrangement information can be performed in each of the distribution user terminal 30 and the participating user terminal 30. In this case, arrangement information and input sound are transmitted from the participating user terminals 30 to the moving image distribution server 10. The moving image distribution server 10 transmits the arrangement information and the input sound received from the participating user terminal 30 to the distribution user terminal 30. The distribution user terminal 30 is based on the arrangement information (participating user) and the input voice (participating user) received from the video distribution server 10, and the arrangement information (distribution user) and the input voice (distribution user) in the distribution user terminal 30. A moving image is generated, and the generated moving image is transmitted to each of the plurality of viewing user terminals 30 via the moving image distribution server 10.

また、本発明の更に他の実施形態において、動画の生成は、配信ユーザ端末30、参加ユーザ端末30、及び、複数の視聴ユーザ端末30の各々において行われ得る。図15は、当該実施形態において、コラボ配信の期間中に、配信ユーザ端末30、参加ユーザ端末30、動画配信サーバ10、及び複数の視聴ユーザ端末30の間で行われる通信を説明するための図である。図示するように、この実施形態においては、配信ユーザ端末30及び参加ユーザ端末30から動画配信サーバ10に対して、入力画像及び入力音声が送信される。動画配信サーバ10は、配信ユーザ端末30及び参加ユーザ端末30からそれぞれ受信する各入力画像を解析し、各入力画像におけるユーザの顔及び両手の配置に関する配置情報を取得する。そして、動画配信サーバ10は、取得した配置情報(配信ユーザ)及び配置情報(参加ユーザ)、並びに、参加ユーザ端末30から受信した入力音声を配信ユーザ端末30に送信し、配信ユーザ端末30は、動画配信サーバ10から受信した配置情報(配信ユーザ)、配置情報(参加ユーザ)、及び入力音声(参加ユーザ)、並びに、配信ユーザ端末30における入力音声に基づいて動画を生成する。また、動画配信サーバ10は、取得した配置情報(配信ユーザ)及び配置情報(参加ユーザ)、並びに、配信ユーザ端末30から受信した入力音声を参加ユーザ端末30に送信し、参加ユーザ端末30は、動画配信サーバ10から受信した配置情報(配信ユーザ)、配置情報(参加ユーザ)、及び入力音声(配信ユーザ)、並びに、参加ユーザ端末30における入力音声に基づいて動画を生成する。さらに、動画配信サーバ10は、取得した配置情報(配信ユーザ)及び配置情報(参加ユーザ)、並びに、配信ユーザ端末30及び参加ユーザ端末30からそれぞれ受信した入力音声を複数の視聴ユーザ端末30の各々に送信し、各視聴ユーザ端末30は、動画配信サーバ10から受信した配置情報(配信ユーザ)、配置情報(参加ユーザ)、入力音声(配信ユーザ)、及び入力音声(参加ユーザ)に基づいて動画を生成する。なお、配信ユーザ端末30、参加ユーザ端末30、及び複数の視聴ユーザ端末30の各々は、コラボ配信の開始前において、配信ユーザ及び参加ユーザそれぞれのアバターの3Dモデルを3DモデルDB413から取得する。   In still another embodiment of the present invention, the generation of the moving image can be performed in each of the distribution user terminal 30, the participating user terminal 30, and the plurality of viewing user terminals 30. FIG. 15 is a diagram for explaining communication performed between the distribution user terminal 30, the participating user terminal 30, the video distribution server 10, and the plurality of viewing user terminals 30 during the collaboration distribution period in the embodiment. It is. As shown in the figure, in this embodiment, the input image and the input sound are transmitted from the distribution user terminal 30 and the participating user terminal 30 to the moving image distribution server 10. The moving image distribution server 10 analyzes each input image received from each of the distribution user terminal 30 and the participating user terminal 30, and acquires arrangement information regarding the user's face and both hands in each input image. Then, the moving image distribution server 10 transmits the acquired arrangement information (distribution user) and arrangement information (participating user) and the input voice received from the participating user terminal 30 to the distribution user terminal 30, and the distribution user terminal 30 A moving image is generated based on the arrangement information (distribution user), the arrangement information (participating user), the input sound (participating user), and the input sound in the distribution user terminal 30 received from the moving image distribution server 10. In addition, the moving image distribution server 10 transmits the acquired arrangement information (distribution user) and arrangement information (participating user) and the input voice received from the distribution user terminal 30 to the participating user terminal 30. A moving image is generated based on the arrangement information (distribution user), the arrangement information (participating user), the input voice (delivery user), and the input voice in the participating user terminal 30 received from the moving picture distribution server 10. Furthermore, the moving image distribution server 10 receives the acquired arrangement information (distribution user) and arrangement information (participating user), and the input audio received from the distribution user terminal 30 and the participating user terminal 30, respectively. Each viewing user terminal 30 transmits video based on arrangement information (distribution user), arrangement information (participating user), input voice (distribution user), and input voice (participating user) received from the video distribution server 10. Is generated. In addition, each of the distribution user terminal 30, the participating user terminal 30, and the plurality of viewing user terminals 30 acquires a 3D model of each avatar of the distribution user and the participating user from the 3D model DB 413 before the start of the collaboration distribution.

上述した実施形態では、複数のユーザのアバターの画像情報(3Dモデル)を、動画配信サーバ10(3DモデルDB413)において管理するようにしたが、本発明の他の実施形態において、こうしたアバターの画像情報の少なくとも一部は、サーバ10以外の装置おいて管理され、例えば、ユーザ端末30において管理され得る。   In the embodiment described above, the image information (3D model) of a plurality of users' avatars is managed in the video distribution server 10 (3D model DB 413). However, in other embodiments of the present invention, such avatar images are managed. At least a part of the information is managed by a device other than the server 10, and can be managed by the user terminal 30, for example.

本明細書で説明された処理及び手順は、明示的に説明されたもの以外にも、ソフトウェア、ハードウェアまたはこれらの任意の組み合わせによって実現される。例えば、本明細書で説明される処理及び手順は、集積回路、揮発性メモリ、不揮発性メモリ、磁気ディスク等の媒体に、当該処理及び手順に相当するロジックを実装することによって実現される。また、本明細書で説明された処理及び手順は、当該処理・手順に相当するコンピュータプログラムとして実装し、各種のコンピュータに実行させることが可能である。   The processes and procedures described in the present specification are implemented by software, hardware, or any combination thereof other than those explicitly described. For example, the processes and procedures described in this specification are realized by mounting logic corresponding to the processes and procedures on a medium such as an integrated circuit, a volatile memory, a nonvolatile memory, and a magnetic disk. The processing and procedure described in this specification can be implemented as a computer program corresponding to the processing / procedure and executed by various computers.

本明細書中で説明された処理及び手順が単一の装置、ソフトウェア、コンポーネント、モジュールによって実行される旨が説明されたとしても、そのような処理または手順は複数の装置、複数のソフトウェア、複数のコンポーネント、及び/又は複数のモジュールによって実行され得る。また、本明細書において説明されたソフトウェアおよびハードウェアの要素は、それらをより少ない構成要素に統合して、またはより多い構成要素に分解することによって実現することも可能である。   Even if the processes and procedures described herein are described as being performed by a single device, software, component, or module, such processes or procedures may be performed by multiple devices, multiple software, multiple Component and / or multiple modules. Also, the software and hardware elements described herein can be implemented by integrating them into fewer components or by disassembling them into more components.

本明細書において、発明の構成要素が単数もしくは複数のいずれか一方として説明された場合、又は、単数もしくは複数のいずれとも限定せずに説明された場合であっても、文脈上別に解すべき場合を除き、当該構成要素は単数又は複数のいずれであってもよい。   In the present specification, when the constituent elements of the invention are described as one or a plurality, or when they are described without being limited to one or a plurality of cases, they should be understood separately in context. The component may be either singular or plural.

10 動画配信サーバ
11 コンピュータプロセッサ
30 ユーザ端末
41 情報記憶管理部
411 ユーザ情報テーブル
412 配信情報テーブル
413 3DモデルDB
43 基本機能制御部
45 動画配信制御部
50 入力画像
60 視聴用画面
70 配信用画面
100 仮想空間
110 配信ユーザのアバター
112 参加ユーザのアバター

DESCRIPTION OF SYMBOLS 10 Movie delivery server 11 Computer processor 30 User terminal 41 Information storage management part 411 User information table 412 Delivery information table 413 3D model DB
43 Basic Function Control Unit 45 Video Distribution Control Unit 50 Input Image 60 Viewing Screen 70 Distribution Screen 100 Virtual Space 110 Distribution User Avatar 112 Participating User Avatar

Claims (10)

動画を配信するためのシステムであって、
複数のユーザの各々のアバターの画像情報を少なくとも記憶する1又は複数の記憶装置と、1又は複数のコンピュータプロセッサと、を備え、
前記1又は複数のコンピュータプロセッサは、読取可能な命令の実行に応じて、
動画の共同配信を行う第1及び第2のユーザに対応する第1及び第2のアバターが含まれる仮想空間に対応する動画を生成する処理と、
生成した動画を複数の視聴ユーザの各々に対して提供する処理と、を実行し、
前記動画を生成する処理は、前記第1及び第2のアバターを、前記1又は複数の記憶装置に記憶されている前記第1及び第2のアバターの画像情報に少なくとも基づいて描画すること、及び、前記第1及び第2のアバターを、前記第1及び第2のユーザによって第1及び第2のユーザ端末を介してそれぞれ入力される入力情報に少なくとも基づいて前記仮想空間において動作させることを含む、
システム。
A system for delivering video,
One or more storage devices that store at least image information of each avatar of a plurality of users, and one or more computer processors,
The one or more computer processors are responsive to execution of readable instructions,
A process of generating a moving image corresponding to a virtual space including the first and second avatars corresponding to the first and second users performing joint distribution of the moving image;
Providing the generated video to each of a plurality of viewing users,
The process of generating the moving image includes drawing the first and second avatars based on at least image information of the first and second avatars stored in the one or more storage devices, and , Operating the first and second avatars in the virtual space based at least on input information respectively input by the first and second users via the first and second user terminals, respectively. ,
system.
前記入力情報は、カメラを介して入力される画像を含み、
前記動画を生成する処理は、前記入力される画像に含まれる前記第1又は第2のユーザの姿勢に少なくとも基づいて前記第1又は第2のアバターを動作させることを含む、
請求項1のシステム。
The input information includes an image input via a camera,
The process of generating the moving image includes operating the first or second avatar based at least on the posture of the first or second user included in the input image.
The system of claim 1.
前記動画を生成する処理は、前記入力される画像に含まれる前記第1又は第2のユーザの身体の1又は複数の所定の部位の前記入力される画像における配置に少なくとも基づいて前記第1又は第2のアバターを動作させることを含む、
請求項2のシステム。
The processing for generating the moving image is based on at least the arrangement of one or a plurality of predetermined parts of the body of the first or second user included in the input image in the input image. Including operating a second avatar,
The system of claim 2.
前記動画を生成する処理は、前記第1又は第2のユーザによって前記第1又は第2のユーザ端末のマイクを介して入力される音声を含む動画を生成することを含む、
請求項1ないし3何れかのシステム。
The process of generating the moving image includes generating a moving image including sound input by the first or second user through the microphone of the first or second user terminal.
The system according to claim 1.
前記動画を生成する処理は、前記入力される音声に少なくとも基づいて前記第1又は第2のアバターの口の動きを制御することを含む、
請求項4のシステム。
The process of generating the moving image includes controlling movement of the mouth of the first or second avatar based at least on the input voice.
The system of claim 4.
前記動画を生成する処理は、前記第1又は第2のアバターの前記仮想空間における位置に少なくとも基づいて、前記第1又は第2のユーザによって入力される音声の音量を制御することを含む、
請求項1ないし5何れかのシステム。
The process of generating the moving image includes controlling the volume of audio input by the first or second user based at least on the position of the first or second avatar in the virtual space.
The system according to any one of claims 1 to 5.
前記動画を生成する処理は、前記第1又は第2のユーザ端末において実行される、
請求項1ないし6何れかのシステム。
The process of generating the moving image is executed in the first or second user terminal.
The system according to claim 1.
前記動画を生成する処理は、前記複数の視聴ユーザの各々のユーザ端末において実行される、
請求項1ないし6何れかのシステム。
The process of generating the moving image is executed in each user terminal of the plurality of viewing users.
The system according to claim 1.
複数のユーザの各々のアバターの画像情報を少なくとも記憶する1又は複数の記憶装置にアクセス可能な1又は複数のコンピュータによって実行され、動画を配信するための方法であって、
動画の共同配信を行う第1及び第2のユーザに対応する第1及び第2のアバターが含まれる仮想空間に対応する動画を生成するステップと、
生成した動画を複数の視聴ユーザの各々に対して提供するステップと、を備え、
前記動画を生成するステップは、前記第1及び第2のアバターを、前記1又は複数の記憶装置に記憶されている前記第1及び第2のアバターの画像情報に少なくとも基づいて描画すること、及び、前記第1及び第2のアバターを、前記第1及び第2のユーザによって第1及び第2のユーザ端末を介してそれぞれ入力される入力情報に少なくとも基づいて前記仮想空間において動作させることを含む、
方法。
A method for delivering a moving image, executed by one or more computers accessible to one or more storage devices that store at least image information of each avatar of a plurality of users,
Generating a video corresponding to a virtual space including the first and second avatars corresponding to the first and second users performing joint video distribution;
Providing the generated video to each of a plurality of viewing users, and
The step of generating the moving image includes drawing the first and second avatars based on at least image information of the first and second avatars stored in the one or more storage devices, and , Operating the first and second avatars in the virtual space based at least on input information respectively input by the first and second users via the first and second user terminals, respectively. ,
Method.
動画を配信するためのプログラムであって、
複数のユーザの各々のアバターの画像情報を少なくとも記憶する1又は複数の記憶装置にアクセス可能な1又は複数のコンピュータ上での実行に応じて、前記1又は複数のコンピュータに、
動画の共同配信を行う第1及び第2のユーザに対応する第1及び第2のアバターが含まれる仮想空間に対応する動画を生成する処理と、
生成した動画を複数の視聴ユーザの各々に対して提供する処理と、を実行させ、
前記動画を生成する処理は、前記第1及び第2のアバターを、前記1又は複数の記憶装置に記憶されている前記第1及び第2のアバターの画像情報に少なくとも基づいて描画すること、及び、前記第1及び第2のアバターを、前記第1及び第2のユーザによって第1及び第2のユーザ端末を介してそれぞれ入力される入力情報に少なくとも基づいて前記仮想空間において動作させることを含む、
プログラム。
A program for distributing videos,
In response to execution on one or more computers accessible to one or more storage devices that store at least the image information of each avatar of the plurality of users, the one or more computers,
A process of generating a moving image corresponding to a virtual space including the first and second avatars corresponding to the first and second users performing joint distribution of the moving image;
Providing the generated video to each of a plurality of viewing users, and
The process of generating the moving image includes drawing the first and second avatars based on at least image information of the first and second avatars stored in the one or more storage devices, and , Operating the first and second avatars in the virtual space based at least on input information respectively input by the first and second users via the first and second user terminals, respectively. ,
program.
JP2018098338A 2018-05-22 2018-05-22 System, method and program for distributing videos Active JP7228338B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018098338A JP7228338B2 (en) 2018-05-22 2018-05-22 System, method and program for distributing videos
JP2023019795A JP2023071712A (en) 2018-05-22 2023-02-13 System for animated cartoon distribution, method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018098338A JP7228338B2 (en) 2018-05-22 2018-05-22 System, method and program for distributing videos

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023019795A Division JP2023071712A (en) 2018-05-22 2023-02-13 System for animated cartoon distribution, method, and program

Publications (2)

Publication Number Publication Date
JP2019204244A true JP2019204244A (en) 2019-11-28
JP7228338B2 JP7228338B2 (en) 2023-02-24

Family

ID=68727038

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018098338A Active JP7228338B2 (en) 2018-05-22 2018-05-22 System, method and program for distributing videos
JP2023019795A Pending JP2023071712A (en) 2018-05-22 2023-02-13 System for animated cartoon distribution, method, and program

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023019795A Pending JP2023071712A (en) 2018-05-22 2023-02-13 System for animated cartoon distribution, method, and program

Country Status (1)

Country Link
JP (2) JP7228338B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020170519A (en) * 2020-06-08 2020-10-15 株式会社バーチャルキャスト Content distribution system, content distribution method, and computer program
JP2021152785A (en) * 2020-03-24 2021-09-30 グリー株式会社 Video application program, video object rendering method, video distribution system, video distribution server, and video distribution method
JP6974550B1 (en) * 2020-07-17 2021-12-01 グリー株式会社 Computer programs, methods, and server equipment
JP2022078994A (en) * 2021-12-23 2022-05-25 グリー株式会社 Program, information processing method, and information processing device
EP4054181A1 (en) 2021-03-01 2022-09-07 Toyota Jidosha Kabushiki Kaisha Virtual space sharing system, virtual space sharing method, and virtual space sharing program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1021215A (en) * 1996-06-28 1998-01-23 Ritsumeikan Method and device for generating cyber space
JP2000194876A (en) * 1998-12-25 2000-07-14 Atr Media Integration & Communications Res Lab Virtual space sharing device
JP2014225801A (en) * 2013-05-16 2014-12-04 株式会社ニコン Conference system, conference method and program
JP2015184689A (en) * 2014-03-20 2015-10-22 株式会社Mugenup Moving image generation device and program
JP2019186797A (en) * 2018-04-12 2019-10-24 株式会社バーチャルキャスト Content distribution server, content distribution system, content distribution method, and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1021215A (en) * 1996-06-28 1998-01-23 Ritsumeikan Method and device for generating cyber space
JP2000194876A (en) * 1998-12-25 2000-07-14 Atr Media Integration & Communications Res Lab Virtual space sharing device
JP2014225801A (en) * 2013-05-16 2014-12-04 株式会社ニコン Conference system, conference method and program
JP2015184689A (en) * 2014-03-20 2015-10-22 株式会社Mugenup Moving image generation device and program
JP2019186797A (en) * 2018-04-12 2019-10-24 株式会社バーチャルキャスト Content distribution server, content distribution system, content distribution method, and program

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021152785A (en) * 2020-03-24 2021-09-30 グリー株式会社 Video application program, video object rendering method, video distribution system, video distribution server, and video distribution method
JP7098676B2 (en) 2020-03-24 2022-07-11 グリー株式会社 Video application program, video object drawing method, video distribution system, video distribution server and video distribution method
JP2020170519A (en) * 2020-06-08 2020-10-15 株式会社バーチャルキャスト Content distribution system, content distribution method, and computer program
JP7159244B2 (en) 2020-06-08 2022-10-24 株式会社バーチャルキャスト CONTENT DELIVERY SYSTEM, CONTENT DELIVERY METHOD, COMPUTER PROGRAM
JP6974550B1 (en) * 2020-07-17 2021-12-01 グリー株式会社 Computer programs, methods, and server equipment
JP2022019119A (en) * 2020-07-17 2022-01-27 グリー株式会社 Computer program, method and server device
EP4054181A1 (en) 2021-03-01 2022-09-07 Toyota Jidosha Kabushiki Kaisha Virtual space sharing system, virtual space sharing method, and virtual space sharing program
JP2022078994A (en) * 2021-12-23 2022-05-25 グリー株式会社 Program, information processing method, and information processing device
JP7333528B2 (en) 2021-12-23 2023-08-25 グリー株式会社 Program, information processing method and information processing apparatus

Also Published As

Publication number Publication date
JP7228338B2 (en) 2023-02-24
JP2023071712A (en) 2023-05-23

Similar Documents

Publication Publication Date Title
JP2019204244A (en) System for animated cartoon distribution, method, and program
WO2020138107A1 (en) Video streaming system, video streaming method, and video streaming program for live streaming of video including animation of character object generated on basis of motion of streaming user
TWI533198B (en) Communicating between a virtual area and a physical space
US20180324229A1 (en) Systems and methods for providing expert assistance from a remote expert to a user operating an augmented reality device
CN111527525A (en) Mixed reality service providing method and system
KR20190088545A (en) Systems, methods and media for displaying interactive augmented reality presentations
WO2015188614A1 (en) Method and device for operating computer and mobile phone in virtual world, and glasses using same
US20160188585A1 (en) Technologies for shared augmented reality presentations
JP2024050721A (en) Information processing device, information processing method, and computer program
KR20210135683A (en) Method, system, and computer program for displaying reaction during voip-based call
KR20190029398A (en) Method for sharing user screen in multiple reality environment and server system for the method
JP6861287B2 (en) Effect sharing methods and systems for video
JP6883140B1 (en) Information processing system, information processing method and computer program
JP7134298B2 (en) Video distribution system, video distribution method and video distribution program
JP2021152785A (en) Video application program, video object rendering method, video distribution system, video distribution server, and video distribution method
KR20200067537A (en) System and method for providing a virtual environmental conference room
WO2022169668A1 (en) Integrating artificial reality and other computing devices
US20230368464A1 (en) Information processing system, information processing method, and information processing program
CN112492328A (en) Virtual room creating method, device, terminal and storage medium
JP7373599B2 (en) Systems, methods and programs for creating videos
JP2022171661A (en) System, method, and program for creating moving image
JP2022097475A (en) Information processing system, information processing method, and computer program
WO2020248682A1 (en) Display device and virtual scene generation method
CN114430406A (en) Head portrait communication service providing method and device based on position
JP6923735B1 (en) Video distribution system, video distribution method and video distribution program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210419

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220407

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220823

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221006

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230117

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230213

R150 Certificate of patent or registration of utility model

Ref document number: 7228338

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150