JP2021117593A - Content distribution system, content distribution method and content distribution program - Google Patents

Content distribution system, content distribution method and content distribution program Download PDF

Info

Publication number
JP2021117593A
JP2021117593A JP2020009240A JP2020009240A JP2021117593A JP 2021117593 A JP2021117593 A JP 2021117593A JP 2020009240 A JP2020009240 A JP 2020009240A JP 2020009240 A JP2020009240 A JP 2020009240A JP 2021117593 A JP2021117593 A JP 2021117593A
Authority
JP
Japan
Prior art keywords
avatar
content
image
content distribution
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020009240A
Other languages
Japanese (ja)
Other versions
JP6794562B1 (en
Inventor
寛明 齊藤
Hiroaki Saito
寛明 齊藤
真宇 角
Masataka Sumi
真宇 角
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dwango Co Ltd
Original Assignee
Dwango Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dwango Co Ltd filed Critical Dwango Co Ltd
Priority to JP2020009240A priority Critical patent/JP6794562B1/en
Priority to JP2020188002A priority patent/JP2021117979A/en
Application granted granted Critical
Publication of JP6794562B1 publication Critical patent/JP6794562B1/en
Publication of JP2021117593A publication Critical patent/JP2021117593A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Information Transfer Between Computers (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

To further enhance visual effects of a content image by appropriately controlling visibility of a specific avatar, the object of attention for a user, in a virtual space.SOLUTION: A content distribution system 1, the system of distributing a content reflecting a virtual space in which avatars are set, includes: an acquisition unit of acquiring motion data of the respective avatars; a generation unit of generating content data representing the virtual space in which the respective avatars are set based on the motion data; an image generation unit 23 of generating a content image, the video visible from a prescribed viewpoint position set in the virtual space, based on the content data; and a display unit 24 causing a user terminal 20 to display the content image. The image generation unit 23 controls the visibility of a first avatar, the avatar as an object of attention for the user, out of a plurality of avatars in the content image, based on a prescribed attribute value.SELECTED DRAWING: Figure 4

Description

本開示の一側面は、コンテンツ配信システム、コンテンツ配信方法及びコンテンツ配信プログラムに関する。 One aspect of the disclosure relates to content distribution systems, content distribution methods and content distribution programs.

アバターが設定された仮想空間を映すコンテンツを配信することが行われている。仮想空間は、仮想の3次元空間であって、現実空間を映した実写画像に基づいて構成されることもできる。例えば、特許文献1には、複合現実画像の生成に際して、複数の体験者を示すアバター及びCGモデルが仮想空間に配置され、ある体験者のアバターとCGモデルとの間に他の体験者である共同体験者のアバターが存在する場合に、共同体験者のアバターを消去及び透過表示させる等の制御を行う技術が記載されている。 Content that reflects the virtual space in which the avatar is set is being distributed. The virtual space is a virtual three-dimensional space, and can be constructed based on a live-action image reflecting a real space. For example, in Patent Document 1, when generating a mixed reality image, an avatar and a CG model indicating a plurality of experiencers are arranged in a virtual space, and another experiencer is placed between the avatar of one experiencer and the CG model. Describes a technique for controlling the avatar of a co-experiencer, such as erasing and transparently displaying the avatar of the co-experiencer when the avatar of the co-experiencer exists.

特開2018−106297号公報JP-A-2018-106297

仮想空間においてユーザにとっての注目対象である特定のアバターの視認性を適切に制御することにより、コンテンツ画像の視覚効果をさらに高めることが望まれている。 It is desired to further enhance the visual effect of the content image by appropriately controlling the visibility of a specific avatar that is the target of attention for the user in the virtual space.

本開示の一側面に係るコンテンツ配信システムは、複数のアバターが設定された仮想空間を映すコンテンツを配信するコンテンツ配信システムであって、各アバターの位置及び態様のうちの少なくともいずれかを示すモーションデータを取得する取得部と、モーションデータに基づいて各アバターが設定された仮想空間を表すコンテンツデータを生成する生成部と、コンテンツデータに基づいて、仮想空間内に設定された所定の視点位置から見える映像であるコンテンツ画像を生成する画像生成部と、ユーザのユーザ端末にコンテンツ画像を表示させる表示部と、を備え、画像生成部は、所定の属性値に基づいて、コンテンツ画像における、複数のアバターのうちのユーザにとっての注目対象のアバターである第1のアバターの視認性を制御する。 The content distribution system according to one aspect of the present disclosure is a content distribution system that distributes content that reflects a virtual space in which a plurality of avatars are set, and motion data indicating at least one of the positions and modes of each avatar. It can be seen from a predetermined viewpoint position set in the virtual space based on the content data and the acquisition unit that generates the content data representing the virtual space in which each avatar is set based on the motion data. The image generation unit includes an image generation unit that generates a content image that is a video and a display unit that displays the content image on the user terminal of the user, and the image generation unit has a plurality of avatars in the content image based on a predetermined attribute value. Controls the visibility of the first avatar, which is the avatar of interest to the user.

このような側面によれば、ユーザにとっての注目対象のアバターの視認性が所定の属性値に基づいて制御されるので、属性値の設定により、特定のアバターの視認性を高めるまたは視認性を低下させることが可能となる。 According to such an aspect, since the visibility of the avatar of interest to the user is controlled based on a predetermined attribute value, the visibility of a specific avatar is enhanced or decreased by setting the attribute value. It becomes possible to make it.

本開示の一側面によれば、仮想空間においてユーザにとっての注目対象である特定のアバターの視認性を適切に制御することにより、コンテンツ画像の視覚効果をさらに高めることが可能となる。 According to one aspect of the present disclosure, it is possible to further enhance the visual effect of the content image by appropriately controlling the visibility of a specific avatar that is the target of attention for the user in the virtual space.

実施形態に係るコンテンツ配信システムの装置構成の一例を示す図である。It is a figure which shows an example of the apparatus configuration of the content distribution system which concerns on embodiment. 実施形態に係るコンテンツ配信システムに関するハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware composition about the content distribution system which concerns on embodiment. 実施形態に係るコンテンツ配信サーバの機能構成の一例を示すブロック図である。It is a block diagram which shows an example of the functional structure of the content distribution server which concerns on embodiment. 実施形態に係るユーザ端末の機能構成の一例を示す図である。It is a figure which shows an example of the functional structure of the user terminal which concerns on embodiment. ユーザ属性情報の例を示す図である。It is a figure which shows the example of the user attribute information. コンテンツ画像におけるアバターの視認性の制御の例を示す図である。It is a figure which shows the example of the control | control of the visibility of an avatar in a content image. コンテンツ画像におけるアバターの視認性の制御の例を示す図である。It is a figure which shows the example of the control | control of the visibility of an avatar in a content image. コンテンツ画像におけるアバターの視認性の制御の例を示す図である。It is a figure which shows the example of the control | control of the visibility of an avatar in a content image. コンテンツ画像におけるアバターの視認性の制御の例を示す図である。It is a figure which shows the example of the control | control of the visibility of an avatar in a content image. コンテンツ画像におけるアバターの視認性の制御の例を示す図である。It is a figure which shows the example of the control | control of the visibility of an avatar in a content image. コンテンツ画像におけるアバターの視認性の制御の例を示す図である。It is a figure which shows the example of the control | control of the visibility of an avatar in a content image. コンテンツ画像におけるアバターの視認性の制御の例を示す図である。It is a figure which shows the example of the control | control of the visibility of an avatar in a content image. コンテンツ画像におけるアバターの一部の視認性の制御の例を示す図である。It is a figure which shows the example of the control | control of the visibility of a part of an avatar in a content image. 実施形態に係るコンテンツ配信システムの動作の一例を示すフローチャートである。It is a flowchart which shows an example of the operation of the content distribution system which concerns on embodiment.

以下、添付図面を参照しながら本発明の実施形態を詳細に説明する。なお、図面の説明において同一又は同等の要素には同一の符号を付し、重複する説明を省略する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the description of the drawings, the same or equivalent elements are designated by the same reference numerals, and duplicate description will be omitted.

図1は、実施形態に係るコンテンツ配信システム1の装置構成の一例を示す図である。図1に示すように、本実施形態のコンテンツ配信システム1は、コンテンツ配信サーバ10及び複数のユーザ端末20を含む。コンテンツ配信サーバ10及び複数のユーザ端末20は、ネットワークNを介して互いに通信可能である。ユーザ端末20は、コンテンツを配信する配信者のユーザ端末20Bと、コンテンツを受信及び視聴する視聴者のユーザ端末20Aとを含み得る。 FIG. 1 is a diagram showing an example of a device configuration of the content distribution system 1 according to the embodiment. As shown in FIG. 1, the content distribution system 1 of the present embodiment includes a content distribution server 10 and a plurality of user terminals 20. The content distribution server 10 and the plurality of user terminals 20 can communicate with each other via the network N. The user terminal 20 may include the user terminal 20B of the distributor who distributes the content and the user terminal 20A of the viewer who receives and views the content.

実施形態に係るコンテンツ配信システム1は、複数のアバターが設定された仮想空間を映すコンテンツをユーザのユーザ端末20に配信するコンピュータシステムである。 The content distribution system 1 according to the embodiment is a computer system that distributes content that reflects a virtual space in which a plurality of avatars are set to the user terminal 20 of the user.

コンテンツとは、コンピュータまたはコンピュータシステムによって提供され、人が認識可能な情報のことをいう。コンテンツを示す電子データのことをコンテンツデータという。コンテンツの表現形式は限定されず、例えば、コンテンツは画像(例えば、写真、映像など)、文書、音声、音楽、またはこれらの中の任意の2以上の要素の組合せによって表現されてもよい。コンテンツの目的および利用場面は限定されず、例えば、コンテンツはエンターテインメント、ニュース、教育、医療、ゲーム、チャット、商取引、講演、セミナー、研修などの様々な目的で利用され得る。配信とは、通信ネットワークまたは放送ネットワークを経由して情報をユーザに送信する処理のことをいう。本開示では、配信は放送を含み得る概念である。 Content is information provided by a computer or computer system that is human recognizable. Electronic data that indicates content is called content data. The representation format of the content is not limited, for example, the content may be represented by an image (eg, photo, video, etc.), a document, audio, music, or a combination of any two or more elements thereof. The purpose and usage of the content is not limited, for example, the content may be used for various purposes such as entertainment, news, education, medical care, games, chat, commerce, lectures, seminars, and training. Distribution refers to the process of transmitting information to a user via a communication network or a broadcasting network. In the present disclosure, distribution is a concept that may include broadcasting.

コンテンツ配信システム1はコンテンツデータをユーザ端末に送信することで、コンテンツをユーザに提供する。一例では、そのコンテンツは配信者から提供される。配信者とは視聴者であるユーザに情報を伝えようとする人であり、すなわち、コンテンツの発信者である。 The content distribution system 1 provides the content to the user by transmitting the content data to the user terminal. In one example, the content is provided by the distributor. The distributor is a person who tries to convey information to a user who is a viewer, that is, a sender of the content.

本実施形態では、コンテンツは少なくとも画像を用いて表現される。コンテンツは、動画でもよいし、静止画でもよい。静止画により構成されるコンテンツは、ウェブサイトのホームページを構成し、スクロールバーによりスクロールさせることができるものであってもよい。また、静止画により構成されるコンテンツは、複数の静止画を含みスライドショーにより表現されるものであってもよい。 In this embodiment, the content is represented using at least images. The content may be a moving image or a still image. The content composed of still images may constitute the home page of the website and can be scrolled by the scroll bar. Further, the content composed of still images may include a plurality of still images and be represented by a slide show.

コンテンツ配信システム1は様々な目的で用いられてよい。例えば、コンテンツ配信システム1は、ある一人のユーザが他のユーザに向けてライブコンテンツを配信するサービスのために用いられてもよい。このサービスはインターネット生放送ともいわれる。すなわち、コンテンツ配信システム1は配信者から提供されるコンテンツ映像をリアルタイムに視聴者に配信するために用いられてもよい。したがって、コンテンツ画像は、リアルタイムに配信されるライブコンテンツの画像であり得る。あるいは、コンテンツ配信システム1は、過去に撮影されたコンテンツ映像を視聴者に配信するために用いられてもよく、例えば、リアルタイム配信後の所与の期間においてコンテンツを視聴することが可能なタイムシフトのために用いられてもよい。コンテンツ配信システム1は静止画を配信するために用いられてもよい。 The content distribution system 1 may be used for various purposes. For example, the content distribution system 1 may be used for a service in which one user distributes live content to another user. This service is also called live internet broadcasting. That is, the content distribution system 1 may be used to distribute the content video provided by the distributor to the viewer in real time. Therefore, the content image can be an image of live content delivered in real time. Alternatively, the content distribution system 1 may be used to distribute the content video shot in the past to the viewer, for example, a time shift capable of viewing the content in a given period after the real-time distribution. May be used for. The content distribution system 1 may be used to distribute a still image.

仮想空間は、コンピュータ上に表示される画像によって表現される仮想の2次元または3次元の空間である。仮想空間は、配信者により定義及び提供されてもよいし、サーバが仮想的に生成してもよいし、現実空間画像に基づいて生成してもよい。定義及び生成された仮想空間には、位置を示すための3次元の座標系が定義されてもよい。コンテンツ画像は、仮想空間内に視点位置として設定された仮想カメラから見える風景を示す画像である。仮想カメラは、例えば、コンテンツ画像を見るユーザの視線に対応するように仮想空間内に設定される。本実施形態では、仮想カメラは、ユーザ端末20のユーザに対応するアバターの視点位置に設定されてもよい。 The virtual space is a virtual two-dimensional or three-dimensional space represented by an image displayed on a computer. The virtual space may be defined and provided by the distributor, may be virtually generated by the server, or may be generated based on a real space image. A three-dimensional coordinate system for indicating a position may be defined in the defined and generated virtual space. The content image is an image showing a landscape seen from a virtual camera set as a viewpoint position in the virtual space. The virtual camera is set in the virtual space so as to correspond to the line of sight of the user who sees the content image, for example. In the present embodiment, the virtual camera may be set at the viewpoint position of the avatar corresponding to the user of the user terminal 20.

仮想空間には、複数のアバターが設定され得る。コンテンツ画像には、仮想空間内において設定及び表現されるユーザの分身であるアバターが表現され得る。アバターは仮想オブジェクトの一例である。仮想空間に設定されるアバターは限定されず、例えば、アバターは、配信者に対応してもよいし、配信者と共にコンテンツに参加すると共に該コンテンツを視聴するユーザである視聴者に対応してもよい。 Multiple avatars can be set in the virtual space. The content image may represent an avatar, which is the alter ego of the user set and represented in the virtual space. Avatar is an example of a virtual object. The avatar set in the virtual space is not limited, and for example, the avatar may correspond to the distributor, or may correspond to the viewer who participates in the content together with the distributor and who is the user who views the content. good.

アバターは、画像素材を用いて、2次元または3次元のコンピュータグラフィック(CG)によって表現される。アバターの表現方法は限定されない。例えば、アバターはアニメーション素材を用いて表現されてもよいし、実写画像に基づいて本物に近いように表現されてもよい。 Avatar is represented by two-dimensional or three-dimensional computer graphics (CG) using image material. The expression method of the avatar is not limited. For example, the avatar may be represented using an animation material, or may be represented as close to the real thing based on a live-action image.

コンテンツ配信サーバ10は、コンテンツデータを少なくとも一つのユーザ端末20に配信するコンピュータである。図1では4台のユーザ端末20を示すが、ユーザ端末20の個数は限定されない。通信ネットワークNの構成は限定されない。例えば、通信ネットワークNはインターネットを含んで構成されてもよいし、イントラネットを含んで構成されてもよい。 The content distribution server 10 is a computer that distributes content data to at least one user terminal 20. Although FIG. 1 shows four user terminals 20, the number of user terminals 20 is not limited. The configuration of the communication network N is not limited. For example, the communication network N may be configured to include the Internet or may be configured to include an intranet.

ユーザ端末20は、例えば、高機能携帯電話機(スマートフォン)、タブレット端末、ウェアラブル端末(例えば、ヘッドマウントディスプレイ(HMD)、スマートグラスなど)、ラップトップ型パーソナルコンピュータ、携帯電話機などの携帯端末でもよい。あるいは、ユーザ端末20はデスクトップ型パーソナルコンピュータなどの据置型端末でもよい。 The user terminal 20 may be, for example, a mobile terminal such as a high-performance mobile phone (smartphone), a tablet terminal, a wearable terminal (for example, a head-mounted display (HMD), a smart glass, etc.), a laptop personal computer, or a mobile phone. Alternatively, the user terminal 20 may be a stationary terminal such as a desktop personal computer.

図2は、コンテンツ配信システム1に関するハードウェア構成の一例を示す図である。図2は、コンテンツ配信サーバ10として機能するサーバコンピュータ100と、ユーザ端末20として機能する端末コンピュータ200とを示す。 FIG. 2 is a diagram showing an example of a hardware configuration related to the content distribution system 1. FIG. 2 shows a server computer 100 that functions as a content distribution server 10 and a terminal computer 200 that functions as a user terminal 20.

一例として、サーバコンピュータ100はハードウェア構成要素として、プロセッサ101、主記憶部102、補助記憶部103、および通信部104を備える。 As an example, the server computer 100 includes a processor 101, a main storage unit 102, an auxiliary storage unit 103, and a communication unit 104 as hardware components.

プロセッサ101は、オペレーティングシステムおよびアプリケーションプログラムを実行する演算装置である。プロセッサの例としてCPU(Central Processing Unit)およびGPU(Graphics Processing Unit)が挙げられるが、プロセッサ101の種類はこれらに限定されない。例えば、プロセッサ101はセンサおよび専用回路の組合せでもよい。専用回路はFPGA(Field−Programmable Gate Array)のようなプログラム可能な回路でもよいし、他の種類の回路でもよい。 The processor 101 is an arithmetic unit that executes an operating system and an application program. Examples of the processor include a CPU (Central Processing Unit) and a GPU (Graphics Processing Unit), but the type of the processor 101 is not limited thereto. For example, the processor 101 may be a combination of a sensor and a dedicated circuit. The dedicated circuit may be a programmable circuit such as FPGA (Field-Programmable Gate Array), or may be another type of circuit.

主記憶部102は、コンテンツ配信サーバ10を実現するためのプログラム、プロセッサ101から出力された演算結果などを記憶する装置である。主記憶部102は例えばROM(Read Only Memory)およびRAM(Random Access Memory)のうちの少なくとも一つにより構成される。 The main storage unit 102 is a device that stores a program for realizing the content distribution server 10, a calculation result output from the processor 101, and the like. The main storage unit 102 is composed of, for example, at least one of a ROM (Read Only Memory) and a RAM (Random Access Memory).

補助記憶部103は、一般に主記憶部102よりも大量のデータを記憶することが可能な装置である。補助記憶部103は例えばハードディスク、フラッシュメモリなどの不揮発性記憶媒体によって構成される。補助記憶部103は、サーバコンピュータ100をコンテンツ配信サーバ10として機能させるためのサーバプログラムP1と各種のデータとを記憶する。本実施形態では、コンテンツ配信プログラムはサーバプログラムP1として実装される。 The auxiliary storage unit 103 is a device capable of storing a larger amount of data than the main storage unit 102 in general. The auxiliary storage unit 103 is composed of a non-volatile storage medium such as a hard disk or a flash memory. The auxiliary storage unit 103 stores the server program P1 for causing the server computer 100 to function as the content distribution server 10 and various data. In this embodiment, the content distribution program is implemented as the server program P1.

通信部104は、通信ネットワークNを介して他のコンピュータとの間でデータ通信を実行する装置である。通信部104は例えばネットワークカードまたは無線通信モジュールにより構成される。 The communication unit 104 is a device that executes data communication with another computer via the communication network N. The communication unit 104 is composed of, for example, a network card or a wireless communication module.

サーバの各機能要素は、プロセッサ101または主記憶部102の上に、対応するサーバプログラムP1を読み込ませてプロセッサ101にそのプログラムを実行させることで実現される。サーバプログラムP1は、対応するサーバの各機能要素を実現するためのコードを含む。プロセッサ101はサーバプログラムP1に従って通信部104を動作させ、主記憶部102または補助記憶部103におけるデータの読み出しおよび書き込みを実行する。このような処理により、対応するサーバの各機能要素が実現される。 Each functional element of the server is realized by loading the corresponding server program P1 on the processor 101 or the main storage unit 102 and causing the processor 101 to execute the program. The server program P1 includes a code for realizing each functional element of the corresponding server. The processor 101 operates the communication unit 104 according to the server program P1 to read and write data in the main storage unit 102 or the auxiliary storage unit 103. By such processing, each functional element of the corresponding server is realized.

個々のサーバは一つまたは複数のコンピュータにより構成され得る。一つのサーバのために複数のコンピュータが用いられる場合には、通信ネットワークを介してこれらのコンピュータが互いに接続されることで、論理的に一つのサーバが構成される。 Each server may consist of one or more computers. When a plurality of computers are used for one server, one server is logically configured by connecting these computers to each other via a communication network.

一例として、端末コンピュータ200はハードウェア構成要素として、プロセッサ201、主記憶部202、補助記憶部203及び通信部204並びに入力インタフェース205、出力インタフェース206及び撮像部207を備える。 As an example, the terminal computer 200 includes a processor 201, a main storage unit 202, an auxiliary storage unit 203 and a communication unit 204, an input interface 205, an output interface 206, and an imaging unit 207 as hardware components.

プロセッサ201は、オペレーティングシステムおよびアプリケーションプログラムを実行する演算装置である。プロセッサ201は例えばCPUまたはGPUであり得るが、プロセッサ201の種類はこれらに限定されない。 Processor 201 is an arithmetic unit that executes operating systems and application programs. The processor 201 can be, for example, a CPU or GPU, but the type of processor 201 is not limited to these.

主記憶部202は、ユーザ端末20を実現させるためのプログラム、プロセッサ201から出力された演算結果などを記憶する装置である。主記憶部202は例えばROMおよびRAMのうちの少なくとも一つにより構成される。 The main storage unit 202 is a device that stores a program for realizing the user terminal 20, a calculation result output from the processor 201, and the like. The main storage unit 202 is composed of, for example, at least one of ROM and RAM.

補助記憶部203は、一般に主記憶部202よりも大量のデータを記憶することが可能な装置である。補助記憶部203は例えばハードディスク、フラッシュメモリなどの不揮発性記憶媒体によって構成される。補助記憶部203は、端末コンピュータ200をユーザ端末20として機能させるための端末プログラムP2と各種のデータとを記憶する。例えば、補助記憶部203はアバターなどの仮想オブジェクトと仮想空間とのうちの少なくとも一つに関するデータを記憶してもよい。 The auxiliary storage unit 203 is a device capable of storing a larger amount of data than the main storage unit 202 in general. The auxiliary storage unit 203 is composed of a non-volatile storage medium such as a hard disk or a flash memory. The auxiliary storage unit 203 stores the terminal program P2 for making the terminal computer 200 function as the user terminal 20 and various data. For example, the auxiliary storage unit 203 may store data relating to at least one of a virtual object such as an avatar and a virtual space.

通信部204は、通信ネットワークNを介して他のコンピュータとの間でデータ通信を実行する装置である。通信部204は例えばネットワークカードまたは無線通信モジュールにより構成される。 The communication unit 204 is a device that executes data communication with another computer via the communication network N. The communication unit 204 is composed of, for example, a network card or a wireless communication module.

入力インタフェース205は、ユーザの操作または動作に基づいてデータを受け付ける装置である。例えば、入力インタフェース205は、キーボード、操作ボタン、ポインティングデバイス、マイクロフォン、センサ、およびカメラのうちの少なくとも一つによって構成される。キーボードおよび操作ボタンはタッチパネル上に表示されてもよい。入力インタフェース205の種類が限定されないことに対応して、入力されるデータは限定されない。例えば、入力インタフェース205はキーボード、操作ボタン、またはポインティングデバイスによって入力または選択されたデータを受け付けてもよい。あるいは、入力インタフェース205は、マイクロフォンにより入力された音声データを受け付けてもよい。あるいは、入力インタフェース205はカメラによって撮影された画像データ(例えば、映像データまたは静止画データ)を受け付けてもよい。 The input interface 205 is a device that receives data based on a user's operation or operation. For example, the input interface 205 is composed of at least one of a keyboard, operation buttons, a pointing device, a microphone, a sensor, and a camera. The keyboard and operation buttons may be displayed on the touch panel. Corresponding to the fact that the type of the input interface 205 is not limited, the data to be input is not limited. For example, the input interface 205 may accept data input or selected by a keyboard, operating buttons, or pointing device. Alternatively, the input interface 205 may accept voice data input by the microphone. Alternatively, the input interface 205 may accept image data (eg, video data or still image data) captured by the camera.

出力インタフェース206は、端末コンピュータ200で処理されたデータを出力する装置である。例えば、出力インタフェース206はモニタ、タッチパネル、HMDおよびスピーカのうちの少なくとも一つによって構成される。モニタ、タッチパネル、HMDなどの表示装置は、処理されたデータを画面上に表示する。スピーカは、処理された音声データで示される音声を出力する。 The output interface 206 is a device that outputs data processed by the terminal computer 200. For example, the output interface 206 is composed of at least one of a monitor, a touch panel, an HMD and a speaker. Display devices such as monitors, touch panels, and HMDs display the processed data on the screen. The speaker outputs the voice indicated by the processed voice data.

撮像部207は、現実世界を映した画像を撮影する装置であり、具体的にはカメラである。撮像部207は動画像(映像)を撮影してもよいし静止画(写真)を撮影してもよい。動画像を撮影する場合には、撮像部207は映像信号を所与のフレームレートに基づいて処理することで、時系列に並ぶ一連のフレーム画像を動画像として取得する。撮像部207は入力インタフェース205としても機能し得る。 The imaging unit 207 is a device that captures an image of the real world, and is specifically a camera. The imaging unit 207 may capture a moving image (video) or a still image (photograph). When shooting a moving image, the imaging unit 207 processes a video signal based on a given frame rate to acquire a series of frame images arranged in time series as a moving image. The imaging unit 207 can also function as an input interface 205.

ユーザ端末20の各機能要素は、プロセッサ201または主記憶部202の上に端末プログラムP2を読み込ませてそのプログラムを実行させることで実現される。端末プログラムP2は、ユーザ端末20の各機能要素を実現するためのコードを含む。プロセッサ201は端末プログラムP2に従って通信部204、入力インタフェース205または出力インタフェース206を動作させ、主記憶部202または補助記憶部203におけるデータの読み出しおよび書き込みを行う。この処理によりユーザ端末20の各機能要素が実現される。 Each functional element of the user terminal 20 is realized by reading the terminal program P2 on the processor 201 or the main storage unit 202 and executing the program. The terminal program P2 includes a code for realizing each functional element of the user terminal 20. The processor 201 operates the communication unit 204, the input interface 205, or the output interface 206 according to the terminal program P2, and reads and writes data in the main storage unit 202 or the auxiliary storage unit 203. By this process, each functional element of the user terminal 20 is realized.

サーバプログラムP1および端末プログラムP2の少なくとも一つは、CD−ROM、DVD−ROM、半導体メモリなどの有形の記録媒体に固定的に記録された上で提供されてもよい。あるいは、これらのプログラムの少なくとも一つは、搬送波に重畳されたデータ信号として通信ネットワークを介して提供されてもよい。これらのプログラムは別々に提供されてもよいし、一緒に提供されてもよい。 At least one of the server program P1 and the terminal program P2 may be provided after being fixedly recorded on a tangible recording medium such as a CD-ROM, a DVD-ROM, or a semiconductor memory. Alternatively, at least one of these programs may be provided via a communication network as a data signal superimposed on a carrier wave. These programs may be provided separately or together.

図3は、コンテンツ配信サーバ10の機能構成の一例を示すブロック図である。図3に示されるように、コンテンツ配信サーバ10は、取得部11、生成部12及び送信部13を備える。これらの各機能部11〜13は、プロセッサ101にサーバプログラムP1が読み込まれて、そのプログラムが実行されることにより実現される。各機能部の説明は後述する。 FIG. 3 is a block diagram showing an example of the functional configuration of the content distribution server 10. As shown in FIG. 3, the content distribution server 10 includes an acquisition unit 11, a generation unit 12, and a transmission unit 13. Each of these functional units 11 to 13 is realized by reading the server program P1 into the processor 101 and executing the program. A description of each functional unit will be described later.

コンテンツ配信サーバ10の各機能部11〜13は、仮想空間データ記憶部15にアクセス可能に構成されている。仮想空間データ記憶部15は、仮想空間データを記憶させるための記憶手段であって、例えば主記憶部102または補助記憶部103に構成される。なお、本実施形態では、仮想空間データ記憶部15は、コンテンツ配信サーバ10に構成されるが、コンテンツ配信サーバ10からアクセス可能な他の装置に構成されてもよい。 Each functional unit 11 to 13 of the content distribution server 10 is configured to be accessible to the virtual space data storage unit 15. The virtual space data storage unit 15 is a storage means for storing virtual space data, and is configured in, for example, a main storage unit 102 or an auxiliary storage unit 103. In the present embodiment, the virtual space data storage unit 15 is configured in the content distribution server 10, but may be configured in another device accessible from the content distribution server 10.

仮想空間データは、前述のとおり、コンピュータ上に表示される画像によって表現される仮想の2次元または3次元の空間を表すためのデータである。仮想空間データは、配信者により定義及び提供されてもよいし、コンテンツ配信サーバ10により仮想的に生成されてもよいし、現実空間画像に基づいて生成されてもよい。 As described above, the virtual space data is data for representing a virtual two-dimensional or three-dimensional space represented by an image displayed on a computer. The virtual space data may be defined and provided by the distributor, may be virtually generated by the content distribution server 10, or may be generated based on the real space image.

図4は、ユーザ端末20の機能構成の一例を示すブロック図である。ユーザ端末20は、コンテンツ配信サーバ10から配信されたコンテンツを受信及び表示する機能を有する。図4に示されるように、ユーザ端末20は、送信部21、受信部22、画像生成部23及び表示部24を備える。これらの各機能部21〜24は、プロセッサ201に端末プログラムP2が読み込まれて、そのプログラムが実行されることにより実現される。各機能部の説明は後述する。 FIG. 4 is a block diagram showing an example of the functional configuration of the user terminal 20. The user terminal 20 has a function of receiving and displaying the content distributed from the content distribution server 10. As shown in FIG. 4, the user terminal 20 includes a transmission unit 21, a reception unit 22, an image generation unit 23, and a display unit 24. Each of these functional units 21 to 24 is realized by reading the terminal program P2 into the processor 201 and executing the program. A description of each functional unit will be described later.

図5は、ユーザ属性情報の一例を示す図である。ユーザ属性情報は、例えば、コンテンツ配信サーバ10の主記憶部102または補助記憶部103に記憶されている。図5に示されるように、ユーザ属性情報は、ユーザを識別するユーザIDごとに、課金情報等を関連付けて記憶している。課金情報は、ユーザの属性の一例であって、課金額を属性値の一例として含む。本実施形態では、コンテンツ配信サーバ10は、配信者により提供されるコンテンツに対する各ユーザの課金額を、ユーザの属性として記憶している。 FIG. 5 is a diagram showing an example of user attribute information. The user attribute information is stored in, for example, the main storage unit 102 or the auxiliary storage unit 103 of the content distribution server 10. As shown in FIG. 5, the user attribute information is stored in association with billing information and the like for each user ID that identifies the user. The billing information is an example of a user's attribute, and includes a billing amount as an example of an attribute value. In the present embodiment, the content distribution server 10 stores the charge amount of each user for the content provided by the distributor as a user attribute.

再び図3を参照して、コンテンツ配信サーバ10の各機能部について説明する。取得部11は、仮想空間に設定されるアバターの位置及び態様のうちの少なくともいずれかを示すモーションデータを取得する。具体的には、取得部11は、ユーザ端末20のそれぞれのユーザに対応するアバターのモーションデータを、ユーザ端末20の各々から取得する。 Each functional unit of the content distribution server 10 will be described with reference to FIG. 3 again. The acquisition unit 11 acquires motion data indicating at least one of the positions and modes of the avatar set in the virtual space. Specifically, the acquisition unit 11 acquires the motion data of the avatar corresponding to each user of the user terminal 20 from each of the user terminals 20.

また、コンテンツの提供者である配信者は、コンテンツを構成する仮想空間を定義する仮想空間データを、ユーザ端末20Bからコンテンツ配信サーバ10に提供してもよい。この場合には、取得部11は、配信者のユーザ端末20Bから、仮想空間データを受信及び取得する。取得部11は、取得した仮想空間データを仮想空間データ記憶部15に記憶させる。 Further, the distributor who is the provider of the content may provide the virtual space data defining the virtual space constituting the content from the user terminal 20B to the content distribution server 10. In this case, the acquisition unit 11 receives and acquires virtual space data from the distributor's user terminal 20B. The acquisition unit 11 stores the acquired virtual space data in the virtual space data storage unit 15.

生成部12は、モーションデータに基づいて各アバターが設定された仮想空間を表すコンテンツデータを生成する。具体的には、生成部12は、仮想空間データにより定義される仮想空間に、モーションデータにより位置及び態様が定義されるアバターを設定することにより、コンテンツデータを生成する。 The generation unit 12 generates content data representing a virtual space in which each avatar is set based on the motion data. Specifically, the generation unit 12 generates content data by setting an avatar whose position and mode are defined by motion data in the virtual space defined by the virtual space data.

送信部13は、生成部12により生成されたコンテンツデータをユーザ端末20に送信する。また、送信部13は、コンテンツ及びユーザに関する属性値を、ユーザ端末20に送信してもよい。送信部13は、例えば、図5に示されるようなユーザの課金額を示す課金情報を、ユーザの属性値として、当該ユーザのユーザ端末20Aに送信してもよい。 The transmission unit 13 transmits the content data generated by the generation unit 12 to the user terminal 20. In addition, the transmission unit 13 may transmit the content and attribute values related to the user to the user terminal 20. For example, the transmission unit 13 may transmit billing information indicating a user's billing amount as shown in FIG. 5 to the user terminal 20A of the user as a user's attribute value.

また、動画により構成されるコンテンツの時系列に沿って仮想空間の状態を示す属性値が関連付けられている場合には、送信部13は、各時刻において対応する所定の属性値を、各ユーザ端末20Aに送信してもよい。仮想空間の状態を示す属性値は、種々の態様により取得される。例えば、仮想空間の状態を示す属性値は、コンテンツのストーリに沿って、予め各時刻に関連付けられていてもよい。 Further, when the attribute value indicating the state of the virtual space is associated with the time series of the content composed of the moving image, the transmission unit 13 sets the corresponding predetermined attribute value at each time to each user terminal. It may be transmitted to 20A. The attribute value indicating the state of the virtual space is acquired by various modes. For example, the attribute value indicating the state of the virtual space may be associated with each time in advance along the story of the content.

また、仮想空間の状態を示す属性値は、リアルタイムに変動する値であってもよい。リアルタイムに変動する属性値は、例えば、コンテンツの盛り上がりの程度を示す値であってもよい。このようなリアルタイムに変動する属性値は、例えば、視聴者であるユーザのアバターの動きの大きさ、コンテンツを視聴しているユーザの数、及び、コンテンツに対してユーザ端末20Aを介して投稿されたユーザのコメントの数等に基づいて取得されてもよい。 Further, the attribute value indicating the state of the virtual space may be a value that fluctuates in real time. The attribute value that fluctuates in real time may be, for example, a value indicating the degree of excitement of the content. Such attribute values that fluctuate in real time are posted to, for example, the magnitude of the movement of the avatar of the user who is the viewer, the number of users who are viewing the content, and the content via the user terminal 20A. It may be acquired based on the number of comments of the user.

図4を参照して、ユーザ端末20の各機能部について説明する。送信部21は、当該ユーザ端末20のユーザの分身であるアバターのモーションデータをコンテンツ配信サーバ10に送信する。 Each functional unit of the user terminal 20 will be described with reference to FIG. The transmission unit 21 transmits the motion data of the avatar, which is the alter ego of the user of the user terminal 20, to the content distribution server 10.

また、配信者のユーザ端末20Bにおいては、送信部21は、仮想空間を定義する仮想空間データをコンテンツ配信サーバ10に送信してもよい。また、ユーザ端末20Bの送信部21は、コンテンツとしての配信者のアバターのモーションデータをコンテンツ配信サーバ10に送信する。 Further, in the user terminal 20B of the distributor, the transmission unit 21 may transmit the virtual space data defining the virtual space to the content distribution server 10. Further, the transmission unit 21 of the user terminal 20B transmits the motion data of the distributor's avatar as the content to the content distribution server 10.

また、視聴者のユーザ端末20Aにおいては、送信部21は、コンテンツを視聴する視聴者としてのアバターのモーションデータをコンテンツ配信サーバ10に送信する。 Further, in the user terminal 20A of the viewer, the transmission unit 21 transmits the motion data of the avatar as the viewer who views the content to the content distribution server 10.

受信部22は、コンテンツ配信サーバ10により生成及び送信されたコンテンツデータを受信する。コンテンツデータは、各アバターが設定された仮想空間を表すデータである。 The receiving unit 22 receives the content data generated and transmitted by the content distribution server 10. The content data is data representing a virtual space in which each avatar is set.

画像生成部23は、コンテンツデータに基づいて、仮想空間内に設定された所定の視点位置から見える映像であるコンテンツ画像を生成する。即ち、コンテンツ画像は、仮想空間内に視点位置として設定された仮想カメラから見える風景を示す画像である。仮想カメラは、例えば、コンテンツ画像を見るユーザの視線に対応するように仮想空間内に設定される。本実施形態では、仮想カメラは、ユーザ端末20のユーザに対応するアバターの視点位置に設定されてもよい。また、仮想カメラは、視聴者のアバターの視点位置に限られず、仮想空間内に設定された所定位置に設定されてもよい。 The image generation unit 23 generates a content image that is an image that can be seen from a predetermined viewpoint position set in the virtual space based on the content data. That is, the content image is an image showing a landscape seen from a virtual camera set as a viewpoint position in the virtual space. The virtual camera is set in the virtual space so as to correspond to the line of sight of the user who sees the content image, for example. In the present embodiment, the virtual camera may be set at the viewpoint position of the avatar corresponding to the user of the user terminal 20. Further, the virtual camera is not limited to the viewpoint position of the viewer's avatar, and may be set at a predetermined position set in the virtual space.

表示部24は、画像生成部23により生成されたコンテンツ画像をユーザ端末20に表示させる。具体的には、表示部24は、出力インタフェース206の一例であるディスプレイ(表示装置)にコンテンツ画像を表示させる。 The display unit 24 causes the user terminal 20 to display the content image generated by the image generation unit 23. Specifically, the display unit 24 displays the content image on a display (display device) which is an example of the output interface 206.

図6〜図12を参照して、コンテンツ画像におけるアバターの視認性の制御について説明する。画像生成部23は、所定の属性値に基づいて、コンテンツ画像における、複数のアバターのうちのユーザにとっての注目対象のアバターである第1のアバターの視認性を制御する。 Controlling the visibility of the avatar in the content image will be described with reference to FIGS. 6 to 12. The image generation unit 23 controls the visibility of the first avatar, which is the avatar of interest to the user among the plurality of avatars, in the content image based on a predetermined attribute value.

所定の属性値は、前述のとおり、各ユーザに関連付けられた属性値及び仮想空間の状態を示す属性値等であることができる。注目対象のアバターである第1のアバターは、例えば、視聴者であるユーザにおいては、配信者のアバターであってもよい。 As described above, the predetermined attribute value can be an attribute value associated with each user, an attribute value indicating the state of the virtual space, or the like. The first avatar, which is the avatar of interest, may be, for example, the avatar of the distributor in the user who is the viewer.

また、第1のアバターは、配信者及び視聴者を含む複数のユーザのうちの一のユーザにより指定されたアバターであってもよい。例えば、配信者により指定されたアバターが第1のアバターとされてもよい。具体的には、コンテンツ配信サーバ10の取得部11は、配信者のユーザ端末20Bから、注目対象とするアバターを指定する指定情報を取得する。コンテンツ配信サーバ10の送信部13は、指定情報を各ユーザ端末20に送信する。ユーザ端末20Aの受信部22は、指定情報を受信する。そして、ユーザ端末20の画像生成部23は、指定情報により指定されるアバターを第1のアバターとして設定する。なお、注目対象の第1のアバターの指定は、配信者に限られず他のユーザ(視聴者)により行われてもよい。この場合には、取得部11は、他のユーザのユーザ端末20Aから指定情報を取得する。 Further, the first avatar may be an avatar designated by one of a plurality of users including a distributor and a viewer. For example, the avatar specified by the distributor may be the first avatar. Specifically, the acquisition unit 11 of the content distribution server 10 acquires the designated information for designating the avatar to be focused on from the user terminal 20B of the distributor. The transmission unit 13 of the content distribution server 10 transmits the designated information to each user terminal 20. The receiving unit 22 of the user terminal 20A receives the designated information. Then, the image generation unit 23 of the user terminal 20 sets the avatar designated by the designated information as the first avatar. The designation of the first avatar to be focused on is not limited to the distributor, and may be performed by another user (viewer). In this case, the acquisition unit 11 acquires the designated information from the user terminal 20A of another user.

このように、指定情報に基づいて注目対象のアバターを設定可能とすることにより、例えば、仮想空間内において特徴的な動作をしている特定の視聴者のアバターを目立たせるような状況を演出できる。即ち、コンテンツの配信者が、特定の視聴者のアバターを指定する指定情報をユーザ端末20Bからコンテンツ配信サーバ10に送信することにより、他の視聴者及び配信者のユーザ端末20において表示されるコンテンツ画像における特定の視聴者のアバターの視認性を高めることが可能となる。 In this way, by making it possible to set the avatar of interest based on the specified information, for example, it is possible to produce a situation in which the avatar of a specific viewer who has a characteristic operation in the virtual space is conspicuous. .. That is, the content displayed on the user terminals 20 of other viewers and distributors by the content distributor transmitting the designated information for designating the avatar of a specific viewer from the user terminal 20B to the content distribution server 10. It is possible to improve the visibility of the avatar of a specific viewer in the image.

注目対象のアバターである第1のアバターの視認性の制御に関して、画像生成部23は、視点位置と第1のアバターとの間に位置する1以上のアバターである第2のアバターにより、視点位置から第1のアバターを視認できない状態である場合において、所定の属性値が所定の条件に該当する場合に、第1のアバターが視認可能となるように、第1のアバター及び第2のアバターのうちの少なくとも一方の仮想空間における位置及び表示態様のうちの少なくとも一方を変更してもよい。 Regarding the control of the visibility of the first avatar, which is the avatar of interest, the image generation unit 23 uses the second avatar, which is one or more avatars located between the viewpoint position and the first avatar, to position the viewpoint position. In the case where the first avatar cannot be visually recognized, the first avatar and the second avatar can be visually recognized when the predetermined attribute value corresponds to the predetermined condition. At least one of the position and the display mode in the virtual space of at least one of them may be changed.

前述のとおり、所定の属性値は、例えば、ユーザの属性値の1つである課金額であってもよい。この場合には、画像生成部23は、課金額が所定値以上である場合に、第1のアバター及び第2のアバターのうちの少なくとも一方の仮想空間における位置及び表示態様のうちの少なくとも一方を変更することにより、第1のアバターが視認可能となるように制御してもよい。 As described above, the predetermined attribute value may be, for example, a billing amount which is one of the attribute values of the user. In this case, the image generation unit 23 sets at least one of the position and display mode in the virtual space of at least one of the first avatar and the second avatar when the billing amount is equal to or more than a predetermined value. By changing it, it may be controlled so that the first avatar becomes visible.

図6〜図12は、コンテンツ画像におけるアバターの視認性の制御の例を示す図であって、コンテンツデータにより表現される仮想空間において、視点位置から見える映像であるコンテンツ画像の例を示す図である。 6 to 12 are diagrams showing an example of controlling the visibility of the avatar in the content image, and is a diagram showing an example of the content image which is an image seen from the viewpoint position in the virtual space represented by the content data. be.

図6に示されるように、制御実行前のコンテンツ画像C11においては、注目対象のアバターである第1のアバターA1は、視点位置と第1のアバターA1との間に位置する第2のアバターA2により、視点位置から視認できない。このような場合において、画像生成部23は、制御実行後のコンテンツ画像C12に示されるように、第1のアバターA1の少なくとも一部を含む領域を、当該第1のアバターA1以外のオブジェクトを表示させない視野領域Rとして設定してもよい。視野領域Rには、第1のアバターA1以外のオブジェクトが表示されないので、視点位置から第1のアバターA1を視認可能にさせることができる。 As shown in FIG. 6, in the content image C11 before the execution of control, the first avatar A1 which is the avatar of interest is the second avatar A2 located between the viewpoint position and the first avatar A1. Therefore, it cannot be visually recognized from the viewpoint position. In such a case, the image generation unit 23 displays an object other than the first avatar A1 in the area including at least a part of the first avatar A1 as shown in the content image C12 after the control execution. It may be set as a visual field area R which is not allowed to occur. Since no object other than the first avatar A1 is displayed in the visual field area R, the first avatar A1 can be made visible from the viewpoint position.

また、図7に示されるように、制御実行前のコンテンツ画像C21においては、第1のアバターA1は、視点位置と第1のアバターA1との間に位置する第2のアバターA2により、視点位置から視認できない。このような場合において、画像生成部23は、制御実行後のコンテンツ画像C22に示されるように、第2のアバターA2の位置を、視点位置と第1のアバターA1の位置との間以外の位置に変更してもよい。これにより、視点位置からの第1のアバターA1に対する視界が第2のアバターA2により遮られないこととなるので、視点位置から第1のアバターA1を視認可能にさせることができる。 Further, as shown in FIG. 7, in the content image C21 before the control execution, the first avatar A1 is set to the viewpoint position by the second avatar A2 located between the viewpoint position and the first avatar A1. Cannot be seen from. In such a case, the image generation unit 23 sets the position of the second avatar A2 to a position other than the position between the viewpoint position and the position of the first avatar A1, as shown in the content image C22 after the control is executed. May be changed to. As a result, the field of view of the first avatar A1 from the viewpoint position is not blocked by the second avatar A2, so that the first avatar A1 can be made visible from the viewpoint position.

また、図8に示されるように、制御実行前のコンテンツ画像C31においては、第1のアバターA1は、視点位置と第1のアバターA1との間に位置する第2のアバターA2により、視点位置から視認できない。このような場合において、画像生成部23は、制御実行後のコンテンツ画像C32に示されるように、第1のアバターA1の位置を、視点位置と第2のアバターA2の位置との間に変更してもよい。これにより、視点位置からの第1のアバターA1に対する視界が第2のアバターA2により遮られないこととなるので、視点位置から第1のアバターA1を視認可能にさせることができる。 Further, as shown in FIG. 8, in the content image C31 before the control execution, the first avatar A1 is set to the viewpoint position by the second avatar A2 located between the viewpoint position and the first avatar A1. Cannot be seen from. In such a case, the image generation unit 23 changes the position of the first avatar A1 between the viewpoint position and the position of the second avatar A2 as shown in the content image C32 after the control is executed. You may. As a result, the field of view of the first avatar A1 from the viewpoint position is not blocked by the second avatar A2, so that the first avatar A1 can be made visible from the viewpoint position.

また、図9に示されるように、制御実行前のコンテンツ画像C41においては、第1のアバターA1は、視点位置と第1のアバターA1との間に位置する第2のアバターA2により、視点位置から視認できない。このような場合において、画像生成部23は、制御実行後のコンテンツ画像C42に示されるように、第2のアバターA2のサイズを縮小させてもよい。これにより、視点位置からの第1のアバターA1に対する視界が第2のアバターA2により遮られないこととなるので、視点位置から第1のアバターA1を視認可能にさせることができる。 Further, as shown in FIG. 9, in the content image C41 before the control execution, the first avatar A1 is set to the viewpoint position by the second avatar A2 located between the viewpoint position and the first avatar A1. Cannot be seen from. In such a case, the image generation unit 23 may reduce the size of the second avatar A2 as shown in the content image C42 after the control execution. As a result, the field of view of the first avatar A1 from the viewpoint position is not blocked by the second avatar A2, so that the first avatar A1 can be made visible from the viewpoint position.

また、図10に示されるように、制御実行前のコンテンツ画像C51においては、第1のアバターA1は、視点位置と第1のアバターA1との間に位置する第2のアバターA2により、視点位置から視認できない。このような場合において、画像生成部23は、制御実行後のコンテンツ画像C52に示されるように、第2のアバターA2を消去してもよい。これにより、視点位置からの第1のアバターA1に対する視界を遮っていた第2のアバターA2が存在しないこととなるので、視点位置から第1のアバターA1を視認可能にさせることができる。 Further, as shown in FIG. 10, in the content image C51 before the control execution, the first avatar A1 is set to the viewpoint position by the second avatar A2 located between the viewpoint position and the first avatar A1. Cannot be seen from. In such a case, the image generation unit 23 may delete the second avatar A2 as shown in the content image C52 after the control execution. As a result, the second avatar A2 that has blocked the view of the first avatar A1 from the viewpoint position does not exist, so that the first avatar A1 can be made visible from the viewpoint position.

また、図11に示されるように、制御実行前のコンテンツ画像C61においては、第1のアバターA1は、視点位置と第1のアバターA1との間に位置する第2のアバターA2により、視点位置から視認できない。このような場合において、画像生成部23は、制御実行後のコンテンツ画像C62に示されるように、第2のアバターA2を透過表示させてもよい。このように、第2のアバターA2が透過表示されることにより、第2のアバターA2の背後のオブジェクトが視認可能となるので、視点位置から第1のアバターA1を視認可能にさせることができる。 Further, as shown in FIG. 11, in the content image C61 before the control execution, the first avatar A1 is set to the viewpoint position by the second avatar A2 located between the viewpoint position and the first avatar A1. Cannot be seen from. In such a case, the image generation unit 23 may transparently display the second avatar A2 as shown in the content image C62 after the control is executed. By transparently displaying the second avatar A2 in this way, the object behind the second avatar A2 becomes visible, so that the first avatar A1 can be made visible from the viewpoint position.

また、注目対象のアバターである第1のアバターの視認性の制御に関して、画像生成部23は、所定の属性値が所定の条件に該当する場合に、複数のアバターのうちの第1のアバターとは異なる他のアバター及び所定の仮想オブジェクトのうちの少なくともいずれかを、視点位置と第1のアバターとの間に配置してもよい。 Further, regarding the control of the visibility of the first avatar which is the avatar of interest, the image generation unit 23 and the first avatar among the plurality of avatars when the predetermined attribute value corresponds to the predetermined condition. May place at least one of different other avatars and predetermined virtual objects between the viewpoint position and the first avatar.

前述のとおり、所定の属性値は、仮想空間の状態に関する属性値であることができる。仮想空間の状態に関する属性値は、例えば、コンテンツの盛り上がりの程度を示す値であってもよい。この場合において、画像生成部23は、コンテンツの盛り上がりの程度が所定の程度以上になっていることが属性値により示される場合に、視点位置と第1のアバターとの間に他のアバターまたは所定の仮想オブジェクト等を配置することにより、視覚効果の一例として第1のアバターの視認性を低下させてもよい。コンテンツの盛り上がりの程度を示す属性値は、前述のとおり、リアルタイムに変動する値であってもよく、例えば、視聴者であるユーザのアバターの動きの大きさ、コンテンツを視聴しているユーザの数、及び、コンテンツに対してユーザ端末20Aを介して投稿されたユーザのコメントの数等に基づいて取得されてもよい。 As described above, the predetermined attribute value can be an attribute value related to the state of the virtual space. The attribute value related to the state of the virtual space may be, for example, a value indicating the degree of excitement of the content. In this case, the image generation unit 23 has another avatar or a predetermined avatar between the viewpoint position and the first avatar when the attribute value indicates that the degree of excitement of the content is equal to or higher than a predetermined degree. The visibility of the first avatar may be reduced as an example of the visual effect by arranging the virtual object or the like. As described above, the attribute value indicating the degree of excitement of the content may be a value that fluctuates in real time, for example, the magnitude of the movement of the avatar of the user who is the viewer, and the number of users who are viewing the content. , And, it may be acquired based on the number of comments of the user posted on the content via the user terminal 20A and the like.

図12は、コンテンツ画像における第1のアバターの視認性を低下させる制御の例を示す図である。図12に示されるように、制御実行前のコンテンツ画像C71においては、第1のアバターA1は、他のアバターA3により視界を遮られることはなく、視点位置から視認可能である。このような場合において、画像生成部23は、所定の属性値(例えば、コンテンツの盛り上がりの程度を示すパラメータ)が所定の条件に該当する場合(例えば、盛り上がりの程度が所定の程度以上)に、制御実行後のコンテンツ画像C72に示されるように、他のアバターA3を視点位置と第1のアバターA1との間に配置してもよい。このように第1のアバターA1の視認性を低下させる制御により、コンテンツの盛り上がりに応じて、配信者のアバターに視聴者のアバターが殺到するような状況を演出できる。 FIG. 12 is a diagram showing an example of control for reducing the visibility of the first avatar in the content image. As shown in FIG. 12, in the content image C71 before the execution of control, the first avatar A1 is visible from the viewpoint position without being obstructed by the other avatars A3. In such a case, the image generation unit 23 determines that a predetermined attribute value (for example, a parameter indicating the degree of excitement of the content) corresponds to a predetermined condition (for example, the degree of excitement is equal to or greater than the predetermined degree). As shown in the content image C72 after the control is executed, another avatar A3 may be arranged between the viewpoint position and the first avatar A1. By controlling the visibility of the first avatar A1 in this way, it is possible to produce a situation in which the avatar of the viewer is flooded with the avatar of the distributor according to the excitement of the content.

また、他のアバターA3に代えて所定の仮想オブジェクトを視点位置と第1のアバターA1との間に配置することにより、第1のアバターA1の視認性を低下させる制御を実現させてもよい。この場合には、例えば、コンテンツにおける場面転換時に、仮想空間の状態に関する所定の属性値が所定の条件を満たすようにコンテンツのシナリオを予め設定しておくことにより、場面転換時に第1のアバターA1が暗幕により視認できないようにするような状況を演出できる。 Further, by arranging a predetermined virtual object between the viewpoint position and the first avatar A1 instead of the other avatar A3, control for reducing the visibility of the first avatar A1 may be realized. In this case, for example, at the time of scene change in the content, the scenario of the content is set in advance so that the predetermined attribute value related to the state of the virtual space satisfies the predetermined condition, so that the first avatar A1 at the time of scene change Can produce a situation that makes it invisible due to the blackout curtain.

次に、図13を参照して、コンテンツ画像におけるアバターの視認性の制御の他の例を説明する。本実施形態のコンテンツ配信システム1では、コンテンツ画像におけるアバターの一部の視認性を制御できる。かかる制御のために、コンテンツ配信サーバ10の生成部12は、ユーザに関連付けられた属性値が予め設定された所定の条件を満たさない場合に、第1のアバターA1の少なくとも一部分を表示させるためのデータを、コンテンツデータに含めないこととしてもよい。 Next, with reference to FIG. 13, another example of controlling the visibility of the avatar in the content image will be described. In the content distribution system 1 of the present embodiment, the visibility of a part of the avatar in the content image can be controlled. For such control, the generation unit 12 of the content distribution server 10 is for displaying at least a part of the first avatar A1 when the attribute value associated with the user does not satisfy a predetermined condition set in advance. The data may not be included in the content data.

具体的には、例えば、生成部12は、ユーザの課金額が所定の金額未満である場合に、第1のアバターの胴体部分を表示させるためのデータ(画像素材データ)を含まないコンテンツデータを生成する。図13は、第1のアバターA1の胴体部分の画像素材データを含まないコンテンツデータに基づいて生成されたコンテンツ画像の例を示す。図13に示されるように、画像生成部23は、胴体部分Bを含まない第1のアバターA1を表すコンテンツ画像を生成する。 Specifically, for example, the generation unit 12 generates content data that does not include data (image material data) for displaying the body portion of the first avatar when the user's billing amount is less than a predetermined amount. Generate. FIG. 13 shows an example of a content image generated based on the content data that does not include the image material data of the body portion of the first avatar A1. As shown in FIG. 13, the image generation unit 23 generates a content image representing the first avatar A1 that does not include the body portion B.

また、コンテンツ画像におけるアバターの一部の視認性の制御のために、生成部12がアバターの部分を表示させるためのデータを含まないコンテンツデータを生成することに代えて、画像生成部23が、ユーザに関連付けられた属性値が予め設定された所定の条件を満たさない場合に、第1のアバターの少なくとも一部分をコンテンツ画像において表示させないこととしてもよい。この場合においても、画像生成部23は、図13に示されるような、胴体部分Bを含まない第1のアバターA1を表すコンテンツ画像を生成する。 Further, in order to control the visibility of a part of the avatar in the content image, the image generation unit 23 replaces the generation unit 12 with generating the content data not including the data for displaying the avatar part. When the attribute value associated with the user does not satisfy a predetermined condition set in advance, at least a part of the first avatar may not be displayed in the content image. Also in this case, the image generation unit 23 generates a content image representing the first avatar A1 that does not include the body portion B as shown in FIG.

このように、コンテンツ画像におけるアバターの一部の視認性の制御により、例えば、衣装を身につけているアバターの、衣装の下のボディの一部を課金額に応じて視認できないようにするといった演出が可能となる。また、このような演出により、コンテンツ画像の視覚効果を高めると共に、ユーザに対しては、属性値が所定の条件を満たすようにすることの動機を生じさせることができる。 In this way, by controlling the visibility of a part of the avatar in the content image, for example, a part of the body under the costume of the avatar wearing the costume cannot be seen according to the charge amount. Is possible. Further, such an effect can enhance the visual effect of the content image and give the user a motivation to make the attribute value satisfy a predetermined condition.

次に、図14を参照して、本実施形態のコンテンツ配信システム1の動作について説明する。図14は、コンテンツ配信システム1の動作の一例を示すフローチャートである。動画像からなるコンテンツの配信においては、図14に示されるフローチャートが繰り返し実行される。なお、図14のフローチャートでは、2台の視聴者のユーザ端末20Aの動作が示されているが、ユーザ端末20Aの数は限定されない。 Next, the operation of the content distribution system 1 of the present embodiment will be described with reference to FIG. FIG. 14 is a flowchart showing an example of the operation of the content distribution system 1. In the distribution of the content composed of moving images, the flowchart shown in FIG. 14 is repeatedly executed. Although the flowchart of FIG. 14 shows the operation of the user terminals 20A of the two viewers, the number of the user terminals 20A is not limited.

ステップS1において、配信者のユーザ端末20Bの送信部21は、コンテンツを構成する仮想空間データ及び配信者を表すアバターのモーションデータをコンテンツ配信サーバ10に送信する。ステップS2において、視聴者のユーザ端末20Aの送信部21は、視聴者を表すアバターのモーションデータをコンテンツ配信サーバ10に送信する。 In step S1, the transmission unit 21 of the distributor's user terminal 20B transmits the virtual space data constituting the content and the motion data of the avatar representing the distributor to the content distribution server 10. In step S2, the transmission unit 21 of the viewer's user terminal 20A transmits the motion data of the avatar representing the viewer to the content distribution server 10.

ステップS3において、コンテンツ配信サーバ10の取得部11は、仮想空間データ及び各ユーザ(配信者及び視聴者)のアバターのモーションデータを取得する。ステップS4において、各アバターが設定された仮想空間を表すコンテンツデータを生成する。ステップS5において、コンテンツ配信サーバ10の送信部13は、生成されたコンテンツデータを各ユーザ端末20に送信する。 In step S3, the acquisition unit 11 of the content distribution server 10 acquires virtual space data and motion data of avatars of each user (distributor and viewer). In step S4, content data representing the virtual space in which each avatar is set is generated. In step S5, the transmission unit 13 of the content distribution server 10 transmits the generated content data to each user terminal 20.

ステップS6において、ユーザ端末20Bの受信部22は、コンテンツ配信サーバ10により生成及び送信されたコンテンツデータを受信する。また、ステップS7において、ユーザ端末20Aの受信部22は、コンテンツ配信サーバ10により生成及び送信されたコンテンツデータを受信する。 In step S6, the receiving unit 22 of the user terminal 20B receives the content data generated and transmitted by the content distribution server 10. Further, in step S7, the receiving unit 22 of the user terminal 20A receives the content data generated and transmitted by the content distribution server 10.

ステップS8において、ユーザ端末20Bの画像生成部23は、注目対象のアバターの視認性が制御されたコンテンツ画像を、コンテンツデータに基づいて生成する。そして、ステップS9において、ユーザ端末20Bの表示部24は、生成されたコンテンツ画像を、ユーザ端末20Bのディスプレイに表示させる。 In step S8, the image generation unit 23 of the user terminal 20B generates a content image in which the visibility of the avatar of interest is controlled based on the content data. Then, in step S9, the display unit 24 of the user terminal 20B displays the generated content image on the display of the user terminal 20B.

また、ステップS10において、ユーザ端末20Aの画像生成部23は、注目対象のアバターの視認性が制御されたコンテンツ画像を、コンテンツデータに基づいて生成する。そして、ステップS11において、ユーザ端末20Aの表示部24は、生成されたコンテンツ画像を、ユーザ端末20Aのディスプレイに表示させる。 Further, in step S10, the image generation unit 23 of the user terminal 20A generates a content image in which the visibility of the avatar of interest is controlled based on the content data. Then, in step S11, the display unit 24 of the user terminal 20A displays the generated content image on the display of the user terminal 20A.

以上説明した本実施形態のコンテンツ配信システム1、コンテンツ配信方法及びコンテンツ配信プログラム(サーバプログラムP1,端末プログラムP2)によれば、ユーザにとっての注目対象のアバターの視認性が所定の属性値に基づいて制御されるので、属性値の設定により、特定のアバターの視認性を高めるまたは視認性を低下させることが可能となる。そして、特定のアバターの視認性を適切に制御することにより、コンテンツ画像の視覚効果をさらに高めることが可能となる。 According to the content distribution system 1, the content distribution method, and the content distribution program (server program P1, terminal program P2) of the present embodiment described above, the visibility of the avatar of interest to the user is based on a predetermined attribute value. Since it is controlled, it is possible to increase the visibility or decrease the visibility of a specific avatar by setting the attribute value. Then, by appropriately controlling the visibility of the specific avatar, it is possible to further enhance the visual effect of the content image.

本開示の一側面に係るコンテンツ配信方法は、複数のアバターが設定された仮想空間を映すコンテンツを配信するコンテンツ配信システムにおけるコンテンツ配信方法であって、各アバターの位置及び態様のうちの少なくともいずれかを示すモーションデータを取得する取得ステップと、モーションデータに基づいて各アバターが設定された仮想空間を表すコンテンツデータを生成する生成ステップと、コンテンツデータに基づいて、仮想空間内に設定された所定の視点位置から見える映像であるコンテンツ画像を生成する画像生成ステップと、ユーザのユーザ端末にコンテンツ画像を表示させる表示ステップと、を有し、画像生成ステップにおいて、所定の属性値に基づいて、コンテンツ画像における、複数のアバターのうちのユーザにとっての注目対象のアバターである第1のアバターの視認性を制御する。 The content distribution method according to one aspect of the present disclosure is a content distribution method in a content distribution system that distributes content that reflects a virtual space in which a plurality of avatars are set, and is at least one of the positions and modes of each avatar. An acquisition step for acquiring motion data indicating It has an image generation step of generating a content image that is an image that can be seen from the viewpoint position, and a display step of displaying the content image on the user terminal of the user. In the image generation step, the content image is based on a predetermined attribute value. Controls the visibility of the first avatar, which is the avatar of interest to the user among the plurality of avatars.

本開示の一側面に係るコンテンツ配信プログラムは、コンピュータを、複数のアバターが設定された仮想空間を映すコンテンツを配信するコンテンツ配信システムとして機能させるためのコンテンツ配信プログラムであって、コンピュータに、各アバターの位置及び態様のうちの少なくともいずれかを示すモーションデータを取得する取得ステップと、モーションデータに基づいて各アバターが設定された仮想空間を表すコンテンツデータを生成する生成ステップと、コンテンツデータに基づいて、仮想空間内に設定された所定の視点位置から見える映像であるコンテンツ画像を生成する画像生成ステップと、ユーザのユーザ端末にコンテンツ画像を表示させる表示ステップと、を実行させ、画像生成ステップにおいて、所定の属性値に基づいて、コンテンツ画像における、複数のアバターのうちのユーザにとっての注目対象のアバターである第1のアバターの視認性を制御する。 The content distribution program according to one aspect of the present disclosure is a content distribution program for causing a computer to function as a content distribution system that distributes content that reflects a virtual space in which a plurality of avatars are set. Based on the content data, the acquisition step of acquiring the motion data indicating at least one of the positions and modes of, and the generation step of generating the content data representing the virtual space in which each avatar is set based on the motion data. , An image generation step of generating a content image which is an image that can be seen from a predetermined viewpoint position set in a virtual space and a display step of displaying the content image on the user terminal of the user are executed, and in the image generation step, Based on a predetermined attribute value, the visibility of the first avatar, which is the avatar of interest for the user among the plurality of avatars, is controlled in the content image.

このような側面によれば、ユーザにとっての注目対象のアバターの視認性が所定の属性値に基づいて制御されるので、属性値の設定により、特定のアバターの視認性を高めるまたは視認性を低下させることが可能となる。 According to such an aspect, since the visibility of the avatar of interest to the user is controlled based on a predetermined attribute value, the visibility of a specific avatar is enhanced or decreased by setting the attribute value. It becomes possible to make it.

他の側面に係るコンテンツ配信システムでは、画像生成部は、視点位置と第1のアバターとの間に位置する1以上のアバターである第2のアバターにより、視点位置から第1のアバターを視認できない状態である場合において、属性値が所定の条件に該当する場合に、第1のアバターが視認可能となるように、第1のアバター及び第2のアバターのうちの少なくとも一方の仮想空間における位置及び表示態様のうちの少なくとも一方を変更することとしてもよい。 In the content distribution system related to the other aspect, the image generation unit cannot visually recognize the first avatar from the viewpoint position by the second avatar which is one or more avatars located between the viewpoint position and the first avatar. In the state, the position and position in at least one of the first avatar and the second avatar in the virtual space so that the first avatar becomes visible when the attribute value meets a predetermined condition. At least one of the display modes may be changed.

このような側面によれば、視点位置と第1のアバターとの間に位置する第2のアバターに起因して第1のアバターが視認できない状態であるときに、第1及び第2のアバターの位置及び表示態様が変更されるので、注目対象の第1のアバターを視認可能にさせることができる。 According to such aspects, when the first avatar is invisible due to the second avatar located between the viewpoint position and the first avatar, the first and second avatars Since the position and display mode are changed, the first avatar of interest can be made visible.

他の側面に係るコンテンツ配信システムでは、画像生成部は、第1のアバターの少なくとも一部を含む領域を、該第1のアバター以外のオブジェクトを表示させない視野領域として設定することとしてもよい。 In the content distribution system according to the other aspect, the image generation unit may set an area including at least a part of the first avatar as a visual field area in which objects other than the first avatar are not displayed.

このような側面によれば、コンテンツ画像において、第1のアバター以外のオブジェクトが表示されない視野領域がコンテンツ画像に設定されるので、第1のアバターを視認可能にさせることができる。 According to such an aspect, in the content image, a visual field area in which objects other than the first avatar are not displayed is set in the content image, so that the first avatar can be made visible.

他の側面に係るコンテンツ配信システムでは、画像生成部は、第2のアバターの位置を、視点位置と第1のアバターの位置との間以外の位置に変更することとしてもよい。 In the content distribution system according to the other aspect, the image generation unit may change the position of the second avatar to a position other than between the viewpoint position and the position of the first avatar.

このような側面によれば、コンテンツ画像において、第2のアバターの位置が、視点位置と第1のアバターとの間以外の位置に変更されるので、第1のアバターを視認可能にさせることができる。 According to such an aspect, in the content image, the position of the second avatar is changed to a position other than between the viewpoint position and the first avatar, so that the first avatar can be made visible. can.

他の側面に係るコンテンツ配信システムでは、画像生成部は、第1のアバターの位置を、視点位置と第2のアバターの位置との間に変更することとしてもよい。 In the content distribution system according to the other aspect, the image generation unit may change the position of the first avatar between the viewpoint position and the position of the second avatar.

このような側面によれば、コンテンツ画像において、第1のアバターに対する視界を遮っていた第2のアバターと視点位置との間に第1のアバターの位置が変更されるので、第1のアバターを視認可能にさせることができる。 According to such an aspect, in the content image, the position of the first avatar is changed between the second avatar and the viewpoint position that obstructed the view to the first avatar, so that the first avatar is used. It can be made visible.

他の側面に係るコンテンツ配信システムでは、画像生成部は、第2のアバターのサイズを縮小させることとしてもよい。 In the content distribution system according to the other aspect, the image generation unit may reduce the size of the second avatar.

このような側面によれば、コンテンツ画像において、第1のアバターに対する視界を遮っていた第2のアバターのサイズが縮小されるので、第1のアバターを視認可能にさせることができる。 According to such an aspect, in the content image, the size of the second avatar that obstructs the field of view of the first avatar is reduced, so that the first avatar can be made visible.

他の側面に係るコンテンツ配信システムでは、画像生成部は、第2のアバターを消去することとしてもよい。 In the content distribution system according to the other aspect, the image generation unit may delete the second avatar.

このような側面によれば、コンテンツ画像において、第1のアバターに対する視界を遮っていた第2のアバターが消去されるので、第1のアバターを視認可能にさせることができる。 According to such an aspect, in the content image, the second avatar that obstructs the field of view of the first avatar is erased, so that the first avatar can be made visible.

他の側面に係るコンテンツ配信システムは、画像生成部は、第2のアバターを透過表示させることとしてもよい。 In the content distribution system according to the other aspect, the image generation unit may transparently display the second avatar.

このような側面によれば、コンテンツ画像において、第1のアバターに対する視界を遮っていた第2のアバターが透過表示されるので、第1のアバターを視認可能にさせることができる。 According to such an aspect, in the content image, the second avatar that obstructs the field of view of the first avatar is transparently displayed, so that the first avatar can be made visible.

他の側面に係るコンテンツ配信システムは、画像生成部は、属性値が所定の条件に該当する場合に、複数のアバターのうちの第1のアバターとは異なる他のアバター及び所定の仮想オブジェクトのうちの少なくともいずれかを、視点位置と第1のアバターとの間に配置することとしてもよい。 In the content distribution system related to the other aspect, the image generation unit is among other avatars different from the first avatar among the plurality of avatars and the predetermined virtual object when the attribute value corresponds to the predetermined condition. At least one of the above may be placed between the viewpoint position and the first avatar.

このような側面によれば、所定の属性値が所定の条件に該当する場合に、他のアバター及び仮想オブジェクト等が第1のアバターに対する視界を遮るように配置されるので、第1のアバターが視認不可能にされる。これにより、コンテンツ画像の視覚効果をさらに高めることができる。 According to such an aspect, when a predetermined attribute value corresponds to a predetermined condition, another avatar, a virtual object, or the like is arranged so as to block the view of the first avatar, so that the first avatar becomes It is made invisible. As a result, the visual effect of the content image can be further enhanced.

他の側面に係るコンテンツ配信システムでは、属性値は、各ユーザに関連付けられた属性値を含むこととしてもよい。 In the content distribution system according to the other aspect, the attribute value may include the attribute value associated with each user.

このような側面によれば、各ユーザのユーザ端末ごとに、コンテンツ画像における第1のアバターの視認性を制御できる。 According to such an aspect, the visibility of the first avatar in the content image can be controlled for each user terminal of each user.

他の側面に係るコンテンツ配信システムでは、属性値は、仮想空間の状態に関する属性値を含むこととしてもよい。 In the content distribution system according to the other aspect, the attribute value may include the attribute value related to the state of the virtual space.

このような側面によれば、仮想空間の状態に応じて、コンテンツ画像における第1のアバターの視認性を制御できる。 According to such an aspect, the visibility of the first avatar in the content image can be controlled according to the state of the virtual space.

他の側面に係るコンテンツ配信システムでは、生成部は、ユーザに関連付けられた属性値が予め設定された所定の条件を満たさない場合に、第1のアバターの少なくとも一部分を表示させるためのデータを、コンテンツデータに含めないこととしてもよい。 In the content distribution system according to the other aspect, the generation unit displays data for displaying at least a part of the first avatar when the attribute value associated with the user does not satisfy a predetermined predetermined condition. It may not be included in the content data.

このような側面によれば、当該属性値に係るユーザのユーザ端末において、第1のアバターの部分をコンテンツ画像において表示させることができない。これにより、コンテンツ画像の視覚効果を高めると共に、ユーザに対しては、属性値が所定の条件を満たすようにすることの動機を生じさせることができる。 According to such an aspect, the part of the first avatar cannot be displayed in the content image on the user terminal of the user related to the attribute value. As a result, the visual effect of the content image can be enhanced, and the user can be motivated to make the attribute value satisfy a predetermined condition.

他の側面に係るコンテンツ配信システムでは、画像生成部は、ユーザに関連付けられた属性値が予め設定された所定の条件を満たさない場合に、第1のアバターの少なくとも一部分をコンテンツ画像において表示させないこととしてもよい。 In the content distribution system according to the other aspect, the image generation unit does not display at least a part of the first avatar in the content image when the attribute value associated with the user does not satisfy a predetermined condition set in advance. May be.

このような側面によれば、当該属性値に係るユーザのユーザ端末において、第1のアバターの部分がコンテンツ画像において表示されないので、コンテンツ画像の視覚効果を高めることができる。また、ユーザに対しては、属性値が所定の条件を満たすようにすることの動機を生じさせることができる。 According to such an aspect, the visual effect of the content image can be enhanced because the portion of the first avatar is not displayed in the content image on the user terminal of the user related to the attribute value. In addition, the user can be motivated to make the attribute value satisfy a predetermined condition.

他の側面に係るコンテンツ配信システムでは、取得部は、複数のユーザ端末のうちの1つから、注目対象のアバターを指定する指定情報を取得し、画像生成部は、指定情報により指定されるアバターを、第1アバターとして設定することとしてもよい。 In the content distribution system related to the other aspect, the acquisition unit acquires the designated information for designating the avatar to be focused on from one of the plurality of user terminals, and the image generation unit is the avatar designated by the designated information. May be set as the first avatar.

このような側面によれば、ユーザ端末からの指定情報に応じて任意のアバターを注目対象のアバターとすることができる。 According to such an aspect, any avatar can be set as the avatar of interest according to the designated information from the user terminal.

以上、本発明をその実施形態に基づいて詳細に説明した。しかし、本発明は上記実施形態に限定されるものではない。本発明は、その要旨を逸脱しない範囲で様々な変形が可能である。 The present invention has been described in detail above based on the embodiment. However, the present invention is not limited to the above embodiment. The present invention can be modified in various ways without departing from the gist thereof.

コンテンツ配信システムの内部の構成は上記実施形態に限定されず、任意の方針で設計されてよい。例えば、機能部11〜13及び機能部21〜24が構成される装置(サーバ及び端末)は、本実施形態の例に限定されない。本実施形態においてコンテンツ配信サーバ10に構成されている機能部がユーザ端末20に構成されることとしてもよいし、ユーザ端末20に構成されている機能部がコンテンツ配信サーバ10に構成されることとしてもよい。また、機能部11〜13及び機能部21〜24のそれぞれを実現させる主体(すなわちプロセッサ)は、本開示の例に限定されず、機能部ごとに異なってもよい。 The internal configuration of the content distribution system is not limited to the above embodiment, and may be designed according to an arbitrary policy. For example, the devices (servers and terminals) in which the functional units 11 to 13 and the functional units 21 to 24 are configured are not limited to the examples of the present embodiment. In the present embodiment, the functional unit configured in the content distribution server 10 may be configured in the user terminal 20, or the functional unit configured in the user terminal 20 may be configured in the content distribution server 10. May be good. Further, the main body (that is, the processor) that realizes each of the functional units 11 to 13 and the functional units 21 to 24 is not limited to the example of the present disclosure, and may be different for each functional unit.

少なくとも一つのプロセッサにより実行される方法の処理手順は上記実施形態での例に限定されない。例えば、上述したステップ(処理)の一部が省略されてもよいし、別の順序で各ステップが実行されてもよい。また、上述したステップのうちの任意の2以上のステップが組み合わされてもよいし、ステップの一部が修正又は削除されてもよい。あるいは、上記の各ステップに加えて他のステップが実行されてもよい。 The processing procedure of the method executed by at least one processor is not limited to the example in the above embodiment. For example, some of the steps (processes) described above may be omitted, or each step may be executed in a different order. Further, any two or more steps among the above-mentioned steps may be combined, or a part of the steps may be modified or deleted. Alternatively, other steps may be performed in addition to each of the above steps.

1…コンテンツ配信システム、10…コンテンツ配信サーバ、11…取得部、12…生成部、13…送信部、15…仮想空間データ記憶部、20,20A,20B…ユーザ端末、21…送信部、22…受信部、23…画像生成部、24…表示部、P1…サーバプログラム、P2…端末プログラム、A1…第1のアバター、A2…第2のアバター。 1 ... Content distribution system, 10 ... Content distribution server, 11 ... Acquisition unit, 12 ... Generation unit, 13 ... Transmission unit, 15 ... Virtual space data storage unit, 20, 20A, 20B ... User terminal, 21 ... Transmission unit, 22 ... Receiver, 23 ... Image generator, 24 ... Display, P1 ... Server program, P2 ... Terminal program, A1 ... First avatar, A2 ... Second avatar.

Claims (12)

複数のアバターが設定された仮想空間を映すコンテンツを配信するコンテンツ配信システムであって、
各アバターの位置及び態様のうちの少なくともいずれかを示すモーションデータを取得する取得部と、
前記モーションデータに基づいて各アバターが設定された前記仮想空間を表すコンテンツデータを生成する生成部と、
前記コンテンツデータに基づいて、前記仮想空間内に設定された所定の視点位置から見える映像であるコンテンツ画像を生成する画像生成部と、
ユーザのユーザ端末に前記コンテンツ画像を表示させる表示部と、を備え、
前記画像生成部は、所定の属性値に基づいて、前記コンテンツ画像における、前記複数のアバターのうちの前記ユーザにとっての注目対象のアバターである第1のアバターの視認性を制御する、
コンテンツ配信システム。
It is a content distribution system that distributes content that reflects a virtual space with multiple avatars set.
An acquisition unit that acquires motion data indicating at least one of the positions and modes of each avatar, and
A generation unit that generates content data representing the virtual space in which each avatar is set based on the motion data, and a generation unit.
An image generation unit that generates a content image that is an image that can be seen from a predetermined viewpoint position set in the virtual space based on the content data.
A display unit for displaying the content image on the user terminal of the user is provided.
The image generation unit controls the visibility of the first avatar, which is the avatar of interest to the user among the plurality of avatars, in the content image based on a predetermined attribute value.
Content distribution system.
前記画像生成部は、前記視点位置と前記第1のアバターとの間に位置する1以上のアバターである第2のアバターにより、前記視点位置から前記第1のアバターを視認できない状態である場合において、前記属性値が所定の条件に該当する場合に、前記第1のアバターが視認可能となるように、前記第1のアバター及び前記第2のアバターのうちの少なくとも一方の仮想空間における位置及び表示態様のうちの少なくとも一方を変更する、
請求項1に記載のコンテンツ配信システム。
When the image generation unit is in a state where the first avatar cannot be visually recognized from the viewpoint position by the second avatar which is one or more avatars located between the viewpoint position and the first avatar. , The position and display in at least one of the first avatar and the second avatar so that the first avatar becomes visible when the attribute value corresponds to a predetermined condition. Change at least one of the aspects,
The content distribution system according to claim 1.
前記画像生成部は、前記第1のアバターの少なくとも一部を含む領域を、該第1のアバター以外のオブジェクトを表示させない視野領域として設定する、
請求項2に記載のコンテンツ配信システム。
The image generation unit sets an area including at least a part of the first avatar as a visual field area in which objects other than the first avatar are not displayed.
The content distribution system according to claim 2.
前記画像生成部は、
前記第2のアバターの位置を、前記視点位置と前記第1のアバターの位置との間以外の位置に変更し、または、
前記第1のアバターの位置を、前記視点位置と前記第2のアバターの位置との間に変更する、
請求項2に記載のコンテンツ配信システム。
The image generation unit
The position of the second avatar is changed to a position other than between the viewpoint position and the position of the first avatar, or
The position of the first avatar is changed between the viewpoint position and the position of the second avatar.
The content distribution system according to claim 2.
前記画像生成部は、
前記第2のアバターのサイズを縮小させ、
前記第2のアバターを消去し、または、
前記第2のアバターを透過表示させる、
請求項2に記載のコンテンツ配信システム。
The image generation unit
Reduce the size of the second avatar
Erase the second avatar or
The second avatar is transparently displayed.
The content distribution system according to claim 2.
前記画像生成部は、前記属性値が所定の条件に該当する場合に、前記複数のアバターのうちの前記第1のアバターとは異なる他のアバター及び所定の仮想オブジェクトのうちの少なくともいずれかを、前記視点位置と前記第1のアバターとの間に配置する、
請求項1〜5のいずれか一項に記載のコンテンツ配信システム。
When the attribute value corresponds to a predetermined condition, the image generation unit selects at least one of the other avatars different from the first avatar and the predetermined virtual object among the plurality of avatars. Placed between the viewpoint position and the first avatar,
The content distribution system according to any one of claims 1 to 5.
前記属性値は、各ユーザに関連付けられた属性値、及び、前記仮想空間の状態に関する属性値、の少なくともいずれかを含む、
請求項1〜6のいずれか一項に記載のコンテンツ配信システム。
The attribute value includes at least one of an attribute value associated with each user and an attribute value related to the state of the virtual space.
The content distribution system according to any one of claims 1 to 6.
前記生成部は、前記ユーザに関連付けられた属性値が予め設定された所定の条件を満たさない場合に、前記第1のアバターの少なくとも一部分を表示させるためのデータを、前記コンテンツデータに含めない、
請求項1〜7のいずれか一項に記載のコンテンツ配信システム。
The generation unit does not include data for displaying at least a part of the first avatar in the content data when the attribute value associated with the user does not satisfy a predetermined condition set in advance.
The content distribution system according to any one of claims 1 to 7.
前記画像生成部は、前記ユーザに関連付けられた属性値が予め設定された所定の条件を満たさない場合に、前記第1のアバターの少なくとも一部分を前記コンテンツ画像において表示させない、
請求項1〜8のいずれか一項に記載のコンテンツ配信システム。
The image generation unit does not display at least a part of the first avatar in the content image when the attribute value associated with the user does not satisfy a predetermined condition set in advance.
The content distribution system according to any one of claims 1 to 8.
前記取得部は、複数の前記ユーザ端末のうちの1つから、前記注目対象のアバターを指定する指定情報を取得し、
前記画像生成部は、前記指定情報により指定されるアバターを、前記第1のアバターとして設定する、
請求項1〜9のいずれか一項に記載のコンテンツ配信システム。
The acquisition unit acquires designated information for designating the avatar to be focused on from one of the plurality of user terminals.
The image generation unit sets the avatar specified by the designated information as the first avatar.
The content distribution system according to any one of claims 1 to 9.
複数のアバターが設定された仮想空間を映すコンテンツを配信するコンテンツ配信システムにおけるコンテンツ配信方法であって、
各アバターの位置及び態様のうちの少なくともいずれかを示すモーションデータを取得する取得ステップと、
前記モーションデータに基づいて各アバターが設定された前記仮想空間を表すコンテンツデータを生成する生成ステップと、
前記コンテンツデータに基づいて、前記仮想空間内に設定された所定の視点位置から見える映像であるコンテンツ画像を生成する画像生成ステップと、
ユーザのユーザ端末に前記コンテンツ画像を表示させる表示ステップと、を有し、
前記画像生成ステップにおいて、所定の属性値に基づいて、前記コンテンツ画像における、前記複数のアバターのうちの前記ユーザにとっての注目対象のアバターである第1のアバターの視認性を制御する、
コンテンツ配信方法。
It is a content distribution method in a content distribution system that distributes content that reflects a virtual space in which multiple avatars are set.
An acquisition step to acquire motion data indicating at least one of the positions and modes of each avatar, and
A generation step of generating content data representing the virtual space in which each avatar is set based on the motion data, and a generation step.
An image generation step of generating a content image that is an image that can be seen from a predetermined viewpoint position set in the virtual space based on the content data.
It has a display step of displaying the content image on the user terminal of the user.
In the image generation step, the visibility of the first avatar, which is the avatar of interest to the user among the plurality of avatars, in the content image is controlled based on a predetermined attribute value.
Content delivery method.
コンピュータを、複数のアバターが設定された仮想空間を映すコンテンツを配信するコンテンツ配信システムとして機能させるためのコンテンツ配信プログラムであって、
前記コンピュータに、
各アバターの位置及び態様のうちの少なくともいずれかを示すモーションデータを取得する取得ステップと、
前記モーションデータに基づいて各アバターが設定された前記仮想空間を表すコンテンツデータを生成する生成ステップと、
前記コンテンツデータに基づいて、前記仮想空間内に設定された所定の視点位置から見える映像であるコンテンツ画像を生成する画像生成ステップと、
ユーザのユーザ端末に前記コンテンツ画像を表示させる表示ステップと、を実行させ、
前記画像生成ステップにおいて、所定の属性値に基づいて、前記コンテンツ画像における、前記複数のアバターのうちの前記ユーザにとっての注目対象のアバターである第1のアバターの視認性を制御する、
コンテンツ配信プログラム。
A content distribution program that allows a computer to function as a content distribution system that distributes content that reflects a virtual space in which multiple avatars are set.
On the computer
An acquisition step to acquire motion data indicating at least one of the positions and modes of each avatar, and
A generation step of generating content data representing the virtual space in which each avatar is set based on the motion data, and a generation step.
An image generation step of generating a content image that is an image that can be seen from a predetermined viewpoint position set in the virtual space based on the content data.
A display step of displaying the content image on the user terminal of the user is executed.
In the image generation step, the visibility of the first avatar, which is the avatar of interest to the user among the plurality of avatars, in the content image is controlled based on a predetermined attribute value.
Content distribution program.
JP2020009240A 2020-01-23 2020-01-23 Content distribution system, content distribution method and content distribution program Active JP6794562B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020009240A JP6794562B1 (en) 2020-01-23 2020-01-23 Content distribution system, content distribution method and content distribution program
JP2020188002A JP2021117979A (en) 2020-01-23 2020-11-11 Content distribution system, content distribution method and content distribution program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020009240A JP6794562B1 (en) 2020-01-23 2020-01-23 Content distribution system, content distribution method and content distribution program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020188002A Division JP2021117979A (en) 2020-01-23 2020-11-11 Content distribution system, content distribution method and content distribution program

Publications (2)

Publication Number Publication Date
JP6794562B1 JP6794562B1 (en) 2020-12-02
JP2021117593A true JP2021117593A (en) 2021-08-10

Family

ID=73544676

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020009240A Active JP6794562B1 (en) 2020-01-23 2020-01-23 Content distribution system, content distribution method and content distribution program
JP2020188002A Pending JP2021117979A (en) 2020-01-23 2020-11-11 Content distribution system, content distribution method and content distribution program

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2020188002A Pending JP2021117979A (en) 2020-01-23 2020-11-11 Content distribution system, content distribution method and content distribution program

Country Status (1)

Country Link
JP (2) JP6794562B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008250813A (en) * 2007-03-30 2008-10-16 Konami Digital Entertainment:Kk Image creating device, image processing method, and program
JP2018106297A (en) * 2016-12-22 2018-07-05 キヤノンマーケティングジャパン株式会社 Mixed reality presentation system, information processing apparatus and control method thereof, and program
JP2019192203A (en) * 2018-11-28 2019-10-31 株式会社コロプラ Program, information processing device, and method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008250813A (en) * 2007-03-30 2008-10-16 Konami Digital Entertainment:Kk Image creating device, image processing method, and program
JP2018106297A (en) * 2016-12-22 2018-07-05 キヤノンマーケティングジャパン株式会社 Mixed reality presentation system, information processing apparatus and control method thereof, and program
JP2019192203A (en) * 2018-11-28 2019-10-31 株式会社コロプラ Program, information processing device, and method

Also Published As

Publication number Publication date
JP6794562B1 (en) 2020-12-02
JP2021117979A (en) 2021-08-10

Similar Documents

Publication Publication Date Title
US9485493B2 (en) Method and system for displaying multi-viewpoint images and non-transitory computer readable storage medium thereof
CN111970532B (en) Video playing method, device and equipment
US20140232819A1 (en) Systems and methods for generating and sharing panoramic moments
JPWO2016009865A1 (en) Information processing apparatus and method, display control apparatus and method, playback apparatus and method, program, and information processing system
WO2018000609A1 (en) Method for sharing 3d image in virtual reality system, and electronic device
JP6683864B1 (en) Content control system, content control method, and content control program
US11956504B2 (en) Content distribution server, content distribution system, content distribution method, and program
JP2021002288A (en) Image processor, content processing system, and image processing method
WO2021106803A1 (en) Class system, viewing terminal, information processing method, and program
WO2018000608A1 (en) Method for sharing panoramic image in virtual reality system, and electronic device
CN114257875B (en) Data transmission method, device, electronic equipment and storage medium
WO2021065928A1 (en) Content distribution system, content distribution method, and content distribution program
CN110710203B (en) Methods, systems, and media for generating and rendering immersive video content
CN114615513A (en) Video data generation method and device, electronic equipment and storage medium
WO2020194973A1 (en) Content distribution system, content distribution method, and content distribution program
JP6609078B1 (en) Content distribution system, content distribution method, and content distribution program
JP7244450B2 (en) Computer program, server device, terminal device, and method
JP6794562B1 (en) Content distribution system, content distribution method and content distribution program
JP7291106B2 (en) Content delivery system, content delivery method, and content delivery program
US10868889B2 (en) System for providing game play video by using cloud computer
JP7344084B2 (en) Content distribution system, content distribution method, and content distribution program
CN114846808A (en) Content distribution system, content distribution method, and content distribution program
JP2020167654A (en) Content distribution system, content distribution method, and content distribution program
CN118037557A (en) Image data processing method and related equipment
JP2022184724A (en) Content provision system, content provision method, and content provision program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200123

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200123

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200525

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200601

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200609

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200806

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201027

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201111

R150 Certificate of patent or registration of utility model

Ref document number: 6794562

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250