JP2021117593A - Content distribution system, content distribution method and content distribution program - Google Patents
Content distribution system, content distribution method and content distribution program Download PDFInfo
- Publication number
- JP2021117593A JP2021117593A JP2020009240A JP2020009240A JP2021117593A JP 2021117593 A JP2021117593 A JP 2021117593A JP 2020009240 A JP2020009240 A JP 2020009240A JP 2020009240 A JP2020009240 A JP 2020009240A JP 2021117593 A JP2021117593 A JP 2021117593A
- Authority
- JP
- Japan
- Prior art keywords
- avatar
- content
- image
- content distribution
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Information Transfer Between Computers (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
本開示の一側面は、コンテンツ配信システム、コンテンツ配信方法及びコンテンツ配信プログラムに関する。 One aspect of the disclosure relates to content distribution systems, content distribution methods and content distribution programs.
アバターが設定された仮想空間を映すコンテンツを配信することが行われている。仮想空間は、仮想の3次元空間であって、現実空間を映した実写画像に基づいて構成されることもできる。例えば、特許文献1には、複合現実画像の生成に際して、複数の体験者を示すアバター及びCGモデルが仮想空間に配置され、ある体験者のアバターとCGモデルとの間に他の体験者である共同体験者のアバターが存在する場合に、共同体験者のアバターを消去及び透過表示させる等の制御を行う技術が記載されている。 Content that reflects the virtual space in which the avatar is set is being distributed. The virtual space is a virtual three-dimensional space, and can be constructed based on a live-action image reflecting a real space. For example, in Patent Document 1, when generating a mixed reality image, an avatar and a CG model indicating a plurality of experiencers are arranged in a virtual space, and another experiencer is placed between the avatar of one experiencer and the CG model. Describes a technique for controlling the avatar of a co-experiencer, such as erasing and transparently displaying the avatar of the co-experiencer when the avatar of the co-experiencer exists.
仮想空間においてユーザにとっての注目対象である特定のアバターの視認性を適切に制御することにより、コンテンツ画像の視覚効果をさらに高めることが望まれている。 It is desired to further enhance the visual effect of the content image by appropriately controlling the visibility of a specific avatar that is the target of attention for the user in the virtual space.
本開示の一側面に係るコンテンツ配信システムは、複数のアバターが設定された仮想空間を映すコンテンツを配信するコンテンツ配信システムであって、各アバターの位置及び態様のうちの少なくともいずれかを示すモーションデータを取得する取得部と、モーションデータに基づいて各アバターが設定された仮想空間を表すコンテンツデータを生成する生成部と、コンテンツデータに基づいて、仮想空間内に設定された所定の視点位置から見える映像であるコンテンツ画像を生成する画像生成部と、ユーザのユーザ端末にコンテンツ画像を表示させる表示部と、を備え、画像生成部は、所定の属性値に基づいて、コンテンツ画像における、複数のアバターのうちのユーザにとっての注目対象のアバターである第1のアバターの視認性を制御する。 The content distribution system according to one aspect of the present disclosure is a content distribution system that distributes content that reflects a virtual space in which a plurality of avatars are set, and motion data indicating at least one of the positions and modes of each avatar. It can be seen from a predetermined viewpoint position set in the virtual space based on the content data and the acquisition unit that generates the content data representing the virtual space in which each avatar is set based on the motion data. The image generation unit includes an image generation unit that generates a content image that is a video and a display unit that displays the content image on the user terminal of the user, and the image generation unit has a plurality of avatars in the content image based on a predetermined attribute value. Controls the visibility of the first avatar, which is the avatar of interest to the user.
このような側面によれば、ユーザにとっての注目対象のアバターの視認性が所定の属性値に基づいて制御されるので、属性値の設定により、特定のアバターの視認性を高めるまたは視認性を低下させることが可能となる。 According to such an aspect, since the visibility of the avatar of interest to the user is controlled based on a predetermined attribute value, the visibility of a specific avatar is enhanced or decreased by setting the attribute value. It becomes possible to make it.
本開示の一側面によれば、仮想空間においてユーザにとっての注目対象である特定のアバターの視認性を適切に制御することにより、コンテンツ画像の視覚効果をさらに高めることが可能となる。 According to one aspect of the present disclosure, it is possible to further enhance the visual effect of the content image by appropriately controlling the visibility of a specific avatar that is the target of attention for the user in the virtual space.
以下、添付図面を参照しながら本発明の実施形態を詳細に説明する。なお、図面の説明において同一又は同等の要素には同一の符号を付し、重複する説明を省略する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the description of the drawings, the same or equivalent elements are designated by the same reference numerals, and duplicate description will be omitted.
図1は、実施形態に係るコンテンツ配信システム1の装置構成の一例を示す図である。図1に示すように、本実施形態のコンテンツ配信システム1は、コンテンツ配信サーバ10及び複数のユーザ端末20を含む。コンテンツ配信サーバ10及び複数のユーザ端末20は、ネットワークNを介して互いに通信可能である。ユーザ端末20は、コンテンツを配信する配信者のユーザ端末20Bと、コンテンツを受信及び視聴する視聴者のユーザ端末20Aとを含み得る。
FIG. 1 is a diagram showing an example of a device configuration of the content distribution system 1 according to the embodiment. As shown in FIG. 1, the content distribution system 1 of the present embodiment includes a
実施形態に係るコンテンツ配信システム1は、複数のアバターが設定された仮想空間を映すコンテンツをユーザのユーザ端末20に配信するコンピュータシステムである。
The content distribution system 1 according to the embodiment is a computer system that distributes content that reflects a virtual space in which a plurality of avatars are set to the
コンテンツとは、コンピュータまたはコンピュータシステムによって提供され、人が認識可能な情報のことをいう。コンテンツを示す電子データのことをコンテンツデータという。コンテンツの表現形式は限定されず、例えば、コンテンツは画像(例えば、写真、映像など)、文書、音声、音楽、またはこれらの中の任意の2以上の要素の組合せによって表現されてもよい。コンテンツの目的および利用場面は限定されず、例えば、コンテンツはエンターテインメント、ニュース、教育、医療、ゲーム、チャット、商取引、講演、セミナー、研修などの様々な目的で利用され得る。配信とは、通信ネットワークまたは放送ネットワークを経由して情報をユーザに送信する処理のことをいう。本開示では、配信は放送を含み得る概念である。 Content is information provided by a computer or computer system that is human recognizable. Electronic data that indicates content is called content data. The representation format of the content is not limited, for example, the content may be represented by an image (eg, photo, video, etc.), a document, audio, music, or a combination of any two or more elements thereof. The purpose and usage of the content is not limited, for example, the content may be used for various purposes such as entertainment, news, education, medical care, games, chat, commerce, lectures, seminars, and training. Distribution refers to the process of transmitting information to a user via a communication network or a broadcasting network. In the present disclosure, distribution is a concept that may include broadcasting.
コンテンツ配信システム1はコンテンツデータをユーザ端末に送信することで、コンテンツをユーザに提供する。一例では、そのコンテンツは配信者から提供される。配信者とは視聴者であるユーザに情報を伝えようとする人であり、すなわち、コンテンツの発信者である。 The content distribution system 1 provides the content to the user by transmitting the content data to the user terminal. In one example, the content is provided by the distributor. The distributor is a person who tries to convey information to a user who is a viewer, that is, a sender of the content.
本実施形態では、コンテンツは少なくとも画像を用いて表現される。コンテンツは、動画でもよいし、静止画でもよい。静止画により構成されるコンテンツは、ウェブサイトのホームページを構成し、スクロールバーによりスクロールさせることができるものであってもよい。また、静止画により構成されるコンテンツは、複数の静止画を含みスライドショーにより表現されるものであってもよい。 In this embodiment, the content is represented using at least images. The content may be a moving image or a still image. The content composed of still images may constitute the home page of the website and can be scrolled by the scroll bar. Further, the content composed of still images may include a plurality of still images and be represented by a slide show.
コンテンツ配信システム1は様々な目的で用いられてよい。例えば、コンテンツ配信システム1は、ある一人のユーザが他のユーザに向けてライブコンテンツを配信するサービスのために用いられてもよい。このサービスはインターネット生放送ともいわれる。すなわち、コンテンツ配信システム1は配信者から提供されるコンテンツ映像をリアルタイムに視聴者に配信するために用いられてもよい。したがって、コンテンツ画像は、リアルタイムに配信されるライブコンテンツの画像であり得る。あるいは、コンテンツ配信システム1は、過去に撮影されたコンテンツ映像を視聴者に配信するために用いられてもよく、例えば、リアルタイム配信後の所与の期間においてコンテンツを視聴することが可能なタイムシフトのために用いられてもよい。コンテンツ配信システム1は静止画を配信するために用いられてもよい。 The content distribution system 1 may be used for various purposes. For example, the content distribution system 1 may be used for a service in which one user distributes live content to another user. This service is also called live internet broadcasting. That is, the content distribution system 1 may be used to distribute the content video provided by the distributor to the viewer in real time. Therefore, the content image can be an image of live content delivered in real time. Alternatively, the content distribution system 1 may be used to distribute the content video shot in the past to the viewer, for example, a time shift capable of viewing the content in a given period after the real-time distribution. May be used for. The content distribution system 1 may be used to distribute a still image.
仮想空間は、コンピュータ上に表示される画像によって表現される仮想の2次元または3次元の空間である。仮想空間は、配信者により定義及び提供されてもよいし、サーバが仮想的に生成してもよいし、現実空間画像に基づいて生成してもよい。定義及び生成された仮想空間には、位置を示すための3次元の座標系が定義されてもよい。コンテンツ画像は、仮想空間内に視点位置として設定された仮想カメラから見える風景を示す画像である。仮想カメラは、例えば、コンテンツ画像を見るユーザの視線に対応するように仮想空間内に設定される。本実施形態では、仮想カメラは、ユーザ端末20のユーザに対応するアバターの視点位置に設定されてもよい。
The virtual space is a virtual two-dimensional or three-dimensional space represented by an image displayed on a computer. The virtual space may be defined and provided by the distributor, may be virtually generated by the server, or may be generated based on a real space image. A three-dimensional coordinate system for indicating a position may be defined in the defined and generated virtual space. The content image is an image showing a landscape seen from a virtual camera set as a viewpoint position in the virtual space. The virtual camera is set in the virtual space so as to correspond to the line of sight of the user who sees the content image, for example. In the present embodiment, the virtual camera may be set at the viewpoint position of the avatar corresponding to the user of the
仮想空間には、複数のアバターが設定され得る。コンテンツ画像には、仮想空間内において設定及び表現されるユーザの分身であるアバターが表現され得る。アバターは仮想オブジェクトの一例である。仮想空間に設定されるアバターは限定されず、例えば、アバターは、配信者に対応してもよいし、配信者と共にコンテンツに参加すると共に該コンテンツを視聴するユーザである視聴者に対応してもよい。 Multiple avatars can be set in the virtual space. The content image may represent an avatar, which is the alter ego of the user set and represented in the virtual space. Avatar is an example of a virtual object. The avatar set in the virtual space is not limited, and for example, the avatar may correspond to the distributor, or may correspond to the viewer who participates in the content together with the distributor and who is the user who views the content. good.
アバターは、画像素材を用いて、2次元または3次元のコンピュータグラフィック(CG)によって表現される。アバターの表現方法は限定されない。例えば、アバターはアニメーション素材を用いて表現されてもよいし、実写画像に基づいて本物に近いように表現されてもよい。 Avatar is represented by two-dimensional or three-dimensional computer graphics (CG) using image material. The expression method of the avatar is not limited. For example, the avatar may be represented using an animation material, or may be represented as close to the real thing based on a live-action image.
コンテンツ配信サーバ10は、コンテンツデータを少なくとも一つのユーザ端末20に配信するコンピュータである。図1では4台のユーザ端末20を示すが、ユーザ端末20の個数は限定されない。通信ネットワークNの構成は限定されない。例えば、通信ネットワークNはインターネットを含んで構成されてもよいし、イントラネットを含んで構成されてもよい。
The
ユーザ端末20は、例えば、高機能携帯電話機(スマートフォン)、タブレット端末、ウェアラブル端末(例えば、ヘッドマウントディスプレイ(HMD)、スマートグラスなど)、ラップトップ型パーソナルコンピュータ、携帯電話機などの携帯端末でもよい。あるいは、ユーザ端末20はデスクトップ型パーソナルコンピュータなどの据置型端末でもよい。
The
図2は、コンテンツ配信システム1に関するハードウェア構成の一例を示す図である。図2は、コンテンツ配信サーバ10として機能するサーバコンピュータ100と、ユーザ端末20として機能する端末コンピュータ200とを示す。
FIG. 2 is a diagram showing an example of a hardware configuration related to the content distribution system 1. FIG. 2 shows a
一例として、サーバコンピュータ100はハードウェア構成要素として、プロセッサ101、主記憶部102、補助記憶部103、および通信部104を備える。
As an example, the
プロセッサ101は、オペレーティングシステムおよびアプリケーションプログラムを実行する演算装置である。プロセッサの例としてCPU(Central Processing Unit)およびGPU(Graphics Processing Unit)が挙げられるが、プロセッサ101の種類はこれらに限定されない。例えば、プロセッサ101はセンサおよび専用回路の組合せでもよい。専用回路はFPGA(Field−Programmable Gate Array)のようなプログラム可能な回路でもよいし、他の種類の回路でもよい。
The
主記憶部102は、コンテンツ配信サーバ10を実現するためのプログラム、プロセッサ101から出力された演算結果などを記憶する装置である。主記憶部102は例えばROM(Read Only Memory)およびRAM(Random Access Memory)のうちの少なくとも一つにより構成される。
The
補助記憶部103は、一般に主記憶部102よりも大量のデータを記憶することが可能な装置である。補助記憶部103は例えばハードディスク、フラッシュメモリなどの不揮発性記憶媒体によって構成される。補助記憶部103は、サーバコンピュータ100をコンテンツ配信サーバ10として機能させるためのサーバプログラムP1と各種のデータとを記憶する。本実施形態では、コンテンツ配信プログラムはサーバプログラムP1として実装される。
The
通信部104は、通信ネットワークNを介して他のコンピュータとの間でデータ通信を実行する装置である。通信部104は例えばネットワークカードまたは無線通信モジュールにより構成される。
The
サーバの各機能要素は、プロセッサ101または主記憶部102の上に、対応するサーバプログラムP1を読み込ませてプロセッサ101にそのプログラムを実行させることで実現される。サーバプログラムP1は、対応するサーバの各機能要素を実現するためのコードを含む。プロセッサ101はサーバプログラムP1に従って通信部104を動作させ、主記憶部102または補助記憶部103におけるデータの読み出しおよび書き込みを実行する。このような処理により、対応するサーバの各機能要素が実現される。
Each functional element of the server is realized by loading the corresponding server program P1 on the
個々のサーバは一つまたは複数のコンピュータにより構成され得る。一つのサーバのために複数のコンピュータが用いられる場合には、通信ネットワークを介してこれらのコンピュータが互いに接続されることで、論理的に一つのサーバが構成される。 Each server may consist of one or more computers. When a plurality of computers are used for one server, one server is logically configured by connecting these computers to each other via a communication network.
一例として、端末コンピュータ200はハードウェア構成要素として、プロセッサ201、主記憶部202、補助記憶部203及び通信部204並びに入力インタフェース205、出力インタフェース206及び撮像部207を備える。
As an example, the
プロセッサ201は、オペレーティングシステムおよびアプリケーションプログラムを実行する演算装置である。プロセッサ201は例えばCPUまたはGPUであり得るが、プロセッサ201の種類はこれらに限定されない。
主記憶部202は、ユーザ端末20を実現させるためのプログラム、プロセッサ201から出力された演算結果などを記憶する装置である。主記憶部202は例えばROMおよびRAMのうちの少なくとも一つにより構成される。
The
補助記憶部203は、一般に主記憶部202よりも大量のデータを記憶することが可能な装置である。補助記憶部203は例えばハードディスク、フラッシュメモリなどの不揮発性記憶媒体によって構成される。補助記憶部203は、端末コンピュータ200をユーザ端末20として機能させるための端末プログラムP2と各種のデータとを記憶する。例えば、補助記憶部203はアバターなどの仮想オブジェクトと仮想空間とのうちの少なくとも一つに関するデータを記憶してもよい。
The
通信部204は、通信ネットワークNを介して他のコンピュータとの間でデータ通信を実行する装置である。通信部204は例えばネットワークカードまたは無線通信モジュールにより構成される。
The
入力インタフェース205は、ユーザの操作または動作に基づいてデータを受け付ける装置である。例えば、入力インタフェース205は、キーボード、操作ボタン、ポインティングデバイス、マイクロフォン、センサ、およびカメラのうちの少なくとも一つによって構成される。キーボードおよび操作ボタンはタッチパネル上に表示されてもよい。入力インタフェース205の種類が限定されないことに対応して、入力されるデータは限定されない。例えば、入力インタフェース205はキーボード、操作ボタン、またはポインティングデバイスによって入力または選択されたデータを受け付けてもよい。あるいは、入力インタフェース205は、マイクロフォンにより入力された音声データを受け付けてもよい。あるいは、入力インタフェース205はカメラによって撮影された画像データ(例えば、映像データまたは静止画データ)を受け付けてもよい。
The
出力インタフェース206は、端末コンピュータ200で処理されたデータを出力する装置である。例えば、出力インタフェース206はモニタ、タッチパネル、HMDおよびスピーカのうちの少なくとも一つによって構成される。モニタ、タッチパネル、HMDなどの表示装置は、処理されたデータを画面上に表示する。スピーカは、処理された音声データで示される音声を出力する。
The
撮像部207は、現実世界を映した画像を撮影する装置であり、具体的にはカメラである。撮像部207は動画像(映像)を撮影してもよいし静止画(写真)を撮影してもよい。動画像を撮影する場合には、撮像部207は映像信号を所与のフレームレートに基づいて処理することで、時系列に並ぶ一連のフレーム画像を動画像として取得する。撮像部207は入力インタフェース205としても機能し得る。
The
ユーザ端末20の各機能要素は、プロセッサ201または主記憶部202の上に端末プログラムP2を読み込ませてそのプログラムを実行させることで実現される。端末プログラムP2は、ユーザ端末20の各機能要素を実現するためのコードを含む。プロセッサ201は端末プログラムP2に従って通信部204、入力インタフェース205または出力インタフェース206を動作させ、主記憶部202または補助記憶部203におけるデータの読み出しおよび書き込みを行う。この処理によりユーザ端末20の各機能要素が実現される。
Each functional element of the
サーバプログラムP1および端末プログラムP2の少なくとも一つは、CD−ROM、DVD−ROM、半導体メモリなどの有形の記録媒体に固定的に記録された上で提供されてもよい。あるいは、これらのプログラムの少なくとも一つは、搬送波に重畳されたデータ信号として通信ネットワークを介して提供されてもよい。これらのプログラムは別々に提供されてもよいし、一緒に提供されてもよい。 At least one of the server program P1 and the terminal program P2 may be provided after being fixedly recorded on a tangible recording medium such as a CD-ROM, a DVD-ROM, or a semiconductor memory. Alternatively, at least one of these programs may be provided via a communication network as a data signal superimposed on a carrier wave. These programs may be provided separately or together.
図3は、コンテンツ配信サーバ10の機能構成の一例を示すブロック図である。図3に示されるように、コンテンツ配信サーバ10は、取得部11、生成部12及び送信部13を備える。これらの各機能部11〜13は、プロセッサ101にサーバプログラムP1が読み込まれて、そのプログラムが実行されることにより実現される。各機能部の説明は後述する。
FIG. 3 is a block diagram showing an example of the functional configuration of the
コンテンツ配信サーバ10の各機能部11〜13は、仮想空間データ記憶部15にアクセス可能に構成されている。仮想空間データ記憶部15は、仮想空間データを記憶させるための記憶手段であって、例えば主記憶部102または補助記憶部103に構成される。なお、本実施形態では、仮想空間データ記憶部15は、コンテンツ配信サーバ10に構成されるが、コンテンツ配信サーバ10からアクセス可能な他の装置に構成されてもよい。
Each
仮想空間データは、前述のとおり、コンピュータ上に表示される画像によって表現される仮想の2次元または3次元の空間を表すためのデータである。仮想空間データは、配信者により定義及び提供されてもよいし、コンテンツ配信サーバ10により仮想的に生成されてもよいし、現実空間画像に基づいて生成されてもよい。
As described above, the virtual space data is data for representing a virtual two-dimensional or three-dimensional space represented by an image displayed on a computer. The virtual space data may be defined and provided by the distributor, may be virtually generated by the
図4は、ユーザ端末20の機能構成の一例を示すブロック図である。ユーザ端末20は、コンテンツ配信サーバ10から配信されたコンテンツを受信及び表示する機能を有する。図4に示されるように、ユーザ端末20は、送信部21、受信部22、画像生成部23及び表示部24を備える。これらの各機能部21〜24は、プロセッサ201に端末プログラムP2が読み込まれて、そのプログラムが実行されることにより実現される。各機能部の説明は後述する。
FIG. 4 is a block diagram showing an example of the functional configuration of the
図5は、ユーザ属性情報の一例を示す図である。ユーザ属性情報は、例えば、コンテンツ配信サーバ10の主記憶部102または補助記憶部103に記憶されている。図5に示されるように、ユーザ属性情報は、ユーザを識別するユーザIDごとに、課金情報等を関連付けて記憶している。課金情報は、ユーザの属性の一例であって、課金額を属性値の一例として含む。本実施形態では、コンテンツ配信サーバ10は、配信者により提供されるコンテンツに対する各ユーザの課金額を、ユーザの属性として記憶している。
FIG. 5 is a diagram showing an example of user attribute information. The user attribute information is stored in, for example, the
再び図3を参照して、コンテンツ配信サーバ10の各機能部について説明する。取得部11は、仮想空間に設定されるアバターの位置及び態様のうちの少なくともいずれかを示すモーションデータを取得する。具体的には、取得部11は、ユーザ端末20のそれぞれのユーザに対応するアバターのモーションデータを、ユーザ端末20の各々から取得する。
Each functional unit of the
また、コンテンツの提供者である配信者は、コンテンツを構成する仮想空間を定義する仮想空間データを、ユーザ端末20Bからコンテンツ配信サーバ10に提供してもよい。この場合には、取得部11は、配信者のユーザ端末20Bから、仮想空間データを受信及び取得する。取得部11は、取得した仮想空間データを仮想空間データ記憶部15に記憶させる。
Further, the distributor who is the provider of the content may provide the virtual space data defining the virtual space constituting the content from the
生成部12は、モーションデータに基づいて各アバターが設定された仮想空間を表すコンテンツデータを生成する。具体的には、生成部12は、仮想空間データにより定義される仮想空間に、モーションデータにより位置及び態様が定義されるアバターを設定することにより、コンテンツデータを生成する。
The
送信部13は、生成部12により生成されたコンテンツデータをユーザ端末20に送信する。また、送信部13は、コンテンツ及びユーザに関する属性値を、ユーザ端末20に送信してもよい。送信部13は、例えば、図5に示されるようなユーザの課金額を示す課金情報を、ユーザの属性値として、当該ユーザのユーザ端末20Aに送信してもよい。
The
また、動画により構成されるコンテンツの時系列に沿って仮想空間の状態を示す属性値が関連付けられている場合には、送信部13は、各時刻において対応する所定の属性値を、各ユーザ端末20Aに送信してもよい。仮想空間の状態を示す属性値は、種々の態様により取得される。例えば、仮想空間の状態を示す属性値は、コンテンツのストーリに沿って、予め各時刻に関連付けられていてもよい。
Further, when the attribute value indicating the state of the virtual space is associated with the time series of the content composed of the moving image, the
また、仮想空間の状態を示す属性値は、リアルタイムに変動する値であってもよい。リアルタイムに変動する属性値は、例えば、コンテンツの盛り上がりの程度を示す値であってもよい。このようなリアルタイムに変動する属性値は、例えば、視聴者であるユーザのアバターの動きの大きさ、コンテンツを視聴しているユーザの数、及び、コンテンツに対してユーザ端末20Aを介して投稿されたユーザのコメントの数等に基づいて取得されてもよい。
Further, the attribute value indicating the state of the virtual space may be a value that fluctuates in real time. The attribute value that fluctuates in real time may be, for example, a value indicating the degree of excitement of the content. Such attribute values that fluctuate in real time are posted to, for example, the magnitude of the movement of the avatar of the user who is the viewer, the number of users who are viewing the content, and the content via the
図4を参照して、ユーザ端末20の各機能部について説明する。送信部21は、当該ユーザ端末20のユーザの分身であるアバターのモーションデータをコンテンツ配信サーバ10に送信する。
Each functional unit of the
また、配信者のユーザ端末20Bにおいては、送信部21は、仮想空間を定義する仮想空間データをコンテンツ配信サーバ10に送信してもよい。また、ユーザ端末20Bの送信部21は、コンテンツとしての配信者のアバターのモーションデータをコンテンツ配信サーバ10に送信する。
Further, in the
また、視聴者のユーザ端末20Aにおいては、送信部21は、コンテンツを視聴する視聴者としてのアバターのモーションデータをコンテンツ配信サーバ10に送信する。
Further, in the
受信部22は、コンテンツ配信サーバ10により生成及び送信されたコンテンツデータを受信する。コンテンツデータは、各アバターが設定された仮想空間を表すデータである。
The receiving
画像生成部23は、コンテンツデータに基づいて、仮想空間内に設定された所定の視点位置から見える映像であるコンテンツ画像を生成する。即ち、コンテンツ画像は、仮想空間内に視点位置として設定された仮想カメラから見える風景を示す画像である。仮想カメラは、例えば、コンテンツ画像を見るユーザの視線に対応するように仮想空間内に設定される。本実施形態では、仮想カメラは、ユーザ端末20のユーザに対応するアバターの視点位置に設定されてもよい。また、仮想カメラは、視聴者のアバターの視点位置に限られず、仮想空間内に設定された所定位置に設定されてもよい。
The
表示部24は、画像生成部23により生成されたコンテンツ画像をユーザ端末20に表示させる。具体的には、表示部24は、出力インタフェース206の一例であるディスプレイ(表示装置)にコンテンツ画像を表示させる。
The
図6〜図12を参照して、コンテンツ画像におけるアバターの視認性の制御について説明する。画像生成部23は、所定の属性値に基づいて、コンテンツ画像における、複数のアバターのうちのユーザにとっての注目対象のアバターである第1のアバターの視認性を制御する。
Controlling the visibility of the avatar in the content image will be described with reference to FIGS. 6 to 12. The
所定の属性値は、前述のとおり、各ユーザに関連付けられた属性値及び仮想空間の状態を示す属性値等であることができる。注目対象のアバターである第1のアバターは、例えば、視聴者であるユーザにおいては、配信者のアバターであってもよい。 As described above, the predetermined attribute value can be an attribute value associated with each user, an attribute value indicating the state of the virtual space, or the like. The first avatar, which is the avatar of interest, may be, for example, the avatar of the distributor in the user who is the viewer.
また、第1のアバターは、配信者及び視聴者を含む複数のユーザのうちの一のユーザにより指定されたアバターであってもよい。例えば、配信者により指定されたアバターが第1のアバターとされてもよい。具体的には、コンテンツ配信サーバ10の取得部11は、配信者のユーザ端末20Bから、注目対象とするアバターを指定する指定情報を取得する。コンテンツ配信サーバ10の送信部13は、指定情報を各ユーザ端末20に送信する。ユーザ端末20Aの受信部22は、指定情報を受信する。そして、ユーザ端末20の画像生成部23は、指定情報により指定されるアバターを第1のアバターとして設定する。なお、注目対象の第1のアバターの指定は、配信者に限られず他のユーザ(視聴者)により行われてもよい。この場合には、取得部11は、他のユーザのユーザ端末20Aから指定情報を取得する。
Further, the first avatar may be an avatar designated by one of a plurality of users including a distributor and a viewer. For example, the avatar specified by the distributor may be the first avatar. Specifically, the
このように、指定情報に基づいて注目対象のアバターを設定可能とすることにより、例えば、仮想空間内において特徴的な動作をしている特定の視聴者のアバターを目立たせるような状況を演出できる。即ち、コンテンツの配信者が、特定の視聴者のアバターを指定する指定情報をユーザ端末20Bからコンテンツ配信サーバ10に送信することにより、他の視聴者及び配信者のユーザ端末20において表示されるコンテンツ画像における特定の視聴者のアバターの視認性を高めることが可能となる。
In this way, by making it possible to set the avatar of interest based on the specified information, for example, it is possible to produce a situation in which the avatar of a specific viewer who has a characteristic operation in the virtual space is conspicuous. .. That is, the content displayed on the
注目対象のアバターである第1のアバターの視認性の制御に関して、画像生成部23は、視点位置と第1のアバターとの間に位置する1以上のアバターである第2のアバターにより、視点位置から第1のアバターを視認できない状態である場合において、所定の属性値が所定の条件に該当する場合に、第1のアバターが視認可能となるように、第1のアバター及び第2のアバターのうちの少なくとも一方の仮想空間における位置及び表示態様のうちの少なくとも一方を変更してもよい。
Regarding the control of the visibility of the first avatar, which is the avatar of interest, the
前述のとおり、所定の属性値は、例えば、ユーザの属性値の1つである課金額であってもよい。この場合には、画像生成部23は、課金額が所定値以上である場合に、第1のアバター及び第2のアバターのうちの少なくとも一方の仮想空間における位置及び表示態様のうちの少なくとも一方を変更することにより、第1のアバターが視認可能となるように制御してもよい。
As described above, the predetermined attribute value may be, for example, a billing amount which is one of the attribute values of the user. In this case, the
図6〜図12は、コンテンツ画像におけるアバターの視認性の制御の例を示す図であって、コンテンツデータにより表現される仮想空間において、視点位置から見える映像であるコンテンツ画像の例を示す図である。 6 to 12 are diagrams showing an example of controlling the visibility of the avatar in the content image, and is a diagram showing an example of the content image which is an image seen from the viewpoint position in the virtual space represented by the content data. be.
図6に示されるように、制御実行前のコンテンツ画像C11においては、注目対象のアバターである第1のアバターA1は、視点位置と第1のアバターA1との間に位置する第2のアバターA2により、視点位置から視認できない。このような場合において、画像生成部23は、制御実行後のコンテンツ画像C12に示されるように、第1のアバターA1の少なくとも一部を含む領域を、当該第1のアバターA1以外のオブジェクトを表示させない視野領域Rとして設定してもよい。視野領域Rには、第1のアバターA1以外のオブジェクトが表示されないので、視点位置から第1のアバターA1を視認可能にさせることができる。
As shown in FIG. 6, in the content image C11 before the execution of control, the first avatar A1 which is the avatar of interest is the second avatar A2 located between the viewpoint position and the first avatar A1. Therefore, it cannot be visually recognized from the viewpoint position. In such a case, the
また、図7に示されるように、制御実行前のコンテンツ画像C21においては、第1のアバターA1は、視点位置と第1のアバターA1との間に位置する第2のアバターA2により、視点位置から視認できない。このような場合において、画像生成部23は、制御実行後のコンテンツ画像C22に示されるように、第2のアバターA2の位置を、視点位置と第1のアバターA1の位置との間以外の位置に変更してもよい。これにより、視点位置からの第1のアバターA1に対する視界が第2のアバターA2により遮られないこととなるので、視点位置から第1のアバターA1を視認可能にさせることができる。
Further, as shown in FIG. 7, in the content image C21 before the control execution, the first avatar A1 is set to the viewpoint position by the second avatar A2 located between the viewpoint position and the first avatar A1. Cannot be seen from. In such a case, the
また、図8に示されるように、制御実行前のコンテンツ画像C31においては、第1のアバターA1は、視点位置と第1のアバターA1との間に位置する第2のアバターA2により、視点位置から視認できない。このような場合において、画像生成部23は、制御実行後のコンテンツ画像C32に示されるように、第1のアバターA1の位置を、視点位置と第2のアバターA2の位置との間に変更してもよい。これにより、視点位置からの第1のアバターA1に対する視界が第2のアバターA2により遮られないこととなるので、視点位置から第1のアバターA1を視認可能にさせることができる。
Further, as shown in FIG. 8, in the content image C31 before the control execution, the first avatar A1 is set to the viewpoint position by the second avatar A2 located between the viewpoint position and the first avatar A1. Cannot be seen from. In such a case, the
また、図9に示されるように、制御実行前のコンテンツ画像C41においては、第1のアバターA1は、視点位置と第1のアバターA1との間に位置する第2のアバターA2により、視点位置から視認できない。このような場合において、画像生成部23は、制御実行後のコンテンツ画像C42に示されるように、第2のアバターA2のサイズを縮小させてもよい。これにより、視点位置からの第1のアバターA1に対する視界が第2のアバターA2により遮られないこととなるので、視点位置から第1のアバターA1を視認可能にさせることができる。
Further, as shown in FIG. 9, in the content image C41 before the control execution, the first avatar A1 is set to the viewpoint position by the second avatar A2 located between the viewpoint position and the first avatar A1. Cannot be seen from. In such a case, the
また、図10に示されるように、制御実行前のコンテンツ画像C51においては、第1のアバターA1は、視点位置と第1のアバターA1との間に位置する第2のアバターA2により、視点位置から視認できない。このような場合において、画像生成部23は、制御実行後のコンテンツ画像C52に示されるように、第2のアバターA2を消去してもよい。これにより、視点位置からの第1のアバターA1に対する視界を遮っていた第2のアバターA2が存在しないこととなるので、視点位置から第1のアバターA1を視認可能にさせることができる。
Further, as shown in FIG. 10, in the content image C51 before the control execution, the first avatar A1 is set to the viewpoint position by the second avatar A2 located between the viewpoint position and the first avatar A1. Cannot be seen from. In such a case, the
また、図11に示されるように、制御実行前のコンテンツ画像C61においては、第1のアバターA1は、視点位置と第1のアバターA1との間に位置する第2のアバターA2により、視点位置から視認できない。このような場合において、画像生成部23は、制御実行後のコンテンツ画像C62に示されるように、第2のアバターA2を透過表示させてもよい。このように、第2のアバターA2が透過表示されることにより、第2のアバターA2の背後のオブジェクトが視認可能となるので、視点位置から第1のアバターA1を視認可能にさせることができる。
Further, as shown in FIG. 11, in the content image C61 before the control execution, the first avatar A1 is set to the viewpoint position by the second avatar A2 located between the viewpoint position and the first avatar A1. Cannot be seen from. In such a case, the
また、注目対象のアバターである第1のアバターの視認性の制御に関して、画像生成部23は、所定の属性値が所定の条件に該当する場合に、複数のアバターのうちの第1のアバターとは異なる他のアバター及び所定の仮想オブジェクトのうちの少なくともいずれかを、視点位置と第1のアバターとの間に配置してもよい。
Further, regarding the control of the visibility of the first avatar which is the avatar of interest, the
前述のとおり、所定の属性値は、仮想空間の状態に関する属性値であることができる。仮想空間の状態に関する属性値は、例えば、コンテンツの盛り上がりの程度を示す値であってもよい。この場合において、画像生成部23は、コンテンツの盛り上がりの程度が所定の程度以上になっていることが属性値により示される場合に、視点位置と第1のアバターとの間に他のアバターまたは所定の仮想オブジェクト等を配置することにより、視覚効果の一例として第1のアバターの視認性を低下させてもよい。コンテンツの盛り上がりの程度を示す属性値は、前述のとおり、リアルタイムに変動する値であってもよく、例えば、視聴者であるユーザのアバターの動きの大きさ、コンテンツを視聴しているユーザの数、及び、コンテンツに対してユーザ端末20Aを介して投稿されたユーザのコメントの数等に基づいて取得されてもよい。
As described above, the predetermined attribute value can be an attribute value related to the state of the virtual space. The attribute value related to the state of the virtual space may be, for example, a value indicating the degree of excitement of the content. In this case, the
図12は、コンテンツ画像における第1のアバターの視認性を低下させる制御の例を示す図である。図12に示されるように、制御実行前のコンテンツ画像C71においては、第1のアバターA1は、他のアバターA3により視界を遮られることはなく、視点位置から視認可能である。このような場合において、画像生成部23は、所定の属性値(例えば、コンテンツの盛り上がりの程度を示すパラメータ)が所定の条件に該当する場合(例えば、盛り上がりの程度が所定の程度以上)に、制御実行後のコンテンツ画像C72に示されるように、他のアバターA3を視点位置と第1のアバターA1との間に配置してもよい。このように第1のアバターA1の視認性を低下させる制御により、コンテンツの盛り上がりに応じて、配信者のアバターに視聴者のアバターが殺到するような状況を演出できる。
FIG. 12 is a diagram showing an example of control for reducing the visibility of the first avatar in the content image. As shown in FIG. 12, in the content image C71 before the execution of control, the first avatar A1 is visible from the viewpoint position without being obstructed by the other avatars A3. In such a case, the
また、他のアバターA3に代えて所定の仮想オブジェクトを視点位置と第1のアバターA1との間に配置することにより、第1のアバターA1の視認性を低下させる制御を実現させてもよい。この場合には、例えば、コンテンツにおける場面転換時に、仮想空間の状態に関する所定の属性値が所定の条件を満たすようにコンテンツのシナリオを予め設定しておくことにより、場面転換時に第1のアバターA1が暗幕により視認できないようにするような状況を演出できる。 Further, by arranging a predetermined virtual object between the viewpoint position and the first avatar A1 instead of the other avatar A3, control for reducing the visibility of the first avatar A1 may be realized. In this case, for example, at the time of scene change in the content, the scenario of the content is set in advance so that the predetermined attribute value related to the state of the virtual space satisfies the predetermined condition, so that the first avatar A1 at the time of scene change Can produce a situation that makes it invisible due to the blackout curtain.
次に、図13を参照して、コンテンツ画像におけるアバターの視認性の制御の他の例を説明する。本実施形態のコンテンツ配信システム1では、コンテンツ画像におけるアバターの一部の視認性を制御できる。かかる制御のために、コンテンツ配信サーバ10の生成部12は、ユーザに関連付けられた属性値が予め設定された所定の条件を満たさない場合に、第1のアバターA1の少なくとも一部分を表示させるためのデータを、コンテンツデータに含めないこととしてもよい。
Next, with reference to FIG. 13, another example of controlling the visibility of the avatar in the content image will be described. In the content distribution system 1 of the present embodiment, the visibility of a part of the avatar in the content image can be controlled. For such control, the
具体的には、例えば、生成部12は、ユーザの課金額が所定の金額未満である場合に、第1のアバターの胴体部分を表示させるためのデータ(画像素材データ)を含まないコンテンツデータを生成する。図13は、第1のアバターA1の胴体部分の画像素材データを含まないコンテンツデータに基づいて生成されたコンテンツ画像の例を示す。図13に示されるように、画像生成部23は、胴体部分Bを含まない第1のアバターA1を表すコンテンツ画像を生成する。
Specifically, for example, the
また、コンテンツ画像におけるアバターの一部の視認性の制御のために、生成部12がアバターの部分を表示させるためのデータを含まないコンテンツデータを生成することに代えて、画像生成部23が、ユーザに関連付けられた属性値が予め設定された所定の条件を満たさない場合に、第1のアバターの少なくとも一部分をコンテンツ画像において表示させないこととしてもよい。この場合においても、画像生成部23は、図13に示されるような、胴体部分Bを含まない第1のアバターA1を表すコンテンツ画像を生成する。
Further, in order to control the visibility of a part of the avatar in the content image, the
このように、コンテンツ画像におけるアバターの一部の視認性の制御により、例えば、衣装を身につけているアバターの、衣装の下のボディの一部を課金額に応じて視認できないようにするといった演出が可能となる。また、このような演出により、コンテンツ画像の視覚効果を高めると共に、ユーザに対しては、属性値が所定の条件を満たすようにすることの動機を生じさせることができる。 In this way, by controlling the visibility of a part of the avatar in the content image, for example, a part of the body under the costume of the avatar wearing the costume cannot be seen according to the charge amount. Is possible. Further, such an effect can enhance the visual effect of the content image and give the user a motivation to make the attribute value satisfy a predetermined condition.
次に、図14を参照して、本実施形態のコンテンツ配信システム1の動作について説明する。図14は、コンテンツ配信システム1の動作の一例を示すフローチャートである。動画像からなるコンテンツの配信においては、図14に示されるフローチャートが繰り返し実行される。なお、図14のフローチャートでは、2台の視聴者のユーザ端末20Aの動作が示されているが、ユーザ端末20Aの数は限定されない。
Next, the operation of the content distribution system 1 of the present embodiment will be described with reference to FIG. FIG. 14 is a flowchart showing an example of the operation of the content distribution system 1. In the distribution of the content composed of moving images, the flowchart shown in FIG. 14 is repeatedly executed. Although the flowchart of FIG. 14 shows the operation of the
ステップS1において、配信者のユーザ端末20Bの送信部21は、コンテンツを構成する仮想空間データ及び配信者を表すアバターのモーションデータをコンテンツ配信サーバ10に送信する。ステップS2において、視聴者のユーザ端末20Aの送信部21は、視聴者を表すアバターのモーションデータをコンテンツ配信サーバ10に送信する。
In step S1, the
ステップS3において、コンテンツ配信サーバ10の取得部11は、仮想空間データ及び各ユーザ(配信者及び視聴者)のアバターのモーションデータを取得する。ステップS4において、各アバターが設定された仮想空間を表すコンテンツデータを生成する。ステップS5において、コンテンツ配信サーバ10の送信部13は、生成されたコンテンツデータを各ユーザ端末20に送信する。
In step S3, the
ステップS6において、ユーザ端末20Bの受信部22は、コンテンツ配信サーバ10により生成及び送信されたコンテンツデータを受信する。また、ステップS7において、ユーザ端末20Aの受信部22は、コンテンツ配信サーバ10により生成及び送信されたコンテンツデータを受信する。
In step S6, the receiving
ステップS8において、ユーザ端末20Bの画像生成部23は、注目対象のアバターの視認性が制御されたコンテンツ画像を、コンテンツデータに基づいて生成する。そして、ステップS9において、ユーザ端末20Bの表示部24は、生成されたコンテンツ画像を、ユーザ端末20Bのディスプレイに表示させる。
In step S8, the
また、ステップS10において、ユーザ端末20Aの画像生成部23は、注目対象のアバターの視認性が制御されたコンテンツ画像を、コンテンツデータに基づいて生成する。そして、ステップS11において、ユーザ端末20Aの表示部24は、生成されたコンテンツ画像を、ユーザ端末20Aのディスプレイに表示させる。
Further, in step S10, the
以上説明した本実施形態のコンテンツ配信システム1、コンテンツ配信方法及びコンテンツ配信プログラム(サーバプログラムP1,端末プログラムP2)によれば、ユーザにとっての注目対象のアバターの視認性が所定の属性値に基づいて制御されるので、属性値の設定により、特定のアバターの視認性を高めるまたは視認性を低下させることが可能となる。そして、特定のアバターの視認性を適切に制御することにより、コンテンツ画像の視覚効果をさらに高めることが可能となる。 According to the content distribution system 1, the content distribution method, and the content distribution program (server program P1, terminal program P2) of the present embodiment described above, the visibility of the avatar of interest to the user is based on a predetermined attribute value. Since it is controlled, it is possible to increase the visibility or decrease the visibility of a specific avatar by setting the attribute value. Then, by appropriately controlling the visibility of the specific avatar, it is possible to further enhance the visual effect of the content image.
本開示の一側面に係るコンテンツ配信方法は、複数のアバターが設定された仮想空間を映すコンテンツを配信するコンテンツ配信システムにおけるコンテンツ配信方法であって、各アバターの位置及び態様のうちの少なくともいずれかを示すモーションデータを取得する取得ステップと、モーションデータに基づいて各アバターが設定された仮想空間を表すコンテンツデータを生成する生成ステップと、コンテンツデータに基づいて、仮想空間内に設定された所定の視点位置から見える映像であるコンテンツ画像を生成する画像生成ステップと、ユーザのユーザ端末にコンテンツ画像を表示させる表示ステップと、を有し、画像生成ステップにおいて、所定の属性値に基づいて、コンテンツ画像における、複数のアバターのうちのユーザにとっての注目対象のアバターである第1のアバターの視認性を制御する。 The content distribution method according to one aspect of the present disclosure is a content distribution method in a content distribution system that distributes content that reflects a virtual space in which a plurality of avatars are set, and is at least one of the positions and modes of each avatar. An acquisition step for acquiring motion data indicating It has an image generation step of generating a content image that is an image that can be seen from the viewpoint position, and a display step of displaying the content image on the user terminal of the user. In the image generation step, the content image is based on a predetermined attribute value. Controls the visibility of the first avatar, which is the avatar of interest to the user among the plurality of avatars.
本開示の一側面に係るコンテンツ配信プログラムは、コンピュータを、複数のアバターが設定された仮想空間を映すコンテンツを配信するコンテンツ配信システムとして機能させるためのコンテンツ配信プログラムであって、コンピュータに、各アバターの位置及び態様のうちの少なくともいずれかを示すモーションデータを取得する取得ステップと、モーションデータに基づいて各アバターが設定された仮想空間を表すコンテンツデータを生成する生成ステップと、コンテンツデータに基づいて、仮想空間内に設定された所定の視点位置から見える映像であるコンテンツ画像を生成する画像生成ステップと、ユーザのユーザ端末にコンテンツ画像を表示させる表示ステップと、を実行させ、画像生成ステップにおいて、所定の属性値に基づいて、コンテンツ画像における、複数のアバターのうちのユーザにとっての注目対象のアバターである第1のアバターの視認性を制御する。 The content distribution program according to one aspect of the present disclosure is a content distribution program for causing a computer to function as a content distribution system that distributes content that reflects a virtual space in which a plurality of avatars are set. Based on the content data, the acquisition step of acquiring the motion data indicating at least one of the positions and modes of, and the generation step of generating the content data representing the virtual space in which each avatar is set based on the motion data. , An image generation step of generating a content image which is an image that can be seen from a predetermined viewpoint position set in a virtual space and a display step of displaying the content image on the user terminal of the user are executed, and in the image generation step, Based on a predetermined attribute value, the visibility of the first avatar, which is the avatar of interest for the user among the plurality of avatars, is controlled in the content image.
このような側面によれば、ユーザにとっての注目対象のアバターの視認性が所定の属性値に基づいて制御されるので、属性値の設定により、特定のアバターの視認性を高めるまたは視認性を低下させることが可能となる。 According to such an aspect, since the visibility of the avatar of interest to the user is controlled based on a predetermined attribute value, the visibility of a specific avatar is enhanced or decreased by setting the attribute value. It becomes possible to make it.
他の側面に係るコンテンツ配信システムでは、画像生成部は、視点位置と第1のアバターとの間に位置する1以上のアバターである第2のアバターにより、視点位置から第1のアバターを視認できない状態である場合において、属性値が所定の条件に該当する場合に、第1のアバターが視認可能となるように、第1のアバター及び第2のアバターのうちの少なくとも一方の仮想空間における位置及び表示態様のうちの少なくとも一方を変更することとしてもよい。 In the content distribution system related to the other aspect, the image generation unit cannot visually recognize the first avatar from the viewpoint position by the second avatar which is one or more avatars located between the viewpoint position and the first avatar. In the state, the position and position in at least one of the first avatar and the second avatar in the virtual space so that the first avatar becomes visible when the attribute value meets a predetermined condition. At least one of the display modes may be changed.
このような側面によれば、視点位置と第1のアバターとの間に位置する第2のアバターに起因して第1のアバターが視認できない状態であるときに、第1及び第2のアバターの位置及び表示態様が変更されるので、注目対象の第1のアバターを視認可能にさせることができる。 According to such aspects, when the first avatar is invisible due to the second avatar located between the viewpoint position and the first avatar, the first and second avatars Since the position and display mode are changed, the first avatar of interest can be made visible.
他の側面に係るコンテンツ配信システムでは、画像生成部は、第1のアバターの少なくとも一部を含む領域を、該第1のアバター以外のオブジェクトを表示させない視野領域として設定することとしてもよい。 In the content distribution system according to the other aspect, the image generation unit may set an area including at least a part of the first avatar as a visual field area in which objects other than the first avatar are not displayed.
このような側面によれば、コンテンツ画像において、第1のアバター以外のオブジェクトが表示されない視野領域がコンテンツ画像に設定されるので、第1のアバターを視認可能にさせることができる。 According to such an aspect, in the content image, a visual field area in which objects other than the first avatar are not displayed is set in the content image, so that the first avatar can be made visible.
他の側面に係るコンテンツ配信システムでは、画像生成部は、第2のアバターの位置を、視点位置と第1のアバターの位置との間以外の位置に変更することとしてもよい。 In the content distribution system according to the other aspect, the image generation unit may change the position of the second avatar to a position other than between the viewpoint position and the position of the first avatar.
このような側面によれば、コンテンツ画像において、第2のアバターの位置が、視点位置と第1のアバターとの間以外の位置に変更されるので、第1のアバターを視認可能にさせることができる。 According to such an aspect, in the content image, the position of the second avatar is changed to a position other than between the viewpoint position and the first avatar, so that the first avatar can be made visible. can.
他の側面に係るコンテンツ配信システムでは、画像生成部は、第1のアバターの位置を、視点位置と第2のアバターの位置との間に変更することとしてもよい。 In the content distribution system according to the other aspect, the image generation unit may change the position of the first avatar between the viewpoint position and the position of the second avatar.
このような側面によれば、コンテンツ画像において、第1のアバターに対する視界を遮っていた第2のアバターと視点位置との間に第1のアバターの位置が変更されるので、第1のアバターを視認可能にさせることができる。 According to such an aspect, in the content image, the position of the first avatar is changed between the second avatar and the viewpoint position that obstructed the view to the first avatar, so that the first avatar is used. It can be made visible.
他の側面に係るコンテンツ配信システムでは、画像生成部は、第2のアバターのサイズを縮小させることとしてもよい。 In the content distribution system according to the other aspect, the image generation unit may reduce the size of the second avatar.
このような側面によれば、コンテンツ画像において、第1のアバターに対する視界を遮っていた第2のアバターのサイズが縮小されるので、第1のアバターを視認可能にさせることができる。 According to such an aspect, in the content image, the size of the second avatar that obstructs the field of view of the first avatar is reduced, so that the first avatar can be made visible.
他の側面に係るコンテンツ配信システムでは、画像生成部は、第2のアバターを消去することとしてもよい。 In the content distribution system according to the other aspect, the image generation unit may delete the second avatar.
このような側面によれば、コンテンツ画像において、第1のアバターに対する視界を遮っていた第2のアバターが消去されるので、第1のアバターを視認可能にさせることができる。 According to such an aspect, in the content image, the second avatar that obstructs the field of view of the first avatar is erased, so that the first avatar can be made visible.
他の側面に係るコンテンツ配信システムは、画像生成部は、第2のアバターを透過表示させることとしてもよい。 In the content distribution system according to the other aspect, the image generation unit may transparently display the second avatar.
このような側面によれば、コンテンツ画像において、第1のアバターに対する視界を遮っていた第2のアバターが透過表示されるので、第1のアバターを視認可能にさせることができる。 According to such an aspect, in the content image, the second avatar that obstructs the field of view of the first avatar is transparently displayed, so that the first avatar can be made visible.
他の側面に係るコンテンツ配信システムは、画像生成部は、属性値が所定の条件に該当する場合に、複数のアバターのうちの第1のアバターとは異なる他のアバター及び所定の仮想オブジェクトのうちの少なくともいずれかを、視点位置と第1のアバターとの間に配置することとしてもよい。 In the content distribution system related to the other aspect, the image generation unit is among other avatars different from the first avatar among the plurality of avatars and the predetermined virtual object when the attribute value corresponds to the predetermined condition. At least one of the above may be placed between the viewpoint position and the first avatar.
このような側面によれば、所定の属性値が所定の条件に該当する場合に、他のアバター及び仮想オブジェクト等が第1のアバターに対する視界を遮るように配置されるので、第1のアバターが視認不可能にされる。これにより、コンテンツ画像の視覚効果をさらに高めることができる。 According to such an aspect, when a predetermined attribute value corresponds to a predetermined condition, another avatar, a virtual object, or the like is arranged so as to block the view of the first avatar, so that the first avatar becomes It is made invisible. As a result, the visual effect of the content image can be further enhanced.
他の側面に係るコンテンツ配信システムでは、属性値は、各ユーザに関連付けられた属性値を含むこととしてもよい。 In the content distribution system according to the other aspect, the attribute value may include the attribute value associated with each user.
このような側面によれば、各ユーザのユーザ端末ごとに、コンテンツ画像における第1のアバターの視認性を制御できる。 According to such an aspect, the visibility of the first avatar in the content image can be controlled for each user terminal of each user.
他の側面に係るコンテンツ配信システムでは、属性値は、仮想空間の状態に関する属性値を含むこととしてもよい。 In the content distribution system according to the other aspect, the attribute value may include the attribute value related to the state of the virtual space.
このような側面によれば、仮想空間の状態に応じて、コンテンツ画像における第1のアバターの視認性を制御できる。 According to such an aspect, the visibility of the first avatar in the content image can be controlled according to the state of the virtual space.
他の側面に係るコンテンツ配信システムでは、生成部は、ユーザに関連付けられた属性値が予め設定された所定の条件を満たさない場合に、第1のアバターの少なくとも一部分を表示させるためのデータを、コンテンツデータに含めないこととしてもよい。 In the content distribution system according to the other aspect, the generation unit displays data for displaying at least a part of the first avatar when the attribute value associated with the user does not satisfy a predetermined predetermined condition. It may not be included in the content data.
このような側面によれば、当該属性値に係るユーザのユーザ端末において、第1のアバターの部分をコンテンツ画像において表示させることができない。これにより、コンテンツ画像の視覚効果を高めると共に、ユーザに対しては、属性値が所定の条件を満たすようにすることの動機を生じさせることができる。 According to such an aspect, the part of the first avatar cannot be displayed in the content image on the user terminal of the user related to the attribute value. As a result, the visual effect of the content image can be enhanced, and the user can be motivated to make the attribute value satisfy a predetermined condition.
他の側面に係るコンテンツ配信システムでは、画像生成部は、ユーザに関連付けられた属性値が予め設定された所定の条件を満たさない場合に、第1のアバターの少なくとも一部分をコンテンツ画像において表示させないこととしてもよい。 In the content distribution system according to the other aspect, the image generation unit does not display at least a part of the first avatar in the content image when the attribute value associated with the user does not satisfy a predetermined condition set in advance. May be.
このような側面によれば、当該属性値に係るユーザのユーザ端末において、第1のアバターの部分がコンテンツ画像において表示されないので、コンテンツ画像の視覚効果を高めることができる。また、ユーザに対しては、属性値が所定の条件を満たすようにすることの動機を生じさせることができる。 According to such an aspect, the visual effect of the content image can be enhanced because the portion of the first avatar is not displayed in the content image on the user terminal of the user related to the attribute value. In addition, the user can be motivated to make the attribute value satisfy a predetermined condition.
他の側面に係るコンテンツ配信システムでは、取得部は、複数のユーザ端末のうちの1つから、注目対象のアバターを指定する指定情報を取得し、画像生成部は、指定情報により指定されるアバターを、第1アバターとして設定することとしてもよい。 In the content distribution system related to the other aspect, the acquisition unit acquires the designated information for designating the avatar to be focused on from one of the plurality of user terminals, and the image generation unit is the avatar designated by the designated information. May be set as the first avatar.
このような側面によれば、ユーザ端末からの指定情報に応じて任意のアバターを注目対象のアバターとすることができる。 According to such an aspect, any avatar can be set as the avatar of interest according to the designated information from the user terminal.
以上、本発明をその実施形態に基づいて詳細に説明した。しかし、本発明は上記実施形態に限定されるものではない。本発明は、その要旨を逸脱しない範囲で様々な変形が可能である。 The present invention has been described in detail above based on the embodiment. However, the present invention is not limited to the above embodiment. The present invention can be modified in various ways without departing from the gist thereof.
コンテンツ配信システムの内部の構成は上記実施形態に限定されず、任意の方針で設計されてよい。例えば、機能部11〜13及び機能部21〜24が構成される装置(サーバ及び端末)は、本実施形態の例に限定されない。本実施形態においてコンテンツ配信サーバ10に構成されている機能部がユーザ端末20に構成されることとしてもよいし、ユーザ端末20に構成されている機能部がコンテンツ配信サーバ10に構成されることとしてもよい。また、機能部11〜13及び機能部21〜24のそれぞれを実現させる主体(すなわちプロセッサ)は、本開示の例に限定されず、機能部ごとに異なってもよい。
The internal configuration of the content distribution system is not limited to the above embodiment, and may be designed according to an arbitrary policy. For example, the devices (servers and terminals) in which the
少なくとも一つのプロセッサにより実行される方法の処理手順は上記実施形態での例に限定されない。例えば、上述したステップ(処理)の一部が省略されてもよいし、別の順序で各ステップが実行されてもよい。また、上述したステップのうちの任意の2以上のステップが組み合わされてもよいし、ステップの一部が修正又は削除されてもよい。あるいは、上記の各ステップに加えて他のステップが実行されてもよい。 The processing procedure of the method executed by at least one processor is not limited to the example in the above embodiment. For example, some of the steps (processes) described above may be omitted, or each step may be executed in a different order. Further, any two or more steps among the above-mentioned steps may be combined, or a part of the steps may be modified or deleted. Alternatively, other steps may be performed in addition to each of the above steps.
1…コンテンツ配信システム、10…コンテンツ配信サーバ、11…取得部、12…生成部、13…送信部、15…仮想空間データ記憶部、20,20A,20B…ユーザ端末、21…送信部、22…受信部、23…画像生成部、24…表示部、P1…サーバプログラム、P2…端末プログラム、A1…第1のアバター、A2…第2のアバター。 1 ... Content distribution system, 10 ... Content distribution server, 11 ... Acquisition unit, 12 ... Generation unit, 13 ... Transmission unit, 15 ... Virtual space data storage unit, 20, 20A, 20B ... User terminal, 21 ... Transmission unit, 22 ... Receiver, 23 ... Image generator, 24 ... Display, P1 ... Server program, P2 ... Terminal program, A1 ... First avatar, A2 ... Second avatar.
Claims (12)
各アバターの位置及び態様のうちの少なくともいずれかを示すモーションデータを取得する取得部と、
前記モーションデータに基づいて各アバターが設定された前記仮想空間を表すコンテンツデータを生成する生成部と、
前記コンテンツデータに基づいて、前記仮想空間内に設定された所定の視点位置から見える映像であるコンテンツ画像を生成する画像生成部と、
ユーザのユーザ端末に前記コンテンツ画像を表示させる表示部と、を備え、
前記画像生成部は、所定の属性値に基づいて、前記コンテンツ画像における、前記複数のアバターのうちの前記ユーザにとっての注目対象のアバターである第1のアバターの視認性を制御する、
コンテンツ配信システム。 It is a content distribution system that distributes content that reflects a virtual space with multiple avatars set.
An acquisition unit that acquires motion data indicating at least one of the positions and modes of each avatar, and
A generation unit that generates content data representing the virtual space in which each avatar is set based on the motion data, and a generation unit.
An image generation unit that generates a content image that is an image that can be seen from a predetermined viewpoint position set in the virtual space based on the content data.
A display unit for displaying the content image on the user terminal of the user is provided.
The image generation unit controls the visibility of the first avatar, which is the avatar of interest to the user among the plurality of avatars, in the content image based on a predetermined attribute value.
Content distribution system.
請求項1に記載のコンテンツ配信システム。 When the image generation unit is in a state where the first avatar cannot be visually recognized from the viewpoint position by the second avatar which is one or more avatars located between the viewpoint position and the first avatar. , The position and display in at least one of the first avatar and the second avatar so that the first avatar becomes visible when the attribute value corresponds to a predetermined condition. Change at least one of the aspects,
The content distribution system according to claim 1.
請求項2に記載のコンテンツ配信システム。 The image generation unit sets an area including at least a part of the first avatar as a visual field area in which objects other than the first avatar are not displayed.
The content distribution system according to claim 2.
前記第2のアバターの位置を、前記視点位置と前記第1のアバターの位置との間以外の位置に変更し、または、
前記第1のアバターの位置を、前記視点位置と前記第2のアバターの位置との間に変更する、
請求項2に記載のコンテンツ配信システム。 The image generation unit
The position of the second avatar is changed to a position other than between the viewpoint position and the position of the first avatar, or
The position of the first avatar is changed between the viewpoint position and the position of the second avatar.
The content distribution system according to claim 2.
前記第2のアバターのサイズを縮小させ、
前記第2のアバターを消去し、または、
前記第2のアバターを透過表示させる、
請求項2に記載のコンテンツ配信システム。 The image generation unit
Reduce the size of the second avatar
Erase the second avatar or
The second avatar is transparently displayed.
The content distribution system according to claim 2.
請求項1〜5のいずれか一項に記載のコンテンツ配信システム。 When the attribute value corresponds to a predetermined condition, the image generation unit selects at least one of the other avatars different from the first avatar and the predetermined virtual object among the plurality of avatars. Placed between the viewpoint position and the first avatar,
The content distribution system according to any one of claims 1 to 5.
請求項1〜6のいずれか一項に記載のコンテンツ配信システム。 The attribute value includes at least one of an attribute value associated with each user and an attribute value related to the state of the virtual space.
The content distribution system according to any one of claims 1 to 6.
請求項1〜7のいずれか一項に記載のコンテンツ配信システム。 The generation unit does not include data for displaying at least a part of the first avatar in the content data when the attribute value associated with the user does not satisfy a predetermined condition set in advance.
The content distribution system according to any one of claims 1 to 7.
請求項1〜8のいずれか一項に記載のコンテンツ配信システム。 The image generation unit does not display at least a part of the first avatar in the content image when the attribute value associated with the user does not satisfy a predetermined condition set in advance.
The content distribution system according to any one of claims 1 to 8.
前記画像生成部は、前記指定情報により指定されるアバターを、前記第1のアバターとして設定する、
請求項1〜9のいずれか一項に記載のコンテンツ配信システム。 The acquisition unit acquires designated information for designating the avatar to be focused on from one of the plurality of user terminals.
The image generation unit sets the avatar specified by the designated information as the first avatar.
The content distribution system according to any one of claims 1 to 9.
各アバターの位置及び態様のうちの少なくともいずれかを示すモーションデータを取得する取得ステップと、
前記モーションデータに基づいて各アバターが設定された前記仮想空間を表すコンテンツデータを生成する生成ステップと、
前記コンテンツデータに基づいて、前記仮想空間内に設定された所定の視点位置から見える映像であるコンテンツ画像を生成する画像生成ステップと、
ユーザのユーザ端末に前記コンテンツ画像を表示させる表示ステップと、を有し、
前記画像生成ステップにおいて、所定の属性値に基づいて、前記コンテンツ画像における、前記複数のアバターのうちの前記ユーザにとっての注目対象のアバターである第1のアバターの視認性を制御する、
コンテンツ配信方法。 It is a content distribution method in a content distribution system that distributes content that reflects a virtual space in which multiple avatars are set.
An acquisition step to acquire motion data indicating at least one of the positions and modes of each avatar, and
A generation step of generating content data representing the virtual space in which each avatar is set based on the motion data, and a generation step.
An image generation step of generating a content image that is an image that can be seen from a predetermined viewpoint position set in the virtual space based on the content data.
It has a display step of displaying the content image on the user terminal of the user.
In the image generation step, the visibility of the first avatar, which is the avatar of interest to the user among the plurality of avatars, in the content image is controlled based on a predetermined attribute value.
Content delivery method.
前記コンピュータに、
各アバターの位置及び態様のうちの少なくともいずれかを示すモーションデータを取得する取得ステップと、
前記モーションデータに基づいて各アバターが設定された前記仮想空間を表すコンテンツデータを生成する生成ステップと、
前記コンテンツデータに基づいて、前記仮想空間内に設定された所定の視点位置から見える映像であるコンテンツ画像を生成する画像生成ステップと、
ユーザのユーザ端末に前記コンテンツ画像を表示させる表示ステップと、を実行させ、
前記画像生成ステップにおいて、所定の属性値に基づいて、前記コンテンツ画像における、前記複数のアバターのうちの前記ユーザにとっての注目対象のアバターである第1のアバターの視認性を制御する、
コンテンツ配信プログラム。 A content distribution program that allows a computer to function as a content distribution system that distributes content that reflects a virtual space in which multiple avatars are set.
On the computer
An acquisition step to acquire motion data indicating at least one of the positions and modes of each avatar, and
A generation step of generating content data representing the virtual space in which each avatar is set based on the motion data, and a generation step.
An image generation step of generating a content image that is an image that can be seen from a predetermined viewpoint position set in the virtual space based on the content data.
A display step of displaying the content image on the user terminal of the user is executed.
In the image generation step, the visibility of the first avatar, which is the avatar of interest to the user among the plurality of avatars, in the content image is controlled based on a predetermined attribute value.
Content distribution program.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020009240A JP6794562B1 (en) | 2020-01-23 | 2020-01-23 | Content distribution system, content distribution method and content distribution program |
JP2020188002A JP2021117979A (en) | 2020-01-23 | 2020-11-11 | Content distribution system, content distribution method and content distribution program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020009240A JP6794562B1 (en) | 2020-01-23 | 2020-01-23 | Content distribution system, content distribution method and content distribution program |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020188002A Division JP2021117979A (en) | 2020-01-23 | 2020-11-11 | Content distribution system, content distribution method and content distribution program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6794562B1 JP6794562B1 (en) | 2020-12-02 |
JP2021117593A true JP2021117593A (en) | 2021-08-10 |
Family
ID=73544676
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020009240A Active JP6794562B1 (en) | 2020-01-23 | 2020-01-23 | Content distribution system, content distribution method and content distribution program |
JP2020188002A Pending JP2021117979A (en) | 2020-01-23 | 2020-11-11 | Content distribution system, content distribution method and content distribution program |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020188002A Pending JP2021117979A (en) | 2020-01-23 | 2020-11-11 | Content distribution system, content distribution method and content distribution program |
Country Status (1)
Country | Link |
---|---|
JP (2) | JP6794562B1 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008250813A (en) * | 2007-03-30 | 2008-10-16 | Konami Digital Entertainment:Kk | Image creating device, image processing method, and program |
JP2018106297A (en) * | 2016-12-22 | 2018-07-05 | キヤノンマーケティングジャパン株式会社 | Mixed reality presentation system, information processing apparatus and control method thereof, and program |
JP2019192203A (en) * | 2018-11-28 | 2019-10-31 | 株式会社コロプラ | Program, information processing device, and method |
-
2020
- 2020-01-23 JP JP2020009240A patent/JP6794562B1/en active Active
- 2020-11-11 JP JP2020188002A patent/JP2021117979A/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008250813A (en) * | 2007-03-30 | 2008-10-16 | Konami Digital Entertainment:Kk | Image creating device, image processing method, and program |
JP2018106297A (en) * | 2016-12-22 | 2018-07-05 | キヤノンマーケティングジャパン株式会社 | Mixed reality presentation system, information processing apparatus and control method thereof, and program |
JP2019192203A (en) * | 2018-11-28 | 2019-10-31 | 株式会社コロプラ | Program, information processing device, and method |
Also Published As
Publication number | Publication date |
---|---|
JP6794562B1 (en) | 2020-12-02 |
JP2021117979A (en) | 2021-08-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9485493B2 (en) | Method and system for displaying multi-viewpoint images and non-transitory computer readable storage medium thereof | |
CN111970532B (en) | Video playing method, device and equipment | |
US20140232819A1 (en) | Systems and methods for generating and sharing panoramic moments | |
JPWO2016009865A1 (en) | Information processing apparatus and method, display control apparatus and method, playback apparatus and method, program, and information processing system | |
WO2018000609A1 (en) | Method for sharing 3d image in virtual reality system, and electronic device | |
JP6683864B1 (en) | Content control system, content control method, and content control program | |
US11956504B2 (en) | Content distribution server, content distribution system, content distribution method, and program | |
JP2021002288A (en) | Image processor, content processing system, and image processing method | |
WO2021106803A1 (en) | Class system, viewing terminal, information processing method, and program | |
WO2018000608A1 (en) | Method for sharing panoramic image in virtual reality system, and electronic device | |
CN114257875B (en) | Data transmission method, device, electronic equipment and storage medium | |
WO2021065928A1 (en) | Content distribution system, content distribution method, and content distribution program | |
CN110710203B (en) | Methods, systems, and media for generating and rendering immersive video content | |
CN114615513A (en) | Video data generation method and device, electronic equipment and storage medium | |
WO2020194973A1 (en) | Content distribution system, content distribution method, and content distribution program | |
JP6609078B1 (en) | Content distribution system, content distribution method, and content distribution program | |
JP7244450B2 (en) | Computer program, server device, terminal device, and method | |
JP6794562B1 (en) | Content distribution system, content distribution method and content distribution program | |
JP7291106B2 (en) | Content delivery system, content delivery method, and content delivery program | |
US10868889B2 (en) | System for providing game play video by using cloud computer | |
JP7344084B2 (en) | Content distribution system, content distribution method, and content distribution program | |
CN114846808A (en) | Content distribution system, content distribution method, and content distribution program | |
JP2020167654A (en) | Content distribution system, content distribution method, and content distribution program | |
CN118037557A (en) | Image data processing method and related equipment | |
JP2022184724A (en) | Content provision system, content provision method, and content provision program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200123 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20200123 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200525 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20200601 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200609 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200806 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201027 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201111 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6794562 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |