JP6794562B1 - コンテンツ配信システム、コンテンツ配信方法及びコンテンツ配信プログラム - Google Patents

コンテンツ配信システム、コンテンツ配信方法及びコンテンツ配信プログラム Download PDF

Info

Publication number
JP6794562B1
JP6794562B1 JP2020009240A JP2020009240A JP6794562B1 JP 6794562 B1 JP6794562 B1 JP 6794562B1 JP 2020009240 A JP2020009240 A JP 2020009240A JP 2020009240 A JP2020009240 A JP 2020009240A JP 6794562 B1 JP6794562 B1 JP 6794562B1
Authority
JP
Japan
Prior art keywords
avatar
content
image
virtual space
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020009240A
Other languages
English (en)
Other versions
JP2021117593A (ja
Inventor
寛明 齊藤
寛明 齊藤
真宇 角
真宇 角
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dwango Co Ltd
Original Assignee
Dwango Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dwango Co Ltd filed Critical Dwango Co Ltd
Priority to JP2020009240A priority Critical patent/JP6794562B1/ja
Priority to JP2020188002A priority patent/JP2021117979A/ja
Application granted granted Critical
Publication of JP6794562B1 publication Critical patent/JP6794562B1/ja
Publication of JP2021117593A publication Critical patent/JP2021117593A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】仮想空間においてユーザにとっての注目対象である特定のアバターの視認性を適切に制御することにより、コンテンツ画像の視覚効果をさらに高める。【解決手段】コンテンツ配信システム1は、アバターが設定された仮想空間を映すコンテンツを配信するシステムであって、各アバターのモーションデータを取得する取得部と、モーションデータに基づいて各アバターが設定された仮想空間を表すコンテンツデータを生成する生成部と、コンテンツデータに基づいて、仮想空間内に設定された所定の視点位置から見える映像であるコンテンツ画像を生成する画像生成部23と、ユーザ端末20にコンテンツ画像を表示させる表示部24とを備え、画像生成部23は、所定の属性値に基づいて、コンテンツ画像における、複数のアバターのうちのユーザにとっての注目対象のアバターである第1のアバターの視認性を制御する。【選択図】図4

Description

本開示の一側面は、コンテンツ配信システム、コンテンツ配信方法及びコンテンツ配信プログラムに関する。
アバターが設定された仮想空間を映すコンテンツを配信することが行われている。仮想空間は、仮想の3次元空間であって、現実空間を映した実写画像に基づいて構成されることもできる。例えば、特許文献1には、複合現実画像の生成に際して、複数の体験者を示すアバター及びCGモデルが仮想空間に配置され、ある体験者のアバターとCGモデルとの間に他の体験者である共同体験者のアバターが存在する場合に、共同体験者のアバターを消去及び透過表示させる等の制御を行う技術が記載されている。
特開2018−106297号公報
仮想空間においてユーザにとっての注目対象である特定のアバターの視認性を適切に制御することにより、コンテンツ画像の視覚効果をさらに高めることが望まれている。
本開示の一側面に係るコンテンツ配信システムは、複数のアバターが設定された仮想空間を映すコンテンツを配信するコンテンツ配信システムであって、各アバターの位置及び態様のうちの少なくともいずれかを示すモーションデータを取得する取得部と、モーションデータに基づいて各アバターが設定された仮想空間を表すコンテンツデータを生成する生成部と、コンテンツデータに基づいて、仮想空間内に設定された所定の視点位置から見える映像であるコンテンツ画像を生成する画像生成部と、ユーザのユーザ端末にコンテンツ画像を表示させる表示部と、を備え、画像生成部は、所定の属性値に基づいて、コンテンツ画像における、複数のアバターのうちのユーザにとっての注目対象のアバターである第1のアバターの視認性を制御する。
このような側面によれば、ユーザにとっての注目対象のアバターの視認性が所定の属性値に基づいて制御されるので、属性値の設定により、特定のアバターの視認性を高めるまたは視認性を低下させることが可能となる。
本開示の一側面によれば、仮想空間においてユーザにとっての注目対象である特定のアバターの視認性を適切に制御することにより、コンテンツ画像の視覚効果をさらに高めることが可能となる。
実施形態に係るコンテンツ配信システムの装置構成の一例を示す図である。 実施形態に係るコンテンツ配信システムに関するハードウェア構成の一例を示す図である。 実施形態に係るコンテンツ配信サーバの機能構成の一例を示すブロック図である。 実施形態に係るユーザ端末の機能構成の一例を示す図である。 ユーザ属性情報の例を示す図である。 コンテンツ画像におけるアバターの視認性の制御の例を示す図である。 コンテンツ画像におけるアバターの視認性の制御の例を示す図である。 コンテンツ画像におけるアバターの視認性の制御の例を示す図である。 コンテンツ画像におけるアバターの視認性の制御の例を示す図である。 コンテンツ画像におけるアバターの視認性の制御の例を示す図である。 コンテンツ画像におけるアバターの視認性の制御の例を示す図である。 コンテンツ画像におけるアバターの視認性の制御の例を示す図である。 コンテンツ画像におけるアバターの一部の視認性の制御の例を示す図である。 実施形態に係るコンテンツ配信システムの動作の一例を示すフローチャートである。
以下、添付図面を参照しながら本発明の実施形態を詳細に説明する。なお、図面の説明において同一又は同等の要素には同一の符号を付し、重複する説明を省略する。
図1は、実施形態に係るコンテンツ配信システム1の装置構成の一例を示す図である。図1に示すように、本実施形態のコンテンツ配信システム1は、コンテンツ配信サーバ10及び複数のユーザ端末20を含む。コンテンツ配信サーバ10及び複数のユーザ端末20は、ネットワークNを介して互いに通信可能である。ユーザ端末20は、コンテンツを配信する配信者のユーザ端末20Bと、コンテンツを受信及び視聴する視聴者のユーザ端末20Aとを含み得る。
実施形態に係るコンテンツ配信システム1は、複数のアバターが設定された仮想空間を映すコンテンツをユーザのユーザ端末20に配信するコンピュータシステムである。
コンテンツとは、コンピュータまたはコンピュータシステムによって提供され、人が認識可能な情報のことをいう。コンテンツを示す電子データのことをコンテンツデータという。コンテンツの表現形式は限定されず、例えば、コンテンツは画像(例えば、写真、映像など)、文書、音声、音楽、またはこれらの中の任意の2以上の要素の組合せによって表現されてもよい。コンテンツの目的および利用場面は限定されず、例えば、コンテンツはエンターテインメント、ニュース、教育、医療、ゲーム、チャット、商取引、講演、セミナー、研修などの様々な目的で利用され得る。配信とは、通信ネットワークまたは放送ネットワークを経由して情報をユーザに送信する処理のことをいう。本開示では、配信は放送を含み得る概念である。
コンテンツ配信システム1はコンテンツデータをユーザ端末に送信することで、コンテンツをユーザに提供する。一例では、そのコンテンツは配信者から提供される。配信者とは視聴者であるユーザに情報を伝えようとする人であり、すなわち、コンテンツの発信者である。
本実施形態では、コンテンツは少なくとも画像を用いて表現される。コンテンツは、動画でもよいし、静止画でもよい。静止画により構成されるコンテンツは、ウェブサイトのホームページを構成し、スクロールバーによりスクロールさせることができるものであってもよい。また、静止画により構成されるコンテンツは、複数の静止画を含みスライドショーにより表現されるものであってもよい。
コンテンツ配信システム1は様々な目的で用いられてよい。例えば、コンテンツ配信システム1は、ある一人のユーザが他のユーザに向けてライブコンテンツを配信するサービスのために用いられてもよい。このサービスはインターネット生放送ともいわれる。すなわち、コンテンツ配信システム1は配信者から提供されるコンテンツ映像をリアルタイムに視聴者に配信するために用いられてもよい。したがって、コンテンツ画像は、リアルタイムに配信されるライブコンテンツの画像であり得る。あるいは、コンテンツ配信システム1は、過去に撮影されたコンテンツ映像を視聴者に配信するために用いられてもよく、例えば、リアルタイム配信後の所与の期間においてコンテンツを視聴することが可能なタイムシフトのために用いられてもよい。コンテンツ配信システム1は静止画を配信するために用いられてもよい。
仮想空間は、コンピュータ上に表示される画像によって表現される仮想の2次元または3次元の空間である。仮想空間は、配信者により定義及び提供されてもよいし、サーバが仮想的に生成してもよいし、現実空間画像に基づいて生成してもよい。定義及び生成された仮想空間には、位置を示すための3次元の座標系が定義されてもよい。コンテンツ画像は、仮想空間内に視点位置として設定された仮想カメラから見える風景を示す画像である。仮想カメラは、例えば、コンテンツ画像を見るユーザの視線に対応するように仮想空間内に設定される。本実施形態では、仮想カメラは、ユーザ端末20のユーザに対応するアバターの視点位置に設定されてもよい。
仮想空間には、複数のアバターが設定され得る。コンテンツ画像には、仮想空間内において設定及び表現されるユーザの分身であるアバターが表現され得る。アバターは仮想オブジェクトの一例である。仮想空間に設定されるアバターは限定されず、例えば、アバターは、配信者に対応してもよいし、配信者と共にコンテンツに参加すると共に該コンテンツを視聴するユーザである視聴者に対応してもよい。
アバターは、画像素材を用いて、2次元または3次元のコンピュータグラフィック(CG)によって表現される。アバターの表現方法は限定されない。例えば、アバターはアニメーション素材を用いて表現されてもよいし、実写画像に基づいて本物に近いように表現されてもよい。
コンテンツ配信サーバ10は、コンテンツデータを少なくとも一つのユーザ端末20に配信するコンピュータである。図1では4台のユーザ端末20を示すが、ユーザ端末20の個数は限定されない。通信ネットワークNの構成は限定されない。例えば、通信ネットワークNはインターネットを含んで構成されてもよいし、イントラネットを含んで構成されてもよい。
ユーザ端末20は、例えば、高機能携帯電話機(スマートフォン)、タブレット端末、ウェアラブル端末(例えば、ヘッドマウントディスプレイ(HMD)、スマートグラスなど)、ラップトップ型パーソナルコンピュータ、携帯電話機などの携帯端末でもよい。あるいは、ユーザ端末20はデスクトップ型パーソナルコンピュータなどの据置型端末でもよい。
図2は、コンテンツ配信システム1に関するハードウェア構成の一例を示す図である。図2は、コンテンツ配信サーバ10として機能するサーバコンピュータ100と、ユーザ端末20として機能する端末コンピュータ200とを示す。
一例として、サーバコンピュータ100はハードウェア構成要素として、プロセッサ101、主記憶部102、補助記憶部103、および通信部104を備える。
プロセッサ101は、オペレーティングシステムおよびアプリケーションプログラムを実行する演算装置である。プロセッサの例としてCPU(Central Processing Unit)およびGPU(Graphics Processing Unit)が挙げられるが、プロセッサ101の種類はこれらに限定されない。例えば、プロセッサ101はセンサおよび専用回路の組合せでもよい。専用回路はFPGA(Field−Programmable Gate Array)のようなプログラム可能な回路でもよいし、他の種類の回路でもよい。
主記憶部102は、コンテンツ配信サーバ10を実現するためのプログラム、プロセッサ101から出力された演算結果などを記憶する装置である。主記憶部102は例えばROM(Read Only Memory)およびRAM(Random Access Memory)のうちの少なくとも一つにより構成される。
補助記憶部103は、一般に主記憶部102よりも大量のデータを記憶することが可能な装置である。補助記憶部103は例えばハードディスク、フラッシュメモリなどの不揮発性記憶媒体によって構成される。補助記憶部103は、サーバコンピュータ100をコンテンツ配信サーバ10として機能させるためのサーバプログラムP1と各種のデータとを記憶する。本実施形態では、コンテンツ配信プログラムはサーバプログラムP1として実装される。
通信部104は、通信ネットワークNを介して他のコンピュータとの間でデータ通信を実行する装置である。通信部104は例えばネットワークカードまたは無線通信モジュールにより構成される。
サーバの各機能要素は、プロセッサ101または主記憶部102の上に、対応するサーバプログラムP1を読み込ませてプロセッサ101にそのプログラムを実行させることで実現される。サーバプログラムP1は、対応するサーバの各機能要素を実現するためのコードを含む。プロセッサ101はサーバプログラムP1に従って通信部104を動作させ、主記憶部102または補助記憶部103におけるデータの読み出しおよび書き込みを実行する。このような処理により、対応するサーバの各機能要素が実現される。
個々のサーバは一つまたは複数のコンピュータにより構成され得る。一つのサーバのために複数のコンピュータが用いられる場合には、通信ネットワークを介してこれらのコンピュータが互いに接続されることで、論理的に一つのサーバが構成される。
一例として、端末コンピュータ200はハードウェア構成要素として、プロセッサ201、主記憶部202、補助記憶部203及び通信部204並びに入力インタフェース205、出力インタフェース206及び撮像部207を備える。
プロセッサ201は、オペレーティングシステムおよびアプリケーションプログラムを実行する演算装置である。プロセッサ201は例えばCPUまたはGPUであり得るが、プロセッサ201の種類はこれらに限定されない。
主記憶部202は、ユーザ端末20を実現させるためのプログラム、プロセッサ201から出力された演算結果などを記憶する装置である。主記憶部202は例えばROMおよびRAMのうちの少なくとも一つにより構成される。
補助記憶部203は、一般に主記憶部202よりも大量のデータを記憶することが可能な装置である。補助記憶部203は例えばハードディスク、フラッシュメモリなどの不揮発性記憶媒体によって構成される。補助記憶部203は、端末コンピュータ200をユーザ端末20として機能させるための端末プログラムP2と各種のデータとを記憶する。例えば、補助記憶部203はアバターなどの仮想オブジェクトと仮想空間とのうちの少なくとも一つに関するデータを記憶してもよい。
通信部204は、通信ネットワークNを介して他のコンピュータとの間でデータ通信を実行する装置である。通信部204は例えばネットワークカードまたは無線通信モジュールにより構成される。
入力インタフェース205は、ユーザの操作または動作に基づいてデータを受け付ける装置である。例えば、入力インタフェース205は、キーボード、操作ボタン、ポインティングデバイス、マイクロフォン、センサ、およびカメラのうちの少なくとも一つによって構成される。キーボードおよび操作ボタンはタッチパネル上に表示されてもよい。入力インタフェース205の種類が限定されないことに対応して、入力されるデータは限定されない。例えば、入力インタフェース205はキーボード、操作ボタン、またはポインティングデバイスによって入力または選択されたデータを受け付けてもよい。あるいは、入力インタフェース205は、マイクロフォンにより入力された音声データを受け付けてもよい。あるいは、入力インタフェース205はカメラによって撮影された画像データ(例えば、映像データまたは静止画データ)を受け付けてもよい。
出力インタフェース206は、端末コンピュータ200で処理されたデータを出力する装置である。例えば、出力インタフェース206はモニタ、タッチパネル、HMDおよびスピーカのうちの少なくとも一つによって構成される。モニタ、タッチパネル、HMDなどの表示装置は、処理されたデータを画面上に表示する。スピーカは、処理された音声データで示される音声を出力する。
撮像部207は、現実世界を映した画像を撮影する装置であり、具体的にはカメラである。撮像部207は動画像(映像)を撮影してもよいし静止画(写真)を撮影してもよい。動画像を撮影する場合には、撮像部207は映像信号を所与のフレームレートに基づいて処理することで、時系列に並ぶ一連のフレーム画像を動画像として取得する。撮像部207は入力インタフェース205としても機能し得る。
ユーザ端末20の各機能要素は、プロセッサ201または主記憶部202の上に端末プログラムP2を読み込ませてそのプログラムを実行させることで実現される。端末プログラムP2は、ユーザ端末20の各機能要素を実現するためのコードを含む。プロセッサ201は端末プログラムP2に従って通信部204、入力インタフェース205または出力インタフェース206を動作させ、主記憶部202または補助記憶部203におけるデータの読み出しおよび書き込みを行う。この処理によりユーザ端末20の各機能要素が実現される。
サーバプログラムP1および端末プログラムP2の少なくとも一つは、CD−ROM、DVD−ROM、半導体メモリなどの有形の記録媒体に固定的に記録された上で提供されてもよい。あるいは、これらのプログラムの少なくとも一つは、搬送波に重畳されたデータ信号として通信ネットワークを介して提供されてもよい。これらのプログラムは別々に提供されてもよいし、一緒に提供されてもよい。
図3は、コンテンツ配信サーバ10の機能構成の一例を示すブロック図である。図3に示されるように、コンテンツ配信サーバ10は、取得部11、生成部12及び送信部13を備える。これらの各機能部11〜13は、プロセッサ101にサーバプログラムP1が読み込まれて、そのプログラムが実行されることにより実現される。各機能部の説明は後述する。
コンテンツ配信サーバ10の各機能部11〜13は、仮想空間データ記憶部15にアクセス可能に構成されている。仮想空間データ記憶部15は、仮想空間データを記憶させるための記憶手段であって、例えば主記憶部102または補助記憶部103に構成される。なお、本実施形態では、仮想空間データ記憶部15は、コンテンツ配信サーバ10に構成されるが、コンテンツ配信サーバ10からアクセス可能な他の装置に構成されてもよい。
仮想空間データは、前述のとおり、コンピュータ上に表示される画像によって表現される仮想の2次元または3次元の空間を表すためのデータである。仮想空間データは、配信者により定義及び提供されてもよいし、コンテンツ配信サーバ10により仮想的に生成されてもよいし、現実空間画像に基づいて生成されてもよい。
図4は、ユーザ端末20の機能構成の一例を示すブロック図である。ユーザ端末20は、コンテンツ配信サーバ10から配信されたコンテンツを受信及び表示する機能を有する。図4に示されるように、ユーザ端末20は、送信部21、受信部22、画像生成部23及び表示部24を備える。これらの各機能部21〜24は、プロセッサ201に端末プログラムP2が読み込まれて、そのプログラムが実行されることにより実現される。各機能部の説明は後述する。
図5は、ユーザ属性情報の一例を示す図である。ユーザ属性情報は、例えば、コンテンツ配信サーバ10の主記憶部102または補助記憶部103に記憶されている。図5に示されるように、ユーザ属性情報は、ユーザを識別するユーザIDごとに、課金情報等を関連付けて記憶している。課金情報は、ユーザの属性の一例であって、課金額を属性値の一例として含む。本実施形態では、コンテンツ配信サーバ10は、配信者により提供されるコンテンツに対する各ユーザの課金額を、ユーザの属性として記憶している。
再び図3を参照して、コンテンツ配信サーバ10の各機能部について説明する。取得部11は、仮想空間に設定されるアバターの位置及び態様のうちの少なくともいずれかを示すモーションデータを取得する。具体的には、取得部11は、ユーザ端末20のそれぞれのユーザに対応するアバターのモーションデータを、ユーザ端末20の各々から取得する。
また、コンテンツの提供者である配信者は、コンテンツを構成する仮想空間を定義する仮想空間データを、ユーザ端末20Bからコンテンツ配信サーバ10に提供してもよい。この場合には、取得部11は、配信者のユーザ端末20Bから、仮想空間データを受信及び取得する。取得部11は、取得した仮想空間データを仮想空間データ記憶部15に記憶させる。
生成部12は、モーションデータに基づいて各アバターが設定された仮想空間を表すコンテンツデータを生成する。具体的には、生成部12は、仮想空間データにより定義される仮想空間に、モーションデータにより位置及び態様が定義されるアバターを設定することにより、コンテンツデータを生成する。
送信部13は、生成部12により生成されたコンテンツデータをユーザ端末20に送信する。また、送信部13は、コンテンツ及びユーザに関する属性値を、ユーザ端末20に送信してもよい。送信部13は、例えば、図5に示されるようなユーザの課金額を示す課金情報を、ユーザの属性値として、当該ユーザのユーザ端末20Aに送信してもよい。
また、動画により構成されるコンテンツの時系列に沿って仮想空間の状態を示す属性値が関連付けられている場合には、送信部13は、各時刻において対応する所定の属性値を、各ユーザ端末20Aに送信してもよい。仮想空間の状態を示す属性値は、種々の態様により取得される。例えば、仮想空間の状態を示す属性値は、コンテンツのストーリに沿って、予め各時刻に関連付けられていてもよい。
また、仮想空間の状態を示す属性値は、リアルタイムに変動する値であってもよい。リアルタイムに変動する属性値は、例えば、コンテンツの盛り上がりの程度を示す値であってもよい。このようなリアルタイムに変動する属性値は、例えば、視聴者であるユーザのアバターの動きの大きさ、コンテンツを視聴しているユーザの数、及び、コンテンツに対してユーザ端末20Aを介して投稿されたユーザのコメントの数等に基づいて取得されてもよい。
図4を参照して、ユーザ端末20の各機能部について説明する。送信部21は、当該ユーザ端末20のユーザの分身であるアバターのモーションデータをコンテンツ配信サーバ10に送信する。
また、配信者のユーザ端末20Bにおいては、送信部21は、仮想空間を定義する仮想空間データをコンテンツ配信サーバ10に送信してもよい。また、ユーザ端末20Bの送信部21は、コンテンツとしての配信者のアバターのモーションデータをコンテンツ配信サーバ10に送信する。
また、視聴者のユーザ端末20Aにおいては、送信部21は、コンテンツを視聴する視聴者としてのアバターのモーションデータをコンテンツ配信サーバ10に送信する。
受信部22は、コンテンツ配信サーバ10により生成及び送信されたコンテンツデータを受信する。コンテンツデータは、各アバターが設定された仮想空間を表すデータである。
画像生成部23は、コンテンツデータに基づいて、仮想空間内に設定された所定の視点位置から見える映像であるコンテンツ画像を生成する。即ち、コンテンツ画像は、仮想空間内に視点位置として設定された仮想カメラから見える風景を示す画像である。仮想カメラは、例えば、コンテンツ画像を見るユーザの視線に対応するように仮想空間内に設定される。本実施形態では、仮想カメラは、ユーザ端末20のユーザに対応するアバターの視点位置に設定されてもよい。また、仮想カメラは、視聴者のアバターの視点位置に限られず、仮想空間内に設定された所定位置に設定されてもよい。
表示部24は、画像生成部23により生成されたコンテンツ画像をユーザ端末20に表示させる。具体的には、表示部24は、出力インタフェース206の一例であるディスプレイ(表示装置)にコンテンツ画像を表示させる。
図6〜図12を参照して、コンテンツ画像におけるアバターの視認性の制御について説明する。画像生成部23は、所定の属性値に基づいて、コンテンツ画像における、複数のアバターのうちのユーザにとっての注目対象のアバターである第1のアバターの視認性を制御する。
所定の属性値は、前述のとおり、各ユーザに関連付けられた属性値及び仮想空間の状態を示す属性値等であることができる。注目対象のアバターである第1のアバターは、例えば、視聴者であるユーザにおいては、配信者のアバターであってもよい。
また、第1のアバターは、配信者及び視聴者を含む複数のユーザのうちの一のユーザにより指定されたアバターであってもよい。例えば、配信者により指定されたアバターが第1のアバターとされてもよい。具体的には、コンテンツ配信サーバ10の取得部11は、配信者のユーザ端末20Bから、注目対象とするアバターを指定する指定情報を取得する。コンテンツ配信サーバ10の送信部13は、指定情報を各ユーザ端末20に送信する。ユーザ端末20Aの受信部22は、指定情報を受信する。そして、ユーザ端末20の画像生成部23は、指定情報により指定されるアバターを第1のアバターとして設定する。なお、注目対象の第1のアバターの指定は、配信者に限られず他のユーザ(視聴者)により行われてもよい。この場合には、取得部11は、他のユーザのユーザ端末20Aから指定情報を取得する。
このように、指定情報に基づいて注目対象のアバターを設定可能とすることにより、例えば、仮想空間内において特徴的な動作をしている特定の視聴者のアバターを目立たせるような状況を演出できる。即ち、コンテンツの配信者が、特定の視聴者のアバターを指定する指定情報をユーザ端末20Bからコンテンツ配信サーバ10に送信することにより、他の視聴者及び配信者のユーザ端末20において表示されるコンテンツ画像における特定の視聴者のアバターの視認性を高めることが可能となる。
注目対象のアバターである第1のアバターの視認性の制御に関して、画像生成部23は、視点位置と第1のアバターとの間に位置する1以上のアバターである第2のアバターにより、視点位置から第1のアバターを視認できない状態である場合において、所定の属性値が所定の条件に該当する場合に、第1のアバターが視認可能となるように、第1のアバター及び第2のアバターのうちの少なくとも一方の仮想空間における位置及び表示態様のうちの少なくとも一方を変更してもよい。
前述のとおり、所定の属性値は、例えば、ユーザの属性値の1つである課金額であってもよい。この場合には、画像生成部23は、課金額が所定値以上である場合に、第1のアバター及び第2のアバターのうちの少なくとも一方の仮想空間における位置及び表示態様のうちの少なくとも一方を変更することにより、第1のアバターが視認可能となるように制御してもよい。
図6〜図12は、コンテンツ画像におけるアバターの視認性の制御の例を示す図であって、コンテンツデータにより表現される仮想空間において、視点位置から見える映像であるコンテンツ画像の例を示す図である。
図6に示されるように、制御実行前のコンテンツ画像C11においては、注目対象のアバターである第1のアバターA1は、視点位置と第1のアバターA1との間に位置する第2のアバターA2により、視点位置から視認できない。このような場合において、画像生成部23は、制御実行後のコンテンツ画像C12に示されるように、第1のアバターA1の少なくとも一部を含む領域を、当該第1のアバターA1以外のオブジェクトを表示させない視野領域Rとして設定してもよい。視野領域Rには、第1のアバターA1以外のオブジェクトが表示されないので、視点位置から第1のアバターA1を視認可能にさせることができる。
また、図7に示されるように、制御実行前のコンテンツ画像C21においては、第1のアバターA1は、視点位置と第1のアバターA1との間に位置する第2のアバターA2により、視点位置から視認できない。このような場合において、画像生成部23は、制御実行後のコンテンツ画像C22に示されるように、第2のアバターA2の位置を、視点位置と第1のアバターA1の位置との間以外の位置に変更してもよい。これにより、視点位置からの第1のアバターA1に対する視界が第2のアバターA2により遮られないこととなるので、視点位置から第1のアバターA1を視認可能にさせることができる。
また、図8に示されるように、制御実行前のコンテンツ画像C31においては、第1のアバターA1は、視点位置と第1のアバターA1との間に位置する第2のアバターA2により、視点位置から視認できない。このような場合において、画像生成部23は、制御実行後のコンテンツ画像C32に示されるように、第1のアバターA1の位置を、視点位置と第2のアバターA2の位置との間に変更してもよい。これにより、視点位置からの第1のアバターA1に対する視界が第2のアバターA2により遮られないこととなるので、視点位置から第1のアバターA1を視認可能にさせることができる。
また、図9に示されるように、制御実行前のコンテンツ画像C41においては、第1のアバターA1は、視点位置と第1のアバターA1との間に位置する第2のアバターA2により、視点位置から視認できない。このような場合において、画像生成部23は、制御実行後のコンテンツ画像C42に示されるように、第2のアバターA2のサイズを縮小させてもよい。これにより、視点位置からの第1のアバターA1に対する視界が第2のアバターA2により遮られないこととなるので、視点位置から第1のアバターA1を視認可能にさせることができる。
また、図10に示されるように、制御実行前のコンテンツ画像C51においては、第1のアバターA1は、視点位置と第1のアバターA1との間に位置する第2のアバターA2により、視点位置から視認できない。このような場合において、画像生成部23は、制御実行後のコンテンツ画像C52に示されるように、第2のアバターA2を消去してもよい。これにより、視点位置からの第1のアバターA1に対する視界を遮っていた第2のアバターA2が存在しないこととなるので、視点位置から第1のアバターA1を視認可能にさせることができる。
また、図11に示されるように、制御実行前のコンテンツ画像C61においては、第1のアバターA1は、視点位置と第1のアバターA1との間に位置する第2のアバターA2により、視点位置から視認できない。このような場合において、画像生成部23は、制御実行後のコンテンツ画像C62に示されるように、第2のアバターA2を透過表示させてもよい。このように、第2のアバターA2が透過表示されることにより、第2のアバターA2の背後のオブジェクトが視認可能となるので、視点位置から第1のアバターA1を視認可能にさせることができる。
また、注目対象のアバターである第1のアバターの視認性の制御に関して、画像生成部23は、所定の属性値が所定の条件に該当する場合に、複数のアバターのうちの第1のアバターとは異なる他のアバター及び所定の仮想オブジェクトのうちの少なくともいずれかを、視点位置と第1のアバターとの間に配置してもよい。
前述のとおり、所定の属性値は、仮想空間の状態に関する属性値であることができる。仮想空間の状態に関する属性値は、例えば、コンテンツの盛り上がりの程度を示す値であってもよい。この場合において、画像生成部23は、コンテンツの盛り上がりの程度が所定の程度以上になっていることが属性値により示される場合に、視点位置と第1のアバターとの間に他のアバターまたは所定の仮想オブジェクト等を配置することにより、視覚効果の一例として第1のアバターの視認性を低下させてもよい。コンテンツの盛り上がりの程度を示す属性値は、前述のとおり、リアルタイムに変動する値であってもよく、例えば、視聴者であるユーザのアバターの動きの大きさ、コンテンツを視聴しているユーザの数、及び、コンテンツに対してユーザ端末20Aを介して投稿されたユーザのコメントの数等に基づいて取得されてもよい。
図12は、コンテンツ画像における第1のアバターの視認性を低下させる制御の例を示す図である。図12に示されるように、制御実行前のコンテンツ画像C71においては、第1のアバターA1は、他のアバターA3により視界を遮られることはなく、視点位置から視認可能である。このような場合において、画像生成部23は、所定の属性値(例えば、コンテンツの盛り上がりの程度を示すパラメータ)が所定の条件に該当する場合(例えば、盛り上がりの程度が所定の程度以上)に、制御実行後のコンテンツ画像C72に示されるように、他のアバターA3を視点位置と第1のアバターA1との間に配置してもよい。このように第1のアバターA1の視認性を低下させる制御により、コンテンツの盛り上がりに応じて、配信者のアバターに視聴者のアバターが殺到するような状況を演出できる。
また、他のアバターA3に代えて所定の仮想オブジェクトを視点位置と第1のアバターA1との間に配置することにより、第1のアバターA1の視認性を低下させる制御を実現させてもよい。この場合には、例えば、コンテンツにおける場面転換時に、仮想空間の状態に関する所定の属性値が所定の条件を満たすようにコンテンツのシナリオを予め設定しておくことにより、場面転換時に第1のアバターA1が暗幕により視認できないようにするような状況を演出できる。
次に、図13を参照して、コンテンツ画像におけるアバターの視認性の制御の他の例を説明する。本実施形態のコンテンツ配信システム1では、コンテンツ画像におけるアバターの一部の視認性を制御できる。かかる制御のために、コンテンツ配信サーバ10の生成部12は、ユーザに関連付けられた属性値が予め設定された所定の条件を満たさない場合に、第1のアバターA1の少なくとも一部分を表示させるためのデータを、コンテンツデータに含めないこととしてもよい。
具体的には、例えば、生成部12は、ユーザの課金額が所定の金額未満である場合に、第1のアバターの胴体部分を表示させるためのデータ(画像素材データ)を含まないコンテンツデータを生成する。図13は、第1のアバターA1の胴体部分の画像素材データを含まないコンテンツデータに基づいて生成されたコンテンツ画像の例を示す。図13に示されるように、画像生成部23は、胴体部分Bを含まない第1のアバターA1を表すコンテンツ画像を生成する。
また、コンテンツ画像におけるアバターの一部の視認性の制御のために、生成部12がアバターの部分を表示させるためのデータを含まないコンテンツデータを生成することに代えて、画像生成部23が、ユーザに関連付けられた属性値が予め設定された所定の条件を満たさない場合に、第1のアバターの少なくとも一部分をコンテンツ画像において表示させないこととしてもよい。この場合においても、画像生成部23は、図13に示されるような、胴体部分Bを含まない第1のアバターA1を表すコンテンツ画像を生成する。
このように、コンテンツ画像におけるアバターの一部の視認性の制御により、例えば、衣装を身につけているアバターの、衣装の下のボディの一部を課金額に応じて視認できないようにするといった演出が可能となる。また、このような演出により、コンテンツ画像の視覚効果を高めると共に、ユーザに対しては、属性値が所定の条件を満たすようにすることの動機を生じさせることができる。
次に、図14を参照して、本実施形態のコンテンツ配信システム1の動作について説明する。図14は、コンテンツ配信システム1の動作の一例を示すフローチャートである。動画像からなるコンテンツの配信においては、図14に示されるフローチャートが繰り返し実行される。なお、図14のフローチャートでは、2台の視聴者のユーザ端末20Aの動作が示されているが、ユーザ端末20Aの数は限定されない。
ステップS1において、配信者のユーザ端末20Bの送信部21は、コンテンツを構成する仮想空間データ及び配信者を表すアバターのモーションデータをコンテンツ配信サーバ10に送信する。ステップS2において、視聴者のユーザ端末20Aの送信部21は、視聴者を表すアバターのモーションデータをコンテンツ配信サーバ10に送信する。
ステップS3において、コンテンツ配信サーバ10の取得部11は、仮想空間データ及び各ユーザ(配信者及び視聴者)のアバターのモーションデータを取得する。ステップS4において、各アバターが設定された仮想空間を表すコンテンツデータを生成する。ステップS5において、コンテンツ配信サーバ10の送信部13は、生成されたコンテンツデータを各ユーザ端末20に送信する。
ステップS6において、ユーザ端末20Bの受信部22は、コンテンツ配信サーバ10により生成及び送信されたコンテンツデータを受信する。また、ステップS7において、ユーザ端末20Aの受信部22は、コンテンツ配信サーバ10により生成及び送信されたコンテンツデータを受信する。
ステップS8において、ユーザ端末20Bの画像生成部23は、注目対象のアバターの視認性が制御されたコンテンツ画像を、コンテンツデータに基づいて生成する。そして、ステップS9において、ユーザ端末20Bの表示部24は、生成されたコンテンツ画像を、ユーザ端末20Bのディスプレイに表示させる。
また、ステップS10において、ユーザ端末20Aの画像生成部23は、注目対象のアバターの視認性が制御されたコンテンツ画像を、コンテンツデータに基づいて生成する。そして、ステップS11において、ユーザ端末20Aの表示部24は、生成されたコンテンツ画像を、ユーザ端末20Aのディスプレイに表示させる。
以上説明した本実施形態のコンテンツ配信システム1、コンテンツ配信方法及びコンテンツ配信プログラム(サーバプログラムP1,端末プログラムP2)によれば、ユーザにとっての注目対象のアバターの視認性が所定の属性値に基づいて制御されるので、属性値の設定により、特定のアバターの視認性を高めるまたは視認性を低下させることが可能となる。そして、特定のアバターの視認性を適切に制御することにより、コンテンツ画像の視覚効果をさらに高めることが可能となる。
本開示の一側面に係るコンテンツ配信方法は、複数のアバターが設定された仮想空間を映すコンテンツを配信するコンテンツ配信システムにおけるコンテンツ配信方法であって、各アバターの位置及び態様のうちの少なくともいずれかを示すモーションデータを取得する取得ステップと、モーションデータに基づいて各アバターが設定された仮想空間を表すコンテンツデータを生成する生成ステップと、コンテンツデータに基づいて、仮想空間内に設定された所定の視点位置から見える映像であるコンテンツ画像を生成する画像生成ステップと、ユーザのユーザ端末にコンテンツ画像を表示させる表示ステップと、を有し、画像生成ステップにおいて、所定の属性値に基づいて、コンテンツ画像における、複数のアバターのうちのユーザにとっての注目対象のアバターである第1のアバターの視認性を制御する。
本開示の一側面に係るコンテンツ配信プログラムは、コンピュータを、複数のアバターが設定された仮想空間を映すコンテンツを配信するコンテンツ配信システムとして機能させるためのコンテンツ配信プログラムであって、コンピュータに、各アバターの位置及び態様のうちの少なくともいずれかを示すモーションデータを取得する取得ステップと、モーションデータに基づいて各アバターが設定された仮想空間を表すコンテンツデータを生成する生成ステップと、コンテンツデータに基づいて、仮想空間内に設定された所定の視点位置から見える映像であるコンテンツ画像を生成する画像生成ステップと、ユーザのユーザ端末にコンテンツ画像を表示させる表示ステップと、を実行させ、画像生成ステップにおいて、所定の属性値に基づいて、コンテンツ画像における、複数のアバターのうちのユーザにとっての注目対象のアバターである第1のアバターの視認性を制御する。
このような側面によれば、ユーザにとっての注目対象のアバターの視認性が所定の属性値に基づいて制御されるので、属性値の設定により、特定のアバターの視認性を高めるまたは視認性を低下させることが可能となる。
他の側面に係るコンテンツ配信システムでは、画像生成部は、視点位置と第1のアバターとの間に位置する1以上のアバターである第2のアバターにより、視点位置から第1のアバターを視認できない状態である場合において、属性値が所定の条件に該当する場合に、第1のアバターが視認可能となるように、第1のアバター及び第2のアバターのうちの少なくとも一方の仮想空間における位置及び表示態様のうちの少なくとも一方を変更することとしてもよい。
このような側面によれば、視点位置と第1のアバターとの間に位置する第2のアバターに起因して第1のアバターが視認できない状態であるときに、第1及び第2のアバターの位置及び表示態様が変更されるので、注目対象の第1のアバターを視認可能にさせることができる。
他の側面に係るコンテンツ配信システムでは、画像生成部は、第1のアバターの少なくとも一部を含む領域を、該第1のアバター以外のオブジェクトを表示させない視野領域として設定することとしてもよい。
このような側面によれば、コンテンツ画像において、第1のアバター以外のオブジェクトが表示されない視野領域がコンテンツ画像に設定されるので、第1のアバターを視認可能にさせることができる。
他の側面に係るコンテンツ配信システムでは、画像生成部は、第2のアバターの位置を、視点位置と第1のアバターの位置との間以外の位置に変更することとしてもよい。
このような側面によれば、コンテンツ画像において、第2のアバターの位置が、視点位置と第1のアバターとの間以外の位置に変更されるので、第1のアバターを視認可能にさせることができる。
他の側面に係るコンテンツ配信システムでは、画像生成部は、第1のアバターの位置を、視点位置と第2のアバターの位置との間に変更することとしてもよい。
このような側面によれば、コンテンツ画像において、第1のアバターに対する視界を遮っていた第2のアバターと視点位置との間に第1のアバターの位置が変更されるので、第1のアバターを視認可能にさせることができる。
他の側面に係るコンテンツ配信システムでは、画像生成部は、第2のアバターのサイズを縮小させることとしてもよい。
このような側面によれば、コンテンツ画像において、第1のアバターに対する視界を遮っていた第2のアバターのサイズが縮小されるので、第1のアバターを視認可能にさせることができる。
他の側面に係るコンテンツ配信システムでは、画像生成部は、第2のアバターを消去することとしてもよい。
このような側面によれば、コンテンツ画像において、第1のアバターに対する視界を遮っていた第2のアバターが消去されるので、第1のアバターを視認可能にさせることができる。
他の側面に係るコンテンツ配信システムは、画像生成部は、第2のアバターを透過表示させることとしてもよい。
このような側面によれば、コンテンツ画像において、第1のアバターに対する視界を遮っていた第2のアバターが透過表示されるので、第1のアバターを視認可能にさせることができる。
他の側面に係るコンテンツ配信システムは、画像生成部は、属性値が所定の条件に該当する場合に、複数のアバターのうちの第1のアバターとは異なる他のアバター及び所定の仮想オブジェクトのうちの少なくともいずれかを、視点位置と第1のアバターとの間に配置することとしてもよい。
このような側面によれば、所定の属性値が所定の条件に該当する場合に、他のアバター及び仮想オブジェクト等が第1のアバターに対する視界を遮るように配置されるので、第1のアバターが視認不可能にされる。これにより、コンテンツ画像の視覚効果をさらに高めることができる。
他の側面に係るコンテンツ配信システムでは、属性値は、各ユーザに関連付けられた属性値を含むこととしてもよい。
このような側面によれば、各ユーザのユーザ端末ごとに、コンテンツ画像における第1のアバターの視認性を制御できる。
他の側面に係るコンテンツ配信システムでは、属性値は、仮想空間の状態に関する属性値を含むこととしてもよい。
このような側面によれば、仮想空間の状態に応じて、コンテンツ画像における第1のアバターの視認性を制御できる。
他の側面に係るコンテンツ配信システムでは、生成部は、ユーザに関連付けられた属性値が予め設定された所定の条件を満たさない場合に、第1のアバターの少なくとも一部分を表示させるためのデータを、コンテンツデータに含めないこととしてもよい。
このような側面によれば、当該属性値に係るユーザのユーザ端末において、第1のアバターの部分をコンテンツ画像において表示させることができない。これにより、コンテンツ画像の視覚効果を高めると共に、ユーザに対しては、属性値が所定の条件を満たすようにすることの動機を生じさせることができる。
他の側面に係るコンテンツ配信システムでは、画像生成部は、ユーザに関連付けられた属性値が予め設定された所定の条件を満たさない場合に、第1のアバターの少なくとも一部分をコンテンツ画像において表示させないこととしてもよい。
このような側面によれば、当該属性値に係るユーザのユーザ端末において、第1のアバターの部分がコンテンツ画像において表示されないので、コンテンツ画像の視覚効果を高めることができる。また、ユーザに対しては、属性値が所定の条件を満たすようにすることの動機を生じさせることができる。
他の側面に係るコンテンツ配信システムでは、取得部は、複数のユーザ端末のうちの1つから、注目対象のアバターを指定する指定情報を取得し、画像生成部は、指定情報により指定されるアバターを、第1アバターとして設定することとしてもよい。
このような側面によれば、ユーザ端末からの指定情報に応じて任意のアバターを注目対象のアバターとすることができる。
以上、本発明をその実施形態に基づいて詳細に説明した。しかし、本発明は上記実施形態に限定されるものではない。本発明は、その要旨を逸脱しない範囲で様々な変形が可能である。
コンテンツ配信システムの内部の構成は上記実施形態に限定されず、任意の方針で設計されてよい。例えば、機能部11〜13及び機能部21〜24が構成される装置(サーバ及び端末)は、本実施形態の例に限定されない。本実施形態においてコンテンツ配信サーバ10に構成されている機能部がユーザ端末20に構成されることとしてもよいし、ユーザ端末20に構成されている機能部がコンテンツ配信サーバ10に構成されることとしてもよい。また、機能部11〜13及び機能部21〜24のそれぞれを実現させる主体(すなわちプロセッサ)は、本開示の例に限定されず、機能部ごとに異なってもよい。
少なくとも一つのプロセッサにより実行される方法の処理手順は上記実施形態での例に限定されない。例えば、上述したステップ(処理)の一部が省略されてもよいし、別の順序で各ステップが実行されてもよい。また、上述したステップのうちの任意の2以上のステップが組み合わされてもよいし、ステップの一部が修正又は削除されてもよい。あるいは、上記の各ステップに加えて他のステップが実行されてもよい。
1…コンテンツ配信システム、10…コンテンツ配信サーバ、11…取得部、12…生成部、13…送信部、15…仮想空間データ記憶部、20,20A,20B…ユーザ端末、21…送信部、22…受信部、23…画像生成部、24…表示部、P1…サーバプログラム、P2…端末プログラム、A1…第1のアバター、A2…第2のアバター。

Claims (11)

  1. 複数のアバターが設定された仮想空間を映すコンテンツを配信するコンテンツ配信システムであって、
    各アバターの位置及び態様のうちの少なくともいずれかを示すモーションデータを取得する取得部と、
    前記モーションデータに基づいて各アバターが設定された前記仮想空間を表すコンテンツデータを生成する生成部と、
    前記コンテンツデータに基づいて、前記仮想空間内に設定された所定の視点位置から見える映像であるコンテンツ画像を生成する画像生成部と、
    ユーザのユーザ端末に前記コンテンツ画像を表示させる表示部と、を備え、
    前記画像生成部は、
    所定の属性値に基づいて、前記コンテンツ画像における、前記複数のアバターのうちの前記ユーザにとっての注目対象のアバターである第1のアバターの視認性を制御し、
    前記視点位置と前記第1のアバターとの間に位置する1以上のアバターである第2のアバターにより、前記視点位置から前記第1のアバターを視認できない状態である場合において、前記属性値が所定の条件に該当する場合に、前記第1のアバターが視認可能となるように、前記第1のアバターの少なくとも一部を含む領域を、該第1のアバター以外のオブジェクトを表示させない視野領域として設定する、
    コンテンツ配信システム。
  2. 複数のアバターが設定された仮想空間を映すコンテンツを配信するコンテンツ配信システムであって、
    各アバターの位置及び態様のうちの少なくともいずれかを示すモーションデータを取得する取得部と、
    前記モーションデータに基づいて各アバターが設定された前記仮想空間を表すコンテンツデータを生成する生成部と、
    前記コンテンツデータに基づいて、前記仮想空間内に設定された所定の視点位置から見える映像であるコンテンツ画像を生成する画像生成部と、
    ユーザのユーザ端末に前記コンテンツ画像を表示させる表示部と、を備え、
    前記画像生成部は、
    所定の属性値に基づいて、前記コンテンツ画像における、前記複数のアバターのうちの前記ユーザにとっての注目対象のアバターである第1のアバターの視認性を制御し、
    前記視点位置と前記第1のアバターとの間に位置する1以上のアバターである第2のアバターにより、前記視点位置から前記第1のアバターを視認できない状態である場合において、前記属性値が所定の条件に該当する場合に、前記第1のアバターが視認可能となるように、前記第2のアバターのサイズを縮小させる、
    コンテンツ配信システム。
  3. 前記画像生成部は、前記属性値が所定の条件に該当する場合に、前記複数のアバターのうちの前記第1のアバターとは異なる他のアバター及び所定の仮想オブジェクトのうちの少なくともいずれかを、前記視点位置と前記第1のアバターとの間に配置する、
    請求項1または2に記載のコンテンツ配信システム。
  4. 前記属性値は、各ユーザに関連付けられた属性値、及び、前記仮想空間の状態に関する属性値、の少なくともいずれかを含む、
    請求項1〜のいずれか一項に記載のコンテンツ配信システム。
  5. 前記生成部は、前記ユーザに関連付けられた属性値が予め設定された所定の条件を満たさない場合に、前記第1のアバターの少なくとも一部分を表示させるためのデータを、前記コンテンツデータに含めない、
    請求項1〜のいずれか一項に記載のコンテンツ配信システム。
  6. 前記画像生成部は、前記ユーザに関連付けられた属性値が予め設定された所定の条件を満たさない場合に、前記第1のアバターの少なくとも一部分を前記コンテンツ画像において表示させない、
    請求項1〜のいずれか一項に記載のコンテンツ配信システム。
  7. 前記取得部は、複数の前記ユーザ端末のうちの1つから、前記注目対象のアバターを指定する指定情報を取得し、
    前記画像生成部は、前記指定情報により指定されるアバターを、前記第1のアバターとして設定する、
    請求項1〜のいずれか一項に記載のコンテンツ配信システム。
  8. 複数のアバターが設定された仮想空間を映すコンテンツを配信するコンテンツ配信システムにおけるコンテンツ配信方法であって、
    各アバターの位置及び態様のうちの少なくともいずれかを示すモーションデータを取得する取得ステップと、
    前記モーションデータに基づいて各アバターが設定された前記仮想空間を表すコンテンツデータを生成する生成ステップと、
    前記コンテンツデータに基づいて、前記仮想空間内に設定された所定の視点位置から見える映像であるコンテンツ画像を生成する画像生成ステップと、
    ユーザのユーザ端末に前記コンテンツ画像を表示させる表示ステップと、を有し、
    前記画像生成ステップにおいて
    所定の属性値に基づいて、前記コンテンツ画像における、前記複数のアバターのうちの前記ユーザにとっての注目対象のアバターである第1のアバターの視認性を制御し、
    前記視点位置と前記第1のアバターとの間に位置する1以上のアバターである第2のアバターにより、前記視点位置から前記第1のアバターを視認できない状態である場合において、前記属性値が所定の条件に該当する場合に、前記第1のアバターが視認可能となるように、前記第1のアバターの少なくとも一部を含む領域を、該第1のアバター以外のオブジェクトを表示させない視野領域として設定する、
    コンテンツ配信方法。
  9. 複数のアバターが設定された仮想空間を映すコンテンツを配信するコンテンツ配信システムにおけるコンテンツ配信方法であって、
    各アバターの位置及び態様のうちの少なくともいずれかを示すモーションデータを取得する取得ステップと、
    前記モーションデータに基づいて各アバターが設定された前記仮想空間を表すコンテンツデータを生成する生成ステップと、
    前記コンテンツデータに基づいて、前記仮想空間内に設定された所定の視点位置から見える映像であるコンテンツ画像を生成する画像生成ステップと、
    ユーザのユーザ端末に前記コンテンツ画像を表示させる表示ステップと、を有し、
    前記画像生成ステップにおいて、
    所定の属性値に基づいて、前記コンテンツ画像における、前記複数のアバターのうちの前記ユーザにとっての注目対象のアバターである第1のアバターの視認性を制御し、
    前記視点位置と前記第1のアバターとの間に位置する1以上のアバターである第2のアバターにより、前記視点位置から前記第1のアバターを視認できない状態である場合において、前記属性値が所定の条件に該当する場合に、前記第1のアバターが視認可能となるように、前記第2のアバターのサイズを縮小させる、
    コンテンツ配信方法。
  10. コンピュータを、複数のアバターが設定された仮想空間を映すコンテンツを配信するコンテンツ配信システムとして機能させるためのコンテンツ配信プログラムであって、
    前記コンピュータに、
    各アバターの位置及び態様のうちの少なくともいずれかを示すモーションデータを取得する取得ステップと、
    前記モーションデータに基づいて各アバターが設定された前記仮想空間を表すコンテンツデータを生成する生成ステップと、
    前記コンテンツデータに基づいて、前記仮想空間内に設定された所定の視点位置から見える映像であるコンテンツ画像を生成する画像生成ステップと、
    ユーザのユーザ端末に前記コンテンツ画像を表示させる表示ステップと、を実行させ、
    前記画像生成ステップにおいて
    所定の属性値に基づいて、前記コンテンツ画像における、前記複数のアバターのうちの前記ユーザにとっての注目対象のアバターである第1のアバターの視認性を制御し、
    前記視点位置と前記第1のアバターとの間に位置する1以上のアバターである第2のアバターにより、前記視点位置から前記第1のアバターを視認できない状態である場合において、前記属性値が所定の条件に該当する場合に、前記第1のアバターが視認可能となるように、前記第1のアバターの少なくとも一部を含む領域を、該第1のアバター以外のオブジェクトを表示させない視野領域として設定する、
    コンテンツ配信プログラム。
  11. コンピュータを、複数のアバターが設定された仮想空間を映すコンテンツを配信するコンテンツ配信システムとして機能させるためのコンテンツ配信プログラムであって、
    前記コンピュータに、
    各アバターの位置及び態様のうちの少なくともいずれかを示すモーションデータを取得する取得ステップと、
    前記モーションデータに基づいて各アバターが設定された前記仮想空間を表すコンテンツデータを生成する生成ステップと、
    前記コンテンツデータに基づいて、前記仮想空間内に設定された所定の視点位置から見える映像であるコンテンツ画像を生成する画像生成ステップと、
    ユーザのユーザ端末に前記コンテンツ画像を表示させる表示ステップと、を実行させ、
    前記画像生成ステップにおいて、
    所定の属性値に基づいて、前記コンテンツ画像における、前記複数のアバターのうちの前記ユーザにとっての注目対象のアバターである第1のアバターの視認性を制御し、
    前記視点位置と前記第1のアバターとの間に位置する1以上のアバターである第2のアバターにより、前記視点位置から前記第1のアバターを視認できない状態である場合において、前記属性値が所定の条件に該当する場合に、前記第1のアバターが視認可能となるように、前記第2のアバターのサイズを縮小させる、
    コンテンツ配信プログラム。
JP2020009240A 2020-01-23 2020-01-23 コンテンツ配信システム、コンテンツ配信方法及びコンテンツ配信プログラム Active JP6794562B1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020009240A JP6794562B1 (ja) 2020-01-23 2020-01-23 コンテンツ配信システム、コンテンツ配信方法及びコンテンツ配信プログラム
JP2020188002A JP2021117979A (ja) 2020-01-23 2020-11-11 コンテンツ配信システム、コンテンツ配信方法及びコンテンツ配信プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020009240A JP6794562B1 (ja) 2020-01-23 2020-01-23 コンテンツ配信システム、コンテンツ配信方法及びコンテンツ配信プログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020188002A Division JP2021117979A (ja) 2020-01-23 2020-11-11 コンテンツ配信システム、コンテンツ配信方法及びコンテンツ配信プログラム

Publications (2)

Publication Number Publication Date
JP6794562B1 true JP6794562B1 (ja) 2020-12-02
JP2021117593A JP2021117593A (ja) 2021-08-10

Family

ID=73544676

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020009240A Active JP6794562B1 (ja) 2020-01-23 2020-01-23 コンテンツ配信システム、コンテンツ配信方法及びコンテンツ配信プログラム
JP2020188002A Pending JP2021117979A (ja) 2020-01-23 2020-11-11 コンテンツ配信システム、コンテンツ配信方法及びコンテンツ配信プログラム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2020188002A Pending JP2021117979A (ja) 2020-01-23 2020-11-11 コンテンツ配信システム、コンテンツ配信方法及びコンテンツ配信プログラム

Country Status (1)

Country Link
JP (2) JP6794562B1 (ja)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008250813A (ja) * 2007-03-30 2008-10-16 Konami Digital Entertainment:Kk 画像生成装置、画像処理方法、および、プログラム
JP2018106297A (ja) * 2016-12-22 2018-07-05 キヤノンマーケティングジャパン株式会社 複合現実感提示システム、及び、情報処理装置とその制御方法、並びに、プログラム
JP7029379B2 (ja) * 2018-11-28 2022-03-03 株式会社コロプラ プログラム、情報処理装置、および方法

Also Published As

Publication number Publication date
JP2021117979A (ja) 2021-08-10
JP2021117593A (ja) 2021-08-10

Similar Documents

Publication Publication Date Title
US20180364803A1 (en) Methods and Systems for Integrating Virtual Content into an Immersive Virtual Reality World Based on Real-World Scenery
US9485493B2 (en) Method and system for displaying multi-viewpoint images and non-transitory computer readable storage medium thereof
US20140232819A1 (en) Systems and methods for generating and sharing panoramic moments
CN111970532B (zh) 视频播放方法、装置及设备
JPWO2016009865A1 (ja) 情報処理装置及び方法、表示制御装置及び方法、再生装置及び方法、プログラム、並びに情報処理システム
JP2021002288A (ja) 画像処理装置、コンテンツ処理システム、および画像処理方法
CN114257875B (zh) 数据传输方法、装置、电子设备和存储介质
US20220270302A1 (en) Content distribution system, content distribution method, and content distribution program
CN114615513A (zh) 视频数据生成方法、装置、电子设备及存储介质
CN110710203B (zh) 用于生成和渲染沉浸式视频内容的方法、系统和介质
CN112514405A (zh) 内容发布服务器、内容发布方法及程序
WO2020194973A1 (ja) コンテンツ配信システム、コンテンツ配信方法、およびコンテンツ配信プログラム
JP6609078B1 (ja) コンテンツ配信システム、コンテンツ配信方法、およびコンテンツ配信プログラム
JP7244450B2 (ja) コンピュータプログラム、サーバ装置、端末装置、及び方法
JP6794562B1 (ja) コンテンツ配信システム、コンテンツ配信方法及びコンテンツ配信プログラム
CN111602391B (zh) 用于根据物理环境定制合成现实体验的方法和设备
CN114625468B (zh) 增强现实画面的展示方法、装置、计算机设备及存储介质
US10868889B2 (en) System for providing game play video by using cloud computer
JP7344084B2 (ja) コンテンツ配信システム、コンテンツ配信方法、およびコンテンツ配信プログラム
JP2021106378A (ja) コンテンツ配信システム、コンテンツ配信方法、およびコンテンツ配信プログラム
JP2020167654A (ja) コンテンツ配信システム、コンテンツ配信方法、およびコンテンツ配信プログラム
JP6831027B1 (ja) 配信システム、動画生成装置、および動画生成方法
JP7418498B2 (ja) プログラム、情報処理装置、および方法
CN118037557A (en) Image data processing method and related equipment
JP2023154820A (ja) 情報処理装置及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200123

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200123

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200525

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200601

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200609

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200806

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201027

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201111

R150 Certificate of patent or registration of utility model

Ref document number: 6794562

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250