JP2020036251A - コンテンツ配信サーバ、コンテンツ配信方法及びプログラム - Google Patents

コンテンツ配信サーバ、コンテンツ配信方法及びプログラム Download PDF

Info

Publication number
JP2020036251A
JP2020036251A JP2018162619A JP2018162619A JP2020036251A JP 2020036251 A JP2020036251 A JP 2020036251A JP 2018162619 A JP2018162619 A JP 2018162619A JP 2018162619 A JP2018162619 A JP 2018162619A JP 2020036251 A JP2020036251 A JP 2020036251A
Authority
JP
Japan
Prior art keywords
distributor
setting
terminal
displayed
virtual space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018162619A
Other languages
English (en)
Other versions
JP6502565B1 (ja
Inventor
量生 川上
Kazuo Kawakami
量生 川上
健太郎 松井
Kentaro Matsui
健太郎 松井
進之介 岩城
Shinnosuke Iwaki
進之介 岩城
尚 小嶋
Takashi Kojima
尚 小嶋
山口 直樹
Naoki Yamaguchi
直樹 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Virtual Cast Inc
Original Assignee
Virtual Cast Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Virtual Cast Inc filed Critical Virtual Cast Inc
Priority to JP2018162619A priority Critical patent/JP6502565B1/ja
Application granted granted Critical
Publication of JP6502565B1 publication Critical patent/JP6502565B1/ja
Priority to CN202211341127.0A priority patent/CN115695839A/zh
Priority to CN201980050557.7A priority patent/CN112514405B/zh
Priority to PCT/JP2019/028801 priority patent/WO2020044873A1/ja
Priority to US17/257,551 priority patent/US11425461B2/en
Publication of JP2020036251A publication Critical patent/JP2020036251A/ja
Priority to US17/860,769 priority patent/US11956504B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/454Content or additional data filtering, e.g. blocking advertisements
    • H04N21/4542Blocking scenes or portions of the received content, e.g. censoring scenes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/10Architectures or entities
    • H04L65/1059End-user terminal functionalities specially adapted for real-time communication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/61Network streaming of media packets for supporting one-way streaming services, e.g. Internet radio
    • H04L65/611Network streaming of media packets for supporting one-way streaming services, e.g. Internet radio for multicast or broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/61Network streaming of media packets for supporting one-way streaming services, e.g. Internet radio
    • H04L65/612Network streaming of media packets for supporting one-way streaming services, e.g. Internet radio for unicast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/75Media network packet handling
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/75Media network packet handling
    • H04L65/762Media network packet handling at the source 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/2187Live feed
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/254Management at additional data server, e.g. shopping server, rights management server
    • H04N21/2541Rights Management
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/258Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/258Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data
    • H04N21/25808Management of client data
    • H04N21/25816Management of client data involving client authentication
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/266Channel or content management, e.g. generation and management of keys and entitlement messages in a conditional access system, merging a VOD unicast channel into a multicast channel
    • H04N21/2668Creating a channel for a dedicated end-user group, e.g. insertion of targeted commercials based on end-user profiles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/4788Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Security & Cryptography (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Information Transfer Between Computers (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】配信者の都合で仮想空間内に表示されるオブジェクトの公開を制限することが可能なコンテンツ配信サーバ等を提供する。【解決手段】コンテンツ配信サーバ100は、配信者の情報を仮想キャラクタの情報とした仮想空間内の映像を合成させるためのライブコンテンツを配信する配信部143と、配信者が使用する配信者端末から、配信者端末に表示される仮想空間内に存在するオブジェクトに対して、ライブコンテンツを視聴する視聴者が使用する視聴者端末に表示されることを制限するための公開制限設定を受け付ける第1の設定受付部144とを備える。【選択図】図2

Description

本開示は、コンテンツ配信サーバ、コンテンツ配信方法及びプログラムに関する。
従来、ユーザが仮想空間内において互いにコミュニケーションを取ることが可能なシステムが知られている。
例えば、特許文献1には、ユーザが互いにコミュニケーションを取るための仮想環境を提供する技術が開示されている。この仮想環境では、仮想空間内の仮想メッセージに閲覧権を設定することが可能である。この場合、閲覧権を有する閲覧者のみが仮想メッセージの内容を閲覧できる。閲覧権を有しない閲覧者が閲覧した場合には、仮想メッセージは非表示又はぼかした表示となる。
ところで、近年、ネットワークを介してライブコンテンツを配信するサービスがインターネット生放送として普及している。このようなインターネット生放送において、配信者が仮想空間内で仮想キャラクタ(アバター)として登場し、その映像をライブコンテンツとして配信する技術が提案されている。
国際公開第2008/106196号
特許文献1に開示されている技術では、すべてのユーザが仮想キャラクタとして仮想空間内に入り込むことが前提となっている。この場合、すべてのユーザは、同様な立場で仮想空間を共有する。
これに対し、インターネット生放送では、仮想キャラクタとして仮想空間内に入り込むユーザ(主に配信者)だけでなく、その映像を視聴するだけのユーザ(主に視聴者)が存在する。この場合、ユーザによって立場が異なる。そのため、すべてのユーザが同様な立場で仮想空間を共有することは好ましくない場合がある。
例えば、現状のインターネット生放送のシステムでは、配信者と、視聴者と、配信に参加する参加者とが、同様な仮想空間を閲覧する仕様になっている。配信者は、HMD(Head Mount Display)を装着し、仮想空間の映像を見ながら配信する。なお、現実空間における配信者の動作は、モーションキャプチャ技術によって、仮想空間における仮想キャラクタの動作に反映される。
ここで、配信者は配信中に台本やタイムキーパーを確認したい場合がある。しかし、配信者は、HMDを装着しているため、現実空間において台本やタイムキーパーを確認することができない。そのため、仮想空間に台本やタイムキーパーを示すオブジェクトが表示されることが好ましい。しかし、台本やタイムキーパーを示すオブジェクトは、配信者が視聴者に視聴させたいオブジェクトではない。
また、配信者は、配信のために使用する仮想カメラ又は仮想カメラの位置を示すオブジェクトを確認したい場合がある。しかし、仮想カメラ又は仮想カメラの位置を示すオブジェクトは、配信者が視聴者に視聴させたいオブジェクトではない。
このように、台本、タイムキーパー、仮想カメラ(仮想カメラの位置)等のように、配信者の都合で仮想空間内に表示されるオブジェクトが、視聴者に公開されることは好ましくない。一方、配信者による配信に参加する参加者(視聴者又は他の配信者)には、そのようなオブジェクトであっても公開した方が好ましい場合もある。したがって、配信者の都合で仮想空間内に表示されるオブジェクトについては、配信状況に応じて、公開を制限するための仕組みが必要である。
この点、特許文献1に開示されている技術は、他人に宛てる仮想メッセージの閲覧権限を制御するものであるため、配信者の都合で仮想空間内に表示されるオブジェクトの公開を制限する仕組みではない。
そこで、本開示はこのような事情に鑑み、配信者の都合で仮想空間内に表示されるオブジェクトの公開を制限することが可能なコンテンツ配信サーバ等を提供することを目的とする。
上記目的を達成するため、本開示の第1の観点に係るコンテンツ配信サーバは、配信者の情報を仮想キャラクタの情報とした仮想空間内の映像を合成させるためのライブコンテンツを配信する配信部と、配信者が使用する配信者端末から、配信者端末に表示される仮想空間内に存在するオブジェクトに対して、ライブコンテンツを視聴する視聴者が使用する視聴者端末に表示されることを制限するための公開制限設定を受け付ける第1の設定受付部とを備えることを特徴とする。
また、上記目的を達成するため、本開示の第2の観点に係るコンテンツ配信方法は、配信者の情報を仮想キャラクタの情報とした仮想空間内の映像を合成させるためのライブコンテンツを配信する配信ステップと、配信者が使用する配信者端末から、配信者端末に表示される仮想空間内に存在するオブジェクトに対して、ライブコンテンツを視聴する視聴者が使用する視聴者端末に表示されることを制限するための公開制限設定を受け付ける第1の設定受付ステップとを含むことを特徴とする。
また、上記目的を達成するため、本開示の第3の観点に係るプログラムは、コンピュータを、配信者の情報を仮想キャラクタの情報とした仮想空間内の映像を合成させるためのライブコンテンツを配信する配信手段、配信者が使用する配信者端末から、配信者端末に表示される仮想空間内に存在するオブジェクトに対して、ライブコンテンツを視聴する視聴者が使用する視聴者端末に表示されることを制限するための公開制限設定を受け付ける第1の設定受付手段、として機能させる。
本開示によれば、配信者の都合で仮想空間内に表示されるオブジェクトの公開を制限することが可能なコンテンツ配信サーバ等を提供することができる。
実施形態に係るコンテンツ配信システムの構成例を示す図である。 実施形態に係るコンテンツ配信サーバの構成例を示すブロック図である。 実施形態に係る配信者端末の構成例を示すブロック図である。 実施形態に係る視聴者端末の構成例を示すブロック図である。 実施形態に係る参加者端末の構成例を示すブロック図である。 実施形態に係る配信者端末に表示される仮想空間の映像の一例を示す図である。 実施形態に係る視聴者端末に表示される配信画面の一例を示す図である。 実施形態に係る参加者端末に表示される仮想空間の映像の第1の例を示す図である。 実施形態に係る参加者端末に表示される仮想空間の映像の第2の例を示す図である。 実施形態に係るコンテンツ配信サーバの制御処理の一例を示すフローチャートである。 変形例に係る視聴者端末に表示される画面の一例を示す図である。
以下、本開示の実施形態について図面を参照して説明する。なお、以下に説明する実施形態は、特許請求の範囲に記載された本開示の内容を不当に限定するものではない。また、実施形態に示される構成要素のすべてが、本開示の必須の構成要素であるとは限らない。
(実施形態)
図1に示すように、本実施形態に係るコンテンツ配信システム1は、コンテンツ配信サーバ100と、配信者端末200と、一台以上の視聴者端末300と、参加者端末400a、400bとを備える。コンテンツ配信サーバ100と、配信者端末200と、一台以上の視聴者端末300と、参加者端末400a、400bとは、それぞれネットワークNWを介して通信可能に接続される。ネットワークNWは、例えばWAN(World Area Network)である。
コンテンツ配信サーバ100は、ネットワークNWを介して配信サービスを提供する。コンテンツ配信サーバ100は、配信者の情報を仮想キャラクタの情報として合成した仮想空間内の映像に基づいてライブコンテンツを視聴者端末300に配信する。
仮想空間の映像には、仮想キャラクタだけでなく、背景、仮想的な物体を示すオブジェクト等も含まれる。仮想空間は、基本的には、CG(Computer Graphics)によって生成される3次元空間である。なお、仮想空間は、2次元空間であってもよい。なお、配信者だけでなく、配信に参加する参加者がいる場合には、さらに、参加者の情報を参加者の仮想キャラクタの情報として仮想空間内の映像が合成される。
配信者端末200は、ライブコンテンツを配信する配信者によって使用される。配信者端末200は、HMDを備える通信端末であり、通信機能及びモーションキャプチャ機能を有する。配信者端末200は、モーションキャプチャ機能により、配信者の動き(ジェスチャ)や視線をモーション情報として取得する。モーション情報は、配信者に対応付けられた仮想キャラクタの動きと仮想空間内の映像における視点(すなわちレンダリング)に反映される。なお、モーション情報には、配信者の表情を示すデータが含まれていてもよい。
視聴者端末300は、パーソナルコンピュータ、タブレット端末、スマートフォン等の通信機能を有する装置である。視聴者端末300は、ライブコンテンツを視聴する視聴者によって使用される。
参加者端末400a、400bは、それぞれ配信者による配信に参加する参加者によって使用される。参加者は、配信者端末200の配信者とは異なる、他の配信者であってもよいし、ライブコンテンツを視聴する視聴者であってもよい。ただし、参加者端末400a、400bは、視聴者端末300とは異なり、参加者が仮想キャラクタとして配信に参加するための構成を有する。
本実施形態では、参加者端末400aは、視聴者によって使用され、参加者端末400bは、他の配信者によって使用される。参加者端末400aは、後述する公開制限設定が適用され、参加者端末400bは、後述する許可設定により公開制限設定が緩和される。なお、本実施形態では、参加者が視聴者一人と他の配信者一人の場合を説明するが、参加者の数や内訳はこれに限られない。
参加者端末400a、400bは、HMDを備える通信端末であり、通信機能及びモーションキャプチャ機能を有する。参加者端末400a、400bは、モーションキャプチャ機能により、参加者の動き(ジェスチャ)や視線をモーション情報として取得する。モーション情報は、参加者に対応付けられた仮想キャラクタの動きと仮想空間内の映像における視点(すなわちレンダリング)に反映される。なお、モーション情報には、参加者の表情を示すデータが含まれていてもよい。以下の説明において、参加者端末400a、400bのそれぞれを区別する必要がない場合には、両者をまとめて参加者端末400と称する。
<コンテンツ配信サーバの構成>
以下、コンテンツ配信サーバ100の構成を詳細に説明する。図2に示すように、コンテンツ配信サーバ100は、他の装置と通信を行う通信部110と、各種データを記憶する記憶部120と、時刻を計時する計時部130と、装置全体の制御を行う制御部140とを備える。これらの構成要素は、バスラインBLによって相互に接続される。
通信部110は、有線通信又は無線通信を行うためのNIC(Network Interface Card controller)を備える通信インターフェースである。通信部110は、ネットワークNWを介して、配信者端末200及び視聴者端末300と通信を行う。
記憶部120は、RAM(Random Access Memory)、ROM(Read Only Memory)等から構成される。記憶部120は、各種制御処理を実行するためのプログラム、各種データ等を記憶する。
計時部130は、クロック信号を生成するための発振回路及び可変PLL(Phase Locked Loop)、クロック信号のパルス数をカウントするカウンタ回路等から構成される。計時部130はカウントされるパルス数に基づいて時刻を計時する。
制御部140は、CPU(Central Processing Unit)等から構成される。制御部140は、記憶部120に記憶されているプログラムを実行することにより、コンテンツ配信サーバ100の全体の動作を制御する。制御部140は、計時部130がカウントするパルス数に基づいたタイミングで各種制御を実行する。また、制御部140は、計時部130が計時する時刻に基づいて、ライブコンテンツの開始時点からの経過時間をカウントしたり、予め定められた時間(例えば配信予定時間)を経過したか否かを判別したりする。
以下、制御部140の機能的な構成を説明する。制御部140は、情報取得部141、映像生成部142、配信部143、第1の設定受付部144、第2の設定受付部145として機能する。
情報取得部141は、通信部110を介して、配信者端末200から配信者が使用する仮想キャラクタに関する情報と配信者の動きや視線を示すモーション情報とを取得する。また、情報取得部141は、通信部110を介して、参加者端末400から参加者が使用する仮想キャラクタに関する情報と参加者の動きや視線を示すモーション情報とを取得する。情報取得部141は、通信部110を介して配信者端末200と参加者端末400から音声情報を取得する。
映像生成部142は、配信者及び参加者の情報をそれぞれの仮想キャラクタの情報として合成した仮想空間内の映像を生成する。合成は、例えば、予め定められた仮想空間内の映像を背景として、そこにあたかも仮想キャラクタが存在するように映像を生成し、さらに、その仮想キャラクタにその仮想キャラクタを使用する配信者又は参加者の動きが反映されるように映像を生成することによって実現される。
配信部143は、映像生成部142が生成した映像に基づいてライブコンテンツを配信する。生成した映像に基づくライブコンテンツとは、生成した映像データに対して各々の視点でレンダリングした映像を示す情報である。具体的には、ライブコンテンツは、生成した映像を配信者の仮想キャラクタの視点で見た場合の映像と、生成した映像を参加者の仮想キャラクタの視点で見た場合の映像と、生成した映像を配信用の仮想カメラの視点で見た場合の映像(配信画面)とを示す情報を含む。
配信部143によって配信されるライブコンテンツは、映像を示す情報だけでなく、音声情報をも含む。配信部143は、情報取得部141が取得した音声情報と、予め記憶部120に記憶され、演出に使用される音声情報とを、ライブコンテンツとして配信する。
第1の設定受付部144は、配信者端末200から通信部110を介して、公開制限設定を受け付ける。公開制限設定を受け付けた場合に、配信部143は、配信者端末200に表示される仮想空間内に存在するオブジェクトが視聴者端末300に表示されることを制限する。
公開制限設定の対象となるオブジェクトは、配信者の都合で仮想空間内に表示される仮想的な物体を示すオブジェクトである。公開制限設定の対象となるオブジェクトは、例えば、台本と、タイムキーパーと、仮想カメラ又はその仮想カメラの位置とのいずれかを示すオブジェクトである。
ここで、本開示において、台本は、広義に解釈され、配信内容の構成、使用される素材、セリフ等を時系列に示すものに限られない。台本は、配信者が配信中に参考にする資料であって、配信者が視聴者に視聴されたくないものを意味する。例えば、台本には、ニュース記事、通帳、本、写真等の配信に利用するための素材が含まれる。台本を示すオブジェクトは、配信者(すなわち配信者の仮想キャラクタ)の動きに追従して移動し、配信者端末200に表示される仮想空間における視野の所定の位置に表示される。例えば、台本を示すオブジェクトは、コンテンツ配信サーバ100の制御によって、配信者の仮想キャラクタと一定距離を保つように追従する。タイムキーパーを示すオブジェクトについても、このような追従制御が実行されてもよい。
公開制限設定には、複数のパターンがある。例えば、第1の設定受付部144は、オブジェクトに対して、そのオブジェクトを視聴者端末300に表示させるか否かの切替設定を受け付け、切替設定を公開制限設定として受け付けてもよい。第1の設定受付部144は、オブジェクトに対して、そのオブジェクトを視聴者端末300には別のオブジェクトとして表示させる又はぼかした状態で表示させるための表示変更設定を受け付け、その表示変更設定を公開制限設定として受け付けてもよい。
第1の設定受付部144は、配信者端末200に表示される仮想空間内の一部のエリアを、視聴者端末300には表示させない非公開エリアとする設定を受け付け、その非公開エリアを介してそのオブジェクトに対する公開制限設定を行ってもよい。非公開エリアを介したオブジェクトに対する公開制限設定は、例えば、配信者が仮想空間内での物理的な作用によりそのオブジェクトを非公開エリアに移動させることによって行われてもよい。また、非公開エリアを介したオブジェクトに対する公開制限設定は、配信者がそのオブジェクトを移動させるためのインターフェース操作を実行することによって行われてもよい。インターフェース操作は、例えば、操作ボタンの押下、所定のジェスチャ等の操作である。なお、非公開エリアの位置は、仮想空間内において配信者が決めた位置に固定されてもよいし、コンテンツ配信サーバ100の制御によって、配信者の仮想キャラクタの動きに合わせて、追従してもよい。
配信部143は、配信者端末200に表示される仮想空間内に存在するオブジェクトには、公開制限設定の対象となっているか否かを示すマーキングを付与する。マーキングのマークは、例えば、カメラマーク、電球マーク等であってもよいし、黒丸や白丸等の簡易な図形であってもよい。このようなマーキングを付した映像を配信者端末200に表示させることにより、配信者に設定状況を識別させることができる。
第2の設定受付部145は、配信者端末200から通信部110を介して、許可設定を受け付ける。許可設定を受け付けた場合に、配信部143は、公開制限設定されているオブジェクトをその許可設定の対象となる参加者端末400に表示させる。許可設定は、公開制限設定されているオブジェクトのすべてに対して行われてもよいし、それらの一部のオブジェクトに対して行われてもよい。
<配信者端末の構成>
以下、配信者端末200の構成を詳細に説明する。図3に示すように、配信者端末200は、他の装置と通信を行う通信部210と、ユーザの操作を受け付ける操作部220と、各種データを記憶する記憶部230と、各種画像を表示する表示部240と、音声入力を受け付ける音声入力部250と、モーション情報を入力するための動作入力部260と、各種音声を出力する音声出力部270と、装置全体の制御を行う制御部280とを備える。これらの構成要素は、バスラインBLによって相互に接続される。
通信部210は、有線通信又は無線通信を行うためのNICを備える通信インターフェースである。通信部210は、ネットワークNWを介して、コンテンツ配信サーバ100と通信を行う。
操作部220は、操作ボタン、キーボード、ポインティングデバイス等から構成され、ユーザが指示を入力するために用いられるインターフェースである。
記憶部230は、RAM、ROM等から構成される。記憶部230は、各種制御処理を実行するためのプログラム、入力データ等を記憶する。
表示部240は、例えば、LCD、ELディスプレイ等によって構成される。表示部240は、制御部280からの入力データに応じてテキスト、画像等を表示する。
音声入力部250は、マイクロフォン等から構成される。音声入力部250は外部から入力された音声を受け付けて音声情報を取得する。
動作入力部260は、ユーザの入力操作を受け付けて、ユーザのモーション情報として取得する。動作入力部260は、例えば、モーションキャプチャ技術によってモーション情報を取得するためのカメラ、センサ等を備える。モーション情報は、例えば、ユーザの視線、動き(ジェスチャ)を検知するセンサによって検知される。また、モーション情報は、仮想キャラクタの表情や所定の演出動作等を表現するためのボタン操作によって取得されてもよい。
なお、ユーザのモーション情報を仮想キャラクタの動作、視線等に変換する処理は、配信者端末200において実行されてもよいし、コンテンツ配信サーバ100において実行されてもよいし、コンテンツ配信サーバ100及び配信者端末200の協働によって実行されてもよい。
音声出力部270は、例えば、スピーカー、増幅器等によって構成される。音声出力部270は、制御部280からの入力データに応じて音声を出力する。
制御部280は、CPU等から構成される。制御部280は、記憶部230に記憶されているプログラムを実行することにより、配信者端末200の全体の動作を制御する。
以下、制御部280の機能的な構成を説明する。制御部280は、コンテンツ取得部281、表示制御部282、音声出力制御部283、入力情報送信部284、第1の設定情報送信部285、第2の設定情報送信部286として機能する。
コンテンツ取得部281は、通信部210を介してコンテンツ配信サーバ100からライブコンテンツを示すデータを取得する。表示制御部282は、コンテンツ取得部281が取得したライブコンテンツを示すデータに基づいて、表示部240に仮想空間内の映像を表示させる。音声出力制御部283は、コンテンツ取得部281が取得したライブコンテンツを示すデータに基づいて音声出力部270に音声を出力させる。
入力情報送信部284は、音声入力部250において取得した音声情報と動作入力部260において取得したモーション情報とをコンテンツ配信サーバ100に送信する。なお、入力情報送信部284は、仮想キャラクタにモーション情報を反映させた後の情報をコンテンツ配信サーバ100に送信してもよい。
第1の設定情報送信部285は、ユーザから受け付けた公開制限設定を示す情報を、通信部210を介してコンテンツ配信サーバ100に送信する。第2の設定情報送信部286は、ユーザから受け付けた許可設定を示す情報を、通信部210を介してコンテンツ配信サーバ100に送信する。
<視聴者端末の構成>
以下、視聴者端末300の構成を詳細に説明する。図4に示すように、視聴者端末300は、他の装置と通信を行う通信部310と、ユーザの入力操作を受け付ける操作部320と、各種データを記憶する記憶部330と、各種画像を表示する表示部340と、音声を出力する音声出力部350と、装置全体の制御を行う制御部360とを備える。これらの構成要素は、バスラインBLによって相互に接続される。
通信部310は、有線通信又は無線通信を行うためのNICを備える通信インターフェースである。通信部310は、ネットワークNWを介して、コンテンツ配信サーバ100と通信を行う。
操作部320は、操作ボタン、キーボード、ポインティングデバイス等から構成され、ユーザが指示を入力するために用いられるインターフェースである。
記憶部330は、RAM、ROM等から構成される。記憶部330は、各種制御処理を実行するためのプログラム、入力データ等を記憶する。
表示部340は、例えば、LCD、ELディスプレイ等によって構成される。表示部340は、制御部360からの入力データに応じてテキスト、画像等を表示する。
音声出力部350は、スピーカー、アンプ等から構成される。音声出力部350は制御部360からの入力データに応じて音声を出力する。
制御部360は、CPU等から構成される。制御部360は、記憶部330に記憶されているプログラムを実行することにより、視聴者端末300の全体の動作を制御する。
以下、制御部360の機能的な構成を説明する。制御部360は、コンテンツ取得部361、表示制御部362、音声出力制御部363として機能する。
コンテンツ取得部361は、通信部310を介してコンテンツ配信サーバ100からライブコンテンツを示すデータを取得する。表示制御部362は、コンテンツ取得部361が取得したライブコンテンツを示すデータに基づいて、表示部340に仮想空間内の映像を表示させる。音声出力制御部363は、コンテンツ取得部361が取得したライブコンテンツを示すデータに基づいて音声出力部350に音声を出力させる。
<参加者端末の構成>
以下、参加者端末400の構成を詳細に説明する。図5に示すように、参加者端末400は、他の装置と通信を行う通信部410と、ユーザの入力操作を受け付ける操作部420と、各種データを記憶する記憶部430と、各種画像を表示する表示部440と、音声入力を受け付ける音声入力部450と、モーション情報を入力するための動作入力部460と、各種音声を出力する音声出力部470と、装置全体の制御を行う制御部480とを備える。これらの構成要素は、バスラインBLによって相互に接続される。
参加者端末400の構成は、基本的に、配信者端末200の構成と同じである。例えば、参加者端末400は、参加者が配信に参加するために必要な情報として、参加者のモーション情報を取得し、それを参加者の仮想キャラクタの動作に反映するためにコンテンツ配信サーバ100に送信する機能を有している。
ただし、参加者端末400は、公開制限設定や許可設定を受け付ける機能を有しない点で配信者端末200とは異なる。参加者端末400の制御部480は、コンテンツ取得部481、表示制御部482、音声出力制御部483、入力情報送信部484として機能する。これらの機能は、配信者端末200の制御部280のコンテンツ取得部281、表示制御部282、音声出力制御部283、入力情報送信部284と同じである。
<映像と配信画面の具体例>
以下、配信されるライブコンテンツを示す情報に基づいて表示される映像と配信画面の具体例を説明する。
図6は、配信者端末200に表示される仮想空間の映像の一例を示している。配信者端末200に表示される仮想空間の映像は、非公開エリアではない領域A1と非公開エリアを示す領域A2を含む。非公開エリアは、公開制限設定に基づいて設定される領域であり、この領域A2は、視聴者端末300には表示されない。
図示するように、配信者目線の映像では、台本を示すオブジェクト10、タイムキーパーを示すオブジェクト20、仮想カメラを示すオブジェクト40が表示される。これらのオブジェクト10、20、30、40は配信者の都合によって表示されるオブジェクトである。また、映像には、テーブルを示すオブジェクト30も表示されている。
なお、仮想カメラを示すオブジェクト40の代わりに、仮想カメラの位置、撮影角度、撮影領域等を示すオブジェクトが表示されてもよい。仮想カメラを示すオブジェクト40は、視聴者が視聴する際の撮影位置、撮影角度、撮影領域、視点等を示している。このオブジェクト40の表示により、配信者は、どのように視聴者に見られているかを意識して配信することができる。
テーブルを示すオブジェクト30の左上には小さなマーク(黒丸)が付加されている。これにより、配信者は、視聴者が視聴する配信画面に、テーブルを示すオブジェクト30が表示される可能性があることがわかる。
仮想カメラを示すオブジェクト40にも小さなマーク(黒丸)が付加されている。しかし、仮想カメラを示すオブジェクト40は非公開エリアに配置されているため、視聴者が視聴する配信画面には表示されない。台本を示すオブジェクト10、タイムキーパーを示すオブジェクト20には、小さなマーク(黒丸)が付加されていないため、視聴者が視聴する配信画面には表示されない。
なお、配信者は、台本を示すオブジェクト10、タイムキーパーを示すオブジェクト20、仮想カメラを示すオブジェクト40を公開するか否かの切替設定をすることができる。また、公開されているオブジェクトを非公開エリアの領域A2に移動させることができる。
図7は、視聴者端末300に表示される配信画面の一例を示している。領域A3には、仮想空間内の映像において、仮想カメラを示すオブジェクト40の視点でレンダリングされた画像が動画として表示される。領域A4には、視聴者が投稿するコメント入力欄が表示され、その右には、投稿実行ボタンB1が表示される。
この配信画面には、配信者を示す仮想キャラクタ50と、公開制限設定がされているテーブルを示すオブジェクト30しか表示されていない。配信画面では、非公開エリアに設定されている領域A2は存在しないことになっている。なお、配信画面には、図6の配信者目線の映像には入っていなかった配信者を示す仮想キャラクタ50が入っている。これは、配信者端末200と、視聴者端末300とでは、視点が異なるからである。
図8は、視聴者によって使用される参加者端末400aに表示される仮想空間の映像の一例を示している。この例では、参加者端末400aは、配信者による公開制限設定が適用されている。
この場合、参加者端末400aには、図6に示す非公開エリアに設定されている領域A2は表示されない。非公開エリアの領域A2に配置されている仮想カメラを示すオブジェクト40も表示されない。台本を示すオブジェクト10及びタイムキーパーを示すオブジェクト20は、公開制限設定されているため、これらも表示されない。なお、図8に示す映像は、参加者の固有の視点でレンダリングされているため、図6や図7とは視点が異なる。
図9は、他の配信者によって使用される参加者端末400bに表示される仮想空間の映像の一例を示している。この例では、参加者端末400bは、配信者による許可設定が適用され、公開制限設定が緩和されている。
この場合、参加者端末400bには、図6に示す非公開エリアに設定されている領域A2に対応する領域A7が表示される。「領域A2に対応する領域A7」というのは、配信者の視点で映る領域A2と参加者の視点で映る領域A7とでは視点が異なる点で相違することを意味する。領域A7には、非公開エリアの領域A2に配置されている仮想カメラを示すオブジェクト40も表示される。
台本を示すオブジェクト10及びタイムキーパーを示すオブジェクト20は、図9では表示されていない。しかし、これらも参加者端末400bに表示されてもよい。配信者は、配信者端末200を操作して、公開制限設定をオブジェクト毎に設定可能である。
<処理の流れ>
以下、図10を参照しながら、コンテンツ配信サーバ100が実行する制御処理の一例を説明する。この処理は、配信者端末200がコンテンツ配信サーバ100にログインして、ライブコンテンツの配信準備を開始したことを契機に実行される。
まず、制御部140は、配信者端末200に配信前映像を表示させる(ステップS101)。制御部140は、通信部110を介して、配信前映像や初期設定を行うための情報等を配信者端末200に送信する。なお、制御部140は、参加者が配信者と同様に最初から参加する場合には、参加者端末400にも配信前映像を表示させる。
配信前映像は、例えば、背景や各種オブジェクトを含む仮想空間内の映像であり、配信者がどのような仮想空間で配信を行うか設定するための映像である。配信前映像では、仮想キャラクタは表示されなくてもよいし、配信者の情報と連動していない状態で表示されてもよい。また、配信前映像において、記憶部120に記憶されている仮想キャラクタやオブジェクトを表示させ、それらを選択肢として、配信者に配信に使用するものを選択させてもよい。
次に、制御部140の情報取得部141は、通信部110を介して、配信者端末200から各種情報を取得する(ステップS102)。各種情報は、例えば、配信者が使用する仮想キャラクタの情報やモーション情報である。なお、制御部140の情報取得部141は、参加者が配信に参加したタイミングで、通信部110を介して、参加者端末400からも各種情報を取得する。
制御部140の配信部143は、配信者端末200に合成した映像を表示させる(ステップS103)。具体的には、制御部140の映像生成部142が配信者の情報を仮想キャラクタの情報として合成した仮想空間内の映像を生成する。制御部140の配信部143は、通信部110を介して配信者端末200に合成した仮想空間内の映像を示す情報を送信する。
なお、制御部140の映像生成部142は、参加者が配信に参加している場合には、参加者の情報についても参加者の仮想キャラクタの情報として反映した仮想空間内の映像を生成する。この場合、制御部140の配信部143は、参加者端末400にも合成した仮想空間内の映像を示す情報を送信する。ただし、この情報は、参加者の視点の映像を示す情報であるため、配信者端末200に送信される情報とは異なる。
ここで、制御部140は、通信部110を介して、配信者端末200から各種設定を受け付ける(ステップS104)。各種設定には、第1の設定受付部144が受け受ける第1の設定(公開制限設定)と、第2の設定受付部145が受け付ける第2の設定(許可設定)とが含まれる。
制御部140は、公開制限設定があるか否かを判別する(ステップS105)。制御部140は、公開制限設定がないと判別した場合(ステップS105;N)、合成した仮想空間内の映像に基づいてライブコンテンツを配信する(ステップS109)。この場合、制御部140の配信部143は、同じ仮想空間内の映像に基づいてライブコンテンツを、配信者端末200、視聴者端末300、参加者端末400に配信する。
一方、制御部140は、公開制限設定があると判別した場合(ステップS105;Y)、ライブコンテンツの表示に制限をかける(ステップS106)。公開制限の具体的な方法については上述した具体例の通りである。
また、制御部140は、許可設定があるか否かを判別する(ステップS107)。制御部140は、許可設定がないと判別した場合(ステップS107;N)、合成した仮想空間内の映像に基づいてライブコンテンツを配信する(ステップS109)。この場合、制御部140の配信部143は、視聴者端末300及び参加者端末400にライブコンテンツの表示に制限をかけた状態で、ライブコンテンツを配信する。
一方、制御部140は、許可設定があると判別した場合(ステップS107;Y)、その参加者端末400については、ライブコンテンツの表示の制限を緩和する(ステップS108)。この場合、制御部140の配信部143は、合成した仮想空間内の映像に基づいてライブコンテンツを配信する(ステップS109)。
ただし、視聴者端末300及び許可設定されていない参加者端末400には、ライブコンテンツの表示に制限をかけた状態で、ライブコンテンツを配信する。例えば、許可設定された参加者端末400(例えば参加者端末400b)には、公開制限されたオブジェクトも表示させた状態でライブコンテンツが配信される。許可設定されていない参加者端末400(例えば参加者端末400a)には、公開制限されたオブジェクトを表示させない状態でライブコンテンツが配信される。
<効果の説明>
本実施形態に係るコンテンツ配信システム1において、コンテンツ配信サーバ100は、公開制限設定を受け付ける第1の設定受付部144を備え、配信者端末200は、第1の設定情報送信部285を備えている。
この場合、配信者は、仮想空間内に表示されるオブジェクトについて公開制限設定することができる。これにより、配信者の都合で使用され、かつ視聴者に視聴されたくないオブジェクトを、配信者端末200には表示させ、視聴者端末300には表示させないことが可能となる。
また、本実施形態に係るコンテンツ配信システム1において、コンテンツ配信サーバ100は、許可設定を受け付ける第2の設定受付部145を備え、配信者端末200は、第2の設定情報送信部286を備えている。この場合、配信者は、参加者端末400に対して許可設定することによって参加者には公開制限設定されているオブジェクトを視聴させることができる。このように、配信者は、配信状況に応じて公開を制限することができる。
以上で実施形態の説明を終了するが、上記実施形態は一例に過ぎない。そのため、コンテンツ配信システム1の具体的な構成、処理の内容等は上記実施形態で説明したものに限られない。以下、上記実施形態の変形例について説明する。なお、実施形態に係るコンテンツ配信システム1と共通する構成要素については同一の符号を付して説明する。
(変形例)
コンテンツ配信サーバ100が実行する制御処理の順序は、図10に示す例に限られない。例えば、ステップS101の配信前映像を表示させる処理は省略されてもよい。ステップS104の各種設定を受け付ける処理は、ステップS109以降のライブコンテンツの配信中に実行されてもよいし、ステップS102やステップS103より前のタイミングで実行されてもよい。
上記実施形態では、各種設定に応じて、コンテンツ配信サーバ100が配信するコンテンツの内容に変形を加えている。すなわち、配信段階でコンテンツの表示制限を実行している。しかし、配信されるコンテンツの内容はすべて同じであってもよく、受信側で映像を表示させる段階でコンテンツに表示制限を実行してもよい。視聴者端末300や参加者端末400がプログラムを実行してコンテンツを表示する際に、各種設定に応じて表示制限を実行してもよい。例えば、視聴者端末300や参加者端末400が、配信者による各種設定の情報を受信して、それに応じた動作を行うことによって、このような変形が実現可能である。
公開制限設定の方法は、上記実施形態に示すものに限られない。例えば、第1の設定受付部144は、配信者端末200に表示される仮想空間内にモザイクオブジェクトを表示させる設定を受け付けてもよい。配信部143は、そのモザイクオブジェクトと重なる領域を視聴者端末300にはモザイクをかけた状態で表示させ、そのモザイクオブジェクトを介してオブジェクトに対する公開制限設定を行うように構成されてもよい。
例えば、図11では、視聴者端末300において円板状のモザイクオブジェクト60が表示されている。このモザイクオブジェクト60は、重なる領域をモザイク状態で表示させる。ただし、モザイクオブジェクト60は、視聴者端末300にはモザイク状態を表示させるのに対し、配信者端末200や許可設定がなされた参加者端末400には透過状態を表示させる。
この場合、配信者は、モザイクオブジェクト60又は隠したいオブジェクトを移動させ、隠したいオブジェクトがモザイクオブジェクト60と重なるように配置することができる。モザイクオブジェクト60は、配信者の仮想キャラクタが保持して移動させることが可能な構成にされてもよいし、配信者が所定の操作を行った場合に移動するように構成されてもよい。
これにより、隠したいオブジェクト(例えば、タイムキーパーを示すオブジェクト20)にモザイクをかけて視聴者端末300に表示させることが可能となる。一方、配信者と許可設定されている参加者は、モザイクオブジェクト60と重なる領域であっても、モザイクオブジェクト60が透過した状態で映像を閲覧することができる。
モザイクオブジェクト60は、図11に示す円板状に限られない。例えば、容器のように周囲を覆う形状であってもよい。この場合、隠したいオブジェクトを保持しつつ、仮想カメラによる撮影角度が変わった場合であってもモザイク状態を維持することが可能となる。
上記実施形態では、公開制限設定と許可設定に基づいて、配信者の都合で仮想空間内に表示されるオブジェクトの公開を制限する構成を説明した。しかし、コンテンツ配信サーバ100は、オブジェクトの公開を制限するだけでなく、音声の公開を制限し、配信者端末200、視聴者端末300、参加者端末400のそれぞれを制御する構成をさらに備えていてもよい。
例えば、コンテンツ配信サーバ100は、公開制限設定と許可設定に基づいて、配信者端末200、視聴者端末300、参加者端末400のそれぞれに異なる音声出力を実行させる構成であってもよい。例えば、配信者端末200と許可設定されている参加者端末400には、所定のタイミングで所定の音声を出力させ、視聴者端末300には、その所定の音声を出力させない構成であってもよい。所定の音声は、例えば、「あと5分で終わりです。」のような配信の進行スケジュールに基づくナビゲーションであってもよいし、配信者又は参加者が使用する話題の題材を提示するものであってもよい。
また、音声出力の制御は、これに限られない。例えば、コンテンツ配信サーバ100は、公開制限設定と許可設定に基づいて、配信者と参加者との間で秘密の会話を可能とするために、配信者端末200と参加者端末400には互いの会話を音声出力させ、視聴者端末300にはその会話を音声出力させない構成であってもよい。このような音声出力制御は、例えば、第1の設定受付部144と、第2の設定受付部145と、音声出力制御部283、363、483との協働によって実現される。
上記実施形態に係るコンテンツ配信システム1では、配信者端末200と視聴者端末300と参加者端末400とを異なる構成とし、それぞれを区別可能にしている。しかし、これらの各装置の構成要素を組み合わせて、その装置を配信者端末、視聴者端末及び参加者端末として機能する構成としてもよい。
上記実施形態に係るコンテンツ配信システム1では、コンテンツ配信サーバ100の映像生成部142が、配信者の動きを仮想キャラクタの動きとして合成した仮想空間内の映像を生成している。しかし、コンテンツ配信サーバ100は、映像生成部142を備えていない構成であってもよい。
例えば、配信者端末200がこのような映像生成を実行し、その映像データをコンテンツ配信サーバ100に送信し、コンテンツ配信サーバ100が配信者端末200から取得した映像データに基づくライブコンテンツを配信してもよい。また、映像生成部142が行う処理と実質的に同一の処理が、コンテンツ配信サーバ100と配信者端末200が協働することによって実行されてもよい。このような構成によれば、コンテンツ配信サーバ100で仮想空間内の映像を生成する場合に比べて、コンテンツ配信サーバ100の処理負担を軽減することができる。
配信者端末200が映像生成を実行する構成で配信を行う場合、配信に参加する参加者端末400は、参加者のモーション情報とキャラクタ情報を取得して、参加者の動きを仮想キャラクタに反映した映像を生成し、それをコンテンツ配信サーバ100に送信する。コンテンツ配信サーバ100は、その映像データを参加先の配信の配信主が使用する配信者端末200に送信する。配信主が使用する配信者端末200は、配信主である配信者のモーション情報とキャラクタ情報を取得して、仮想空間内の映像を生成し、それにコンテンツ配信サーバ100から取得した参加者の映像データを加えて両者の映像を合成する。
これにより、参加者と配信主が一緒に映った映像データが生成される。配信主の配信者端末200は、その合成された映像データをコンテンツ配信サーバ100に送信し、コンテンツ配信サーバは、その映像データに基づくライブコンテンツを配信する。
また、参加者端末400では映像を生成せずに、参加者端末400が参加者のキャラクタ情報やモーション情報等をコンテンツ配信サーバ100に送信して、コンテンツ配信サーバ100がそれらの情報を配信主が使用する配信者端末200に送信し、その配信者端末200で参加者のモーション情報等と配信主のモーション情報等との両方を一つの仮想空間内に反映させて映像を生成してもよい。これにより、参加者と配信主が一緒に映った映像データが生成され、コンテンツ配信サーバ100は、その映像データに基づくライブコンテンツを配信することができる。
なお、配信者端末200が映像生成を実行する場合であっても、配信者端末200は、生成した映像データを送信する時に、公開制限設定や許可設定等の情報も送信するため、コンテンツ配信サーバ100がそれらの情報に基づいて、配信画面上の表示に制限をかけることができる。
このように、コンテンツ配信サーバ100は、必ずしも、自装置で仮想空間内の映像を生成する映像生成部142を備えている必要はなく、配信者(又は参加者)の動きを仮想キャラクタの動きとして合成した仮想空間内の映像を取得して、その映像に応じたライブコンテンツを配信すればよい。
コンテンツ配信サーバ100は、映像データそのものをライブコンテンツとして配信しなくてもよい。例えば、コンテンツ配信サーバ100の配信部143は、配信者の情報を仮想キャラクタの情報とした仮想空間内の映像を合成させるためのライブコンテンツを配信してもよい。この場合、合成に必要な情報が配信され、それを受信した視聴者端末300や参加者端末400等が、それぞれ公開制限設定に応じて映像を合成(レンダリング)して、その映像を表示させる処理を実行する。
コンテンツ配信サーバ100が映像データをライブコンテンツとして配信する場合、公開制限設定に基づいて配信先によって異なるライブコンテンツが配信されてもよい。この場合、それを受信した視聴者端末300や参加者端末400等は、その受信データに基づく映像を表示させるだけである。すなわち、この場合には、コンテンツ配信サーバ100が配信時に公開制限設定に基づく処理を実行する。しかし、コンテンツ配信サーバ100が映像を合成させるためのライブコンテンツを配信する場合、それを受信した視聴者端末300や参加者端末400等は、その受信データに基づく合成処理を実行する。すなわち、この場合には、コンテンツ配信サーバ100は、同じライブコンテンツを配信するだけであり、それを受信した端末において公開制限設定に基づく処理が実行される。
また、本開示に係るコンテンツ配信システムは、上記装置によらず、例えば、コンピュータがプログラムを実行することで、その機能を実現してもよい。コンテンツ配信システム1の機能を実現するためのプログラムは、USB(Universal Serial Bus)メモリ、CD−ROM(Compact Disc−Read Only Memory)、DVD(Digital Versatile Disc)、HDD(Hard Disc Drive)等のコンピュータ読み取り可能な記録媒体に記憶されてもよいし、ネットワークを介してコンピュータにダウンロードされてもよい。
以上、本開示の好ましい実施形態について説明したが、本開示は係る特定の実施形態に限定されるものではなく、本開示には、特許請求の範囲に記載された発明とその均等の範囲が含まれる。また、上記実施形態及び変形例で説明した装置の構成は、技術的な矛盾が生じない限り、適宜組み合わせ可能である。
1…コンテンツ配信システム、100…コンテンツ配信サーバ、200…配信者端末、300…視聴者端末、400…参加者端末、141…情報取得部、142…映像生成部、143…配信部、144…第1の設定受付部、145…第2の設定受付部、281,361,481…コンテンツ取得部、282,362,482…表示制御部、283,363,483…音声出力制御部、284,484…入力情報送信部、285…第1の設定情報送信部、286…第2の設定情報送信部

上記目的を達成するため、本開示の第1の観点に係るコンテンツ配信サーバは、配信者の情報を仮想キャラクタの情報とした仮想空間内の映像を合成させるためのライブコンテンツを配信する配信部と、配信者が使用する配信者端末から、配信者端末に表示される仮想空間内に存在するオブジェクトに対して、ライブコンテンツを視聴する視聴者が使用する視聴者端末に表示されることを制限するための公開制限設定を受け付ける第1の設定受付部とを備え、第1の設定受付部は、配信者端末に表示される仮想空間内の一部のエリアを、視聴者端末には表示させない非公開エリアとする設定を配信者から受け付け、非公開エリアを介してオブジェクトに対する公開制限設定を行う、ことを特徴とする。
また、上記目的を達成するため、本開示の第2の観点に係るコンテンツ配信方法は、配信者の情報を仮想キャラクタの情報とした仮想空間内の映像を合成させるためのライブコンテンツを配信する配信ステップと、配信者が使用する配信者端末から、配信者端末に表示される仮想空間内に存在するオブジェクトに対して、ライブコンテンツを視聴する視聴者が使用する視聴者端末に表示されることを制限するための公開制限設定を受け付ける第1の設定受付ステップとを含み、第1の設定受付ステップにおいて、配信者端末に表示される仮想空間内の一部のエリアを、視聴者端末には表示させない非公開エリアとする設定を配信者から受け付け、非公開エリアを介してオブジェクトに対する公開制限設定を行う、ことを特徴とする。
また、上記目的を達成するため、本開示の第3の観点に係るプログラムは、コンピュータを、配信者の情報を仮想キャラクタの情報とした仮想空間内の映像を合成させるためのライブコンテンツを配信する配信手段、配信者が使用する配信者端末から、配信者端末に表示される仮想空間内に存在するオブジェクトに対して、ライブコンテンツを視聴する視聴者が使用する視聴者端末に表示されることを制限するための公開制限設定を受け付ける第1の設定受付手段、として機能させ、第1の設定受付手段は、配信者端末に表示される仮想空間内の一部のエリアを、視聴者端末には表示させない非公開エリアとする設定を配信者から受け付け、非公開エリアを介してオブジェクトに対する公開制限設定を行う。

Claims (10)

  1. 配信者の情報を仮想キャラクタの情報とした仮想空間内の映像を合成させるためのライブコンテンツを配信する配信部と、
    前記配信者が使用する配信者端末から、該配信者端末に表示される前記仮想空間内に存在するオブジェクトに対して、前記ライブコンテンツを視聴する視聴者が使用する視聴者端末に表示されることを制限するための公開制限設定を受け付ける第1の設定受付部と、
    を備えることを特徴とするコンテンツ配信サーバ。
  2. 前記配信者端末から、前記配信者による配信に参加する参加者が使用する参加者端末に、前記公開制限設定されている前記オブジェクトを表示させる許可設定を受け付ける第2の設定受付部をさらに備え、
    前記配信者端末によって前記許可設定された前記参加者端末には、前記公開制限設定されている前記オブジェクトを表示させ、前記配信者端末によって前記許可設定されていない前記参加者端末には、前記公開制限設定されている前記オブジェクトを表示させない、
    ことを特徴とする請求項1に記載のコンテンツ配信サーバ。
  3. 前記第1の設定受付部は、前記オブジェクトに対して、該オブジェクトを前記視聴者端末に表示させるか否かの切替設定を受け付け、該切替設定を前記公開制限設定として受け付ける、
    ことを特徴とする請求項1又は2に記載のコンテンツ配信サーバ。
  4. 前記第1の設定受付部は、前記オブジェクトに対して、該オブジェクトを前記視聴者端末には別の前記オブジェクトとして表示させる又はぼかした状態で表示させるための表示変更設定を受け付け、該表示変更設定を前記公開制限設定として受け付ける、
    ことを特徴とする請求項1から3のいずれか1項に記載のコンテンツ配信サーバ。
  5. 前記第1の設定受付部は、前記配信者端末に表示される前記仮想空間内の一部のエリアを、前記視聴者端末には表示させない非公開エリアとする設定を受け付け、該非公開エリアを介して前記オブジェクトに対する前記公開制限設定を行う、
    ことを特徴とする請求項1から4のいずれか1項に記載のコンテンツ配信サーバ。
  6. 前記第1の設定受付部は、前記配信者端末に表示される前記仮想空間内にモザイクオブジェクトを表示させる設定を受け付け、該モザイクオブジェクトと重なる領域を前記視聴者端末にはモザイクをかけた状態で表示させ、該モザイクオブジェクトを介して前記オブジェクトに対する前記公開制限設定を行う、
    ことを特徴とする請求項1から5のいずれか1項に記載のコンテンツ配信サーバ。
  7. 前記公開制限設定の対象となる前記オブジェクトは、台本と、タイムキーパーと、仮想カメラ又は該仮想カメラの位置とのいずれかを示す前記オブジェクトである、
    ことを特徴とする請求項1から6のいずれか1項に記載のコンテンツ配信サーバ。
  8. 前記配信者端末に表示される前記仮想空間内に存在する前記オブジェクトには、前記公開制限設定の対象となっているか否かを示すマーキングが付与される、
    ことを特徴とする請求項1から7のいずれか1項に記載のコンテンツ配信サーバ。
  9. 配信者の情報を仮想キャラクタの情報とした仮想空間内の映像を合成させるためのライブコンテンツを配信する配信ステップと、
    前記配信者が使用する配信者端末から、該配信者端末に表示される前記仮想空間内に存在するオブジェクトに対して、前記ライブコンテンツを視聴する視聴者が使用する視聴者端末に表示されることを制限するための公開制限設定を受け付ける第1の設定受付ステップと、
    を含むことを特徴とするコンテンツ配信方法。
  10. コンピュータを、
    配信者の情報を仮想キャラクタの情報とした仮想空間内の映像を合成させるためのライブコンテンツを配信する配信手段、
    前記配信者が使用する配信者端末から、該配信者端末に表示される前記仮想空間内に存在するオブジェクトに対して、前記ライブコンテンツを視聴する視聴者が使用する視聴者端末に表示されることを制限するための公開制限設定を受け付ける第1の設定受付手段、
    として機能させるプログラム。

JP2018162619A 2018-08-31 2018-08-31 コンテンツ配信サーバ、コンテンツ配信方法及びプログラム Active JP6502565B1 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2018162619A JP6502565B1 (ja) 2018-08-31 2018-08-31 コンテンツ配信サーバ、コンテンツ配信方法及びプログラム
CN202211341127.0A CN115695839A (zh) 2018-08-31 2019-07-23 内容发布服务器、内容发布方法及计算机可读存储介质
CN201980050557.7A CN112514405B (zh) 2018-08-31 2019-07-23 内容发布服务器、内容发布方法及计算机可读存储介质
PCT/JP2019/028801 WO2020044873A1 (ja) 2018-08-31 2019-07-23 コンテンツ配信サーバ、コンテンツ配信方法及びプログラム
US17/257,551 US11425461B2 (en) 2018-08-31 2019-07-23 Content distribution server, content distribution system, content distribution method, and program
US17/860,769 US11956504B2 (en) 2018-08-31 2022-07-08 Content distribution server, content distribution system, content distribution method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018162619A JP6502565B1 (ja) 2018-08-31 2018-08-31 コンテンツ配信サーバ、コンテンツ配信方法及びプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2019052349A Division JP2020039109A (ja) 2019-03-20 2019-03-20 コンテンツ配信サーバ、コンテンツ配信方法及びプログラム

Publications (2)

Publication Number Publication Date
JP6502565B1 JP6502565B1 (ja) 2019-04-17
JP2020036251A true JP2020036251A (ja) 2020-03-05

Family

ID=66166678

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018162619A Active JP6502565B1 (ja) 2018-08-31 2018-08-31 コンテンツ配信サーバ、コンテンツ配信方法及びプログラム

Country Status (4)

Country Link
US (2) US11425461B2 (ja)
JP (1) JP6502565B1 (ja)
CN (2) CN115695839A (ja)
WO (1) WO2020044873A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021193399A1 (ja) * 2020-03-26 2021-09-30 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置およびゲーム画像配信方法
JP2021180474A (ja) * 2020-05-15 2021-11-18 株式会社ドワンゴ 動画配信装置、動画配信方法、および、動画配信プログラム
JP7392957B2 (ja) 2022-03-29 2023-12-06 グリー株式会社 コンピュータプログラム、方法及びサーバ装置

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022070336A1 (ja) * 2020-09-30 2022-04-07 GlobalTreehouse株式会社 禅促進システム及びプログラム

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008106196A1 (en) * 2007-03-01 2008-09-04 Sony Computer Entertainment America Inc. Virtual world avatar control, interactivity and communication interactive messaging

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8601386B2 (en) * 2007-04-20 2013-12-03 Ingenio Llc Methods and systems to facilitate real time communications in virtual reality
US8049750B2 (en) * 2007-11-16 2011-11-01 Sportvision, Inc. Fading techniques for virtual viewpoint animations
JP5916365B2 (ja) * 2011-12-09 2016-05-11 株式会社ドワンゴ 映像送信システム、映像送信方法及びコンピュータプログラム
US20140279318A1 (en) * 2013-03-14 2014-09-18 No Surprises Software, Llc Pre-bill time information service
KR102396034B1 (ko) * 2013-12-24 2022-05-10 엘지전자 주식회사 디지털 디바이스 및 그 제어 방법
US9621940B2 (en) * 2014-05-29 2017-04-11 Time Warner Cable Enterprises Llc Apparatus and methods for recording, accessing, and delivering packetized content
CN107438183A (zh) * 2017-07-26 2017-12-05 北京暴风魔镜科技有限公司 一种虚拟人物直播方法、装置及系统
US10740804B2 (en) * 2017-07-28 2020-08-11 Magical Technologies, Llc Systems, methods and apparatuses of seamless integration of augmented, alternate, virtual, and/or mixed realities with physical realities for enhancement of web, mobile and/or other digital experiences
US10838506B2 (en) * 2017-10-12 2020-11-17 Motorola Mobility Llc Gesture based object identification apparatus and method in a real time locating system

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008106196A1 (en) * 2007-03-01 2008-09-04 Sony Computer Entertainment America Inc. Virtual world avatar control, interactivity and communication interactive messaging

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
"バーチャルキャスト ver1.2.2a リリース", [ONLINE], JPN6018040862, 11 June 2018 (2018-06-11), ISSN: 0003900275 *
"バーチャルキャスト ver1.2.4b リリース", [ONLINE], JPN6018040861, 25 June 2018 (2018-06-25), ISSN: 0003900274 *
"バーチャルキャスト ver1.2.6 リリース", [ONLINE], JPN6018040863, 19 July 2018 (2018-07-19), ISSN: 0003900276 *
"徹底解説!誰でもVTuberになれる「バーチャルキャスト」とは?", [ONLINE], JPN6018040860, 21 April 2018 (2018-04-21), ISSN: 0003900273 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021193399A1 (ja) * 2020-03-26 2021-09-30 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置およびゲーム画像配信方法
JP2021153812A (ja) * 2020-03-26 2021-10-07 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置およびゲーム画像配信方法
JP7339198B2 (ja) 2020-03-26 2023-09-05 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置およびゲーム画像配信方法
JP2021180474A (ja) * 2020-05-15 2021-11-18 株式会社ドワンゴ 動画配信装置、動画配信方法、および、動画配信プログラム
JP7392957B2 (ja) 2022-03-29 2023-12-06 グリー株式会社 コンピュータプログラム、方法及びサーバ装置

Also Published As

Publication number Publication date
WO2020044873A1 (ja) 2020-03-05
US11956504B2 (en) 2024-04-09
US20220353575A1 (en) 2022-11-03
CN115695839A (zh) 2023-02-03
CN112514405A (zh) 2021-03-16
CN112514405B (zh) 2022-12-20
US11425461B2 (en) 2022-08-23
US20210250650A1 (en) 2021-08-12
JP6502565B1 (ja) 2019-04-17

Similar Documents

Publication Publication Date Title
JP6397595B1 (ja) コンテンツ配信サーバ、コンテンツ配信システム、コンテンツ配信方法及びプログラム
US11277585B2 (en) Content distribution server, content distribution system, content distribution method, and program
WO2020044873A1 (ja) コンテンツ配信サーバ、コンテンツ配信方法及びプログラム
JP6469279B1 (ja) コンテンツ配信サーバ、コンテンツ配信システム、コンテンツ配信方法及びプログラム
JP7498209B2 (ja) 情報処理装置、情報処理方法およびコンピュータプログラム
JP6556301B1 (ja) コンテンツ配信サーバ、仮想キャラクタ提供サーバ、コンテンツ配信システム、コンテンツ配信方法及びプログラム
US20190313146A1 (en) System and methods for interactive filters in live streaming media
US11206452B2 (en) Video display system, information processing apparatus, and video display method
JP2020039112A (ja) コンテンツ配信サーバ、コンテンツ配信システム、コンテンツ配信方法及びプログラム
JP2019185720A (ja) コンテンツ配信サーバ、コンテンツ配信システム、コンテンツ配信方法及びプログラム
JP2020039109A (ja) コンテンツ配信サーバ、コンテンツ配信方法及びプログラム
JP6473265B1 (ja) コンテンツ配信サーバ、コンテンツ配信システム、コンテンツ配信方法及びプログラム
JP6487585B1 (ja) コンテンツ配信サーバ、仮想キャラクタ提供サーバ、コンテンツ配信システム、コンテンツ配信方法及びプログラム
JP2022097350A (ja) 情報処理システム、情報処理方法およびコンピュータプログラム
JP2020038601A (ja) コンテンツ配信サーバ、コンテンツ配信システム、コンテンツ配信方法及びプログラム
JP2019185736A (ja) コンテンツ配信サーバ、コンテンツ配信システム、コンテンツ配信方法及びプログラム
JP7470337B2 (ja) 情報処理システム、情報処理方法およびコンピュータプログラム
JP7470312B2 (ja) 情報処理システム、情報処理方法およびコンピュータプログラム
Ostkamp et al. Using mobile devices to enable visual multiplexing on public displays: three approaches compared
JP2019185750A (ja) コンテンツ配信サーバ、仮想キャラクタ提供サーバ、コンテンツ配信システム、コンテンツ配信方法及びプログラム
JP2024088629A (ja) 情報処理システム、情報処理方法およびコンピュータプログラム
JP2023067679A (ja) 情報処理システム、情報処理方法およびコンピュータプログラム
JP2023066520A (ja) 情報処理システム、情報処理方法およびコンピュータプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180831

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20180831

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20181010

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181018

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20181119

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20181101

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181203

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190305

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190320

R150 Certificate of patent or registration of utility model

Ref document number: 6502565

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250