JP2019047366A - コンテンツ配信サーバ、コンテンツ配信方法およびコンテンツ配信プログラム - Google Patents

コンテンツ配信サーバ、コンテンツ配信方法およびコンテンツ配信プログラム Download PDF

Info

Publication number
JP2019047366A
JP2019047366A JP2017169299A JP2017169299A JP2019047366A JP 2019047366 A JP2019047366 A JP 2019047366A JP 2017169299 A JP2017169299 A JP 2017169299A JP 2017169299 A JP2017169299 A JP 2017169299A JP 2019047366 A JP2019047366 A JP 2019047366A
Authority
JP
Japan
Prior art keywords
content
distributor
live
superimposed
distribution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017169299A
Other languages
English (en)
Other versions
JP6305614B1 (ja
Inventor
量生 川上
Kazuo Kawakami
量生 川上
寛明 齊藤
Hiroaki Saito
寛明 齊藤
尚 小嶋
Takashi Kojima
尚 小嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dwango Co Ltd
Original Assignee
Dwango Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dwango Co Ltd filed Critical Dwango Co Ltd
Priority to JP2017169299A priority Critical patent/JP6305614B1/ja
Application granted granted Critical
Publication of JP6305614B1 publication Critical patent/JP6305614B1/ja
Priority to PCT/JP2018/031098 priority patent/WO2019044643A1/ja
Priority to US16/644,149 priority patent/US11122303B2/en
Priority to CN201880055631.XA priority patent/CN111052755B/zh
Priority to CN202210264671.3A priority patent/CN114615517A/zh
Publication of JP2019047366A publication Critical patent/JP2019047366A/ja
Priority to US17/402,240 priority patent/US11729435B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/35Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users
    • H04H60/37Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users for identifying segments of broadcast information, e.g. scenes or extracting programme ID
    • H04H60/375Commercial
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/35Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users
    • H04H60/37Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users for identifying segments of broadcast information, e.g. scenes or extracting programme ID
    • H04H60/377Scene
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/2187Live feed
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • H04N21/23418Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • H04N21/23424Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving splicing one content stream with another content stream, e.g. for inserting or substituting an advertisement
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/812Monomedia components thereof involving advertisement data

Abstract

【課題】配信者が配信するコンテンツの任意の領域に、任意の他のコンテンツを再生可能とするコンテンツ配信サーバ、コンテンツ配信方法およびコンテンツ配信プログラムを提供すること。
【解決手段】コンテンツ配信サーバ111は、ライブコンテンツの配信者が使用する配信者端末121からネットワークNWを介して送信されるライブコンテンツを受信する通信部112と、受信したライブコンテンツの中に他のコンテンツを重畳して再生するための領域を指定する指定部115と、指定された領域に再生するための他のコンテンツを選択する選択部116と、ライブコンテンツの中に選択部116で選択された他のコンテンツを指定部115で指定された領域に重畳して配信コンテンツを生成する制御部113と、を備え、通信部112は、視聴者端末131にネットワークNWを介して配信コンテンツを配信する。
【選択図】図1

Description

本開示は、ライブコンテンツを視聴可能に配信するコンテンツ配信サーバ、コンテンツ配信方法およびコンテンツ配信プログラムに関する。
従来から、放送されているコンテンツに広告等の他のコンテンツを重ねて放送する技術が知られている。
例えば、特許文献1に示すように、受信した映像の中に含まれる二次元コードを取得し、二次元コードに基づき、広告を表示する領域を特定し特定された領域に、二次元コードに対応する広告を映像に合成し、合成手段により広告が合成された映像を配信する技術がある。
また、近年、一般ユーザが自宅等で作成した生放送コンテンツを、ネットワークを通じて配信するサービスが一般化している。
特開2015−228585号公報
ここで、ライブコンテンツで配信される映像の空いている領域に、例えば広告等の任意のコンテンツを再生、配信することで、広告収益を上げたいと考える場合がある。
しかし、特許文献1では、ライブコンテンツ配信者が、配信者端末から任意の広告を選択できるシステムとはなっていない。
そのため、本開示では、配信者が配信するコンテンツの任意の領域に、任意の他のコンテンツを再生可能とするコンテンツ配信サーバ、コンテンツ配信方法およびコンテンツ配信プログラムを提供することを目的とする。
上記の課題を解決するために、本開示のコンテンツ配信サーバは、ライブコンテンツの配信者が使用する配信者端末からネットワークを介して送信されるライブコンテンツを受信する通信部と、受信したライブコンテンツの中に他のコンテンツを重畳して再生するための領域を指定する指定部と、指定された領域に再生するための他のコンテンツを選択する選択部と、ライブコンテンツの中に選択部で選択された他のコンテンツを指定部で指定された領域に重畳して配信コンテンツを生成する制御部と、を備え、通信部は、視聴者端末に前記ネットワークを介して配信コンテンツを配信する。
また、本開示のコンテンツ配信方法は、通信部が、ライブコンテンツの配信者が使用する配信者端末からネットワークを介して送信されるライブコンテンツを受信するステップと、指定部が、受信したライブコンテンツの中に他のコンテンツを重畳して再生するための領域を指定するステップと、選択部が、指定された領域に再生するための他のコンテンツを選択するステップと、制御部が、ライブコンテンツの中に選択部で選択された他のコンテンツを指定部で指定された領域に重畳して配信コンテンツを生成するステップと、通信部が、視聴者端末に前記ネットワークを介して配信コンテンツを配信するステップと、を備える。
また、本開示のコンテンツ配信プログラムは、ライブコンテンツの配信者が使用する配信者端末からネットワークを介して送信されるライブコンテンツを受信するステップと、受信したライブコンテンツの中に他のコンテンツを重畳して再生するための領域を指定するステップと、指定された領域に再生するための他のコンテンツを選択するステップと、ライブコンテンツの中に選択された他のコンテンツを指定された領域に重畳して配信コンテンツを生成するステップと、視聴者端末にネットワークを介して配信コンテンツを配信するステップと、をコンピュータによって実現する。
上述のコンテンツ配信サーバ、コンテンツ配信方法およびコンテンツ配信プログラムによれば、配信者が配信するコンテンツの任意の領域に、任意の他のコンテンツを再生することができる。
本開示の実施形態に係るコンテンツ配信システム1の構成を示す概略ブロック図である。 第1の実施形態に係るライブコンテンツの撮影場所の映像を示す図である。 第1の実施形態に係るライブコンテンツの配信映像を示す図である。 第1の実施形態に係るライブコンテンツの配信映像を示す図である。 第1の実施形態に係るコンテンツ配信システム1の動作について説明するためのフローチャートである。 第2の実施形態に係るライブコンテンツの撮影場所の映像を示す図である。 第2の実施形態に係るライブコンテンツの撮影場所の映像を示す図である。 第2の実施形態に係るライブコンテンツの配信映像を示す図である。 第2の実施形態に係るコンテンツ配信システム1の動作について説明するためのフローチャートである。 第3の実施形態に係るライブコンテンツの撮影場所の映像を示す図である。 第3の実施形態に係るライブコンテンツの配信映像を示す図である。 第3の実施形態に係るコンテンツ配信システム1の動作について説明するためのフローチャートである。 第4の実施形態に係るライブコンテンツのタイムテーブルを示す概念図である。 実施形態に係るコンピュータの構成を示す概略ブロック図である。
以下、本実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本開示の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本開示の必須構成要件であるとは限らない。
(第1の実施形態)
本開示の第1の実施形態である、ライブコンテンツ中に配信者が指定した領域に広告コンテンツを重畳して表示し、配信するコンテンツ配信システム1について説明する。
<構成>
まず、図1を用いて本実施形態に係る配信者が配信しようとするライブコンテンツを視聴者に配信するためのコンテンツ配信サーバ111を含むコンテンツ配信システム1の構成、及びその概要について説明する。ライブコンテンツとは、配信者が配信しようとする内容を視聴者がリアルタイムに見ることができる動画や音声などの、いわゆる生放送のコンテンツである。
本実施形態のコンテンツ配信システム1は、図1に示すように、コンテンツ配信サーバ111と、配信者端末121、視聴者端末131a、131b、CMコンテンツサーバ141とが、例えばインターネットなどのネットワークNWに接続可能に構成されている。
コンテンツ配信サーバ111は、配信者端末121から送信されるライブコンテンツを、視聴者端末131a、131bに配信を行うサーバ装置である。コンテンツ配信サーバ111は、通信部112と、制御部113と、記憶部114と、指定部115と、選択部116と、を備える。
通信部112は、ネットワークNWを介して配信者端末121、視聴者端末131a、131b、CMコンテンツサーバ141と通信を行う通信インタフェースである。配信者端末121から送信されるライブコンテンツや、CMコンテンツサーバ141から送信される重畳コンテンツ(他のコンテンツ)の受信を行う。また、視聴者端末131a,131bに対して、後述する制御部113で生成する配信コンテンツの配信を行う。また、通信部112は、必要に応じて配信者や視聴者が配信者端末121や視聴者端末131a、131bからコンテンツ配信サーバ111へログインを行うためのログインID情報の送受信を行っても構わない。
制御部113は、後述する記憶部114や、後述するCMコンテンツサーバ141に記憶される重畳コンテンツから、配信者が一覧として選択可能とする重畳コンテンツリストを生成する。また、制御部113は、ライブコンテンツと重畳コンテンツを重畳した配信コンテンツを生成する。制御部113は、配信コンテンツを生成するにあたり、後述する記憶部114に記憶される表示領域情報及び割当情報に基づいて重畳コンテンツをライブコンテンツに重畳する。
記憶部114は、後述する指定部115で指定する重畳コンテンツの表示領域情報を記憶する。また、後述する選択部116で選択する重畳コンテンツの割当情報を記憶する。また、コンテンツ配信サーバの運営者や、配信者等が作成した重畳コンテンツを記憶する。また、CMコンテンツサーバ141から送信される広告に係る重畳コンテンツを一時的に記憶する。また、制御部113が生成した重畳コンテンツリストを記憶する。また、配信可能な重畳コンテンツについての重畳コンテンツリストを記憶する。重畳コンテンツリストは、重畳コンテンツの出稿者の情報や、重畳コンテンツの配信に係る対価情報が含まれている。対価情報とは、例えば「配信されるライブコンテンツの映像内の10%の領域の領域に30分表示される場合には5000円が配信者に支払われる」というような情報である。
指定部115は、配信者端末121からの操作により、ライブコンテンツに重畳コンテンツを重畳して表示する領域を指定する。指定される領域は、表示領域情報として記憶部114に記憶される。領域の指定方法は、映像内の固定された位置に一定面積として指定してもよいし、人の顔をフェイスキャッチし、フェイスキャッチした領域との相対位置と面積を指定してもよいし、コップ等の形状を認識させて、例えばコップの一部分の領域を指定してもよい。指定される領域は、映像中に1箇所でも複数箇所であってもよい。
選択部116は、配信者端末121からの操作により、重畳コンテンツリストから選択した重畳コンテンツを、指定部115で指定される領域に割当てる。指定部115は、重畳コンテンツの割当てを、割当情報として記憶部114に記憶する。
次に、配信者端末121の構成と動作について説明する。配信者端末121は、コンテンツの配信者が使用する端末装置であり、スマートフォン、携帯電話、PHS、コンピュータ、ゲーム装置、PDA、携帯型ゲーム機、腕時計、スマートウォッチ、ヘッドマウントディスプレイ、ウェアラブルディスプレイ、画像生成装置等の情報処理装置である。また、配信者端末121は、インターネット(WAN)、LANなどのネットワークNWを介してコンテンツ配信サーバ111に接続可能な装置である。なお、配信者端末121とコンテンツ配信サーバ111間の通信回線は有線でもよいし無線でもよい。配信者は、配信者端末121を使用して生放送であるライブコンテンツを作成する。配信者端末121は、作成されたライブコンテンツを、リアルタイムにコンテンツ配信サーバ111へ送信する。
次に、視聴者端末131a、131bの構成と動作について説明する。視聴者端末131a,131bは、視聴者が使用する端末装置であり、スマートフォン、携帯電話、PHS、コンピュータ、ゲーム装置、PDA、携帯型ゲーム機、腕時計、スマートウォッチ、ヘッドマウントディスプレイ、ウェアラブルディスプレイ、画像生成装置等の情報処理装置である。また、視聴者端末131a、131bは、インターネット(WAN)、LANなどのネットワークNWを介してコンテンツ配信サーバ111に接続可能な装置である。なお、視聴者端末131a、131bとコンテンツ配信サーバ111間の通信回線は有線でもよいし無線でもよい。
配信者端末121や、視聴者端末131a、131bは、インストールされた専用のアプリケーションソフトウェアによってコンテンツ配信サーバ111にアクセスしてもよい。また、コンテンツ配信サーバ111や、別途サーバが提供する動作環境(API(アプリケーションプログラミングインタフェース)、プラットフォーム等)を利用して、コンテンツ配信サーバ111にアクセスしてもよい。
CMコンテンツサーバ141は、広告依頼者がCMコンテンツサーバ141にアップロードする重畳コンテンツを記憶する。また、CMコンテンツサーバ141は、コンテンツ配信サーバ111へ送信を行うサーバ装置である。CMコンテンツサーバ141は、例えば企業の広告等の複数のCMコンテンツを記憶している。配信者は、配信者端末121からCMコンテンツサーバ内141のどのコンテンツを重畳コンテンツとして使用するかを重畳コンテンツリストから選択することができる。配信者が、CMコンテンツサーバ141内の重畳コンテンツをCMコンテンツとして使用する時間や、表示領域の大きさに応じて、コンテンツ提供者からの対価の支払いを受けるようにしてもよい。
<コンテンツ映像>
本開示の第1の実施形態に係る配信者端末121から送信されるライブコンテンツの撮影場所の映像、及びコンテンツ配信サーバ111から配信される配信コンテンツの映像について図2から図4を用いて説明する。
図2は、ライブコンテンツの撮影場所の映像を示す図である。撮影場所とは、配信者の家の部屋やリビング等である。部屋201には、家具202、ドア203、机204がある。図2は、机の上におかれているコンピュータ等の配信者端末121に設置されたウェブカメラで、部屋の中を撮影した映像を示している。配信者は、配信者端末121に向かって座っている。また、机の上にコップ205が置かれている。
配信者は、配信者端末121でウェブカメラの映像を見ながら、映像中のCMコンテンツを配置する領域を指定することができる。指定領域A241は、机の上の空きスペースが指定されている。指定領域B242は、コップ205の表面が指定されている。コップ205を、配信者端末121からコンテンツ配信サーバ111へ登録することで、コップ205は形状認識される。そのため、コップ205が移動した場合、コップ205の表面の指定領域B242もコップ205とともに映像中を移動する。次に、指定領域C243は、配信者が来ているTシャツの部分である。指定領域Cは、配信者の顔231の位置との相対関係で指定される領域である。コンテンツ配信サーバ111は、配信者の顔231をフェイスキャッチにより認識する。配信者は、配信者端末121から、フェイスキャッチされた顔231中心から下方の300mmの位置に幅250mm、高さ100mmの領域を、指定領域Cとして指定する。指定領域Cは、顔231の中心との相対位置がゼロ、すなわち、顔231を領域として指定しても構わない。コンテンツ配信サーバ111の指定部115は、指定領域A241、指定領域B242、指定領域C243を、表示領域情報として記憶部114に記憶する。
図3は、配信コンテンツの映像を示す図である。配信コンテンツは、コンテンツ配信サーバ111から、視聴者端末131a、131bに配信される映像であり、配信者端末121にも確認用映像として表示される。配信者は、配信者端末121で、コンテンツ配信サーバ111から送信される重畳コンテンツリストの中から希望するコンテンツを選択することで重畳コンテンツとして決定する。図3では、指定領域A241に重畳コンテンツである「有限会社DEF」の文字が表示される。指定領域B242に重畳コンテンツである「GHI」の文字が表示される。また、指定領域C243に重畳コンテンツである「株式会社ABC」の文字が表示される。配信者は、配信者端末121から、各指定領域に、どの重畳コンテンツを割当てるかを決定することができる。コンテンツ配信サーバ111の選択部116は、各指定領域に、どの重畳コンテンツが割当てられているかを割当情報として記憶部114に記憶する。制御部113は、表示領域情報と割当情報に基づいて、ライブコンテンツと重畳コンテンツを重畳して配信コンテンツを生成する。
図4は、図3から配信者とコップ205の位置が移動した、配信コンテンツの映像を示す図である。指定領域B242は、コップ205が形状認識されてその表面に文字「GHI」を表示している。そのため、コップ205の位置が移動した場合、表示される文字「GHI」もコップ205とともに移動する。また、指定領域243は、配信者の顔231との相対位置で決まっている。そのため、配信者が移動した場合、文字「株式会社ABC」は配信者とともに移動する。また、指定部115は、コップ205を形状認識しているため、コップ205が回転した場合、文字の表示位置を回転させてもよい。指定部115は、形状認識により持ち手の位置を認識し、持ち手の位置と表示位置との関係を演算して表示位置を変更しても構わない。同様にして、指定部115が、Tシャツを形状認識し、Tシャツ表面のしわに合わせて表示する文字や図形を変形させても構わない。これにより、コップ205やTシャツに、あたかもその重畳コンテンツが実際にプリントされているよう視聴者に表示することができる。
<処理の流れ>
次に、本開示の第1の実施形態に係るコンテンツ配信システム1の動作について、図5に示すフローチャートを参照しながら説明する。図5のフローチャートは、コンテンツ配信サーバ111と、配信者端末121と、視聴者端末131aの各動作の関連状態を示している。
ステップS101において、配信者は撮影場所の撮影を行う。さらに配信者は、配信者端末121からコンテンツ配信サーバ111へ、配信者端末121で撮影する撮影場所の映像を送信する。
ステップS102において、配信者は配信者端末121からコンテンツ配信サーバ111へ配信可能な重畳コンテンツのリクエスト信号を送信する。
ステップS103において、コンテンツ配信サーバ111は、ステップS102で送信されたリクエスト信号に基づいて、配信者端末121へ配信可能な重畳コンテンツリストを送信する。重畳コンテンツリストは、記憶部114が記憶しているものでも、CMコンテンツサーバ141が記憶しているものがコンテンツ配信サーバを介して送信されるものでも構わない。
ステップS104において、配信者は、配信者端末121で、ステップS103で送信された重畳コンテンツリストから、配信を希望する重畳コンテンツを選択する。
ステップS105において、配信者は、配信者端末121で、重畳コンテンツの表示領域を指定する(図2に対応)。配信者端末121は、指定された表示領域をコンテンツ配信サーバ111に送信する。指定部115は、送信された表示領域を表示領域情報として記憶部114に記憶する。
ステップS106において、配信者は、配信者端末121で、ステップS105で指定した領域に、ステップS104で選択した重畳コンテンツの割当てを行う。割当てられた重畳コンテンツの情報は、コンテンツ配信サーバ111に送信される。
ステップS107において、記憶部114は、ステップS105で送信された表示領域情報を記憶する。また、記憶部114は、ステップS106で送信された割当情報を記憶する。
ステップS108において、配信者は、配信者端末121でライブコンテンツを撮影する。配信者端末121は、撮影されたライブコンテンツをコンテンツ配信サーバ111に送信する。
ステップS109において、制御部113は、ステップS108で送信されたライブコンテンツに、記憶部114に記憶された表示領域情報と割当情報に従い、重畳コンテンツを重畳した配信コンテンツを生成する(図3、図4に対応)。
指定部115は、表示領域情報に基づきライブコンテンツの映像中に重畳コンテンツを表示する領域を決定する。例えば、指定部115は、コップ205の表面に指定領域B242が対応するという表示領域情報に基づいて指定領域B242を決定する。コップ205の形状認識によって指定領域B242が決まるため、コップ205が移動する場合、指定領域B242はそれに伴って移動する。選択部116は、割当情報に基づき重畳コンテンツを各指定領域(指定領域A241から指定領域C243)に割当てる。例えば、選択部116は、指定領域B242に、重畳コンテンツである文字「GHI」を割当てる。そのため、コップ205が移動する場合、重畳コンテンツである文字「GHI」はそれに伴って移動する(図4に対応)。
ステップS110において、通信部112は、視聴者端末131aに生成した配信コンテンツを配信する。
ステップS111において、視聴者端末131aは、ステップS110で配信された配信コンテンツの表示を行う。それによって、視聴者端末131aは、ライブコンテンツに重畳コンテンツが重畳された映像を表示することができる。
<効果の説明>
以上のように、本開示の第1の実施形態に係るコンテンツ配信システム1によれば、配信者が配信するライブコンテンツの任意の領域に、任意の重畳コンテンツを重畳して再生することができる。これにより、ライブコンテンツで配信される映像の空き領域を広告として利用することができる。また、広告を表示する対価として広告収入を得てもよい。
なお、重畳コンテンツは、文字情報だけでなく画像や映像情報であっても構わない。
また、各指定領域に表示される重畳コンテンツは、ライブコンテンツの配信時間に応じて切り替えてもよい。例えば、指定領域B242に表示する重畳コンテンツを、配信コンテンツの配信から30分経過までは「GHI」を表示し、30分経過後に「JKL」を表示するように切り替えてもよい。配信者は、切り替える重畳コンテンツと切り替える時間を、配信者端末121から予め割当情報として設定することができる。
また、各指定領域に表示される重畳コンテンツは、配信者端末121から配信者が操作を行うことにより切り替えてもよい。例えば、指定領域B242に表示する重畳コンテンツを、配信コンテンツの配信開始時は「GHI」を表示する。制御部113は、配信者端末121からの選択指示信号を受信することにより、重畳コンテンツを「JKL」を表示するように切り替えてもよい。配信者は、切り替える重畳コンテンツを、配信者端末121から予め割当情報として設定することができる。
また、各指定領域に表示される重畳コンテンツは、重畳コンテンツの出稿者からの指示により切り替えてもよい。例えば、重畳コンテンツの出稿者である広告依頼者が、広告依頼者が使用する端末装置(不図示)からの操作により、表示される重畳コンテンツの切り替えを行ってもよい。指定領域B242に表示する重畳コンテンツを、配信コンテンツの配信開始時は「GHI」を表示する。制御部113は、広告依頼者が使用する端末装置からの選択指示信号を受信することにより、重畳コンテンツを「JKL」を表示するように切り替えてもよい。
また、制御部113は、重畳コンテンツを切り替える際に、切り替え前の重畳コンテンツをフェードアウトし、切り替え後の重畳コンテンツをフェードインして表示してもよい。また、クロスフェードで切り替えて表示してもよい。また、切り替え前後の重畳コンテンツをモーフィングによって切り替えて表示してもよい。それによって、視聴者が重畳コンテンツの切り替えを不自然に感じないようにすることができる。
また、重畳コンテンツは、端末装置に応じてそれぞれに異なるコンテンツを配信しても構わない。例えば、指定領域B242に表示する重畳コンテンツを、端末装置131aには重畳コンテンツ「GHI」を表示し、端末装置131bには重畳コンテンツ「JKL」を表示しても構わない。制御部113は、各端末装置のログインID情報に基づいて視聴者の嗜好を解析することができる。制御部113は、視聴者の嗜好に合わせて異なる重畳コンテンツを重畳した配信コンテンツを生成する。通信部112は、生成された配信コンテンツを、視聴者端末131a、131bそれぞれに送信する。なお、制御部113は、ログイン情報を用いず、視聴者端末からのクッキー(HTTP cookie)情報を用いて、視聴者の嗜好を解析してもよい。
また、重畳コンテンツの出稿者が、配信コンテンツを視聴している最中に、自ら作成した重畳コンテンツを表示するようにリクエストを行ってもよい。具体的な手順の一例を説明する。重畳コンテンツの出稿者である広告依頼者が、広告依頼者が使用する端末装置(不図示)からの操作により、現在配信されている配信コンテンツの中に自己の作成した重畳コンテンツを表示するためのリクエスト信号をコンテンツ配信サーバ111へ送信する。また、端末装置から、表示を希望する重畳コンテンツをコンテンツ配信サーバ111へアップロードする。また、重畳コンテンツを表示したい表示領域を、配信コンテンツの映像の中で選択する。コンテンツ配信サーバ111は、リクエスト信号に含まれる広告表示に係る対価の額を判定する。コンテンツ配信サーバ111は、対価の額の判定を、コンテンツ配信者が設定する額との比較により行ってもよい。また、同じ表示領域に広告の表示を希望する他者の提示する対価額との比較により行ってもよい。対価の額が条件を満たす場合には、リクエストを受け付ける。それによって、コンテンツ配信サーバ111は、広告依頼者が希望したときにリアルタイムに、広告依頼者が作成した重畳コンテンツをそれまでに表示している他の重畳コンテンツと切り替えて表示することができる。
(第2の実施形態)
本開示の第2の実施形態である、撮影現場の背景に他のコンテンツを重畳して表示するコンテンツ配信システム1について説明する。第2の実施形態では、第1の実施形態に係るコンテンツ配信システム1を用いて説明する。
<ライブコンテンツ映像>
本開示の第2の実施形態に係る配信者端末121から送信されるライブコンテンツの撮影場所の映像、及びコンテンツ配信サーバ111から配信される配信コンテンツの映像について図6から図8を用いて説明する。
図6は、ライブコンテンツの撮影場所の映像を示す図である。撮影場所とは、配信者の家の部屋やリビング等である。部屋201には、家具202、ドア203、机204がある。また、部屋201の床はゴミ208、209が散乱している状態である。また、図6は、配信者や、配信者がライブコンテンツの配信中に持ち込むものは映っていない状態である。配信者は、配信者端末121から、図6の映像をコンテンツ配信サーバ121に送信する。
図7は、ライブコンテンツの配信者が居る映像に映っている状態の撮影場所の映像を示す図である。また、配信者がライブコンテンツの配信中に持ち込む、コップ205が映っている状態である。
図8は、配信コンテンツの映像を示す図である。配信コンテンツは、コンテンツ配信サーバ111から、視聴者端末131a、131bに配信される映像であり、配信者端末121にも確認用映像として表示される。配信コンテンツは、ライブコンテンツと他のコンテンツを重畳して生成されるコンテンツである。他のコンテンツは、重畳コンテンツや、物や、景色や、模様等の画像や映像からなるコンテンツである。図8では、他のコンテンツとして木や月などの風景の映像が表示されている状態である。
<処理の流れ>
次に、本開示の第2の実施形態に係るコンテンツ配信システム1の動作について、図9に示すフローチャートを参照しながら説明する。図9のフローチャートは、コンテンツ配信サーバ111と、配信者端末121と、視聴者端末131aの各動作の関連状態を示している。
ステップS201において、配信者は撮影場所の初期状態の撮影を行う。さらに配信者は、配信者端末121からコンテンツ配信サーバ111へ、配信者端末121で撮影する撮影場所の初期状態の映像を送信する。撮影場所の初期状態の映像とは、ライブコンテンツ配信時に映りこむもの、例えば、配信者自身や、コップ等のものが映っていない状態の映像である(図6に対応)。
ステップS202において、配信者は、配信者端末121で、重畳コンテンツの表示領域を指定する(図6の指定領域244に対応)。配信者端末121は、指定された表示領域を、コンテンツ配信サーバ111に送信する。
ステップS203において、指定部115は、送信された表示領域を表示領域情報として記憶部114に記憶する。
ステップS204において、配信者は配信者端末121からコンテンツ配信サーバ111へ配信可能な重畳コンテンツのリクエスト信号を送信する。
ステップS205において、コンテンツ配信サーバ111は、ステップS204で送信されたリクエスト信号に基づいて、配信者端末121へ配信可能な重畳コンテンツリストを送信する。重畳コンテンツリストは、記憶部114が記憶しているものでも、CMコンテンツサーバ141が記憶しているものがコンテンツ配信サーバを介して送信されるものでも構わない。
ステップS206において、配信者は、配信者端末121で、ステップS103で送信された重畳コンテンツリストから、配信を希望する重畳コンテンツを選択する。
ステップS207において、配信者は、配信者端末121で、ステップS202で指定した領域に、ステップS206で選択した重畳コンテンツの割当てを行う。割当てられた重畳コンテンツの情報は、コンテンツ配信サーバ111に送信される。
ステップS208において、記憶部114は、ステップS207で送信された割当情報を記憶する。
ステップS209において、配信者は、配信者端末121でライブコンテンツを撮影する。配信者端末121は、撮影されたライブコンテンツをコンテンツ配信サーバ111に送信する。
ステップS210において、制御部113は、ステップS201で送信された撮影場所の初期状態の映像と、ライブコンテンツの映像の差分を抽出する。配信者自身や、コップ205を、ライブコンテンツの映像から抽出することができる。
ステップS211において、制御部113は、ステップS209で送信されたライブコンテンツに、記憶部114に記憶された表示領域情報と割当情報に従い、重畳コンテンツを重畳した配信コンテンツを生成する(図7に対応)。
指定部115は、表示領域情報に基づきライブコンテンツの映像中に重畳コンテンツを表示する領域を決定する。選択部116は、割当情報に基づき重畳コンテンツを指定領域に割当てる。図7では、図6で示す指定領域D244に木や月などの、風景の映像が割当てられている。制御部113は、その映像にステップS210で抽出した配信者やコップ205を重ねる。それにより、配信者は、風景の映像の前に表示されることになる。
ステップS212において、通信部112は、視聴者端末131aに生成した配信コンテンツを配信する。
ステップS213において、視聴者端末131aは、ステップS110で配信された配信コンテンツの表示を行う。それによって、視聴者端末131aは、ライブコンテンツに重畳コンテンツが重畳された映像を表示することができる。
<効果の説明>
以上のように、本開示の第2の実施形態に係るコンテンツ配信システム2によれば、配信者が配信するライブコンテンツの背景等の任意の領域に、任意の重畳コンテンツを重畳して再生することができる。撮影場所の背景を、クロマキー等の特殊な環境を準備することなく、背景を任意に変更することが可能となる。これにより、例えばライブコンテンツを配信するための撮影を行う部屋が散らかっている場合に、配信者の背景等に他のコンテンツとして重畳コンテンツの映像を表示することで、散らかっている部屋の様子を隠すことができる。また、背景等の表示する他のコンテンツとして広告等を表示しても構わない。また、広告を表示する対価として広告収入を得てもよい。
また、各指定領域に表示される重畳コンテンツは、ライブコンテンツの配信時間に応じて切り替えてもよい。また、各指定領域に表示される重畳コンテンツは、配信者端末121から配信者が操作を行うことにより切り替えてもよい。また、重畳コンテンツは、端末装置に応じてそれぞれに異なるコンテンツを配信しても構わない。
(第3の実施形態)
本開示の第3の実施形態である、ライブコンテンツ中のARマーカーを認識し、他のコンテンツを重畳して再生するコンテンツ配信システム1について説明する。第3の実施形態では、第1の実施形態に係るコンテンツ配信システム1を用いて説明する。
<コンテンツ映像>
本開示の第3の実施形態に係る配信者端末121から送信されるライブコンテンツの撮影場所の映像、及びコンテンツ配信サーバ111から配信される配信コンテンツの映像について図10、図11を用いて説明する。
図10は、ライブコンテンツの撮影場所の映像を示す図である。撮影場所とは、配信者の家の部屋やリビング等である。部屋201には、家具202、ドア203、机204がある。机の上にコップ205が置かれている。また、部屋201の床はゴミ208、209が散乱している状態である。また、配信者は机の前に座っている状態である。
さらに図10には、5つのARマーカー(Augmented Realityマーカー)が示されている。ARマーカーは、他のコンテンツを表示する位置を指定するための標識となる固有のパターンであり、例えば2次元バーコードで構成される。ARマーカーa251は、机の上面に貼られており、ARマーカーb252は、コップ205の表面に貼られている。また、ARマーカーc253は配信者が来ているTシャツの胸部にプリントされている。また、ARマーカーd254、ARマーカーe255は、スタンド(不図示)に貼られ、それぞれゴミ208、209の手前に置かれる。
配信者は、配信者端末121でウェブカメラの映像を見ながら、映像中の各ARマーカーに対して、重畳コンテンツを割当てることができる。例えば、図10において、配信者はARマーカーc253に、広告用の重畳コンテンツである「株式会社ABC」の文字を割当てる。これによって、図11で示すように、配信映像には、ARマーカーc253がプリントされたTシャツに「株式会社ABC」を映し出すことができる。また、図10のARマーカーd254に、床の色と同じ色の「板」の映像を割当てることができる。また、ARマーカーe255に「木」の映像コンテンツを割当てることができる。図11で示すように、配信映像には、ARマーカーd254の配置された場所には「板」の映像コンテンツを映し出すことができる。また、ARマーカーe255の配置された場所には「木」の映像コンテンツを映し出すことができる。これによって、配信映像において、部屋201内に散乱しているゴミ208、209を隠すことができる。
<処理の流れ>
次に、本開示の第3の実施形態に係るコンテンツ配信システム1の動作について、図12に示すフローチャートを参照しながら説明する。図12のフローチャートは、コンテンツ配信サーバ111と、配信者端末121と、視聴者端末131aの各動作の関連状態を示している。
ステップS301において、配信者は配信者端末121からコンテンツ配信サーバ111へ配信可能な重畳コンテンツのリクエスト信号を送信する。
ステップS302において、コンテンツ配信サーバ111は、ステップS301で送信されたリクエスト信号に基づいて、配信者端末121へ配信可能な重畳コンテンツリストを送信する。重畳コンテンツリストは、記憶部114が記憶しているものでも、CMコンテンツサーバ141が記憶しているものを、コンテンツ配信サーバを介して送信されるものでも構わない。
ステップS303において、配信者は、配信者端末121で、ステップS302で送信された重畳コンテンツリストから、配信を希望する重畳コンテンツを選択する。
ステップS304において、配信者は、配信者端末121で、各ARマーカーにステップS303で選択した重畳コンテンツの割当てを行う。各ARマーカーの画像を取込み、取込んだ画像と重畳コンテンツを関連付けて登録する。割当てられた重畳コンテンツの情報は、コンテンツ配信サーバ111に送信される。
ステップS305において、また、記憶部114は、ステップS304で送信された割当情報を記憶する。
ステップS306において、配信者は、配信者端末121でライブコンテンツを撮影する。配信者端末121は、撮影されたライブコンテンツをコンテンツ配信サーバ111に送信する。
ステップS307において、指定部115は、配信者端末121から送信されたライブコンテンツ中に映りこんでいるARマーカーを認識する。指定部115は、認識した個々のARマーカーの表示位置を識別し、表示領域情報を生成する。
ステップS308において、制御部113は、ステップS306で送信されたライブコンテンツに、記憶部114に記憶された表示領域情報と割当情報に従い、重畳コンテンツを重畳した配信コンテンツを生成する。
指定部115は、表示領域情報に基づきライブコンテンツの映像中に重畳コンテンツを表示する領域を決定する。例えば、指定部115は、コップ205の表面にARマーカーb252が貼られているため、選択部116は、割当情報に基づき重畳コンテンツを各ARマーカーに割当てる。例えば、選択部116は、ARマーカーb252には、重畳コンテンツである文字「GHI」を割当てる。これにより、コップ205の表面には文字「GHI」が表示される。コップ205が移動する場合、ARマーカーb252も移動するため、ARマーカーb252に割当てられている重畳コンテンツである文字「GHI」もそれに伴って移動する。
ステップS309において、通信部112は、視聴者端末131aに生成した配信コンテンツを配信する。
ステップS310において、視聴者端末131aは、ステップS310で配信された配信コンテンツの表示を行う。それによって、視聴者端末131aは、ライブコンテンツに重畳コンテンツが重畳された映像を表示することができる。
<効果の説明>
以上のように、本開示の第3の実施形態に係るコンテンツ配信システム1によれば、配信者が配信するライブコンテンツに映されるARマーカーの位置に、任意のコンテンツを重畳して再生することができる。
また、各指定領域に表示される重畳コンテンツは、ライブコンテンツの配信時間に応じて切り替えてもよい。また、各指定領域に表示される重畳コンテンツは、配信者端末121から配信者が操作を行うことにより切り替えてもよい。また、重畳コンテンツは、端末装置に応じてそれぞれに異なるコンテンツを配信しても構わない。
(第4の実施形態)
本開示の第4の実施形態である、ライブコンテンツ中に他のコンテンツとしての音を重畳して再生するコンテンツ配信システム1について説明する。第4の実施形態では、第1の実施形態に係るコンテンツ配信システム1を用いて説明する。
図13は、ライブコンテンツ261の配信時間の割当てに係るタイムテーブルを示す概念図である。図13のタイムテーブルは、紙面の左から右に向かって時間が経過する。図13に示すライブコンテンツ261は45分間の配信内容であり、コンテンツ配信サーバ111は、配信中に3回の音コンテンツを重畳して再生する。
配信者は、配信者端末121から音コンテンツを再生する時間を、時間領域として指定することができる。指定された時間領域は、図13において、音コンテンツは、指定時間D271、指定領域E272、指定時間F273の指定領域において再生される。指定時間D271は、ライブコンテンツ配信時間の7分30秒から8分30秒の時間領域である。同様に、指定時間E272は、ライブコンテンツ配信時間の24分00秒から25分00秒の時間である。さらに、指定時間F273は、ライブコンテンツ配信時間の36分00秒から38分00秒の時間である。指定部115は、各指定時間を、時間領域情報(第1の実施形態における表示領域情報に対応)として記憶部114に記憶する。
配信者は、時間領域として指定した各指定領域で再生する音コンテンツを、コンテンツリストから選択して割当てることができる。コンテンツ配信サーバ111は、配信者端末121からのリクエスト信号に応じてコンテンツリストを配信者端末121へ送信する。コンテンツリストは、記憶部114やCMコンテンツサーバ141に記憶されている音コンテンツのリストである。音コンテンツは、広告音声や、スタンプ音、チャイム、正解音等である。配信者は、配信者端末121で、コンテンツリストから選択した音コンテンツを、時間領域である指定時間に割当てることができる。例えば、図13において、指定時間F273に、X社の商品の広告音声を割当てることができる。選択部116は、各指定領域に、どのCMコンテンツが割当てられているかを割当情報として記憶部114に記憶する。
配信者は、配信者端末121からコンテンツ配信サーバ111へライブコンテンツを送信する。制御部113は、時間領域情報と割当情報に基づいて、ライブコンテンツと音コンテンツを重畳して配信コンテンツを生成する。通信部112は、視聴者端末131aに生成した配信コンテンツを配信する。
視聴者端末131aは、配信された配信コンテンツの表示を行う。それによって、視聴者端末131aは、ライブコンテンツに音コンテンツが重畳された映像を表示することができる。
<効果の説明>
以上のように、本開示の第4の実施形態に係るコンテンツ配信システム1によれば、配信者が配信するライブコンテンツの任意の領域に、任意の音コンテンツを重畳して再生することができる。
また、各指定領域に再生される音コンテンツは、配信者端末121から配信者が操作を行うことにより切り替えてもよい。配信者は、切り替える音コンテンツを、配信者端末121から予め割当情報として設定しておいてもよい。
また、音コンテンツは、端末装置に応じてそれぞれに異なるコンテンツを配信しても構わない。例えば、指定時間F273で再生する音コンテンツを、端末装置131aにはX社の商品の広告音声を割当て、端末装置131bにはY社のサービスの広告音声を割当てることができる。制御部113は、各端末装置のログインID情報に基づいて視聴者の嗜好を解析することができる。制御部113は、視聴者の嗜好に合わせて異なる音コンテンツを重畳した配信コンテンツを生成する。通信部112は、生成された配信コンテンツを、視聴者端末131a、131bそれぞれに送信する。なお、制御部113は、ログイン情報を用いず、視聴者端末からのクッキー(HTTP cookie)情報を用いて、視聴者の嗜好を解析してもよい。
(プログラム)
図14は、コンピュータ901の構成を示す概略ブロック図である。コンピュータ901は、CPU902、主記憶装置903、補助記憶装置904、インタフェース905を備える。
ここで、本開示の実施形態に係るコンテンツ配信サーバ111を構成する各機能を実現するためのプログラムの詳細について説明する。
コンテンツ配信サーバ111は、コンピュータ901に実装される。そして、コンテンツ配信サーバ111の各構成要素の動作は、プログラムの形式で補助記憶装置904に記憶されている。CPU902は、プログラムを補助記憶装置904から読み出して主記憶装置903に展開し、当該プログラムに従って上記処理を実行する。また、CPU902は、プログラムに従って、上述した記憶部に対応する記憶領域を主記憶装置903に確保する。
当該プログラムは、具体的には、コンピュータ901に、ライブコンテンツの配信者が使用する配信者端末からネットワークを介して送信されるライブコンテンツを受信するステップと、受信したライブコンテンツの中に他のコンテンツを重畳して再生するための領域を指定するステップと、指定された領域に再生するための他のコンテンツを選択するステップと、ライブコンテンツの中に選択された他のコンテンツを指定された領域に重畳して配信コンテンツを生成するステップと、視聴者端末にネットワークを介して配信コンテンツを配信するステップと、を実現させるためのコンテンツ配信プログラムである。
なお、補助記憶装置904は、一時的でない有形の媒体の一例である。一時的でない有形の媒体の他の例としては、インタフェース905を介して接続される磁気ディスク、光磁気ディスク、CD−ROM、DVD−ROM、半導体メモリ等が挙げられる。また、このプログラムがネットワークを介してコンピュータ901に配信される場合、配信を受けたコンピュータ901が当該プログラムを主記憶装置903に展開し、上記処理を実行しても良い。
また、当該プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、当該プログラムは、前述した機能を補助記憶装置904に既に記憶されている他のプログラムとの組み合わせで実現するもの、いわゆる差分ファイル(差分プログラム)であっても良い。
これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものとする。
1…コンテンツ配信システム、111…コンテンツ配信サーバ、112…通信部、113…制御部、114…記憶部、115…指定部、116…選択部、121…配信者端末、131a,131b…視聴者端末、141…CMコンテンツサーバ、201…部屋、202…家具、203…ドア、204…机、205…コップ、208,209…ゴミ、231…フェイスキャッチ領域、241…指定領域A、242…指定領域B、243…指定領域C、244…指定領域D,251…ARマーカーa、252…ARマーカーb、253…ARマーカーc、254…ARマーカーd、255…ARマーカーe、261…ライブコンテンツ、271…指定時間D、272…指定時間E、273…指定時間F、901…コンピュータ、902…CPU、903…主記憶装置、904…補助記憶装置、905…インタフェース

上記の課題を解決するために、本開示のコンテンツ配信サーバは、ライブコンテンツの配信者が使用する配信者端末からネットワークを介して送信されるライブコンテンツを受信する通信部と、受信したライブコンテンツの中に他のコンテンツを重畳して再生するための空間である領域を配信者端末からの指示によりライブコンテンツの映像内に指定する指定部と、指定された領域に再生するための他のコンテンツを選択する選択部と、ライブコンテンツの中に選択部で選択された他のコンテンツを指定部で指定された領域に重畳して配信コンテンツを生成する制御部と、を備え、通信部は、視聴者端末に前記ネットワークを介して配信コンテンツを配信する。
また、本開示のコンテンツ配信方法は、通信部が、ライブコンテンツの配信者が使用する配信者端末からネットワークを介して送信されるライブコンテンツを受信するステップと、指定部が、受信したライブコンテンツの中に他のコンテンツを重畳して再生するための空間である領域を配信者端末からの指示によりライブコンテンツの映像内に指定するステップと、選択部が、指定された領域に再生するための他のコンテンツを選択するステップと、制御部が、ライブコンテンツの中に選択部で選択された他のコンテンツを指定部で指定された領域に重畳して配信コンテンツを生成するステップと、通信部が、視聴者端末に前記ネットワークを介して配信コンテンツを配信するステップと、を備える。
また、本開示のコンテンツ配信プログラムは、ライブコンテンツの配信者が使用する配信者端末からネットワークを介して送信されるライブコンテンツを受信するステップと、受信したライブコンテンツの中に他のコンテンツを重畳して再生するための空間である領域を配信者端末からの指示によりライブコンテンツの映像内に指定するステップと、指定された領域に再生するための他のコンテンツを選択するステップと、ライブコンテンツの中に選択された他のコンテンツを指定された領域に重畳して配信コンテンツを生成するステップと、視聴者端末にネットワークを介して配信コンテンツを配信するステップと、をコンピュータによって実現する。

Claims (13)

  1. ライブコンテンツの配信者が使用する配信者端末からネットワークを介して送信されるライブコンテンツを受信する通信部と、
    受信した前記ライブコンテンツの中に他のコンテンツを重畳して再生するための領域を指定する指定部と、
    指定された前記領域に再生するための前記他のコンテンツを選択する選択部と、
    前記ライブコンテンツの中に前記選択部で選択された前記他のコンテンツを前記指定部で指定された前記領域に重畳して配信コンテンツを生成する制御部と、
    を備え、
    前記通信部は、視聴者端末に前記ネットワークを介して前記配信コンテンツを配信するコンテンツ配信サーバ。
  2. 前記指定部は、前記配信者端末からの指示により前記領域を指定する請求項1に記載のコンテンツ配信サーバ。
  3. 前記選択部は、ライブコンテンツの配信時間に応じて前記他のコンテンツを選択する請求項1又は2に記載のコンテンツ配信サーバ。
  4. 前記選択部は、前記配信者端末の指示により前記他のコンテンツを選択する請求項1から3のいずれか一項に記載のコンテンツ配信サーバ。
  5. 前記選択部は、配信先の視聴者端末に応じて前記他のコンテンツを選択する請求項1から4のいずれか一項に記載のコンテンツ配信サーバ。
  6. 前記選択部は、他のコンテンツの出稿者からの指示に基づいて前記他のコンテンツを選択する請求項1から5のいずれか一項に記載のコンテンツ配信サーバ。
  7. 前記他のコンテンツは、画像又は/及び映像であり、
    前記領域は空間である請求項1から6のいずれか一項に記載のコンテンツ配信サーバ。
  8. 前記他のコンテンツは、音であり、
    前記領域は時間である請求項1から6のいずれか一項に記載のコンテンツ配信サーバ。
  9. 前記指定部は、前記ライブコンテンツ中の画像を認識して、前記領域を指定する請求項7に記載のコンテンツ配信サーバ。
  10. 前記指定部は、前記ライブコンテンツ中で表示されるARマーカーを認識して、前記領域を指定する請求項7又は9に記載のコンテンツ配信サーバ。
  11. 前記通信部は、前記他のコンテンツをCMコンテンツサーバから受信する請求項1から10のいずれか一項に記載のコンテンツ配信サーバ。
  12. 通信部が、ライブコンテンツの配信者が使用する配信者端末からネットワークを介して送信されるライブコンテンツを受信するステップと、
    指定部が、受信した前記ライブコンテンツの中に他のコンテンツを重畳して再生するための領域を指定するステップと、
    選択部が、指定された前記領域に再生するための前記他のコンテンツを選択するステップと、
    制御部が、前記ライブコンテンツの中に前記選択部で選択された前記他のコンテンツを前記指定部で指定された前記領域に重畳して配信コンテンツを生成するステップと、
    前記通信部が、視聴者端末に前記ネットワークを介して前記配信コンテンツを配信するステップと、
    を備えるコンテンツ配信方法。
  13. ライブコンテンツの配信者が使用する配信者端末からネットワークを介して送信されるライブコンテンツを受信するステップと、
    受信した前記ライブコンテンツの中に他のコンテンツを重畳して再生するための領域を指定するステップと、
    指定された前記領域に再生するための前記他のコンテンツを選択するステップと、
    前記ライブコンテンツの中に選択された前記他のコンテンツを指定された前記領域に重畳して配信コンテンツを生成するステップと、
    視聴者端末に前記ネットワークを介して前記配信コンテンツを配信するステップと、
    をコンピュータによって実現するためのコンテンツ配信プログラム。

JP2017169299A 2017-09-04 2017-09-04 コンテンツ配信サーバ、コンテンツ配信方法およびコンテンツ配信プログラム Active JP6305614B1 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2017169299A JP6305614B1 (ja) 2017-09-04 2017-09-04 コンテンツ配信サーバ、コンテンツ配信方法およびコンテンツ配信プログラム
PCT/JP2018/031098 WO2019044643A1 (ja) 2017-09-04 2018-08-23 コンテンツ配信サーバ、コンテンツ配信方法およびコンテンツ配信プログラム
US16/644,149 US11122303B2 (en) 2017-09-04 2018-08-23 Content distribution server, content distribution method and content distribution program
CN201880055631.XA CN111052755B (zh) 2017-09-04 2018-08-23 内容发布服务器、内容发布方法以及内容发布系统
CN202210264671.3A CN114615517A (zh) 2017-09-04 2018-08-23 内容发布服务器、内容发布方法以及内容发布系统
US17/402,240 US11729435B2 (en) 2017-09-04 2021-08-13 Content distribution server, content distribution method and content distribution program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017169299A JP6305614B1 (ja) 2017-09-04 2017-09-04 コンテンツ配信サーバ、コンテンツ配信方法およびコンテンツ配信プログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018039239A Division JP6877377B2 (ja) 2018-03-06 2018-03-06 コンテンツ配信サーバ、コンテンツ配信方法およびコンテンツ配信プログラム

Publications (2)

Publication Number Publication Date
JP6305614B1 JP6305614B1 (ja) 2018-04-04
JP2019047366A true JP2019047366A (ja) 2019-03-22

Family

ID=61828502

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017169299A Active JP6305614B1 (ja) 2017-09-04 2017-09-04 コンテンツ配信サーバ、コンテンツ配信方法およびコンテンツ配信プログラム

Country Status (4)

Country Link
US (2) US11122303B2 (ja)
JP (1) JP6305614B1 (ja)
CN (2) CN114615517A (ja)
WO (1) WO2019044643A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020162084A (ja) * 2019-03-28 2020-10-01 株式会社ドワンゴ コンテンツ配信システム、コンテンツ配信方法、およびコンテンツ配信プログラム
JP2020162083A (ja) * 2019-03-28 2020-10-01 株式会社ドワンゴ コンテンツ配信システム、コンテンツ配信方法、およびコンテンツ配信プログラム
JP2020167661A (ja) * 2019-03-28 2020-10-08 株式会社ドワンゴ コンテンツ配信システム、コンテンツ配信方法、およびコンテンツ配信プログラム
JP2020167654A (ja) * 2019-07-16 2020-10-08 株式会社ドワンゴ コンテンツ配信システム、コンテンツ配信方法、およびコンテンツ配信プログラム
JP2021197645A (ja) * 2020-06-15 2021-12-27 ヤフー株式会社 配信装置、配信方法及び配信プログラム

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6305614B1 (ja) 2017-09-04 2018-04-04 株式会社ドワンゴ コンテンツ配信サーバ、コンテンツ配信方法およびコンテンツ配信プログラム
JP7427692B2 (ja) * 2019-05-15 2024-02-05 グーグル エルエルシー カスタマイズされた補足メディアコンテンツの動的な統合

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003169311A (ja) * 2001-11-29 2003-06-13 Nippon Telegraph & Telephone West Corp 動画像配信サービスシステムにおける動画像コンテンツ配信切替え装置ならびにその方法、および動画像コンテンツ配信切替えプログラムならびにその記録媒体
JP2005051703A (ja) * 2003-07-31 2005-02-24 Institute Of Tsukuba Liaison Co Ltd ライブストリーミング放送方法、ライブストリーミング放送装置、ライブストリーミング放送システム、プログラム、記録媒体、放送方法及び放送装置
JP2007122113A (ja) * 2005-10-25 2007-05-17 Labox:Kk 広告配信システム
JP2007334734A (ja) * 2006-06-16 2007-12-27 Hitachi Ltd 情報提供システム
JP2009003446A (ja) * 2007-05-22 2009-01-08 All Nippon Airways Co Ltd コンテンツ生成システム、コンテンツ生成装置およびコンテンツ生成プログラム
JP2009069407A (ja) * 2007-09-12 2009-04-02 Yamaha Corp 情報出力装置
JP2011517231A (ja) * 2008-04-14 2011-05-26 トムソン ライセンシング ライブ制作のためにメタデータをコンテンツに関連付けるための方法および装置
JP2016526813A (ja) * 2013-06-27 2016-09-05 インテル・コーポレーション メディアコンテンツの中への視覚広告コンテンツの適応的な埋め込み
JP2017118559A (ja) * 2017-02-06 2017-06-29 株式会社クリエ・ジャパン 動画生成サーバ、動画生成プログラム、動画生成方法、動画生成システム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE60239067D1 (de) * 2001-08-02 2011-03-10 Intellocity Usa Inc Nachbereitung von anzeige änderungen
JP4019804B2 (ja) * 2002-06-10 2007-12-12 日本電気株式会社 携帯端末、位置情報変換システム
JP2004140584A (ja) * 2002-10-17 2004-05-13 Toshiba Corp コンテンツ配信・再生システム、広告コンテンツ挿入方法及びクライアント端末
JP2005318250A (ja) * 2004-04-28 2005-11-10 Nippon Telegr & Teleph Corp <Ntt> ライブコンテンツ視聴継続システム、方法、装置、及びプログラム
US8549554B2 (en) * 2006-03-07 2013-10-01 Sony Computer Entertainment America Llc Dynamic replacement of cinematic stage props in program content
WO2010126033A1 (ja) * 2009-04-27 2010-11-04 シャープ株式会社 配信サーバ、仲介サーバ、プログラム、記録媒体、利用者端末及び情報転送方法
US9124631B2 (en) * 2009-05-08 2015-09-01 Google Inc. Content syndication in web-based media via ad tagging
BR112014032829A2 (pt) * 2012-06-28 2018-05-15 Ericsson Ab método e sistema para inserção de anúncio em entrega de mídia ao vivo over the top
CN104995663B (zh) * 2013-03-06 2018-12-04 英特尔公司 用于使用光学字符识别来提供增强现实的方法和装置
US9912994B2 (en) * 2014-07-03 2018-03-06 Mobiledirect, Inc. Interactive distributed multimedia system
US20170171335A1 (en) * 2015-12-14 2017-06-15 Le Holdings (Beijing) Co., Ltd. Advertising push methods, devices, video servers and terminal equipment
JP6305614B1 (ja) 2017-09-04 2018-04-04 株式会社ドワンゴ コンテンツ配信サーバ、コンテンツ配信方法およびコンテンツ配信プログラム

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003169311A (ja) * 2001-11-29 2003-06-13 Nippon Telegraph & Telephone West Corp 動画像配信サービスシステムにおける動画像コンテンツ配信切替え装置ならびにその方法、および動画像コンテンツ配信切替えプログラムならびにその記録媒体
JP2005051703A (ja) * 2003-07-31 2005-02-24 Institute Of Tsukuba Liaison Co Ltd ライブストリーミング放送方法、ライブストリーミング放送装置、ライブストリーミング放送システム、プログラム、記録媒体、放送方法及び放送装置
JP2007122113A (ja) * 2005-10-25 2007-05-17 Labox:Kk 広告配信システム
JP2007334734A (ja) * 2006-06-16 2007-12-27 Hitachi Ltd 情報提供システム
JP2009003446A (ja) * 2007-05-22 2009-01-08 All Nippon Airways Co Ltd コンテンツ生成システム、コンテンツ生成装置およびコンテンツ生成プログラム
JP2009069407A (ja) * 2007-09-12 2009-04-02 Yamaha Corp 情報出力装置
JP2011517231A (ja) * 2008-04-14 2011-05-26 トムソン ライセンシング ライブ制作のためにメタデータをコンテンツに関連付けるための方法および装置
JP2016526813A (ja) * 2013-06-27 2016-09-05 インテル・コーポレーション メディアコンテンツの中への視覚広告コンテンツの適応的な埋め込み
JP2017118559A (ja) * 2017-02-06 2017-06-29 株式会社クリエ・ジャパン 動画生成サーバ、動画生成プログラム、動画生成方法、動画生成システム

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020162084A (ja) * 2019-03-28 2020-10-01 株式会社ドワンゴ コンテンツ配信システム、コンテンツ配信方法、およびコンテンツ配信プログラム
JP2020162083A (ja) * 2019-03-28 2020-10-01 株式会社ドワンゴ コンテンツ配信システム、コンテンツ配信方法、およびコンテンツ配信プログラム
WO2020194973A1 (ja) * 2019-03-28 2020-10-01 株式会社ドワンゴ コンテンツ配信システム、コンテンツ配信方法、およびコンテンツ配信プログラム
JP2020167661A (ja) * 2019-03-28 2020-10-08 株式会社ドワンゴ コンテンツ配信システム、コンテンツ配信方法、およびコンテンツ配信プログラム
JP7344084B2 (ja) 2019-03-28 2023-09-13 株式会社ドワンゴ コンテンツ配信システム、コンテンツ配信方法、およびコンテンツ配信プログラム
US11961190B2 (en) 2019-03-28 2024-04-16 Dwango Co., Ltd. Content distribution system, content distribution method, and content distribution program
JP2020167654A (ja) * 2019-07-16 2020-10-08 株式会社ドワンゴ コンテンツ配信システム、コンテンツ配信方法、およびコンテンツ配信プログラム
JP2021197645A (ja) * 2020-06-15 2021-12-27 ヤフー株式会社 配信装置、配信方法及び配信プログラム
JP7249313B2 (ja) 2020-06-15 2023-03-30 ヤフー株式会社 配信装置、配信方法及び配信プログラム

Also Published As

Publication number Publication date
US20210400319A1 (en) 2021-12-23
US11122303B2 (en) 2021-09-14
CN111052755A (zh) 2020-04-21
WO2019044643A1 (ja) 2019-03-07
JP6305614B1 (ja) 2018-04-04
US20200382821A1 (en) 2020-12-03
US11729435B2 (en) 2023-08-15
CN114615517A (zh) 2022-06-10
CN111052755B (zh) 2022-04-12

Similar Documents

Publication Publication Date Title
JP6305614B1 (ja) コンテンツ配信サーバ、コンテンツ配信方法およびコンテンツ配信プログラム
EP4000249B1 (en) Immersive event production and distribution
JP7123520B2 (ja) 動画記録装置、動画生成方法、及びプログラム
JP2017064161A (ja) ゲームシステム、撮影装置、ゲーム装置およびプログラム
US20130009984A1 (en) Display installed in hall
JP6186068B1 (ja) コンテンツ配信サーバ、コンテンツ配信方法およびコンテンツ配信プログラム
CN107608649A (zh) 一种ar增强现实智能图像识别展示内容系统及使用方法
US20220277493A1 (en) Content generation system and method
JP2009071699A (ja) 動画像配信装置、動画像配信方法ならびにそのプログラム
JP6434106B1 (ja) コンテンツ配信サーバ、端末装置、コンテンツ配信システム、コンテンツ配信方法、コンテンツ再生方法、コンテンツ配信プログラムおよびコンテンツ再生プログラム
KR102200239B1 (ko) 실시간 cg 영상 방송 서비스 시스템
KR102082670B1 (ko) 방송 시청을 위한 가상 현실 사용자 인터페이스 제공 방법 및 장치
JP2009069407A (ja) 情報出力装置
JP6877377B2 (ja) コンテンツ配信サーバ、コンテンツ配信方法およびコンテンツ配信プログラム
KR101221540B1 (ko) 인터랙티브 미디어 매핑 시스템 및 그 방법
KR20070083269A (ko) 가상현실을 이용한 iptv 영화 콘텐츠 서비스 제공 시스템 및 방법
WO2022018786A1 (ja) 音声処理システム、音声処理装置、音声処理方法、及び音声処理プログラム
JP6116213B2 (ja) 合成動画コンテンツの生成システム
JP5518309B2 (ja) 動画像配信装置、動画像配信方法ならびにそのプログラム
KR20160148784A (ko) 사전 제작된 2d/3d프린팅 출력데이터를 포함하는 동영상 컨텐츠 제공시스템 및 그 방법
JP2020150289A (ja) 撮影システム、撮影装置、管理装置及び撮影方法
JP2009017417A (ja) コンテンツ配信サーバ、コンテンツ配信プログラム、及びコンテンツ配信システム
JP7445272B1 (ja) 動画処理方法、動画処理システム、及び動画処理プログラム
JP6849851B2 (ja) 撮影システム、撮影装置及びユーザ撮影方法
JP7162387B1 (ja) 興行映像表示プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170904

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20170904

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20171026

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171101

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180301

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180306

R150 Certificate of patent or registration of utility model

Ref document number: 6305614

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D02

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250