JP7062740B1 - 動画配信装置、動画配信方法、動画配信プログラム、および、記録媒体 - Google Patents

動画配信装置、動画配信方法、動画配信プログラム、および、記録媒体 Download PDF

Info

Publication number
JP7062740B1
JP7062740B1 JP2020179151A JP2020179151A JP7062740B1 JP 7062740 B1 JP7062740 B1 JP 7062740B1 JP 2020179151 A JP2020179151 A JP 2020179151A JP 2020179151 A JP2020179151 A JP 2020179151A JP 7062740 B1 JP7062740 B1 JP 7062740B1
Authority
JP
Japan
Prior art keywords
distributor
image
terminal
viewer
distribution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020179151A
Other languages
English (en)
Other versions
JP2022071230A (ja
Inventor
浩司 細田
直也 松永
彩夏 氏家
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dwango Co Ltd
Original Assignee
Dwango Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dwango Co Ltd filed Critical Dwango Co Ltd
Priority to JP2020179151A priority Critical patent/JP7062740B1/ja
Priority to CN202180023317.5A priority patent/CN115349252A/zh
Priority to PCT/JP2021/036473 priority patent/WO2022091694A1/ja
Priority to US18/012,631 priority patent/US20230254524A1/en
Priority to JP2022022310A priority patent/JP2022070279A/ja
Application granted granted Critical
Publication of JP7062740B1 publication Critical patent/JP7062740B1/ja
Publication of JP2022071230A publication Critical patent/JP2022071230A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/266Channel or content management, e.g. generation and management of keys and entitlement messages in a conditional access system, merging a VOD unicast channel into a multicast channel
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/40Support for services or applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/2187Live feed
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/238Interfacing the downstream path of the transmission network, e.g. adapting the transmission rate of a video stream to network bandwidth; Processing of multiplex streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/4784Supplemental services, e.g. displaying phone caller identification, shopping application receiving rewards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/4788Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8146Monomedia components thereof involving graphical data, e.g. 3D object, 2D graphics

Abstract

【課題】 生放送で動画コンテンツを配信する配信者とその視聴者との双方向のコミュニケーションを容易にし、動画コンテンツを盛り上げるサービスを提供する。【解決手段】 実施形態による動画配信装置30は、配信者端末10から供給されるリアルタイム動画データを取得する第1取得部321と、配信者端末10の操作により選択されたコミュニケーション画像の情報を含む入力情報を取得する第2取得部322と、コミュニケーション画像のデータとリアルタイム動画データとを含む配信用動画データを視聴者端末20および配信者端末10に配信する配信部38と、を備える。【選択図】 図2

Description

本発明は、動画配信装置、動画配信方法、動画配信プログラム、および、記録媒体に関する。
近年、個人が容易に動画コンテンツを配信することができる環境が整いつつあり、視聴者は多くの動画コンテンツの中から見たいものを選択することが可能となっている。配信者がリアルタイム(生放送)で動画コンテンツを配信するときには、例えば視聴者がコメントを投稿することにより配信者と視聴者との間でコミュニケーションをとることができ、配信者は視聴者の反応に応じた対応が可能となり、視聴者は生放送ならではの臨場感を楽しむことも可能である。
特許文献1では、コメント以外の手段を用いて、配信者と視聴者との間でコミュニケーションを行う技術が提案されている。例えば特許文献1には、視聴者がバーチャル空間にオブジェクト(仮想アイテム)を投入する技術が開示されている。例えば特許文献1には、サーバは、配信者端末によって操作されるオブジェクトが存在する仮想空間のデータを視聴者端末及び配信者端末に配信する配信部と、仮想空間内へ投入される仮想アイテムの投入入力を配信者端末および/または視聴者端末から受付ける受付部とを備え、配信部は、仮想アイテム制御部によって制御された仮想アイテムのデータを仮想空間のデータと合わせて配信すること、および、投げ入れられる仮想アイテムが文字の外形形状を有している場合の演出について、「文字そのものが上から降ってくるという面白さがある」との記載がある。(例えば特許文献1の[0110]段落)
また、「1つの番組の放送において投入可能な仮想アイテムの数の上限があってもよい。また、上限数の仮想アイテムが投入された以降であっても、一定時間の経過または特定の条件を満たすことによって、再び投入可能な仮想アイテムが充填されてもよい」との記載がある。(例えば特許文献1の[0094]段落)
また、「ユーザ管理部2gは、各ライブコンテンツが用いる仮想空間へ投げ込まれた仮想的なアイテムの履歴と、そのアイテムの種類などの情報も記録している」との記載もある。(例えば特許文献1の[0029]段落)
また、仮想アイテムの制御の例として、仮想アイテムの投入を禁止してもよいことが記載されている。(例えば特許文献1の[0095]段落)
特開2020-17244号公報
視聴者と配信者とのコミュニケーションを行う手段として、例えば、「エモーション」サービスが検討されている。エモーションは、例えば視聴者の感情や意思を文字や色彩などにより表現した画像を、コンテンツ表示画面に投入させることにより、視聴者と配信者との間でのコミュニケーションをより容易にする手段である。例えば視聴者は、動画コンテンツを視聴しながら、コンテンツ表示画面の周囲の領域に提示されている複数のエモーション画像の中から、自身の意思や感情を表すものを選択することにより、コンテンツ表示画面内にエモーション画像を投入することにより配信者とコミュニケーションをとることが可能である。
一方で、配信者は多数の視聴者とコミュニケーションをとる必要があり、配信者の感情や意思を多数の視聴者に対して効果的に伝えるコミュニケーション手段が望まれている。
本発明は上記事情を鑑みて成されたものであって、生放送で動画コンテンツを配信する配信者とその視聴者との双方向のコミュニケーションを容易にし、動画コンテンツを盛り上げるサービスを提供する動画配信装置、動画配信方法、動画配信プログラム、および、記録媒体を提供することを目的とする。
本発明の第1態様による動画配信装置は、配信者端末から供給される、動画コンテンツを生成するためのリアルタイム動画データを取得する第1取得部と、配信者による前記配信者端末の操作により選択されたコミュニケーション画像の情報を含む入力情報を取得する第2取得部と、ここにおいて、前記コミュニケーション画像は、前記配信者の感情や意思を表現するために文字または図形の動きが設定された画像であって、視聴者と前記配信者との間でのコミュニケーションを容易にする画像であり、前記配信者自身が配信している前記動画コンテンツに対して重畳または合成され、前記コミュニケーション画像のデータと前記リアルタイム動画データとを含む配信用動画データを視聴者端末および前記配信者端末に配信する配信部と、を備える。
本発明の第2態様による動画配信装置は、第1態様による動画配信装置において、前記配信者端末からの前記リアルタイム動画データおよび前記入力情報に基づいて、前記配信者端末の操作により選択される前記コミュニケーション画像により消費されるチャージ量を管理するチャージ量管理部を、さらに備える。
本発明の第態様による動画配信装置は、第1態様による動画配信装置において、前記視聴者端末の操作により選択された第2コミュニケーション画像の情報を含む入力情報を取得する第3取得部と、前記コミュニケーション画像および前記第2コミュニケーション画像が、表示画面上で物理法則に従って所定の動作を行うことにより、相互に作用して動作するよう表示させる動作情報を生成する生成部と、を更に備え、前記配信用動画データは、前記第2コミュニケーション画像のデータと前記動作情報とを含む。
本発明の第態様による動画配信装置は、第態様による動画配信装置において、前記チャージ量管理部は、前記視聴者端末に配信される前記リアルタイム動画データのそれぞれについて前記配信者端末を操作する配信者毎にチャージ量を割り当て、前記配信者に割り当てられた前記チャージ量の現在の値が、前記コミュニケーション画像を表示させることにより消費される前記チャージ量以上であるときに、前記配信者に割り当てられた前記チャージ量を消費させて、前記コミュニケーション画像を表示させる表示情報を生成、前記配信用動画データは、前記表示情報を更に含む。
本発明の第態様による動画配信装置は、第態様による動画配信装置において、前記チャージ量管理部を含む生成部を備え、前記入力情報は、前記配信者端末が操作された時間長又は前記配信者端末が操作されたときの画面に対する圧力の情報と、選択された前記コミュニケーション画像の識別情報と、を含み、前記チャージ量管理部は、前記時間長又は前記圧力の情報に応じた数値を前記チャージ量から消費させ、前記時間長又は前記圧力の情報を含む前記表示情報を生成し、前記生成部は、前記時間長又は前記圧力に応じて前記コミュニケーション画像の動作又は大きさを変更する。
本発明の第態様による動画配信装置は、第1態様による動画配信装置において、前記入力情報は、選択された前記コミュニケーション画像の識別情報を含み、前記配信用動画データは、前記コミュニケーション画像が前記視聴者端末に表示された際に前記識別情報に対応する動作するための動作情報を含む。
本発明の第態様による動画配信装置は、第態様による動画配信装置において、前記チャージ量管理部は、前記リアルタイム動画データの配信開始から終了までの期間において、前記入力情報に基づいて前記コミュニケーション画像の投入履歴を管理する。
本発明の第8態様による動画配信方法は、 配信者端末から供給される、動画コンテンツを生成するためのリアルタイム動画データを取得する第1取得ステップと、配信者による前記配信者端末の操作により選択されたコミュニケーション画像の情報を含む入力情報を取得する第2取得ステップと、ここにおいて、前記コミュニケーション画像は、前記配信者の感情や意思を表現するために文字または図形の動きが設定された画像であって、視聴者と前記配信者との間でのコミュニケーションを容易にする画像であり、前記配信者自身が配信している前記動画コンテンツに対して重畳または合成され、前記コミュニケーション画像のデータと前記リアルタイム動画データとを含む配信用動画データを視聴者端末および前記配信者端末に配信する配信ステップと、を備える。
本発明の第9態様による動画配信プログラムは、コンピュータを、配信者端末から供給される、動画コンテンツを生成するためのリアルタイム動画データを取得する第1取得手段と、配信者による前記配信者端末の操作により選択されたコミュニケーション画像の情報を含む入力情報を取得する第2取得手段と、ここにおいて、前記コミュニケーション画像は、前記配信者の感情や意思を表現するために文字または図形の動きが設定された画像であって、視聴者と前記配信者との間でのコミュニケーションを容易にする画像であり、前記配信者自身が配信している前記動画コンテンツに対して重畳または合成され、前記コミュニケーション画像のデータと前記リアルタイム動画データとを含む配信用動画データを視聴者端末および前記配信者端末に配信する配信手段と、して機能させる。
本発明の第10態様による記録媒体は、第9態様による動画配信プログラムを記録したコンピュータ読み取り可能な記録媒体である。
本発明によれば、生放送で画コンテンツを配信する配信者とその視聴者との双方向のコミュニケーションを容易にし、動画コンテンツを盛り上げるサービスを提供する動画配信装置、動画配信方法、動画配信プログラム、および、記録媒体を提供することができる。
図1は、実施形態の動画配信装置を含む動画コンテンツ配信システムの概略的構成を示す図である。 図2は、一実施形態の動画配信装置の一構成例を概略的に示すブロック図である。 図3は、リアルタイムで配信されているコンテンツの視聴者端末における表示例を概略的に示す図である。 図4は、リアルタイムで配信されているコンテンツの視聴者端末における表示例の一部を概略的に示す図である。 図5は、リアルタイムで配信されているコンテンツの視聴者端末における表示例の一部を概略的に示す図である。 図6は、リアルタイムで配信されているコンテンツの視聴者端末における表示例の一部を概略的に示す図である。 図7は、リアルタイムで配信されているコンテンツの視聴者端末における表示例の一部を概略的に示す図である。 図8は、リアルタイムで配信されているコンテンツの視聴者端末における表示例の一部を概略的に示す図である。 図9は、視聴者端末の表示画面の一部に表示されたエモーション画像および放送者用エモーション画像の例を概略的に示す図である。 図10は、視聴者端末の表示画面の一部に表示されたエモーション画像および放送者用エモーション画像の表示例を概略的に示す図である。 図11は、視聴者端末の表示画面の一部に表示された放送者用エモーション画像の表示例を概略的に示す図である。 図12は、視聴者端末の表示画面の一部に表示された放送者用エモーション画像の表示例を概略的に示す図である。 図13は、リアルタイムで配信されているコンテンツの視聴者端末における他の表示例を概略的に示す図である。 図14は、一実施形態の動画配信装置における動画配信方法の一例について説明するためのフローチャートである。 図15は、リアルタイムで配信されているコンテンツにエモーション画像を投入する際の配信者端末の操作の一例を説明するための図である。 図16は、図15に示す視聴者端末の表示例の一部を示す図である。 図17は、配信者が投入可能な放送者用エモーション画像と消費されるチャージ量との関係を例示する図である。
以下に、実施形態の動画コンテンツ配信システム、動画配信方法、動画配信プログラム、および、記録媒体について、図面を参照して詳細に説明する。
図1は、実施形態の動画配信装置を含む動画コンテンツ配信システムの概略的構成を示す図である。
動画配信システムは、配信者端末10と、動画配信装置30と、を備えている。動画配信装置30は、ネットワークを介して配信者端末10および視聴者端末20と通信可能に接続され得る。なお、図1では、3台の視聴者端末20が図示されているが、視聴者端末20の数は図示した数に限定されるものではなく、ゼロでもあり得る。
配信者端末10は、例えばビデオカメラなどの動画ソースに接続可能なコンピュータなどの電子デバイス、例えば、テレビ受像機(インターネットテレビを含む)、PC(Personal Computer)、モバイル端末(例えば、タブレット、スマートフォン、ラップトップ、フィーチャーフォン、ポータブルゲーム機、デジタルミュージックプレイヤー、電子書籍リーダなど)、VR(Virtual Reality)端末、AR(Augmented Reality)端末などであり得るが、これらに限られない。配信者端末10は、例えば、少なくとも1つのプロセッサと、プロセッサにより実行されるプログラムが記憶された記憶部と、を備え、ソフトウエアにより又はソフトウエアとハードウエアとの組み合わせにより種々の機能を実現可能に構成されている。
配信者端末10は、例えば、動画配信装置30へリアルタイム配信用の動画データなどのコンテンツデータを送信する。コンテンツデータは、配信者(放送者)又は配信者端末10の識別情報を含み得る。
視聴者端末20は、コンピュータなどの電子デバイスであって、例えば、テレビ受像機(インターネットテレビを含む)、PC(Personal Computer)、モバイル端末(例えば、タブレット、スマートフォン、ラップトップ、フィーチャーフォン、ポータブルゲーム機、デジタルミュージックプレイヤー、電子書籍リーダなど)、VR(Virtual Reality)端末、AR(Augmented Reality)端末などであり得るが、これらに限られない。
視聴者端末20は、例えば、少なくとも1つのプロセッサと、プロセッサにより実行されるプログラムが記録されたメモリと、を備え、ソフトウエアにより又はソフトウエアとハードウエアとの組み合わせにより種々の機能を実現可能に構成されている。
視聴者端末20は、動画配信装置30から動画データやリアルタイム動画リストデータなどのコンテンツデータを受信し、図示しない表示手段や音響手段などにより視聴者へコンテンツを提示することが可能である。
図2は、第1実施形態の動画配信装置の一構成例を概略的に示すブロック図である。
動画配信装置30は、第1取得部321、第2取得部322および第3取得部323を含む受信部32と、生成部34と、配信部38と、配信制御部35と、を備えている。
動画配信装置30は、例えば、上記構成の機能を実現するプログラムを実行するプロセッサおよびプログラムを格納したメモリと、を備え得る。プロセッサは、典型的にはCPU(Central Processing Unit)および/またはGPU(Graphics Processing Unit)であるが、マイコン、FPGA(Field Programmable Gate Array)、またはDSP(Digital Signal Processor)、などであってもよい。また、メモリは、動画配信装置の動作を実現するためにプロセッサによって実行されるプログラムおよび当該プロセッサによって使用されるデータなどを一時的に格納する。
また、動画配信装置30は、さらに、ネットワークに接続可能な通信部と、大容量のデータを蓄積するためのデータ記憶部(図示せず)を備え得る。データ記憶部は、動画配信装置30に内蔵されてもよいし、動画配信装置30に外付けされてもよい。データ記憶部は、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)などの不揮発性記憶媒体を含み得る。
受信部32は、ネットワークを介して、配信者端末10と、視聴者端末20と、通信可能であり、第1取得部321と、第2取得部322と、第3取得部323と、を含み得る。例えば、受信部32は、配信者端末10から動画データを受信したり、視聴者端末20からの配信要求を受信したりする。受信部32は、視聴者端末20から受信した配信要求を配信制御部35と生成部34とへ送信する。視聴者端末20からの配信要求は、視聴者又は視聴者端末20の識別情報と、動画コンテンツの識別情報とを含み得る。
第1取得部321は、ネットワークを介して配信者端末10から逐次送信されるリアルタイム動画データを受信可能である。具体的には、第1取得部321は、配信者端末10からリアルタイム配信用の動画データを受信する。第1取得部321は、受信した動画データを生成部34へ送信する。
第2取得部322は、配信者端末10から供給される入力情報を取得する。配信者端末10からの入力情報は、例えば、視聴者端末20から生放送中の動画コンテンツに投入されたエモーション画像EMの一括消去を要求する情報や、エモーション画像EMの投入禁止を要求する情報や、投入されるエモーション画像EMの透明度の調整を要求する情報や、投入されるエモーション画像EMの視聴者端末20の表示画面上の滞在時間の調整を要求する情報や、視聴者端末20の表示画面上で所定の動作を行うエモーション画像EMおよび放送者用エモーション画像EMAの投入を要求する情報や、視聴者端末20から投入されるエモーション画像EMの間引きを要求する情報が含まれ得る。第2取得部322は、配信者端末10からの入力情報を生成部34へ供給する。
第3取得部323は、視聴者端末20から、動画コンテンツに対応する入力情報を受信可能である。具体的には、第3取得部323が視聴者端末20から受信する入力情報は、視聴している動画コンテンツの識別情報や、視聴者が入力したコメントや、コンテンツ表示画面に投入するエモーション画像(第2コミュニケーション画像)EMに関する情報(識別情報など)や、視聴者による視聴者端末20の操作情報(操作時間長や操作時の圧力など)を含み得る。第3取得部323は、受信した入力情報を生成部34へ送信する。
なお、放送者用エモーション画像EMAは、配信者の感情や意思を文字や色彩などにより表現するための画像であって、配信者の操作に基づいてコンテンツ表示画面に投入され、視聴者と配信者との間でのコミュニケーションを容易にする手段である。放送者用エモーション画像EMAは、視聴者端末20では選択することが出来ず、配信者端末10でのみ選択可能となる。
また、エモーション画像EMは、視聴者および配信者に共通のコミュニケーション画像であって、視聴者および配信者の感情や意思を文字や色彩などにより表現するための画像であって、視聴者および配信者の操作に基づいてコンテンツ表示画面に投入され、視聴者と配信者との間でのコミュニケーションを容易にする手段である。
配信制御部35は、画像データのリアルタイム配信の動作を制御する。配信制御部35は、視聴者端末20による配信要求を受信部32から受け取り、視聴者端末20へ画像データが配信されるように配信部38を制御する。また、配信制御部35は、例えば図示しない時計を含み、時計から得られる時間情報と、画像データのリアルタイム配信に割り当てられた時間枠とを比較し、画像データのリアルタイム配信の開始および終了を管理してもよい。また配信制御部35は、配信用動画データが受信されたことによりリアルタイムで動画コンテンツの配信を開始し、配信用動画データが終了したことにより動画コンテンツの配信を終了するように、リアルタイム配信の開始および終了を管理してもよい。
生成部34は、チャージ量管理部36を含む。チャージ量管理部36は、視聴者端末20による配信要求を受信部32から受け取り、視聴者端末20の入力情報を第3取得部323から受け取る。また、チャージ量管理部36は、配信者端末10の入力情報やコンテンツデータを第2取得部322から受け取ることができる。
チャージ量管理部36は、例えば、配信者端末10から受信したコンテンツデータに含まれる識別情報に基づいて(若しくは配信者端末10のログイン情報に基づいて)配信者又は配信者端末10を識別し、配信する動画コンテンツに対して配信者(又は配信者端末10)にチャージ量を割り当てる。また、チャージ量管理部36は、取得した配信要求に基づいて視聴者又は視聴者端末20を識別し、リアルタイムで配信されている動画コンテンツのそれぞれについて、視聴者毎(又は視聴者端末20毎)にチャージ量を割り当てる。
なお、チャージ量管理部36が配信者毎のチャージ量を管理する際や視聴者毎にチャージ量を管理する際には、予め登録されている配信者および視聴者の識別情報(ユーザー名やパスワードや会員レベルなど)を用いて、チャージ量の管理を行うことができる。なお、配信者および視聴者の識別情報は、動画配信装置30の記憶部に記憶されていてもよく、動画配信装置30の外部のサーバにより管理されていてもよい。
配信者毎および視聴者毎に割り当てられるチャージ量の最大値は、配信者および視聴者の会員レベルにより異なっていても良い。例えば、チャージ量管理部36は、一般会員よりもレベルの高いプレミアム会員に対して、一般会員よりもチャージ量の最大値が大きくなるように、チャージ量の管理を行うことができる。また、配信者に対して付与されるチャージ量の最大値と、視聴者に対して付与されるチャージ量の最大値とは異なっていてもよい。
チャージ量管理部36は、配信者端末10からのコンテンツデータおよび入力情報に基づいて、配信者端末10から投入されるエモーション画像EMおよび放送者用エモーション画像EMAにより消費されるチャージ量を管理する。チャージ量管理部36は、例えば、配信者が配信する動画コンテンツに対し、投入するエモーション画像EMおよび放送者用エモーション画像EMAに応じたチャージ量を、配信者に付与されたチャージ量から消費させる。
また、チャージ量管理部36は、視聴者端末20からの配信要求および入力情報に基づいて、視聴者端末20から投入されるエモーション画像EMにより消費されるチャージ量を管理する。チャージ量管理部36は、例えば、視聴者が視聴する動画コンテンツ毎に、投入するエモーション画像EMに応じたチャージ量を、視聴者毎に割り当てられたチャージ量から消費させる。
なお、エモーション画像EMや放送者用エモーション画像EMAを動画コンテンツに投入することにより消費されるチャージ量は、同じであってもよく異なっていてもよい。エモーション画像EMや放送者用エモーション画像EMAのそれぞれにより消費されるチャージ量が異なる場合には、例えば、エモーション画像EMおよび放送者用エモーション画像EMAの識別情報と、消費されるチャージ量とが関連付けられて記憶部に記憶されている。
また、チャージ量管理部36は、所定時間経過後にチャージ量がゼロから最大値まで回復するように、時間経過に応じてチャージ量の値を増加させる。なお、チャージ量を回復する際の他の態様として、チャージ量管理部EMは、チャージ量をゼロから最大値まで回復する必要はなく、例えば最大値よりも小さい値までチャージ量を回復したときに一旦回復を停止してもよい。また、視聴者および配信者は、チャージ量の回復中であっても、エモーション画像EM(若しくは放送者用エモーション画像EMA)による消費量を超えていればエモーション画像EM(若しくは放送者用エモーション画像EMA)を動画コンテンツに投入可能である。
チャージ量管理部36は、リアルタイムで配信されているコンテンツのそれぞれにおいて、視聴者毎に割り当てられたチャージ量の現在の値が、選択されたエモーション画像EMに対応する値以上であるときには、視聴者毎に割り当てられたチャージ量を消費させて、エモーション画像EMを表示させる表示情報を生成する。また、チャージ量管理部36は、配信者が配信しているコンテンツそれぞれにおいて、配信者に割り当てられたチャージ量の現在の値が、選択されたエモーション画像EMおよび放送者用エモーション画像EMAに対応する値以上であるときには、配信者に割り当てられたチャージ量を消費させて、エモーション画像EMAを表示させる表示情報を生成する。
チャージ量管理部36は、リアルタイムで配信されているコンテンツのそれぞれにおいて、視聴者毎に割り当てられたチャージ量の現在の値が、視聴者が投入しようとするエモーション画像EMに対応する値未満であるときには、例えば、チャージ量が不足していることを視聴者端末20に表示させる表示情報を生成する。また、チャージ量管理部36は、配信者が配信する動画コンテンツのそれぞれにおいて、配信者に付与されたチャージ量の現在の値が、配信者が投入しようとするエモーション画像EMおよび放送者用エモーション画像EMAに対応する値未満であるときには、例えば、チャージ量が不足していることを配信者端末10に表示させる表示情報を生成する。
また、チャージ量管理部36は、配信者端末10および視聴者端末20からの入力情報に基づいて、配信されている動画コンテンツのそれぞれに対して、配信開始から終了までの期間において、エモーション画像EMおよび放送者用エモーション画像EMAの投入履歴を管理することができる。チャージ量管理部36は、例えば、配信されているコンテンツの各々についてエモーション画像EM毎および放送者用エモーション画像EMA毎に投入された数をカウントし、投入数が多い順に、投入数を示すグラフを表示し、グラフの近傍に対応するエモーション画像EMおよび放送者用エモーション画像EMAを指標として表示するための表示情報を生成することが出来る。動画コンテンツに投入されたエモーション画像EMおよび放送者用エモーション画像EMAの履歴管理については後に図面を参照して説明する。
生成部34は、第1取得部321からリアルタイム動画データを受信し、第2取得部322から配信者による入力情報を受信し、第3取得部323から視聴者による入力情報を受信する。
生成部34は、リアルタイム動画データに、例えば、視聴者端末20から入力された入力情報に基づくコメント、エモーション画像EM、および、配信者端末10から入力された放送者用エモーション画像EMAが重畳されるように、配信用動画データを生成することが出来る。生成部34は、例えば、アルファブレンド、ピクチャーインピクチャーなどの公知の技法を用いて、リアルタイム動画データにコメント、エモーション画像EMおよび放送者用エモーション画像EMAを合成してもよい。また、生成部34は、視聴者端末20にてリアルタイム動画データにコメント、エモーション画像EMおよび放送者用エモーション画像EMAを合成可能となるように、これらの情報を含む配信用動画データを生成してもよい。
生成部34は、配信者端末10からエモーション画像EMの一括消去を要求する情報を入力情報として受け取ったときには、例えば、対応する動画コンテンツに投入されたエモーション画像EMを風で吹き飛ばしたり、爆弾が爆発することにより表示画面外へと吹き飛ばしたりするように、配信用画像データを生成することができる。
また、生成部34は、放送者用エモーション画像EMAが、視聴者端末20から投入されたエモーション画像EMを避けるように表示される動作情報を生成し、視聴者からの視認性が高まるように放送者用エモーション画像EMAの動作を制御してもよく、あるいは、配信者端末10からの指示信号に応じて、放送者用エモーション画像EMAが、視聴者端末20から投入されたエモーション画像EMを避けるように表示される動作情報を生成してもよい。エモーション画像EMおよび放送者用エモーション画像EMAの動作情報については、後に詳細に説明する。
また、配信者端末10からエモーション画像EMの投入禁止を要求する情報を入力情報として受け取ったときには、例えば、エモーション画像EMの投入禁止を示す画像や文字を動画コンテンツの少なくとも一部に表示して、視聴者が認識できるようにしたり、または、視聴者がエモーション画像EMを投入しようとする操作を行うことに応じて、一時的に投入禁止を示す画像や文字の表示をしたり、あるいは第2領域110(又は第4領域210)にてエモーション画像EMを視聴者が選択不可(非アクティブ状態)とするように配信用画像データを生成することができる。
また、生成部34は、投入されるエモーション画像EMの透明度の調整を要求する情報を配信者端末10からの入力情報として受け取ったときには、例えば、エモーション画像EMが視聴者端末20の表示画面に表示される際の透明度(透過率)を要求された値に調整して表示させることができる。
また、生成部34は、投入されるエモーション画像EMの視聴者端末20の表示画面上の滞在時間の調整を要求する情報を配信者端末10からの入力情報として受け取ったときには、例えば、エモーション画像EMが視聴者端末20の表示画面上に滞在する時間を要求されたように調整し、より短く又はより長く表示画面上に滞在させることができる。
また、生成部34は、投入されるエモーション画像EMの間引きを要求する情報を配信者端末10からの入力情報として受け取ったときには、動画コンテンツに投入されるエモーション画像EMのうちいくつかをランダムに間引くように配信用画像データを生成したり、投入されたエモーション画像EMが視聴者端末20の表示画面に表示されてから消えるまでの時間を短くなるように配信用画像データを生成したりすることができる。
生成部34は、例えば、リアルタイム動画データの再生映像の画面の一部または全部をリサイズして、または画面の一部をトリミングして入力情報と合成してもよいし、リアルタイム動画データの再生映像の画面の一部が露出し、残部が隠れるように評価情報と合成してもよい。また、生成部34は、視聴者端末からの配信要求に応じて複数の配信用動画データを切り替えて配信可能とするために、表示する画像が異なる複数の配信用動画データを生成して配信部38へ送信してもよい。
また、生成部34は、チャージ量管理部36にて生成された表示情報に基づいて、エモーション画像EMおよび放送者用エモーション画像EMAを、視聴者端末20および配信者端末10にて表示させるときには、後述するように、エモーション画像EMおよび放送者用エモーション画像EMAの種類(例えば識別情報により区別され得る)に応じて、画像が表示画面上にて所定の動作を行う動作情報を生成することが出来る。生成部34は、生成した動作情報を含む配信用動画データを配信部へ38送信することができる。
なお、配信された動画データと、コメントを表示するためのデータと、エモーション画像EMと、放送者用エモーション画像EMAとは、動作情報等を用いて視聴者端末20および配信者端末10において合成されて表示され得る。生成部34にて配信用動画データに含まれるリアルタイム動画データと、コメントを表示するためのデータと、エモーション画像EMおよび放送者用エモーション画像EMAとを予め合成してから、配信部38より視聴者端末に配信されても構わない。
また、生成部34は、表示画面上に視聴者および配信者に視認されない透明の障害物を配置し(若しくは配置されているものとし)、動画コンテンツの視聴の妨げにならないように、エモーション画像EMおよび放送者用エモーション画像EMAを画面の外側や周囲の領域へ誘導することができる。
また、生成部34は、放送者が投入するエモーション画像EMおよび放送者用エモーション画像EMAの透明度を制御し、あるいは不透明ではないエモーション画像EMおよび放送者用エモーション画像EMAの投入を、配信者(放送者)の指示操作により、表示画面上に投入させることによって、エモーション画像EMおよび放送者用エモーション画像EMAの背後にあるべきコンテンツ画像を視聴者に視認可能とすることも可能である。
あるいは、表示画面上に視聴者および配信者に視認されない透明の障害物を配置し、動画コンテンツの視聴の妨げにならないように、エモーション画像EM(若しくはエモーション画像EMおよび放送者用エモーション画像EMA)を画面の外側や周囲の領域へ誘導することができる。この場合、実際に透明な、つまり視認ができない放送者用エモーションEMAを表示画面に投入して、エモーション画像EM(若しくはエモーション画像EMおよび他の放送者用エモーション画像EMA)を画面周囲へ誘導するほか、あたかも透明な放送者用エモーションEMAが投入されたかのように、衝突など物理作用でエモーション画像EM(若しくはエモーション画像EMおよび他の放送者用エモーション画像EMA)が画面周囲へ移動するような演出で、表示画面中の各オブジェクトの表示制御を行うようにしてもよい。このように制御することで、透明ではない、視認可能な放送者用エモーション画像EMAに慣れている視聴者からは、あたかも透明な画像(エモーション画像EMや放送者用エモーション画像EMA)のようなオブジェクトが画面中にあるように感じることができ、興趣性が向上する効果がある。
配信部38は、ネットワークと通信可能に接続し、生成部34からの配信用動画データを受け取り、配信要求を受けた視聴者端末20へ配信する。配信部38は、例えば配信用動画データの配信先などを配信制御部35によって制御される。なお、配信部38は、配信制御部53の制御により、動画コンテンツを配信する配信者端末10へ配信用動画データを配信することができる。
配信部38は、配信済みの配信用動画データを直ちに破棄してもよいが、例えばリプレイまたはスローモーション再生を可能とするために所定期間バッファリングしていてもよい。
以下に、視聴者端末20での動画コンテンツの表示画面の一例を参照しながら、動画配信装置30の動作の一例について具体的に説明する。
図3は、リアルタイムで配信されているコンテンツの視聴者端末における表示例を概略的に示す図である。ここでは、視聴者端末20がパーソナルコンピュータであるときのコンテンツ表示の一例を示している。
図3の表示例では、動画コンテンツが表示される部分を含む第1領域100と、エモーション画像EMおよび放送者用エモーション画像EMAの一覧を視聴者に提示する第2領域110とが、コンピュータの画面上で並んで表示されている。
第1領域100は、動画コンテンツが表示される部分と、操作ボタンやタイムバーなどが表示される部分と、視聴者がコメントを入力する入力欄などを含んでいる。
動画コンテンツには、種々のエモーション画像EMが投入されている。ここでは、複数種類のエモーション画像EMが投入された例を示している。これらのエモーション画像EMは、例えば、画面の上部から画面の底部へ落下する動作、画面の底部から生えてくる動作、画面内に投げ込まれる動作、画面底部において左右のいずれか一方から転がり込む動作、画像が瞬きをするような動作、画像が破裂したり爆発したりする動作、弾性体のように跳ねる動作など、エモーション画像EMにより表現される視聴者の感情や意思をより強調するように動作を行う。
なお、図3では示されていないが、放送者用エモーション画像EMAも同様に、表示画面上において、配信者の感情や意思をより強調するように動作を行う。放送者用エモーション画像EMAの動作例については、後に詳細に説明する。
エモーション画像EMおよび放送者用エモーション画像EMAの動作は、例えば、動画配信装置30の生成部34において、古典力学的な法則(質量、速度、摩擦、風)などから得られるものの動きや、衝突、流体などの物理法則に基づく物理演算を行うことにより決定され得る。例えば、生成部34は、エモーション画像EMおよび放送者用エモーション画像EMAのそれぞれに設定された質量、重量、弾性率、表面の摩擦係数、硬度などの値を用いて、物理法則に基づいてエモーション画像EMおよび放送者用エモーション画像EMAの動作を演算することができる。
生成部34は、物理法則に基づいて演算されたエモーション画像EMおよび放送者用エモーション画像EMAの動作を行うことにより、視聴者端末20および配信者端末10の表示画面上でエモーション画像EMと放送者用エモーション画像EMAとが相互に作用する動作情報を生成することができる。すなわち、エモーション画像EM同士や、エモーション画像EMと放送者用エモーション画像EMAとは、表示画面上において、物理法則に基づいて個々に動作し得、ぶつかったり、吹き飛ばされたりする事により相互に作用し得る。
エモーション画像EMと放送者用エモーション画像EMAとの動作は上記に限定されるものではない。例えば、コミュニケーション画像EM同士や、コミュニケーション画像EMと放送者用コミュニケーション画像EMAとの距離が所定値より近づいた場合(もしくは所定時間後に接触すると判断されたときに)、接触する前に一方もしくは双方が逃げるように動作してもよく、コミュニケーション画像EMや放送者用コミュニケーション画像EMA以外の風(非実在的な念力でもよい)のようなものを送って、コミュニケーション画像EMや放送者用コミュニケーション画像を吹き飛ばしたり、移動させたり、進行する方向を曲げたりしてもよい。
エモーション画像EMと放送者用エモーション画像EMAとの動作情報は、例えば配信用動画データに含まれ、視聴者端末20および配信者端末10に配信されてもよい。その場合には、視聴者端末20および配信者端末10は、受け取った動作情報にしたがって、表示画面上においてエモーション画像EMおよび放送者用エモーション画像EMAを動作させることが出来る。
動画配信装置30は、動作情報に従って動作するエモーション画像EMおよび放送者用エモーション画像EMAとのデータと、リアルタイム動画データとを含む配信用動画データを視聴者端末20および配信者端末10へ配信してもよい。また、動画配信装置30は、動作情報に従って動作するエモーション画像EMと放送者用エモーション画像EMAとのデータと動画データとを予め合成した配信用動画データを視聴者端末20および配信者端末10へ配信してもよい。
また、エモーション画像EMおよび放送者用エモーション画像EMAの動作情報は、エモーション画像EMおよび放送者用エモーション画像EMAの種類に応じて、視聴者端末20および配信者端末10の各々で演算されても構わない。
例えば、生成部34は、コミュニケーション画像EMおよび放送者用エモーション画像EMAの動作情報(例えば、今の位置、進行方向、速度、回転、回転速度、コミュニケーション画像の形状を少なくとも含むようにしてもよいし、それらの一部を含むようにしてもかまわない)と、他のコミュニケーション画像EM、EMAがあればそれらを物理法則に基づいて動作させる演算指令とを生成し、動作情報と演算指令とを含む配信用動画データを配信部38へ送信してもよい。視聴者端末20は、動画配信装置30から配信された配信用動画データに含まれる動作情報および演算指令に基づいて、物理法則に基づき相互に作用して動作するコミュニケーション画像EMおよび放送者用コミュニケーション画像EMAを表示画面上に表示させる。
また、配信用動画データには、コミュニケーション画像EMおよび放送者用コミュニケーション画像EMAのデータそのものが含まれていてもよく、コミュニケーション画像EMおよび放送者用コミュニケーション画像EMAの識別情報(例えば、番号や名称)が含まれていてもよい。配信用動画データにコミュニケーション画像EMおよび放送者用コミュニケーション画像EMAの識別情報が含まれる場合には、視聴者端末20や配信者端末10は、予めコミュニケーション画像EMと放送者用コミュニケーション画像EMAとのデータを識別情報と関連付けられた状態で有し、取得した識別情報に対応する画像が所定の動作を行うようにコンテンツに合成させることができる。
生成部34は、エモーション画像EMが所定時間画面内に滞在した後に、エモーション画像EMおよび放送者用エモーション画像EMAが表示領域の外部へ誘導されたり、徐々に消えたりするように配信用動画データを生成することができる。生成部34は、エモーション画像EMおよび放送者用エモーション画像EMAが画面上で表示されなくなるまでの所定時間を、コンテンツ動画に投入されるエモーション画像EMおよび放送者用エモーション画像EMAの単位時間当たりの数に基づいて調整してもよく、エモーション画像EMAおよび放送者用エモーション画像EMAの種類毎に予め時間を設定してもよい。
また、生成部34は、動画コンテンツに投入されるエモーション画像EMの単位時間当たりの数が所定の閾値を超えた場合には、エモーション画像EMを間引いて表示させてもよい。上記のように、エモーション画像EMが表示される時間や表示される数を調整することにより、視聴者が動画コンテンツの視聴を妨げられることがなくなる。生成部34は、例えば、一定の秒数当たりにエモーション画像EMが投入される個数や、視聴者端末20の表示画面上に滞在しているエモーション画像EMの個数を制御することができる。
また、生成部34は、表示画面上に、視聴者および配信者に視認されない透明の障害物を配置し(若しくは透明な障害物が配置されているものとして)、動画コンテンツの視聴の妨げにならないように、エモーション画像EMおよび放送者用エモーション画像EMAを画面の外側や周囲の領域へ誘導されるように動作情報を生成することができる。例えば、生成部34は、透明な物体をエモーション画像EMおよび放送者用エモーション画像EMAの障害物として画面上に配置する(若しくは配置されているものとする)ことにより、エモーション画像EMや放送者用エモーション画像EMAが落下する底部が水平に対して傾斜するようにしてもよい。このことにより、例えば画面上部から底部へ落下したエモーション画像EMおよび放送者用エモーション画像EMAは、底部に配置された透明な物体上を転がったり滑り落ちたりして画面の外へ誘導されるように動作情報が生成され得る。
また、例えば、生成部34は、透明な物体をエモーション画像EMおよび放送者用エモーション画像EMAの障害物として画面中央に配置してもよい(若しくは配置されているものとしてもよい)。このことにより、例えば画面上部から底部へ落下するエモーション画像EMおよび放送者用エモーション画像EMAや、画面に投げ込まれるエモーション画像EMおよび放送者用エモーション画像EMAが画面中央を横切ることがなくなり、画面底部から上部に向かって延びるエモーション画像EMや放送者用エモーション画像EMAは画面中央に到達することがなくなる。したがって、エモーション画像EMおよび放送者用エモーション画像EMAにより視聴者が動画コンテンツの視聴を妨げられることがなくなる。
図4は、リアルタイムで配信されているコンテンツの視聴者端末における表示例の一部を概略的に示す図である。ここでは、図3に示す第2領域110を概略的に示している。 第2領域110は、チャージ量を表示するチャージ表示領域112と、エモーション画像EMの一覧を表示するエモーション一覧表示領域114と、放送者用エモーション画像EMAの一覧を表示する放送者用エモーション一覧表示領域115と、エモーション画像EMの投入履歴を表示する履歴表示領域116と、を含む。
エモーション一覧表示領域114には、複数のエモーション画像EMが並んで配置されている。視聴者および配信者は、例えばエモーション一覧表示領域114において投入したいエモーション画像EMをクリックすることにより選択することが可能である。例えば視聴者端末20および配信者端末10は、視聴者および配信者が表示画面に接触したことを検出するセンサを備えていてもよく、その場合には、視聴者および配信者は、エモーション一覧表示領域114において投入したいエモーション画像EMに指やタッチペンなどで接触することにより選択することが可能である。視聴者および配信者が選択したエモーション画像EMの識別情報は、入力情報として動画配信装置30へ送信される。
放送者用エモーション一覧表示領域115には、複数の放送者用エモーション画像EMAが並んで配置されている。配信者は、例えば放送者用エモーション一覧表示領域115において投入したい放送者用エモーション画像EMAをクリックすることにより選択することが可能である。例えば配信者端末10は、配信者が表示画面に接触したことを検出するセンサを備えていてもよく、その場合には、配信者は、放送者用エモーション一覧表示領域115において投入したい放送者用エモーション画像EMAに指やタッチペンなどで接触することにより選択することが可能である。配信者が選択したエモーション画像EMの識別情報は、入力情報として動画配信装置30へ送信される。
図5乃至図7は、リアルタイムで配信されているコンテンツの視聴者端末における表示例の一部を概略的に示す図である。図5乃至図7では、図4に示すチャージ表示領域112の複数の表示例を概略的に示している。
チャージ表示領域112は、エモーション一覧表示領域114の上側(表示画面上の垂直方向における上側)に配置されている。チャージ表示領域112には、視聴者毎に設定されたアイコンICNと、ユーザ名と、チャージ量を視覚的に示すグラフBRと、が表示されている。
グラフBRは、視聴者端末の表示画面の水平方向に延びた棒グラフであって。チャージ量が100%であるときに最大の長さとなり、チャージ量に応じてグラフの長さが変化するように表示される。チャージ量は、チャージ量管理部36により、リアルタイムで配信されているコンテンツのそれぞれに対し、配信者および視聴者毎に管理される。エモーション画像EMおよび放送者用エモーション画像EMAそれぞれにチャージ量の消費量が設定されている。視聴者は、割り当てられたチャージ量を利用してエモーション画像EMを動画コンテンツに投入することができる。また、配信者は、割り当てられたチャージ量を利用してエモーション画像EMおよび放送者用エモーション画像EMAを動画コンテンツに投入することができる。
例えば、視聴中のコンテンツについて500のチャージ量を有している視聴者が、100のチャージ量を消費するエモーション画像EMを投入した場合、視聴者の有する残りのチャージ量が400となり、グラフBRの水平方向の長さが消費されたチャージ量(100)の分だけ短くなる。例えば、配信中のコンテンツについて1000のチャージ量を有している配信者が、200のチャージ量を消費する放送者用エモーション画像EMAを投入した場合、配信者の有する残りのチャージ量が800となり、グラフBRの水平方向の長さが消費されたチャージ量(200)の分だけ短くなる。
チャージ量の最大値は、視聴者および配信者のユーザレベルにより異なっていてもよい。例えば、図5に示す表示例では、視聴者および配信者のユーザレベルが上位であって、チャージ量の最大値が1,500である。図6に示す表示例では、視聴者および配信者のユーザレベルが下位であって、チャージ量の最大値が500である。
図7では、チャージ量がゼロとなったときのチャージ表示領域112の表示例を示している。チャージ量は、チャージ量管理部36により、0%の状態から所定時間経過後に100%となるように回復するように管理される。チャージ量がエモーション画像EMおよび放送者用エモーション画像EMAを投入可能な値よりも低い状態であるときには、例えば、エモーション画像EMおよび放送者用エモーション画像が選択不可(非アクティブ表示)となり、グラフBR近傍に「回復するまでお待ちください」などの表示が成されてもよい。
図8は、リアルタイムで配信されているコンテンツの視聴者端末における表示例の一部を概略的に示す図である。ここでは、図4に示す履歴表示領域116の表示例を概略的に示している。
履歴表示領域116は、エモーション一覧表示領域114の下側(表示画面上の垂直方向における下側)に配置されている。履歴表示領域116には、視聴者が視聴中の動画コンテンツにおいて、現時点までに投入されたエモーション画像EMの履歴が、投入数の多い順に並んで配置されている。なお、履歴表示は、エモーション画像EMの投入数みの投入履歴の表示であってもよく、エモーション画像EMの投入数と放送者用エモーション画像EMAの投入数とを合わせた投入履歴の表示であってもよい。
図8に示す例では、履歴表示領域116には、投入数に対応するグラフG1-G5と、グラフG1-G5のそれぞれに対応するエモーション画像EMと、が表示されている。グラフG1-G5は表示画面上の水平方向に延びた棒グラフであって、グラフG1-G5の水平方向の長さがエモーション画像EMの投入数に応じて設定されている。グラフG1-G5は、表示画面上の水平方向に並んで配置されている。
この例では、「草」、「どんまい」、「なるほど」、「おめ」、「W」、の順にエモーション画像EMの投入数が多くなっている。例えば、最も投入数が多い「草」のエモーション画像EMが、対応するグラフG1の近傍に表示されている。
図9は、視聴者端末の表示画面の一部に表示されたエモーション画像および放送者用エモーション画像の例を概略的に示す図である。
この例では、第1領域100の一部を示しており、「おつ」、「なるほど」、「かわいい」、「草」、「W」、「いいね」などの文字によるエモーション画像EMと、ハート型の図形によるエモーション画像EMと、「はいはいはいはい」の文字が吹き出しの図形に記載された放送者用エモーション画像EMAと、が動画コンテンツに投入されている。
これらのエモーション画像EMおよび放送者用エモーション画像EMAは、視聴者および配信者の感情や意思を表現するように、色彩や形状や動きが設定されている。例えば、「草」の文字によるエモーション画像EMは、草が地面から生える動きを模した動きをするように設定され得る。例えば、ハート型の図形によるエモーション画像EMは、表示画面の垂直方向の上側から投入され、ふわふわと画面内を漂いながら下側へ落ちていくように設定され得る。例えば、「W」の文字によるエモーション画像EMは視聴者が笑っている様子を表す為に、表示画面内を跳ねたり振動したりするよう動作が設定され得る。
例えば、「はいはいはいはい」との文字が記載された吹き出しの図形の放送者用エモーション画像EMAは、表示画面の底部において一方側から他方側へ画面を横切るように動き、表示画面底部に積み上げられたエモーション画像EMを表示画面の外側へ押し出すように設定され得る。
コンテンツに投入された複数のエモーション画像EMおよび放送者用エモーション画像EMAは、例えば、生成部34における物理演算により動作を設定することが可能であり、投入時の動作が終了すると重力により画面の底部に積み上げられる状態となる。なお、エモーション画像EMは、所定時間画面内に滞在した後には、画面の外へ誘導されたり徐々に消えたりするように表示されるため、エモーション画像EMで画面がいっぱいになり、動画コンテンツの視聴が妨げられることはない。
図10は、視聴者端末の表示画面の一部に表示されたエモーション画像および放送者用エモーション画像の例を概略的に示す図である。
この例では、第1領域100の一部を示しており、「おつ」、「なるほど」、「かわいい」、「草」、「W」、「いいね」などの文字によるエモーション画像EMと、ハート型の図形によるエモーション画像EMと、「おちつけ!!!」の文字が吹き出しの図形に記載された放送者用エモーション画像EMAと、が動画コンテンツに投入されている。
例えば、「おちつけ!!!」との文字が記載された吹き出しの図形の放送者用エモーション画像EMAは、視聴者端末20から投入された複数のエモーション画像EMを、表示画面の外側に吹き飛ばすように動作させる。
図11は、視聴者端末の表示画面の一部に表示された放送者用エモーション画像の表示例を概略的に示す図である。
この例では、第1領域100の一部を示しており、「見てる?」「見てるよね?」「見てるんでしょ?」などの文字が吹き出しの図形に記載された放送者用エモーション画像EMAが動画コンテンツに投入されている。
例えば、配信者は、自身が配信している動画コンテンツに対する視聴者のコメントやエモーション画像EMが少ないときに、「見てる?」との文字が記載された吹き出しの図形の放送者用エモーション画像EMAを投入し、「みてるよ」との文字によるエモーション画像EMなどの投入を視聴者に要求することができる。「見てる?」との文字が記載された吹き出しの図形の放送者用エモーション画像EMAは、例えば、表示画面上を所定時間浮遊し、所定時間経過後に消えるように動作が設定され得る。
図12は、視聴者端末の表示画面の一部に表示された放送者用エモーション画像の表示例を概略的に示す図である。
この例では、第1領域100の一部を示しており、「ください」との文字が記載された吹き出しから両側に腕が伸びている画像の放送者用エモーション画像EMAが動画コンテンツに投入されている。
例えば、配信者は、自身が配信している動画コンテンツに対して、視聴者によるエモーション画像EMの投入を要求するときに、「ください」との文字が記載された放送者用エモーション画像EMAを投入し、エモーション画像EMの投入を視聴者に要求することができる。「ください」との文字が記載された吹き出しの図形の放送者用エモーション画像EMAは、例えば、表示画面の底部に表示される。視聴者端末20から投入されたエモーション画像EMが上部から落下する動作をすると、放送者用エモーション画像EMAの腕がエモーション画像EMを受け止めることになる。放送者用エモーション画像EMAは、例えば、表示画面上に所定時間だけ表示され、所定時間経過後に消えるように動作が設定され得る。
上記図3-図12により、動画配信装置30から供給された配信用動画データに基づく視聴者端末20の表示例について説明したが、視聴者端末20における表示例はこれに限定されるものではない。
図13は、リアルタイムで配信されているコンテンツの視聴者端末における他の表示例を概略的に示す図である。ここでは、視聴者端末20が、スマートフォンやタブレット端末などのモバイル端末である場合の表示例を概略的に示している。
図13の表示例では、動画コンテンツが表示される部分を含む第3領域200と、エモーション画像EMの一覧を視聴者に提示する第4領域210とが、例えばモバイル端末の画面上で並んで表示されている。
第3領域200は、図3に示す第1領域100の表示形態を変更したものであって、動画コンテンツが表示される部分と、操作ボタンやタイムバーなどが表示される部分と、視聴者がコメントを入力するための入力ボタンなどを含んでいる。
第4領域210は、図3に示す第2領域110の表示形態を変更したものであって、第4領域210は、チャージ量を表示するチャージ表示領域212と、エモーション画像EMの一覧を表示するエモーション一覧表示領域214と、放送者用エモーション画像EMAの一覧を表示する放送者用エモーション一覧表示領域215と、エモーション画像EMの投入履歴を表示する履歴表示領域216と、を含む。
第3領域200および第4領域210に含まれる表示要素については、視聴者端末20がパーソナルコンピュータである場合の表示例と同様であるため、ここでは説明を省略する。
スマートフォンやタブレット端末などのモバイル端末は、表示画面上にて視聴者が接触した位置を検出するセンサを有するものであって、視聴者は、エモーション一覧表示領域214に提示されたエモーション画像EMのいずれかを指やタッチペンにより選択することにより、動画コンテンツに投入するエモーション画像EMを選択することが出来る。
図14は、第1実施形態の動画配信装置における動画配信方法の一例について説明するためのフローチャートである。
動画配信装置30において、第1取得部321は、配信者端末10から供給されるリアルタイム動画データを取得する(ステップS1)。
第2取得部322は、配信者が配信者端末10を操作することにより選択された放送者用エモーション画像(コミュニケーション画像)EMAの情報を含む入力情報を取得する(ステップS2)。
続いて、生成部34は、第1取得部321からリアルタイム動画データを受け取り、第2取得部322から配信者端末10の入力情報を受け取る。生成部34は、配信者端末10からの入力情報に含まれる放送者用エモーション画像EMAの識別情報に基づいて、投入された放送用エモーション画像EMAを特定することができる。
また生成部34は、受信部32を介して、視聴者端末20からの配信要求および入力情報を受信することができる。生成部34は、視聴者端末20からの配信要求と入力情報とにより、視聴者又は視聴者端末20と、視聴者が視認している動画コンテンツを特定することが可能である。また、生成部34は、視聴者が視認している動画コンテンツに対して投入したエモーション画像EMを、入力情報に含まれるエモーション画像EMの識別情報に基づいて特定することができる。
生成部34は、チャージ量管理部36にて生成された表示情報を用いて、視聴者端末20および配信者端末10の表示画面上で放送者用エモーション画像EMAが所定の動作を行う配信用エモーション動画データを生成し、配信用エモーション動画データとリアルタイム動画データと用いて配信用動画データを生成することが出来る(ステップS3)。
配信部38は、生成部34から配信用動画データを受け取り、配信制御部35の制御により配信要求を受けた視聴者端末20および配信者端末10に対して配信用動画データを配信する(ステップS4)。
上記のように、本実施形態の動画配信装置、動画配信方法、動画配信プログラム、および、記録媒体によれば、生放送で動画コンテンツを配信する配信者とその視聴者との双方向のコミュニケーションを容易にし、動画コンテンツを盛り上げるサービスを提供することができる。
次に、第2実施形態の動画配信装置、動画配信方法、動画配信プログラム、および、記録媒体について図面を参照して詳細に説明する。
なお、以下の説明において、上述の第1実施形態と同様の構成については同一の符号を付して説明を省略する。
本実施形態の動画配信装置では、チャージ量管理部36の動作が上述の第1実施形態と異なっている。
本実施形態では、視聴者が生放送の動画コンテンツを視聴しているときにエモーション画像EMを選択して投入する操作において、例えばエモーション画像EMにカーソルの位置を合わせてマウスを長押しする操作の時間長や、エモーション画像EMを指先やタッチペンなどで接触する操作により表示画面に対して生じる圧力が、視聴者端末20から動画配信装置30に入力情報として供給される。
また、配信者が生放送の動画コンテンツを配信しているときに、エモーション画像EMおよび放送者用エモーション画像EMAを選択して投入する操作において、例えばエモーション画像EMおよび放送者用エモーション画像EMAにカーソルの位置を合わせてマウスを長押しする操作の時間長や、エモーション画像EMおよび放送者用エモーション画像を指先やタッチペンなどで接触する操作により表示画面に対して生じる圧力が、配信者端末10から動画配信装置30に入力情報として供給される。
なお、視聴者および配信者の操作により表示画面に対して生じる圧力の情報は、視聴者端末20および配信者端末10において圧力センサにより検出された圧力の値であってもよく、視聴者端末20および配信者端末10の表示画面を視聴者および配信者が指先で接触した際の接触面積の値であってもよい。チャージ量管理部36は、視聴者端末20および配信者端末10から供給された操作時の接触面積の値に基づいて、操作時の圧力の値を演算することが可能に構成され得る。
図15は、リアルタイムで配信されているコンテンツを表示する視聴者端末の操作の一例を説明するための図である。
ここでは、配信者端末10の表示画面の第2領域110(若しくは第4領域210)に表示された放送者用エモーション画像EMAの一覧の中から、「落ち着け」の文字による放送者用エモーション画像EMAを選択する場合を一例として説明する。
配信者は、選択した放送者用エモーション画像EMAにより消費されるチャージ量を、マウスをクリックまたは画面を接触する操作の時間長や、操作時に画面に対して生じる圧力に応じて調整することができる。
動画配信装置30のチャージ量管理部36は、配信者端末10からの入力情報に含まれる操作の時間長や操作時の圧力の情報に基づいて、配信者端末10における第2領域110(若しくは第4領域210)の表示状態を変更することが出来る。例えば、配信者が「落ち着け」の文字による放送者用エモーション画像EMA上にカーソルを合わせてマウスをクリック(若しくは指先やタッチペンなどにより接触)すると、「落ち着け」の文字による放送者用エモーション画像EMAが選択される。選択された放送者用エモーション画像EMA上には、消費されるチャージ量と、消費されるチャージ量のレベルを表す円状(若しくは円弧状)の棒グラフが表示される。
図15では、選択した放送者用エモーション画像EMAにより消費されるチャージ量が4段階で変化する様子を示している。チャージ量管理部36は、入力情報に含まれる操作の時間長又は操作時の圧力が第1閾値以下であるときには、消費されるチャージ量が「100」となり、「落ち着け」の文字による放送者用エモーション画像EMAの近傍に「100」と表示され、放送者用エモーション画像EMAを囲む円状の棒グラフが表示されるように表示情報を生成することができる。
チャージ量管理部36は、入力情報に含まれる操作時間長又は操作時の圧力が第1閾値より大きくなると、消費されるチャージ量は操作時間長又は圧力の値に応じて「100」を超えた値とすることができる。チャージ量管理部36は、例えば消費されるチャージ量の初期値を「100」として、操作時間長又は圧力が第2閾値(>第1閾値)を超えたときに最大値「500」となるよう、操作時間長又は圧力の値に応じて初期値から最大値の間で連続的に変化するように設定されてもよく、第1閾値と第2閾値との間に複数の閾値を設けて、操作時間長又は圧力の値が閾値を超えるごとに段階的(非連続的)に消費されるチャージ量が大きくなる(例えば「100」、「200」、…「500」と非連続的に大きくなる)ように設定されてもよい。
チャージ量管理部36は、消費されるチャージ量に応じて、第2領域110(又は第4領域210)において放送者用エモーション画像EMAの近傍に表示される消費チャージ量の数値を変更するとともに、放送者用エモーション画像EMAを囲む円に沿って表示される円弧状の棒グラフの長さを変更するように、表示情報を生成することができる。
また、チャージ量管理部36は、消費されるチャージ量の値に応じて、第2領域110(又は第4領域210)にて選択された放送者用エモーション画像EMAの大きさを変更するように表示情報を生成してもよい。図15に示した例では、消費されるチャージ量が大きくなると、選択された放送者用エモーション画像EMAも大きく表示されている。
生成部34は、チャージ量管理部36にて生成された表示情報に基づいて配信用動画データを生成することが可能であり、放送者用エモーション画像EMAのチャージ量の大きさ(若しくは、操作時間長又は圧力の値)に応じて、放送者用エモーション画像EMAの大きさや動作を変更して動画コンテンツに投入させることが出来る。
なお、図15では、「落ち着け」の文字による放送者用エモーション画像EMAを選択したときの表示例を示したが、他の放送者用エモーション画像EMAおよびエモーション画像EMを選択した場合であっても同様である。また、視聴者端末20において、視聴者がエモーション画像EMを選択する場合も同様に、視聴者の操作時間長や圧力の値に応じて、消費チャージ量およびエモーション画像EMの動作や大きさを調整することができる。
図16は、図15に示す視聴者端末の表示例の一部を示す図である。
ここでは、配信者により選択された放送者用エモーション画像EMA上に表示される消費チャージ量と円状若しくは円弧状のグラフの画像のみを示している。配信者は、「落ち着け」の文字以外の他の放送者用エモーション画像EMAおよびエモーション画像EMも選択することが可能であり、チャージ量管理部36は、他の放送者用エモーション画像EMAおよびエモーション画像EMについても、視聴者による操作時間長又は操作時の圧力に応じて消費されるチャージ量を調整することができる。
図17は、配信者が投入可能な放送者用エモーション画像と消費されるチャージ量との関係を例示する図である。
生成部34は、チャージ量管理部36にて生成された表示情報に基づいて配信用動画データを生成することが可能であり、放送者用エモーション画像EMAのチャージ量の大きさ(若しくは、操作時間長又は圧力の値)に応じて、放送者用エモーション画像EMAの大きさや動作を変更して動画コンテンツに投入させることが出来る。
放送者用エモーション画像EMAの大きさや動作は、例えば、消費チャージ量が少ない方が小さく、消費チャージ量が多い方が大きくなるように設定され得る。
例えば「落ち着け」の文字による放送者用エモーション画像EMAは、消費チャージ量が少ない場合には、画像の大きさが小さく、画像により周囲の他のエモーション画像EMを吹き飛ばす動作も小さく設定され得、消費チャージ量が多い場合には、画像の大きさがより大きく、画像により周囲の他のエモーション画像EMを吹き飛ばす動作も大きく設定され得る。
例えば「はいはい」との文字による放送者用エモーション画像EMAは、消費チャージ量が少ない場合には、画像の大きさが小さく設定され、画像により表示画面の外に押し出すことができる他のエモーション画像EMも少なくなる。消費チャージ量が多い場合には、画像の大きさがより大きく設定され、画像により表示画面の外に押し出すことができる他のエモーション画像EMも多くなる。
例えば「見てる?」との文字による放送者用エモーション画像EMAや、「ください」との文字による放送者用エモーション画像EMAは、消費チャージ量が少ない場合には、画像の大きさが小さく設定され、視聴者に対するアピールが控えめとなる。消費チャージ量が多い場合には、画像の大きさがより大きく設定され、視聴者に対するアピールが強くなる。
本実施形態の動画配信装置30は、上記以外は上述の第1実施形態と同様である。
すなわち、本実施形態の動画配信装置、動画配信方法、動画配信プログラムおよび記録媒体によれば、生放送で動画コンテンツを配信する配信者とその視聴者との双方向のコミュニケーションを容易にし、動画コンテンツを盛り上げるサービスを提供することができる。
なお、本発明は、上記実施形態に限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で種々に変形することが可能である。また、各実施形態は適宜組み合わせて実施してもよく、その場合組み合わせた効果が得られる。更に、上記実施形態には種々の発明が含まれており、開示される複数の構成要件から選択された組み合わせにより種々の発明が抽出され得る。例えば、実施形態に示される全構成要件からいくつかの構成要件が削除されても、課題が解決でき、効果が得られる場合には、この構成要件が削除された構成が発明として抽出され得る。
10…配信者端末、20…視聴者端末、30…動画配信装置、32…受信部、34…生成部、35…配信制御部、36…チャージ量管理部、38…配信部、100…第1領域、110…第2領域、112、212…チャージ表示領域、114、214…エモーション一覧表示領域、116、216…履歴表示領域、200…第3領域、210…第4領域、321…第1取得部、322…第2取得部、323…第3取得部、EM…エモーション画像(第2コミュニケーション画像)、EMA…放送者用エモーション画像、G1-G5、BR…グラフ

Claims (10)

  1. 配信者端末から供給される、動画コンテンツを生成するためのリアルタイム動画データを取得する第1取得部と、
    配信者による前記配信者端末の操作により選択されたコミュニケーション画像の情報を含む入力情報を取得する第2取得部と、ここにおいて、前記コミュニケーション画像は、前記配信者の感情や意思を表現するために文字または図形の動きが設定された画像であって、視聴者と前記配信者との間でのコミュニケーションを容易にする画像であり、前記配信者自身が配信している前記動画コンテンツに対して重畳または合成され、
    前記コミュニケーション画像のデータと前記リアルタイム動画データとを含む配信用動画データを視聴者端末および前記配信者端末に配信する配信部と、を備える動画配信装置。
  2. 前記配信者端末からの前記リアルタイム動画データおよび前記入力情報に基づいて、前記配信者端末の操作により選択される前記コミュニケーション画像により消費されるチャージ量を管理するチャージ量管理部を、さらに備えた請求項1記載の動画配信装置。
  3. 前記視聴者端末の操作により選択された第2コミュニケーション画像の情報を含む入力情報を取得する第3取得部と、
    前記コミュニケーション画像および前記第2コミュニケーション画像が、表示画面上で物理法則に従って所定の動作を行うことにより、相互に作用して動作するよう表示させる動作情報を生成する生成部と、を更に備え、
    前記配信用動画データは、前記第2コミュニケーション画像のデータと前記動作情報とを含む、請求項1記載の動画配信装置。
  4. 前記チャージ量管理部は、前記視聴者端末に配信される前記リアルタイム動画データのそれぞれについて前記配信者端末を操作する配信者毎にチャージ量を割り当て、前記配信者に割り当てられた前記チャージ量の現在の値が、前記コミュニケーション画像を表示させることにより消費される前記チャージ量以上であるときに、前記配信者に割り当てられた前記チャージ量を消費させて、前記コミュニケーション画像を表示させる表示情報を生成し、
    前記配信用動画データは、前記表示情報を更に含む、請求項2記載の動画配信装置。
  5. 前記チャージ量管理部を含む生成部を備え、
    前記入力情報は、前記配信者端末が操作された時間長又は前記配信者端末が操作されたときの画面に対する圧力の情報と、選択された前記コミュニケーション画像の識別情報と、を含み、
    前記チャージ量管理部は、前記時間長又は前記圧力の情報に応じた数値を前記チャージ量から消費させ、前記時間長又は前記圧力の情報を含む前記表示情報を生成し、
    前記生成部は、前記時間長又は前記圧力に応じて前記コミュニケーション画像の動作又は大きさを変更する、請求項4記載の動画配信装置。
  6. 前記入力情報は、選択された前記コミュニケーション画像の識別情報を含み、
    前記配信用動画データは、前記コミュニケーション画像が前記視聴者端末に表示された際に前記識別情報に対応する動作するための動作情報を含む、請求項1記載の動画配信装置。
  7. 前記チャージ量管理部は、前記リアルタイム動画データの配信開始から終了までの期間において、前記入力情報に基づいて前記コミュニケーション画像の投入履歴を管理する、請求項4記載の動画配信装置。
  8. 配信者端末から供給される、動画コンテンツを生成するためのリアルタイム動画データを取得する第1取得ステップと、
    配信者による前記配信者端末の操作により選択されたコミュニケーション画像の情報を含む入力情報を取得する第2取得ステップと、ここにおいて、前記コミュニケーション画像は、前記配信者の感情や意思を表現するために文字または図形の動きが設定された画像であって、視聴者と前記配信者との間でのコミュニケーションを容易にする画像であり、前記配信者自身が配信している前記動画コンテンツに対して重畳または合成され、
    前記コミュニケーション画像のデータと前記リアルタイム動画データとを含む配信用動画データを視聴者端末および前記配信者端末に配信する配信ステップと、を備える動画配信方法。
  9. コンピュータを、
    配信者端末から供給される、動画コンテンツを生成するためのリアルタイム動画データを取得する第1取得手段と、
    配信者による前記配信者端末の操作により選択されたコミュニケーション画像の情報を含む入力情報を取得する第2取得手段と、ここにおいて、前記コミュニケーション画像は、前記配信者の感情や意思を表現するために文字または図形の動きが設定された画像であって、視聴者と前記配信者との間でのコミュニケーションを容易にする画像であり、前記配信者自身が配信している前記動画コンテンツに対して重畳または合成され、
    前記コミュニケーション画像のデータと前記リアルタイム動画データとを含む配信用動画データを視聴者端末および前記配信者端末に配信する配信手段と、して機能させる動画配信プログラム。
  10. コンピュータを、
    配信者端末から供給される、動画コンテンツを生成するためのリアルタイム動画データを取得する第1取得手段と、
    配信者による前記配信者端末の操作により選択されたコミュニケーション画像の情報を含む入力情報を取得する第2取得手段と、ここにおいて、前記コミュニケーション画像は、前記配信者の感情や意思を表現するために文字または図形の動きが設定された画像であって、視聴者と前記配信者との間でのコミュニケーションを容易にする画像であり、前記配信者自身が配信している前記動画コンテンツに対して重畳または合成され、
    前記コミュニケーション画像のデータと前記リアルタイム動画データとを含む配信用動画データを視聴者端末および前記配信者端末に配信する配信手段と、して機能させる動画配信プログラムを記録した、コンピュータ読み取り可能な記録媒体。
JP2020179151A 2020-10-26 2020-10-26 動画配信装置、動画配信方法、動画配信プログラム、および、記録媒体 Active JP7062740B1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2020179151A JP7062740B1 (ja) 2020-10-26 2020-10-26 動画配信装置、動画配信方法、動画配信プログラム、および、記録媒体
CN202180023317.5A CN115349252A (zh) 2020-10-26 2021-10-01 动画发布装置、动画发布方法以及记录介质
PCT/JP2021/036473 WO2022091694A1 (ja) 2020-10-26 2021-10-01 動画配信装置、動画配信方法、および、記録媒体
US18/012,631 US20230254524A1 (en) 2020-10-26 2021-10-01 Video distributing device, video distributing method, and recording media
JP2022022310A JP2022070279A (ja) 2020-10-26 2022-02-16 動画配信装置、動画配信方法、動画配信プログラム、および、記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020179151A JP7062740B1 (ja) 2020-10-26 2020-10-26 動画配信装置、動画配信方法、動画配信プログラム、および、記録媒体

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022022310A Division JP2022070279A (ja) 2020-10-26 2022-02-16 動画配信装置、動画配信方法、動画配信プログラム、および、記録媒体

Publications (2)

Publication Number Publication Date
JP7062740B1 true JP7062740B1 (ja) 2022-05-06
JP2022071230A JP2022071230A (ja) 2022-05-16

Family

ID=81382402

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020179151A Active JP7062740B1 (ja) 2020-10-26 2020-10-26 動画配信装置、動画配信方法、動画配信プログラム、および、記録媒体
JP2022022310A Pending JP2022070279A (ja) 2020-10-26 2022-02-16 動画配信装置、動画配信方法、動画配信プログラム、および、記録媒体

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022022310A Pending JP2022070279A (ja) 2020-10-26 2022-02-16 動画配信装置、動画配信方法、動画配信プログラム、および、記録媒体

Country Status (4)

Country Link
US (1) US20230254524A1 (ja)
JP (2) JP7062740B1 (ja)
CN (1) CN115349252A (ja)
WO (1) WO2022091694A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7272570B1 (ja) 2022-05-26 2023-05-12 17Live株式会社 コンピュータプログラム、端末、方法およびサーバ

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015112368A (ja) 2013-12-13 2015-06-22 株式会社コナミデジタルエンタテインメント 情報処理装置、プログラム、情報処理システム
WO2016158075A1 (ja) 2015-04-02 2016-10-06 株式会社ディー・エヌ・エー リアルタイムの動画を配信するシステム、方法、及びプログラム
JP6198983B1 (ja) 2017-04-26 2017-09-20 株式会社 ディー・エヌ・エー 動画を配信するためのシステム、方法、及びプログラム
JP6446154B1 (ja) 2018-05-09 2018-12-26 グリー株式会社 アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画をライブ配信する動画配信システム
JP6511217B1 (ja) 2018-11-21 2019-05-15 株式会社 ディー・エヌ・エー ライブ動画を配信するためのシステム、方法、及びプログラム
JP2020017244A (ja) 2018-07-25 2020-01-30 株式会社バーチャルキャスト サーバ、方法、プログラム、動画像放送システム
JP2020107264A (ja) 2018-12-28 2020-07-09 グリー株式会社 配信ユーザの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画をライブ配信する動画配信システム、動画配信方法及び動画配信プログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080249873A1 (en) * 2007-04-03 2008-10-09 Seelinger Christopher P Advertising system and method
US20150287403A1 (en) * 2014-04-07 2015-10-08 Neta Holzer Zaslansky Device, system, and method of automatically generating an animated content-item
EP3272126A1 (en) * 2015-03-20 2018-01-24 Twitter, Inc. Live video stream sharing
US10812430B2 (en) * 2018-02-22 2020-10-20 Mercury Universe, LLC Method and system for creating a mercemoji

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015112368A (ja) 2013-12-13 2015-06-22 株式会社コナミデジタルエンタテインメント 情報処理装置、プログラム、情報処理システム
WO2016158075A1 (ja) 2015-04-02 2016-10-06 株式会社ディー・エヌ・エー リアルタイムの動画を配信するシステム、方法、及びプログラム
JP6198983B1 (ja) 2017-04-26 2017-09-20 株式会社 ディー・エヌ・エー 動画を配信するためのシステム、方法、及びプログラム
JP6446154B1 (ja) 2018-05-09 2018-12-26 グリー株式会社 アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画をライブ配信する動画配信システム
JP2020017244A (ja) 2018-07-25 2020-01-30 株式会社バーチャルキャスト サーバ、方法、プログラム、動画像放送システム
JP6511217B1 (ja) 2018-11-21 2019-05-15 株式会社 ディー・エヌ・エー ライブ動画を配信するためのシステム、方法、及びプログラム
JP2020107264A (ja) 2018-12-28 2020-07-09 グリー株式会社 配信ユーザの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画をライブ配信する動画配信システム、動画配信方法及び動画配信プログラム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
17Live(イチナナ)の使い方を徹底解説! 登録方法から視聴・配信方法まで,トルトルNEWSドットコム,2020年04月18日,[令和3年6月21日検索], インターネット<URL: https://sa9da.com/17live-how-to-kaisetsu-15187/>
新機能「ステッカー」が登場,日本,17LIVE,2018年09月04日,[令和3年6月9日検索], インターネット<URL: https://jp.17.live/17livenews/1166/>

Also Published As

Publication number Publication date
CN115349252A (zh) 2022-11-15
US20230254524A1 (en) 2023-08-10
JP2022070279A (ja) 2022-05-12
JP2022071230A (ja) 2022-05-16
WO2022091694A1 (ja) 2022-05-05

Similar Documents

Publication Publication Date Title
JP7073548B2 (ja) 動画配信装置、動画配信方法、および、動画配信プログラム
US10540003B2 (en) Head mounted display device and method for controlling the same
EP3246788B1 (en) Head mounted display device and method for controlling the same
CN111405299B (zh) 基于视频流的直播交互方法及其相应的装置
US11385761B2 (en) Device, method, and graphical user interface for composing CGR files
US11250604B2 (en) Device, method, and graphical user interface for presenting CGR files
US11380021B2 (en) Image processing apparatus, content processing system, and image processing method
CN103858074A (zh) 经由3d显示器与装置交互的系统和方法
US11086403B2 (en) Systems and methods for multi-user shared virtual and augmented reality-based haptics
KR20160080083A (ko) 아이-트래킹을 기반으로 햅틱 효과를 생성하기 위한 시스템 및 방법
CN103970268A (zh) 信息处理设备、客户端设备、信息处理方法以及程序
CN103858073A (zh) 增强现实系统的免触摸界面
CN102099766A (zh) 用于在无源和有源模式之间变换触觉反馈功能的系统和方法
JP6514376B1 (ja) ゲームプログラム、方法、及び情報処理装置
CN112292726B (zh) 用于沉浸式环境中对象分组和操纵的方法、系统和介质
WO2022091694A1 (ja) 動画配信装置、動画配信方法、および、記録媒体
WO2021065928A1 (ja) コンテンツ配信システム、コンテンツ配信方法、及びコンテンツ配信プログラム
JP2021158558A (ja) 動画用アプリケーションプログラム、動画のオブジェクト描画方法、動画管理プログラム、動画管理方法、サーバ及び動画配信システム
JP2019126741A (ja) ゲームプログラム、方法、及び情報処理装置
JP7291106B2 (ja) コンテンツ配信システム、コンテンツ配信方法、及びコンテンツ配信プログラム
JP6919050B1 (ja) ゲームシステム、プログラム及び情報処理方法
Haga et al. The Consideration of Stamp Devices in AR Contents
KR102101411B1 (ko) 디스플레이 장치 및 그의 아바타 디스플레이 방법
CN117251082A (zh) 基于用户界面的人机交互方法、装置、设备及存储介质
JP2020120304A (ja) 動画配信システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201026

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20201026

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20201225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210325

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210629

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210823

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20211116

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220216

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20220216

C876 Explanation why request for accelerated appeal examination is justified

Free format text: JAPANESE INTERMEDIATE CODE: C876

Effective date: 20220216

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20220301

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20220308

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220329

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220420

R150 Certificate of patent or registration of utility model

Ref document number: 7062740

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150